To see the other types of publications on this topic, follow the link: Tête – Capture de mouvements.

Dissertations / Theses on the topic 'Tête – Capture de mouvements'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Tête – Capture de mouvements.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bossard, Martin. "Perception visuelle du mouvement propre : effets des mouvements de la tête durant la marche sur l'estimation de la distance parcourue à partir du flux optique." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0254/document.

Full text
Abstract:
Lorsqu’ils explorent leur environnement, les humains comme les autres animaux ont la capacité d’utiliser de nombreuses sources d’information afin d’estimer la distance qu’ils parcourent. Le flux optique est un indice important dans la perception de la distance parcourue. De plus, il a été montré que l’ajout d’un point de vue oscillant à une simulation visuelle de mouvement propre vers l’avant modulait cette perception. A travers ce travail, nous nous sommes intéressés à tester si la perception de la distance parcourue était également affectée par un point de vue oscillant, mimant de manière plus ou moins fidèle les mouvements de la tête lors de la marche. Dans six premières expériences, il était demandé aux participants stationnaires, confrontés à un flux optique simulant leur propre mouvement vers l’avant, d’indiquer quand ils pensaient avoir atteint la position d’une cible distante initialement perçue. Une expérience subséquentes s'est intéressée à déterminer si l’absence de ces oscillations jouait un rôle important dans l’estimation de la distance parcourue lorsqu’ils marchaient sur un tapis roulant. Enfin, dans une dernière expérience nous avons développé une mesure dynamique de la distance parcourue à travers l’utilisation d’une tâche demandant aux participants de pointer continuellement la position d’une cible distante initialement perçue. Dans l’ensemble, nos résultats montrent qu’un point de vue oscillant joue un rôle important dans la perception visuelle du mouvement propre et que de nombreux paramètres semblent être impliqués dans ce processus, incluant les informations visuelles et proprioceptives mais également l’aspect écologique de la marche naturelle
When exploring their environment, humans and other animals have the ability to use many sources of information to estimate the distance they travel. Several studies have shown that optic flow is a significant cue to perceive distance travelled. Furthermore, it was found that adding various viewpoint oscillations to a purely translational optic flow, simulating forward self-motion, modulated this perception. In a series of experiments, we tested whether the perception of distance travelled was also affected by viewpoint oscillation, similar to head motion during natural walking. A first series of experiments, participants were exposed to an immersive optic flow simulating forward self-motion and they were asked to indicate when they thought they had reached the remembered position of a previously seen target. Two further experiments aimed to test whether the idiosyncrasy of viewpoint oscillations affects the perception of distance travelled in stationary observers and whether the absence of their own viewpoint oscillation played an important role in subjects’ estimates, while they were walking on a treadmill. And finally, in a last experiment we tried to develop a dynamic measure of distance travelled to a previously seen target, with a continuous pointing task method. Overall, our results show that viewpoint oscillations play an important role in visual self-motion perception and that several parameters (including visual information, proprioceptive information and ecological aspects of natural walking) seem to be involved in this process
APA, Harvard, Vancouver, ISO, and other styles
2

Barrielle, Vincent. "Leveraging Blendshapes for Realtime Physics-Based Facial Animation." Thesis, CentraleSupélec, 2017. http://www.theses.fr/2017CSUP0003.

Full text
Abstract:
La génération d'animation faciale de synthèse constitue une étape cruciale en génération d’images de synthèse. Il est cependant difficile de produire des animations convaincantes. Le paradigme dominant pour la création d'animations faciales de haute qualité est la méthode des blendshapes, où les expressions sont décomposées comme la combinaison linéaire d’expressions plus basiques. Toutefois, cette technique requiert une grande quantité de travail manuel, réservée aux films à grand budget, pour produire la qualité requise. La production d'animation faciale réaliste est possible à l'aide de la simulation physique, mais ce processus requiert l'utilisation d’imagerie médicale coûteuse.Nous proposons de réunir le paradigme des blendshapes et celui de la simulation physique, afin de profiter de l'ubiquité des blendshapes tout en bénéficiant de la simulation physique pour produire des effets complexes. Nous introduisons donc blendforces, un paradigme où les blendshapes sont interprétées comme une base pour approximer les forces issues des muscles faciaux. Nous montrons que, combinées à un système physique approprié, ces blendforces produisent des animations faciales convaincantes, présentant une dynamique de mouvements de peau réaliste, gérant les contacts et le collage des lèvres, et intégrant les effets des forces inertielles et de la gravité. Nous utilisons ce formalisme pour la production en temps réel d'animation faciale avec effets physiques basée sur des mouvements capturés à l'aide d'une simple caméra. À notre connaissance, il s'agit de la première démonstration de simulation physique temps-réel appliquée au cas délicat de la simulation d'animations faciales
Generating synthetic facial animation is a crucial step in the creation of content for a wide variety of digital media such as movies and video games. However, producing convincing results is challenging, since humans are experts in analyzing facial expressions and will hence detect any artifact. The dominant paradigm for the production of high-quality facial animation is the blendshapes paradigm, where facial expressions are decomposed as a linear combination of more basic expressions. However, this technique requires large amounts of work to reach the desired quality, which reserves high-quality animation to large budget movies. Producing high-quality facial animation is possible using physical simulation, but this requires the costly acquisition of medical imaging data.We propose to merge the blendshapes and physical simulation paradigms, to build upon the ubiquity of blendshapes while benefiting from physical simulation for complex effects. We therefore introduce blendforces, a paradigm where blendshapes are interpreted as a basis for approximating the forces emanating from the facial muscles. We show that, combined with an appropriate face physical system, these blendforces can be used to produce convincing facial animation, with natural skin dynamics, handling of lips contacts, sticky lips, inertial effects and handling of gravity. We encompass this framework within a practical realtime performance capture setup, where we produce realtime facial animation with physical effects from a simple RGB camera feed. To the best of our knowledge, this constitutes the first instance of realtime physical simulation applied to the challenging task of facial animation
APA, Harvard, Vancouver, ISO, and other styles
3

Di, loreto Cédric. "Apport des simulations immersives pour l’étude du comportement dynamique des occupants d’un véhicule." Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAE065.

Full text
Abstract:
Le coup du lapin reste un enjeu socio-économique fort de l’accidentologie routière. La recherche dans ce domaine a amené au développement de critère lésionnels qu'il est encore difficile de valider pour toutes les situations. Les hypothèses de ce projet sont que les stratégies de stabilisation de la tête sont influencées par les activités préalables à un évènement dynamique ainsi que par certaines disponibilités cognitives.Pour y répondre, cette thèse a expérimenté différents environnements dynamiques et exploré l'utilisation de la réalité virtuelle comme outil de simulation pour l’étude du comportement dynamique du sujet et évalué la pertinence de ces outils.Une première expérimentation a permis de montrer l’importance de l’alerte chez le sujet en utilisant un système automatique de freinage d’urgence d'un véhicule équipé. Une seconde étude consistant en la réplication de cette expérience dans un simulateur de conduite hexapode a pu montrer que le comportement du sujet était comparable malgré des performances dynamiques moindres du système. Enfin, une dernière étude menée sur des sujets accélérés sur un chariot contrôlé en laboratoire et dont l'état émotionnel a été contrôlé a pu rendre compte de l’importance de l’intégration des paramètres physiologiques dans l’étude des stratégies de stabilisation de la tête chez le sujet.Les simulations immersives se sont montrées pertinentes pour contrôler l’environnement cognitif du sujet et l’importance de ce dernier a pu être observée. L’utilisation de ces technologies permet d’entrevoir de nouvelles possibilités expérimentales pouvant amener à une meilleure compréhension des stratégies de stabilisation du sujet
Whiplash remains a strong socio-economic issue in road accidents. Research in this field has led to the development of injury criteriathat are still difficult to validate for all situations. The hypotheses of this project are that head stabilization strategies are influenced by activities prior to thedynamic event as well as by certain cognitive availabilities. To answer this, this thesis experimented different dynamic environments and explored the use of virtual reality as a simulation tool for the study of the subject's dynamic behaviorand evaluated the relevance of these tools.A first experimentation allowed to show the importance of the alert in the subject by using an automatic emergency braking system of an equipped vehicle. A second study consisting in the replication of this experiment in a hexapod driving simulator was able to show that the subject's behaviorwas comparable despite the lower dynamic performance of the system. Finally, a last study carried out on accelerated subjects on a laboratory-controlled cart, whose emotional state was controlled, was able to account for the importance of the integration of physiological parameters in the study of head stabilization strategies in the subject.Immersive simulations proved to be relevant to control the subject's cognitive environment and the importance of the latter could be observed. The use of these technologies allows us to glimpse new experimental possibilities that can lead to a better understanding of the subject's stabilization strategies
APA, Harvard, Vancouver, ISO, and other styles
4

Ju, Qinjie. "Utilisation de l'eye-tracking pour l'interaction mobile dans un environnement réel augmenté." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEC011/document.

Full text
Abstract:
Les dispositifs d'eye-tracking ont un très fort potentiel en tant que modalité d'entrée en IHM (Interaction Homme Machine), en particulier en situation de mobilité. Dans cette thèse, nous nous concentrons sur la mise en œuvre de cette potentialité en mettant en évidence les scénarios dans lesquels l’eye-tracking possède des avantages évidents par rapport à toutes les autres modalités d’interaction. Au cours de nos recherches, nous avons constaté que cette technologie ne dispose pas de méthodes pratiques pour le déclenchement de commandes, ce qui réduit l'usage de tels dispositifs. Dans ce contexte, nous étudions la combinaison d'un eye-tracking et des mouvements volontaires de la tête lorsque le regard est fixe, ce qui permet de déclencher des commandes diverses sans utiliser les mains ni changer la direction du regard. Nous avons ainsi proposé un nouvel algorithme pour la détection des mouvements volontaires de la tête à regard fixe en utilisant uniquement les images capturées par la caméra de scène qui équipe les eye-trackers portés sur la tête, afin de réduire le temps de calcul. Afin de tester la performance de notre algorithme de détection des mouvements de la tête à regard fixe, et l'acceptation par l'utilisateur du déclenchement des commandes par ces mouvements lorsque ses deux mains sont occupées par une autre activité, nous avons effectué des expériences systématiques grâce à l'application EyeMusic que nous avons conçue et développée. Cette application EyeMusic est un système pour l'apprentissage de la musique capable de jouer les notes d’une mesure d'une partition que l’utilisateur ne comprend pas. En effectuant un mouvement volontaire de la tête qui fixe de son regard une mesure particulière d'une partition, l'utilisateur obtient un retour audio. La conception, le développement et les tests d’utilisabilité du premier prototype de cette application sont présentés dans cette thèse. L'utilisabilité de notre application EyeMusic est confirmée par les résultats expérimentaux : 85% des participants ont été en mesure d’utiliser tous les mouvements volontaires de la tête à regard fixe que nous avons implémentés dans le prototype. Le taux de réussite moyen de cette application est de 70%, ce qui est partiellement influencé par la performance intrinsèque de l'eye-tracker que nous utilisons. La performance de notre algorithme de détection des mouvements de la tête à regard fixe est 85%, et il n’y a pas de différence significative entre la performance de chaque mouvement de la tête testé. Également, nous avons exploré deux scénarios d'applications qui reposent sur les mêmes principes de commande, EyeRecipe et EyePay, dont les détails sont également présentés dans cette thèse
Eye-tracking has a very strong potential in human computer interaction (HCI) as an input modality, particularly in mobile situations. In this thesis, we concentrate in demonstrating this potential by highlighting the scenarios in which the eye-tracking possesses obvious advantages comparing with all the other interaction modalities. During our research, we find that this technology lacks convenient action triggering methods, which can scale down the performance of interacting by gaze. In this instance, we investigate the combination of eye-tracking and fixed-gaze head movement, which allows us to trigger various commands without using our hands or changing gaze direction. We have proposed a new algorithm for fixed-gaze head movement detection using only scene images captured by the scene camera equipped in front of the head-mounted eye-tracker, for the purpose of saving computation time. To test the performance of our fixed-gaze head movement detection algorithm and the acceptance of triggering commands by these movements when the user's hands are occupied by another task, we have implemented some tests in the EyeMusic application that we have designed and developed. The EyeMusic system is a music reading system, which can play the notes of a measure in a music score that the user does not understand. By making a voluntary head movement when fixing his/her gaze on the same point of a music score, the user can obtain the desired audio feedback. The design, development and usability testing of the first prototype for this application are presented in this thesis. The usability of our EyeMusic application is confirmed by the experimental results, as 85% of participants were able to use all the head movements we implemented in the prototype. The average success rate of this application is 70%, which is partly influenced by the performance of the eye-tracker we use. The performance of our fixed-gaze head movement detection algorithm is 85%, and there were no significant differences between the performance of each head movement. Apart from the EyeMusic application, we have explored two other scenarios that are based on the same control principles: EyeRecipe and EyePay, the details of these two applications are also presented in this thesis
APA, Harvard, Vancouver, ISO, and other styles
5

Naert, Lucie. "Capture, annotation and synthesis of motions for the data-driven animation of sign language avatars." Thesis, Lorient, 2020. http://www.theses.fr/2020LORIS561.

Full text
Abstract:
Cette thèse porte sur la capture, l'annotation, la synthèse et l'évaluation des mouvements des mains et des bras pour l'animation d'avatars communiquant en Langues des Signes (LS). Actuellement, la production et la diffusion de messages en LS dépendent souvent d'enregistrements vidéo qui manquent d'informations de profondeur et dont l’édition et l'analyse sont difficiles. Les avatars signeurs constituent une alternative prometteuse à la vidéo. Ils sont généralement animés soit à l'aide de techniques procédurales, soit par des techniques basées données. L'animation procédurale donne souvent lieu à des mouvements peu naturels, mais n'importe quel signe peut être produit avec précision. Avec l’animation basée données, les mouvements de l'avatar sont réalistes mais la variété des signes pouvant être synthétisés est limitée et/ou biaisée par la base de données initiale. Privilégiant l’acceptation de l’avatar, nous avons choisi l'approche basée sur les données mais, pour remédier à sa principale limitation, nous proposons d'utiliser les mouvements annotés présents dans une base de mouvements de LS capturés pour synthétiser de nouveaux signes et énoncés absents de cette base. Pour atteindre cet objectif, notre première contribution est la conception, l'enregistrement et l'évaluation perceptuelle d'une base de données de capture de mouvements en Langue des Signes Française (LSF) composée de signes et d'énoncés réalisés par des enseignants sourds de LSF. Notre deuxième contribution est le développement de techniques d'annotation automatique pour différentes pistes d’annotation basées sur l'analyse des propriétés cinématiques de certaines articulations et des algorithmes d'apprentissage automatique existants. Notre dernière contribution est la mise en œuvre de différentes techniques de synthèse de mouvements basées sur la récupération de mouvements par composant phonologique et sur la reconstruction modulaire de nouveaux contenus de LSF avec l'utilisation de techniques de génération de mouvements, comme la cinématique inverse, paramétrées pour se conformer aux propriétés des mouvements réels
This thesis deals with the capture, annotation, synthesis and evaluation of arm and hand motions for the animation of avatars communicating in Sign Languages (SL). Currently, the production and dissemination of SL messages often depend on video recordings which lack depth information and for which editing and analysis are complex issues. Signing avatars constitute a powerful alternative to video. They are generally animated using either procedural or data-driven techniques. Procedural animation often results in robotic and unrealistic motions, but any sign can be precisely produced. With data-driven animation, the avatar's motions are realistic but the variety of the signs that can be synthesized is limited and/or biased by the initial database. As we considered the acceptance of the avatar to be a prime issue, we selected the data-driven approach but, to address its main limitation, we propose to use annotated motions present in an SL Motion Capture database to synthesize novel SL signs and utterances absent from this initial database. To achieve this goal, our first contribution is the design, recording and perceptual evaluation of a French Sign Language (LSF) Motion Capture database composed of signs and utterances performed by deaf LSF teachers. Our second contribution is the development of automatic annotation techniques for different tracks based on the analysis of the kinematic properties of specific joints and existing machine learning algorithms. Our last contribution is the implementation of different motion synthesis techniques based on motion retrieval per phonological component and on the modular reconstruction of new SL content with the additional use of motion generation techniques such as inverse kinematics, parameterized to comply to the properties of real motions
APA, Harvard, Vancouver, ISO, and other styles
6

Colas, Tom. "Externalisation en restitution binaurale non-individualisée avec head-tracking : aspects objectifs et perceptifs." Electronic Thesis or Diss., Brest, 2024. http://www.theses.fr/2024BRES0053.

Full text
Abstract:
La restitution binaurale est une méthode de restitution du son au casque visant à simuler une écoute naturelle. Souvent, les sons restitués au casque semblent provenir de l’intérieur de la tête. Pour une restitution binaurale convaincante, les sons doivent paraître venir de l’extérieur (externalisés), comme dans la réalité. L’utilisation d’un système de suivi des mouvements de tête (head-tracking) peut permettre d’améliorer l’externalisation pendant et après les mouvements. Cette thèse examine l’effet de persistance de l’amélioration d’externalisation après des mouvements de tête. Une première étude a combiné une expérience comportementale et une expérience EEG pour identifier un corrélat neuronal de l’externalisation.Une méthode innovante, exploitant cet effet de persistance de l’externalisation, a été développée afin de comparer des stimuli "acoustiquement identiques", mais avec différents niveaux d’externalisation. Les résultats n’ont pas révélé de corrélat neuronal, mais ont soulevé plusieurs questions sur l’influence de la nature et de la durée des sources sonores sur l’effet de persistance de l’externalisation.Une deuxième étude, comportant trois expériences comportementales, a été menée afin d’aborder ces questions. Les résultats ont montré que l’amélioration d’externalisation après des mouvements de tête fonctionne pour différentes sources, mais diminue après une dizaine de secondes
Binaural reproduction is a method of sound playback through headphones aimed at simulating natural listening. Often, sounds played through headphones seem to originate from inside the head. For convincing binauralreproduction, sounds must appear to come from outside (externalized), as they do in reality.Using a head-tracking system can enhance externalization during and after headmovements. This thesis examines the persistence of the head movements after-effect on externalization. The first study combined a behavioral experiment and an EEG experiment to identify a neural correlate of externalization.An innovative method leveraging this after-effect was developed to compare "acoustically identical" stimuli with different levels of externalization. The results did not reveal a neural correlate but raised several questions about the influence of the nature and duration of sound sources on the head movements after-effect on externalization. A second study, involving three behavioral experiments, was conducted to address these questions. The results showed that the improvement in externalization after head movements works for various sound sources but decreases after about ten seconds
APA, Harvard, Vancouver, ISO, and other styles
7

Li, Jingting. "Facial Micro-Expression Analysis." Thesis, CentraleSupélec, 2019. http://www.theses.fr/2019CSUP0007.

Full text
Abstract:
Les micro-expressions (MEs) sont porteuses d'informations non verbales spécifiques. Cependant, en raison de leur nature locale et brève, il est difficile de les détecter. Dans cette thèse, nous proposons une méthode de détection par reconnaissance d'un motif local et temporel de mouvement du visage. Ce motif a une forme spécifique (S-pattern) lorsque la ME apparait. Ainsi, à l'aide de SVM, nous distinguons les MEs des autres mouvements faciaux. Nous proposons également une fusion spatiale et temporelle afin d'améliorer la distinction entre les MEs (locaux) et les mouvements de la tête (globaux). Cependant, l'apprentissage des S-patterns est limité par le petit nombre de bases de données de ME et par le faible volume d'échantillons de ME. Les modèles de Hammerstein (HM) est une bonne approximation des mouvements musculaires. En approximant chaque S-pattern par un HM, nous pouvons filtrer les S-patterns réels et générer de nouveaux S-patterns similaires. Ainsi, nous effectuons une augmentation et une fiabilisation des S-patterns pour l'apprentissage et améliorons ainsi la capacité de différencier les MEs d'autres mouvements. Lors du premier challenge de détection de MEs, nous avons participé à la création d’une nouvelle méthode d'évaluation des résultats. Cela a aussi été l’occasion d’appliquer notre méthode à longues vidéos. Nous avons fourni le résultat de base au challenge.Les expérimentions sont effectuées sur CASME I, CASME II, SAMM et CAS(ME)2. Les résultats montrent que notre méthode proposée surpasse la méthode la plus populaire en termes de F1-score. L'ajout du processus de fusion et de l'augmentation des données améliore encore les performances de détection
The Micro-expressions (MEs) are very important nonverbal communication clues. However, due to their local and short nature, spotting them is challenging. In this thesis, we address this problem by using a dedicated local and temporal pattern (LTP) of facial movement. This pattern has a specific shape (S-pattern) when ME are displayed. Thus, by using a classical classification algorithm (SVM), MEs are distinguished from other facial movements. We also propose a global final fusion analysis on the whole face to improve the distinction between ME (local) and head (global) movements. However, the learning of S-patterns is limited by the small number of ME databases and the low volume of ME samples. Hammerstein models (HMs) are known to be a good approximation of muscle movements. By approximating each S-pattern with a HM, we can both filter outliers and generate new similar S-patterns. By this way, we perform a data augmentation for S-pattern training dataset and improve the ability to differentiate MEs from other facial movements. In the first ME spotting challenge of MEGC2019, we took part in the building of the new result evaluation method. In addition, we applied our method to spotting ME in long videos and provided the baseline result for the challenge. The spotting results, performed on CASME I and CASME II, SAMM and CAS(ME)2, show that our proposed LTP outperforms the most popular spotting method in terms of F1-score. Adding the fusion process and data augmentation improve even more the spotting performance
APA, Harvard, Vancouver, ISO, and other styles
8

Weber, Raphaël. "Construction non supervisée d'un modèle expressif spécifique à la personne." Thesis, CentraleSupélec, 2017. http://www.theses.fr/2017CSUP0005.

Full text
Abstract:
L'analyse automatique des expressions faciales connaît un intérêt grandissant ces dernières décennies du fait du large champ d'applications qu'elle peut servir. Un des domaines d'applications visé est le médical avec notamment l'analyse automatique des variations de comportement pour le maintien à domicile des personnes âgées.Cette thèse propose un modèle expressif continu spécifique à la personne construit de manière non supervisée (i.e. sans connaissance a priori sur la morphologie du sujet) pour répondre à ce besoin d'analyse automatique. Notre système doit être capable d'analyser les expressions faciales dans un environnement non contraint en termes de pose de la tête de parole.Les travaux réalisés se basent sur des travaux existants sur la représentation invariante des expressions faciales. Le modèle sur lequel nous nous basons nécessite l'acquisition du visage neutre, il est donc construit de manière supervisée. De plus, il est construit sur des expressions de base synthétisées à partir du visage neutre, il ne rend donc pas compte des expressions faciales réelles du sujet. Nous proposons dans cette thèse de rendre la construction de ce modèle non supervisée en détectant automatiquement le visage neutre et d'adapter le modèle automatiquement aux expressions faciales réelles du sujet de manière non supervisée. L'idée de l'adaptation est de détecter, à la fois globalement et localement, les expressions de base réelles du sujet afin de remplacer les expressions de base synthétisées du modèle puis de les affiner, tout en maintenant un ensemble de contraintes.Nous avons testé notre système d'adaptation sur des expressions posées, des expressions spontanées dans un environnement contraint et des expressions spontanées dans un environnement non contraint. Les résultats montrent l'efficacité de l'adaptation et l'importance de l'étape de vérification des contraintes lors des tests dans un environnement non contraint
Automatic facial expression analysis has gained a growing interest in the past decades as a result of the wide range of applications that are covered. Medical applications have been considered, notably for automatic behavior analysis for eldery home support.This thesis proposes to compute a continuous person-specific model of expressions in an unsupervized manner (i.e. with no prior knowledge on the morphology of the subject) in order to meet the needs of automatic behavior analysis. Our system must be able to analyze facial expressions in an unconstrained environment in terms of head pose and speaking.This thesis is based on previous work on invariant representation of facial expressions. In this previous work, the computation of the model requires the acquisition of the neutral face, so the model is weakly supervised. Moreover, it is computed with synthesized expressions, so it does note account for the real facial expressions of the subject. We propose in this thesis to make the computation unsupervised by automatically detecting the neutral face and then by automatically adapting the model to the real facial expressions of the subject in an unsupervised manner. The idea of the adaptation is to detect, both globally and locally, the real basic expressions of the subject in order to replace the synthesized basic expressions of the model, while maintaining a set of constraints.We have tested our method of adaptation on posed expressions, spontaneous expressions in a constrained environment and spontaneous expressions in an unconstrained environment. The results show the efficiency of the adaptation and the importance of the set of constraints for the test in an unconstrained environment
APA, Harvard, Vancouver, ISO, and other styles
9

Goffart, Laurent. "L'orientation saccadique du regard vers une cible : étude de la contribution du cervelet médio-postérieur chez le chat en condition "tête libre"." Lyon 1, 1996. http://www.theses.fr/1996LYO1T070.

Full text
Abstract:
Le déplacement saccadique du regard vers une cible visuelle nécessite une transformation appropriée des signaux rétiniens en signaux de commande motrice pour l'oeil et la tête. Parmi les structures nerveuses impliquées dans cette transformation, la partie caudale du noyau fastigial (NFc) constitue un territoire cérébelleux indispensable pour le contrôle de la précision des saccades oculaires. Toute lésion affectant cette région entraîne une dysmétrie saccadique. Selon certains auteurs, ce déficit serait la conséquence d'un défaut dans le contrôle de la cinématique du mouvement oculaire. Pour tester la généralisation de cette hypothèse aux déplacements du regard en condition "tête libre", nous avons inactivé pharmacologiquement cette structure et examiné les conséquences de cette perturbation sur les caractéristiques spatio-temporelles des mouvements d'orientation du regard vers une cible visuelle. Après injection locale unilatérale de muscimol (0,3 µl, 1 µg/µl), les mouvements d'orientation ipsilatéraux sont hypermétriques tandis que les mouvements controlatéraux sont hypométriques. L'hypermétrie ipsilatérale résulte d'une erreur constante, c'est-à-dire que le regard s'oriente systématiquement vers une position qui est décalée par rapport à la position de la cible, quelles que soient la position de la cible et la position initiale du regard. Cette hypermétrie résulte d'une hypermétrie cumulée de la saccade oculaire et du déplacement de la tête. Un léger ralentissement de ces deux composantes est observé pour les plus grandes amplitudes. Une réduction de la latence caractérise également ces déplacements ipsilatéraux. En ce qui concerne les déplacements controlatéraux, l'erreur finale du regard augmente proportionnellement avec l'excentricité de la cible. A nouveau, cette hypométrie controlatérale affecte à la fois l'oeil et la tête. Par contre, elle n'est accompagnée d'aucun changement au niveau des propriétés cinématiques. Une augmentation de la latence de ces mouvements est observée. Cette modification dans le déclenchement des saccades est telle qu'une hypométrie plus grande est observée pour les mouvements de latence plus longue. Grâce à certaines injections contrôles, nous avons par ailleurs pu montrer que les déficits observés sont spécifiques d'une inactivation de la région caudale du NF. En particulier, l'injection de muscimol 2 mm en avant entraîne une dysmétrie du regard tout à fait différente. L'hypermétrie ipsilatérale est non seulement moins importante mais elle se caractérise aussi par une erreur qui augmente avec l'excentricité de la cible. Cette dysmétrie résulte exclusivement d'une réponse hypermétrique de l'oeil, ce qui se traduit par un net changement dans la contribution de la tête au déplacement du regard. Un tel changement est observé pour les déplacements controlatéraux bien que la tête soit aussi hypométrique. Ces résultats indiquent que la fonction du NFc ne se limite pas au seul contrôle des mouvements oculaires mais s'étend au cadre plus général de l'orientation du regard. Dans le cadre des déplacements ipsilatéraux, le NFc participerait principalement à la spécification des paramètres spatiaux du but pour l'orientation du regard et de la tête mais aussi au contrôle de leur cinématique en contribuant au freinage du mouvement. Dans le cadre des déplacements controlatéraux, le NFc influencerait les étapes de traitement au cours desquelles les processus qui conduisent à l'initiation du mouvement entrent en interaction avec ceux qui en déterminent les paramètres spatiaux. Ces fonctions sont discutées à la lumière des structures cibles du NFc. Enfin, nos résultats suggérent une distinction anatomo-fonctionnelle au niveau du noyau fastigial. La partie caudale influencerait des étapes où le regard est codé tandis que la partie rostrale interviendrait davantage à un niveau où les signaux de commande oculaire et céphalique sont dissociés
APA, Harvard, Vancouver, ISO, and other styles
10

Cohen-Lhyver, Benjamin. "Modulation de mouvements de tête pour l'analyse multimodale d'un environnement inconnu." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066574/document.

Full text
Abstract:
L'exploration d'un environnement inconnu par un robot mobile est un vaste domaine de recherche visant à comprendre et implémenter des modèles d'exploration efficaces, rapides et pertinents. Cependant, depuis les années 80, l'exploration ne s'est plus contentée de la seule détermination de la topographie d'un espace : à la composante spatiale a été couplée une composante sémantique du monde exploré. En effet, en addition aux caractéristiques physiques de l'environnement — murs, obstacles, chemins empruntables ou non, entrées et sorties — permettant au robot de se créer une représentation interne du monde grâce à laquelle il peut s'y déplacer, existent des caractéristiques dynamiques telles que l'apparition d'événements audiovisuels. Ces événements sont d'une grande importance en cela qu'ils peuvent moduler le comportement du robot en fonction de leur localisation dans l'espace — aspect topographique — et de l'information qu'ils portent — aspect sémantique. Bien qu'imprédictibles par nature (puisque l'environnement est inconnu) tous ces événements ne sont pas d'égale importance : certains peuvent porter une information utile au robot et à sa tâche d'exploration, d'autres non. Suivant les travaux sur les motivations intrinsèques à explorer un environnement inconnu et puisant son inspiration de phénomènes neurologiques, ce travail de thèse a consisté en l'élaboration du modèle Head Turning Modulation (HTM) visant à donner à un robot doté de mouvements de tête la capacité de déterminer l'importance relative de l'apparition d'un événement audiovisuel dans un environnement inconnu en cours d'exploration. Cette importance a été formalisée sous la forme de la notion de Congruence s'inspirant principalement (i) de l'entropie de Shannon, (ii) du phénomène de Mismatch Negativity et (iii) de la Reverse Hierarchy Theory. Le modèle HTM, créé dans le cadre du projet européen Two!Ears, est un paradigme d'apprentissage basé sur (i) une auto-supervision (le robot décide lorsqu'il est nécessaire d'apprendre ou non), (ii) une contrainte de temps réel (le robot apprend et réagit aussitôt que des données sont perçues), et (iii) une absence de données a priori sur l'environnement (il n'existe pas de vérité à apprendre, seulement la réalité perçue de l'environnement à explorer). Ce modèle, intégré à l’ensemble du framework Two!Ears, a été entièrement porté sur un robot mobile pourvu d'une vision binoculaire et d'une audition binaurale. Le modèle HTM couple ainsi une approche montante traditionnelle d’analyse des signaux perceptifs (extractions de caractéristiques, reconnaissance visuelle ou auditive, etc.) à une approche descendante permettant, via la génération d’une action motrice, de comprendre et interpréter l’environnement audiovisuel du robot. Cette approche bottom-up/top-down active est ainsi exploitée pour moduler les mouvements de tête d’un robot humanoïde et étudier l'impact de la Congruence sur ces mouvements. Le système a été évalué via des simulations réalistes, ainsi que dans des conditions réelles, sur les deux plateformes robotiques du projet Two!Ears
The exploration of an unknown environement by a mobile robot is a vast research domain aiming at understanding and implementing efficient, fast and relevant exploration models. However, since the 80s, exploration is no longer restricted to the sole determination of topography a space: to the spatial component has been coupled a semantic one of the explored world. Indeed, in addition to the physical characteristics of the environment — walls, obstacles, usable paths or not, entrances and exits — allowing the robot to create its own internal representation of the world through which it can move in it, exist dynamic components such as the apparition of audiovisual events. These events are of high importance for they can modulate the robot's behavior through their location in space — topographic aspect — and the information they carry — semantic aspect. Although impredictible by nature (since the environment is unknown) all these events are not of equal importance: some carry valuable information for the robot's exploration task, some don't. Following the work on intrinsic motivations to explore an unknown environment, and being rooted in neurological phenomenons, this thesis work consisted in the elaboration of the Head Turning Modulation (HTM) model aiming at giving to a robot capable of head movements, the ability to determine the relative importance of the apparition of an audioivsual event. This "importance" has been formalized through the notion of Congruence which is mainly inspired from (i) Shannon's entropy, (ii) the Mismatch Negativity phenomenon, and (iii) the Reverse Hierarchy Theory. The HTM model, created within the Two!Ears european project, is a learning paradigm based on (i) an auto-supervision (the robot decides when it is necessary or not to learn), (ii) a real-time constraint (the robot learns and reacts as soon as data is perceived), and (iii) an absence of prior knowledge about the environment (there is no "truth" to learn, only the reality of the environment to explore). This model, integrated in the overal Two!Ears framework, has been entirely implemented in a mobile robot with binocular vision and binaural audition. The HTM model thus gather the traditional approach of ascending analysis of perceived signals (extraction of caracteristics, visual or audio recognition etc.) to a descending approach that enables, via motor actions generation in order to deal with perception deficiency (such as visual occlusion), to understand and interprete the audiovisual environment of the robot. This bottom-up/top-down active approach is then exploited to modulate the head movements of a humanoid robot and to study the impact of the Congruence on these movements. The system has been evaluated via realistic simulations, and in real conditions, on the two robotic platforms of the Two!Ears project
APA, Harvard, Vancouver, ISO, and other styles
11

Wang, Haibo. "Vers un suivi en temps réel de la position de la tête et du visage." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10158/document.

Full text
Abstract:
Le suivi en 3D des mouvements de la tête avec une seule caméra est un sujet important et difficile pour concevoir des interfaces informatiques. Dans cette thèse nous proposons deux logiciels et étudions leurs applications à l'interface Homme machine.Le premier logiciel propose un suivi différentiel d'un ellipsoïde en 3D. Il estime récursivement la position de la tête avec des prédictions et mise à jour du modèle. Cette solution, bien que robuste, souffre de deux limites : les mouvements de la tête doivent être petits et il y a une importante dérive temporelle. D'autres pistes doivent être envisagées.la deuxième partie de cette thèse se tourne vers une nouvelle solution à détection. La nouveauté est de conduire conjointement la modélisation, l'apprentissage et le suivi. Le suivi de position est réalisé en associant un suivi dynamique avec un apprentissage hors ligne des textures de visage utilisant un modèle 3D élémentaire de la tête. De nombreuses expériences valident que les mouvements de la tête sont suivi sans dérives. Pour améliorer les performances, nous avons ajouté un algorithme de flux optique pour renforcer la cohérence temporelle en éliminant les valeurs aberrantes.Dans la dernière partie, nous présentons deux applications des algorithmes. La première vise à estimer le regard à partir de la rotation de la tête. La seconde permet d’afficher des avatars réalistes en plaquant la texture du visage extraite de la vidéo
Monocular 3D head tracking is a core technique for designing intelligent interfaces. Over the last decade, the objective that tracks long-term persistent poses in ever-changing environments remains a challenging problem. In this thesis, we investigate this problem by presenting two alternative frameworks and exploit its potential applications in computer-human interactions. The first framework is a robust implementation of the conventionally differential tracking approach along with a 3D ellipsoid for geometric reasoning. It recursively estimates head poses from prior prediction and dynamically updates its template. These attributes make it robust to ever observation changes and lead to smooth estimations. However, they also bring two severe problems that target movement is limited to be small and template drifting happens from time to time, which together make long-term tracking with a camera impossible.To avoid these crucial limits, the second part of this thesis turns to a novel tracking by detection approach. The novelty of our approach is to joint modeling, learning and tracking in a unified system. The pose tracking is realized by matching online features with the offline learned multi-view feature classes while the learning depends on face texture synthesis, stable class detection and multiview selection that are executed within a simple head modeling system. Extensive experiments witnesses the disappearance of model drifting as well as the success of tracking natural head movements. To further enhance the performances, we also integrate opticalflow correspondences to enforce temporal consistency during tracking by detection and incorporate color prior to clarify possible outlier features in a discriminative way.In the last part of this thesis, we present two applications of the proposed 3D head tracking system. The first is to estimate eye gaze in the presence of natural head rotations. The second is to transfer facial expressions from human being to an online avatar
APA, Harvard, Vancouver, ISO, and other styles
12

Masse, Jean-Thomas. "Capture de mouvements humains par capteurs RGB-D." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30361/document.

Full text
Abstract:
L'arrivée simultanée de capteurs de profondeur et couleur, et d'algorithmes de détection de squelettes super-temps-réel a conduit à un regain de la recherche sur la capture de mouvements humains. Cette fonctionnalité constitue un point clé de la communication Homme-Machine. Mais le contexte d'application de ces dernières avancées est l'interaction volontaire et fronto-parallèle, ce qui permet certaines approximations et requiert un positionnement spécifique des capteurs. Dans cette thèse, nous présentons une approche multi-capteurs, conçue pour améliorer la robustesse et la précision du positionnement des articulations de l'homme, et fondée sur un processus de lissage trajectoriel par intégration temporelle, et le filtrage des squelettes détectés par chaque capteur. L'approche est testée sur une base de données nouvelle acquise spécifiquement, avec une méthodologie d'étalonnage adaptée spécialement. Un début d'extension à la perception jointe avec du contexte, ici des objets, est proposée
Simultaneous apparition of depth and color sensors and super-realtime skeleton detection algorithms led to a surge of new research in Human Motion Capture. This feature is a key part of Human-Machine Interaction. But the applicative context of those new technologies is voluntary, fronto-parallel interaction with the sensor, which allowed the designers certain approximations and requires a specific sensor placement. In this thesis, we present a multi-sensor approach, designed to improve robustness and accuracy of a human's joints positionning, and based on a trajectory smoothing process by temporal integration, and filtering of the skeletons detected in each sensor. The approach has been tested on a new specially constituted database, with a specifically adapted calibration methodology. We also began extending the approach to context-based improvements, with object perception being proposed
APA, Harvard, Vancouver, ISO, and other styles
13

Jacob, Thibaut. "Contrôle orbital pour le tracé de trajectoires 3D à l'aide des mouvements de la tête." Electronic Thesis or Diss., Paris, ENST, 2017. http://www.theses.fr/2017ENST0044.

Full text
Abstract:
Le domaine du son 3D est aujourd'hui en pleine effervescence du fait d'une combinaison de facteurs (normalisation de nouveaux formats audio, équipement des salles de cinéma, etc.). Les travaux effectués dans ce domaine se sont principalement concentrés sur le codage et le traitement du son 3D. Cependant, la création interactive de contenus sonores 3D n'est pas un problème trivial, car cette tâche nécessite de tracer ou d'éditer des trajectoires en trois dimensions pour animer des sources sonores dans l'espace. Dans cette thèse en Interaction Homme-Machine (IHM), nous considérons l'édition de trajectoires de sources sonores en 3D comme un cas particulier de tâche de modélisation 3D et proposons plusieurs contributions. Sur le plan conceptuel, nous proposons un espace de conception pour le tracé de trajectoires en trois dimensions. Nous présentons également une classification des contrôles de caméra existants en fonction du type de contrôle et des modalités utilisées. Sur le plan empirique, nous conduisons 5 études utilisateurs dans le but de créer une technique d'interaction pour le contrôle du point de vue orbital permettant d'effectuer une rotation de 3600 en utilisant le roulis de la tête. Enfin , nous présentons une implémentation de notre technique ainsi que son intégration dans le logiciel de modélisation 3D Blender et dans le logiciel Performer utilisé par Radio France pour contrôler la position de sources sonores dans le cadre de performances en son 3D
The field of 3D sound is experiencing rapid growth due to a combination of factors (standardization of new audio formats, equipment for cinemas, etc.). While mast of the work in this field has focused on 3D sound processing, creating 3D auditory content interactively remains a challenging task because il requires drawing and editing three dimensional trajectories to control the movement of audio sources in space. ln this thesis in Human-Computer Interaction (HGI), we consider the creation of audio source trajectories as a particular case of 3D modelling and propose the following contributions. On a conceptual level, we tirst present a design space of 3D trajectory creation techniques. We also propose a classification of existing camera controls in relation to the type of control and modalities. On an empirical level, we conducted five user studies in order to design a new interaction technique for orbital viewpoint control. This technique allows users to perform 360 wide rotations by leveraging head roll rotations. Finally, we propose an implementation of our interaction technique and present its integration with two applications: Blender, a well-known 3D modelling software, and Performer, which ls used by Radio France to place sound sources in 3D space during live events
APA, Harvard, Vancouver, ISO, and other styles
14

Massé, Benoît. "Etude de la direction du regard dans le cadre d'interactions sociales incluant un robot." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM055/document.

Full text
Abstract:
Les robots sont de plus en plus utilisés dans un cadre social. Il ne suffit plusde partager l’espace avec des humains, mais aussi d’interagir avec eux. Dansce cadre, il est attendu du robot qu’il comprenne un certain nombre de signauxambiguës, verbaux et visuels, nécessaires à une interaction humaine. En particulier, on peut extraire beaucoup d’information, à la fois sur l’état d’esprit despersonnes et sur la dynamique de groupe à l’œuvre, en connaissant qui ou quoichaque personne regarde. On parle de la Cible d’attention visuelle, désignéepar l’acronyme anglais VFOA. Dans cette thèse, nous nous intéressons auxdonnées perçues par un robot humanoı̈de qui participe activement à une in-teraction sociale, et à leur utilisation pour deviner ce que chaque personneregarde.D’une part, le robot doit “regarder les gens”, à savoir orienter sa tête(et donc la caméra) pour obtenir des images des personnes présentes. Nousprésentons une méthode originale d’apprentissage par renforcement pourcontrôler la direction du regard d’un robot. Cette méthode utilise des réseauxde neurones récurrents. Le robot s’entraı̂ne en autonomie à déplacer sa tête enfonction des données visuelles et auditives. Il atteint une stratégie efficace, quilui permet de cibler des groupes de personnes dans un environnement évolutif.D’autre part, les images du robot peuvent être utilisée pour estimer lesVFOAs au cours du temps. Pour chaque visage visible, nous calculons laposture 3D de la tête (position et orientation dans l’espace) car très fortementcorrélée avec la direction du regard. Nous l’utilisons dans deux applications.Premièrement, nous remarquons que les gens peuvent regarder des objets quine sont pas visible depuis le point de vue du robot. Sous l’hypothèse quelesdits objets soient regardés au moins une partie du temps, nous souhaitonsestimer leurs positions exclusivement à partir de la direction du regard despersonnes visibles. Nous utilisons une représentation sous forme de carte dechaleur. Nous avons élaboré et entraı̂né plusieurs réseaux de convolutions afinde d’estimer la régression entre une séquence de postures des têtes, et les posi-tions des objets. Dans un second temps, les positions des objets d’intérêt, pou-vant être ciblés, sont supposées connues. Nous présentons alors un modèleprobabiliste, suggéré par des résultats en psychophysique, afin de modéliserla relation entre les postures des têtes, les positions des objets, la directiondu regard et les VFOAs. La formulation utilise un modèle markovien à dy-namiques multiples. En appliquant une approches bayésienne, nous obtenonsun algorithme pour calculer les VFOAs au fur et à mesure, et une méthodepour estimer les paramètres du modèle.Nos contributions reposent sur la possibilité d’utiliser des données, afind’exploiter des approches d’apprentissage automatique. Toutes nos méthodessont validées sur des jeu de données disponibles publiquement. De plus, lagénération de scénarios synthétiques permet d’agrandir à volonté la quantitéde données disponibles; les méthodes pour simuler ces données sont explicite-ment détaillée
Robots are more and more used in a social context. They are required notonly to share physical space with humans but also to interact with them. Inthis context, the robot is expected to understand some verbal and non-verbalambiguous cues, constantly used in a natural human interaction. In particular,knowing who or what people are looking at is a very valuable information tounderstand each individual mental state as well as the interaction dynamics. Itis called Visual Focus of Attention or VFOA. In this thesis, we are interestedin using the inputs from an active humanoid robot – participating in a socialinteraction – to estimate who is looking at whom or what.On the one hand, we want the robot to look at people, so it can extractmeaningful visual information from its video camera. We propose a novelreinforcement learning method for robotic gaze control. The model is basedon a recurrent neural network architecture. The robot autonomously learns astrategy for moving its head (and camera) using audio-visual inputs. It is ableto focus on groups of people in a changing environment.On the other hand, information from the video camera images are used toinfer the VFOAs of people along time. We estimate the 3D head poses (lo-cation and orientation) for each face, as it is highly correlated with the gazedirection. We use it in two tasks. First, we note that objects may be lookedat while not being visible from the robot point of view. Under the assump-tion that objects of interest are being looked at, we propose to estimate theirlocations relying solely on the gaze direction of visible people. We formulatean ad hoc spatial representation based on probability heat-maps. We designseveral convolutional neural network models and train them to perform a re-gression from the space of head poses to the space of object locations. Thisprovide a set of object locations from a sequence of head poses. Second, wesuppose that the location of objects of interest are known. In this context, weintroduce a Bayesian probabilistic model, inspired from psychophysics, thatdescribes the dependency between head poses, object locations, eye-gaze di-rections, and VFOAs, along time. The formulation is based on a switchingstate-space Markov model. A specific filtering procedure is detailed to inferthe VFOAs, as well as an adapted training algorithm.The proposed contributions use data-driven approaches, and are addressedwithin the context of machine learning. All methods have been tested on pub-licly available datasets. Some training procedures additionally require to sim-ulate synthetic scenarios; the generation process is then explicitly detailed
APA, Harvard, Vancouver, ISO, and other styles
15

Molet, Tom. "Etude de la capture de mouvements humains pour l'interaction en environnements virtuels /." [S.l.] : [s.n.], 1998. http://library.epfl.ch/theses/?nr=1883.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Malciu, Marius. "Approches orientées modèle pour la capture des mouvements du visage en vision par ordinateur." Phd thesis, Université René Descartes - Paris V, 2001. http://tel.archives-ouvertes.fr/tel-00273232.

Full text
Abstract:
Modèle 3D d'objet, séquences vidéos monoscopiques, estimation de la pose 3D, recalage 3D/2D, texture, flot optique, translation et rotation de grande amplitude, occultation, appariement par bloc, interpolation temporelle, modélisation ondulatoire, critère de visibilité, analyse de déformations faciales, description MPEG-4 du visage, prototype déformable, bouche, yeux, B-splines, classification floue non supervisée, méthode du simplexe, synthèse de déformations faciales..
APA, Harvard, Vancouver, ISO, and other styles
17

Christiaen, Pierre. "Contribution aux recherches en Adéquation Algorithme Architecture dans le cadre de la conception d'un suiveur de regard "tête libre" par caméra." Lille 1, 1996. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1996/50376-1996-81.pdf.

Full text
Abstract:
Ce travail présente la conception d'un suiveur de regard utilisable comme outil de désignation sur un poste de travail informatique, sans contraintes pour l'utilisateur. Le dispositif utilise comme information l'image vidéo d'une partie du visage comprenant au moins un il. Quatre sources lumineuses infra-rouges se reflètent sur la cornée et sont visibles sur l'image vidéo. L'analyse de l'image permet de définir la zone observée sur l'écran. La première partie du travail consiste a extraire de l'image les informations pupille et reflets ; nous avons élaboré un procédé permettant d'effectuer rapidement cette extraction sur l'image binarisée a partir d'une fenêtre glissante 3x2 pixels ; ce procédé fournit une liste chaînée et structurée ; cette liste contient autant de sous-listes qu'il y a de formes distinctes. Il est alors possible de repérer les informations liées a la pupille et aux reflets. La technique de reconnaissance de forme s'avère robuste, et le procédé ainsi élabore convient a un traitement automatique. Il convient également a un traitement hautement parallélise, ce qui est valide par sa représentation sous forme d'un graphe flot de donnée, au rythme de la ligne. La construction de la liste chaînée est indépendante du niveau de complexité de l'image. En conséquence, ce procédé supporte le temps réel. Un traitement classique permet de déterminer la zone de l'écran visée par l'il. Pour améliorer la précision de cette zone, nous avons introduit un dispositif de leds contrôlées sur le pourtour de l'écran ; nous pouvons ainsi asservir le système de repérage, de manière a compenser les mouvements de la tête. Nous atteignons ainsi une sensibilité de 1,5 cm sur écran
APA, Harvard, Vancouver, ISO, and other styles
18

Courtemanche, Simon. "Analyse et simulation des mouvements optimaux en escalade." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM082/document.

Full text
Abstract:
À quel point les mouvements humains sont-ils optimaux ? Cette thèse aborde cette question en se concentrant particulièrement sur les mouvements en escalade, étudiés ici sous trois aspects complémentaires que sont la collecte expérimentale de séquences de grimpe, l'analyse biomécanique de ces données, et la synthèse de gestes par optimisation temporelle. La marche fut l'objet de nombreux travaux, avec de bons résultats notamment en animation [Mordatch 2013]. Nous nous intéressons ici spécialement au problème original des mouvements d'escalade, dont la diversité et leur caractère multicontact présentent une complexité intéressante pour l'évaluation des caractéristiques du mouvement humain. L'hétérogénéité du répertoire gestuel rencontrée en escalade s'explique par plusieurs facteurs que sont l'évolution sur des parois de formes variées, la multiplicité des niveaux d'expertise des pratiquants, et des disciplines différentes au sein même de l'activité, à savoir le bloc, la difficulté, ou encore l'escalade de vitesse. Notre démarche d'exploration de ce sport se décompose en trois étapes : la collecte de données par une capture de mouvements multicaméra avec marqueurs, couplée à un ensemble de capteurs de force montés sur un mur de bloc en laboratoire ; une analyse du geste par dynamique inverse, prenant exclusivement des données cinématiques pour entrées, basée sur une minimisation des couples internes pour résoudre l'ambiguïté du multicontact, intrinsèque à l'activité d'escalade, validée par comparaison avec les mesures capteurs ; et enfin, l'utilisation d'un critère d'efficacité énergétique pour synthétiser la meilleure temporisation associée à une séquence de déplacements donnés. Les enregistrements expérimentaux se sont fait à l'université McGill qui dispose d'un mur instrumenté de 6 capteurs de forces, et d'un dispositif de capture de mouvements 24 caméras, nous ayant permis de collecter des données sur une population de 9 sujets. L'analyse de ces données constitue la deuxième partie de cette thèse. Le défi abordé est de retrouver les forces externes et les efforts internes à partir uniquement des déplacements du grimpeur. Nous supposons pour cela une répartition optimale des efforts internes. Après analyse, cette répartition s'avère être plutôt uniforme que proportionnelle aux capacités musculaires des différentes articulations du corps. Finalement, dans une troisième et dernière partie, nous nous intéressons à la temporisation des gestes en escalade, en prenant en entrée la trajectoire du grimpeur, éventuellement issue de cinématique inverse pour s'affranchir de la nécessité d'une capture par marqueurs et caméras infra-rouges. En sortie, une temporisation idéale pour cette trajectoire est trouvée. Cette temporisation s'avère réaliste, mais manque d'une modélisation des instants d'hésitation et de prise de décision, ainsi que d'un modèle d'établissements de contact, phénomène présentant un délai temporel non pris en compte pour l'instant
How optimal are human movements ? This thesis tackles this issue by focusing especially on climbing movements, studied here under three complementary aspects which are the experimental gathering of climbing sequences, the biomechanical analysis of these data, and the synthesis of gestures by timing optimization. Walking has been largely studied, with good results in animation [Mordatch 2013]. We are interested here especially in the original question of climbing motions, whose diversity and multicontact aspect present an interesting complexity for the evaluation of the human motion characteristics. The heterogeneity of climbing gestures can be linked to several factors which are the variety of wall shapes, the multiplicity of climber skill levels, and different climbing categories, namely bouldering, route climbing or speed climbing. Our exploratory approach of this sport consists in three steps: the data collection by multicamera marker-based motion capture, combined with a set of force sensors mounted on an in-laboratory bouldering wall; a gesture analysis by inverse dynamics, taking only kinematic data as inputs, based on the minimization of internal torques to resolve the multicontact ambiguity, intrinsic to the climbing activity, validated by comparison with sensor measurements; and finally, the use of the energy efficiency criterion for synthesizing the best timing associated with a given sequence of movements. Experimental recordings were made at McGill University which has a climbing wall instrumented of 6 force sensors, and a motion capture device of 24 cameras, which allowed us to collect data on a population of nine subjects. The analysis of these data is the second part of this thesis. The addressed challenge is to find the external forces and internal torques from the climber's movements only. To this end we assume an optimal distribution of internal torques. After analysis, the distribution turns out to be rather uniform than proportional to the muscle capacity associated to each body joint. Finally, in a third and last part, we focus on the timing of climbing gestures, taking as input the path of the climber, possibly after inverse kinematics in order to overcome the need for a capture with markers and infrared cameras. As output, an optimal timing for this path is found. This timing is realistic, but lacks of a modelization for hesitation and decision making instants, as well as a model for the contact establishment, with the associated temporal delay currently not taken into account
APA, Harvard, Vancouver, ISO, and other styles
19

Devos, Pierre. "Contribution biomécanique à l'analyse cinématique in vivo des mouvements de la main humaine." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2359/document.

Full text
Abstract:
La main est l’organe de préhension chez l’homme qui lui permet de manipuler des objets de tailles et de formes diverses et variées. Elle lui permet également d’effectuer des tâches, parfois d’une grande complexité, avec force ou avec une grande finesse. Il s’agit d’un outil d’une importance cruciale au quotidien, tant sur le plan domestique que sur le plan professionnel, et la perte de fonctionnalité de la main peut rapidement devenir un handicap pour certaines personnes. Bien qu’il existe encore peu d’études sur la capture et l’analyse des mouvements de la main dans la littérature scientifique, de nombreux domaines comme la médecine, l’ergonomie, le sport, la robotique, la réalité virtuelle ou les jeux vidéo s’y intéressent de plus en plus, afin de permettre aux personnes d’exploiter au mieux les fonctionnalités de la main tout en la préservant, ou de créer des interfaces homme-machine afin que celui-ci puisse interagir avec des robots ou en environnement virtuel. L’objectif de cette thèse a été de développer une méthode d’analyse cinématique in vivo et personnalisée afin de contribuer à une meilleure compréhension des mouvements de la main de l’homme. Une première partie du travail consiste à mettre en place un protocole de capture du mouvement de la main sur des sujets masculins et féminins de différentes tranches d’âges, allant de 20 à 50 ans. Les captures de mouvement ont été effectuées à l’aide d’un système optoélectronique et de 56 marqueurs passifs collés sur la peau de la main du sujet. Deux types de mouvements ont été capturés : les mouvements fonctionnels en flexion-extension et en abduction-adduction de la main, et les mouvements de prise d’objets cylindriques et sphériques. Les captures de mouvement sont ensuite labellisées afin d’identifier les différents marqueurs et de pouvoir en extraire les trajectoires. La deuxième partie du travail consiste à développer une méthode d’analyse cinématique des mouvements externes de la main à partir des trajectoires des marqueurs et de la valider à l’aide d’un modèle in silico. En plus d’estimer les paramètres cinématiques avec précision dans le cas où les trajectoires des marqueurs sont parfaites, l’évaluation des méthodes fonctionnelles montre que les mouvements de la main sont assimilables à des mouvements plans, circulaires ou sphériques en fonction de l’articulation étudiée. La construction des repères fonctionnels à partir des paramètres cinématiques pour chaque segment de la main permet ensuite de décrire les mouvements de rotation des articulations à l’aide des angles de Cardan. Les courbes des angles de Cardan obtenues à partir des trajectoires des marqueurs du modèle in silico permettent de valider la méthode de décomposition développée pour l’ensemble des articulations, à l’exception des articulations trapézo-métacarpienne (TMC) et métacarpo-phalangienne (MCP1) du pouce qui sont plus difficiles à analyser. La dernière partie de ce travail de thèse consiste à analyser les mouvements fonctionnels et les mouvements de prise d’objets à partir des captures expérimentales. Les courbes des angles de Cardan obtenues à partir des mouvements fonctionnels correspondent globalement à celles obtenues dans la littérature, sauf dans le cas de l’articulation TMC. De plus, ces courbes montrent que les rotations articulaires ne s’effectuent pas uniquement autour d’un axe, mais autour d’un axe de rotation dominant et d’un ou deux axes de rotation secondaires. Toutefois, les courbes des angles de Cardan des rotations autour des axes secondaires ne correspondent pas toujours à celles présentées dans la littérature. Bien que peu de mouvements de prise d’objets aient pu être analysés, certaines corrélations intéressantes ont pu être trouvées entre les postures de la main et la géométrie des objets manipulés, notamment au niveau des articulations MCP et IPD
The human hand is a prehensile organ which allows people to handle objects with various sizes and shapes. It is wonderful tool that can be used to perform different simple or complex tasks with strength or great dexterity. It is also a crucial tool in the daily life, both at home and in the workspace, and loss of hand functionality may quickly become disabling for some people. There are few studies in the literature. However, motion capture and kinematic analysis of the hand is becoming more and more of an interest in different areas such as medicine, ergonomics, sport, robotics, virtual reality and video games. Results from these studies have improved knowledge about skills of the hand and how to preserve them. The studies have also improved interactions between people and computers in order to command robots or to progress in virtual reality. The aim of the thesis was to develop methods for an in vivo and subject-specific kinematic analysis in order to contribute to the improvement of knowledge about the human hand motion. A first part of this thesis was to develop a protocol for the motion capture of the hand for male and female subjects aged from 20 to 50 years old. The motion capture was performed using an optoelectronic system with passive markers glued on the skin of the hand. Two sorts of movements were captured. Firstly, functional movements like flexion-extension and abduction-adduction. Secondly, prehensile movements of cylindrical and spherical objects. Then, markers on the motion captures were identified in order to extract their trajectories. The second part of this thesis consisted in the development of a method for the kinematic analysis of external hand movements from the marker trajectories. Validation of this method was achieved using a model of the hand developed in silico. Since no noise was added to the marker trajectories in the silico model; kinematic parameters were estimated with precision. Moreover, assessment of the functional methods showed that the hand motions can be approximated by a plane, a circular arc or a spherical cap depending on the joint studied. After constructing the functional coordinate systems for each segment of the hand using the joint kinematic parameters, it was possible to decompose any joint rotation into three Cardan angles. This decomposition method was validated using the marker trajectories of the hand model, except for the trapeziometacarpal (TMC) and the metacarpophalangeal (MCP1) joints of the thumb which are more difficult to study. The last part of this thesis consisted in the analysis of the functional and the prehensile movements from the motion captures. The curves of the Cardan angles obtained from the functional movements are similar to those presented in the literature for all of the joints, except for the TMC joint. It was also noticed that the joint rotations do not occur around only one axis, but around one dominant axis and one or two secondary axes. However, some differences between the curves of the Cardan angles around the secondary axes obtained in this thesis and those presented in the literature were noticed for some joints. Despite only few prehensile grasps were analyzed, some interesting correlations were also found between the hand shape and the objects grasped, more particularly at the metacarpophalangeal (MCP) and the distal interphalangeal (DIP) joints
APA, Harvard, Vancouver, ISO, and other styles
20

Prel, Florent. "Estimation robuste et dynamique de la pose de la tête d'un conducteur en situation de simulation de conduite automobile par vision artificielle." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26420/26420.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Sarhan, François-Régis. "Quantification des mouvements de la mimique faciale par motion capture sur une population de volontaires sains." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2370/document.

Full text
Abstract:
La prise en charge des déficits moteurs de la mimique faciale est complexe et nécessite un suivi sur le long terme. Il existe de nombreuses techniques d’évaluation de la mimique faciale déficitaire avec des degrés variables de sensibilité. Cependant, la plupart de ces techniques sont manuelles et qualitatives (testing musculaire et scores cliniques). Elles conduisent donc à des mesures subjectives et peu reproductibles dans le temps. Ces techniques d’évaluation reposent en outre sur l’appréciation de l’évaluateur qui est une source importante de biais. Ainsi, l’apport d’un outil de mesure objectif pour quantifier un déficit et optimiser le suivi et la prise en charge médicale, chirurgicale et rééducative des patients apparait comme nécessaire. L’objectif de ce travail de thèse était donc de développer un outil quantitatif permettant d’évaluer les troubles de la mimique faciale. Dans cette perspective, nous avons mis en place un protocole d’analyse du mouvement par motion capture et avons réalisé des mesures sur une population de référence. Une étude descriptive utilisant un système de capture de mouvement en 3 dimensions a été réalisée sur des volontaires sains (n = 30) âgés de 20 à 30 ans. Le système de capture du mouvement était constitué de 17 caméras optoélectroniques T160 et de 2 caméras vidéo Bonita (Vicon™). Les mouvements étudiés étaient : la fermeture « simple » (non forcée) des paupières, la fermeture forcée des paupières, la protrusion labiale sur le son « o » [o], la protrusion labiale sur le son « pou » [pμ], et un sourire volontaire découvrant les dents. Lors de ces mouvements, nous avons enregistré et analysé le déplacement de 111 marqueurs réfléchissants de 1.5mm placés sur la face des sujets. Pour les cinq mouvements réalisés, nous avons obtenu des données quantitatives. Celles-ci nous ont permis d’identifier les zones d’action pour chacun des mouvements, de mesurer l’amplitude des déplacements et d’obtenir des données comparables dans le temps. Par ailleurs, le protocole mis en place a été évalué et sa réalisation est compatible avec une application clinique. L’analyse de la cinématique de la face est donc une technique appropriée à la clinique qui pourrait faciliter le diagnostic, le suivi et la rééducation des patients. Ce travail a permis de définir des mesures de référence qui constitueront la base d’un outil diagnostic, qu’il convient désormais de mettre en œuvre sur des patients
The care of facial paralysis is often complex and therefore requires monitoring over the long term. There are many clinical severity scores with varying levels of sensitivity to assess the deficit of facial movement, but most of them are qualitative. The number of assessment methods is an obstacle to monitor patients and treatment evaluation. We need an objective measurement tool to provide reliable measures of resting asymmetry, symmetry of voluntary movement and synkinesis. The aim of this study is to determine if the 3D motion capture of the face is compatible with these clinical criteria. A descriptive study using a 3-dimensional (3D) motion capture system were performed on healthy volunteers (n=30) age from 20 to 30 years. The motion capture system consists of 17 optoelectronic cameras at a frequency of 100Hz. We captured the movements of the face on healthy volunteers. We obtained absolute values: 3D coordinates and relative displacements. These data were free of manual measurements, and the use of 3D motion capture does not impede the facial movement. The average time of capture was less than 10 minutes. The measurements are painless for subjects. Data are collected in a computer and can be easily exported. These results show the feasibility of 3D motion capture of facial movement. The protocol used here could be standardized to be routinely relevant. lt was used in an experimental study to follow up recovery of a facial transplantation. This technique could help to overcome the uncertainty caused by subjective assessment and optimize therapeutic choices
APA, Harvard, Vancouver, ISO, and other styles
22

Comte, Nicolas. "Apprentissage des formes de scoliose à l'aide de modèles anatomiques et de la capture de mouvement." Electronic Thesis or Diss., Université Grenoble Alpes, 2023. http://www.theses.fr/2023GRALM068.

Full text
Abstract:
La scoliose est une pathologie complexe affectant différentes parties du corps humain, ce manuscrit commencera alors par des définitions anatomiques de la colonne vertébrale et une présentation générale de la scoliose idiopathique de l'adolescent dans un chapitre dédié. Ensuite, nous décrirons les méthodologies existantes et les approches récentes qui permettent une caractérisation complète de cette pathologie et sa détection précoce. Nous présenterons ensuite nos contributions et la manière dont elles répondent aux défis actuels.En couvrant différents types d'approches dans cette thèse, nous pouvons faciliter la dissertation en les classant en deux types distincts :Le premier type est l'examination statique à partir d'images médicales. Nous soulignerons les limites et les défis actuels dans la caractérisation des alignements de la colonne vertébrale à l'aide de radiographies aux rayons X. Un accent particulier sera mis sur la quantification des déformations 3D à partir de méthodes non ionisantes par l'analyse externe du torse à l'aide de méthodes d'apprentissage automatique. Nous ferons une revue de la littérature avant de présenter notre contribution qui permet une caractérisation 3D de l'ensemble de la colonne thoraco-lombaire tout en proposant une méthode d'examination accessible et non ionisante.Le deuxième type d'approche est dynamique, principalement basée sur l'analyse de la capture de mouvement. Nous présenterons les différents biomarqueurs qui sont habituellement suivis pendant les acquisitions et nous montrerons les différentes méthodes présentées dans la littérature avec leurs limites. Ensuite, nous présenterons notre approche pour relever les défis actuels de la caractérisation dynamique de la scoliose avec l'analyse de la capture de mouvement en tirant parti des modèles cinématiques sujet-specifiques
As scoliosis is a complex medical condition affecting different parts of the human body, this manuscript will start with anatomical definitions of the spine and an introduction of Adolescent Idiopathic Scoliosis in a dedicated chapter. Next, we will outline the existing methodologies and state-of-the-art approaches that allow for a comprehensive characterization of this condition and its early detection. Then, we will present our contributions and how they address the current challenges.By covering different kind of approaches in this thesis, we can facilitate the dissertation by categorizing them into two distinct types:The first is the static method of examination from medical images. We will point out the current limitations and challenges in the characterization of the spinal alignments using X-ray radiographs. A particular emphasis will be placed on the quantification of the 3D deformities from non-ionizing methods by the external analysis of the torso using machine-learning methods. We will make a review of the literature before a presentation of our contribution that allow a 3D characterization of the full thoracolumbar spine while proposing an accessible, non-ionising examination method.The second type of approach is dynamic, mainly based on motion capture analysis. We will present the different biomarkers that are usually tracked during the acquisitions and show the different methods presented in the literature with their limitations. Then, we will present our approach to address the current challenges in the dynamic characterization of scoliosis with motion capture analysis by leveraging subject-specific kinematic models
APA, Harvard, Vancouver, ISO, and other styles
23

Pettré, Julien. "Planification de mouvements de marche pour acteurs digitaux." Toulouse 3, 2003. http://www.theses.fr/2003TOU30200.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Todoskoff, Alexis. "Etude des évolutions temporelles du comportement du conducteur sur autoroute : Analyse multidimensionnelle de signaux relatifs au véhicule et aux mouvements de tête sur simulateur." Valenciennes, 1999. https://ged.uphf.fr/nuxeo/site/esupversions/728192b1-2071-448e-ac3b-b0ba8954072d.

Full text
Abstract:
L'objet de la thèse concerne la détection des évolutions temporelles du comportement du conducteur et notamment de ses dégradations lors d'une situation de conduite monotone de longue durée sur autoroute (hypovigilance, inattention). L'approche retenue caractérise le comportement du conducteur à partir de variables relatives à l'homme et à ses interactions directes ou indirectes avec chacun des composants du système homme-véhicule-environnement (mouvements de tête, angle au volant, vitesse du véhicule, position latérale du véhicule sur la chaussée, cap du véhicule par rapport au trace de la route). L'étude a été réalisée en simulateur sur une population homogène (âge, profession, expérience, de dix conducteurs. La méthode d'analyse employée utilise deux approches complémentaires. La première, l'approche exploratoire, basée sur l'analyse factorielle des correspondances multiples (afcm) permet de mettre en évidence les phénomènes les plus marquants traduits par les différentes variables utilisées. La seconde, l'approche confirmatoire, basée sur une méthode de test (test de Fisher étudiant la symétrie de la distribution) vient valider les résultats de la précédente. Les résultats obtenus montrent que le comportement des conducteurs évolue significativement en se dégradant progressivement tout au long du trajet. Cette altération du comportement se manifeste notamment par l'apparition de phénomènes caractéristiques confirmés dans la littérature. Des mouvements corporels du conducteur plus importants et plus fréquents, - des ajustements de la trajectoire du véhicule plus amples entrainant une augmentation de l'amplitude des écarts latéraux du véhicule sur la chaussée, - une posture plus avachie du conducteur.
APA, Harvard, Vancouver, ISO, and other styles
25

Raynal, Benjamin. "Applications of digital topology for real-time markerless motion capture." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00597513.

Full text
Abstract:
This manuscript deals with the problem of markerless motion capture. An approach to thisproblem is model-based and is divided into two steps : an initialization step in which the initialpose is estimated, and a tracking which computes the current pose of the subject using infor-mation of previous ones. Classically, the initialization step is done manually, for bidding the possibility to be used online, or requires constraining actions of the subject. We propose an automatic real-time markerless initialization step, that relies on topological information provided by skeletonization of a 3D reconstruction of the subject. This topological information is then represented as a tree, which is matched with another tree used as modeldescription, in order to identify the different parts of the subject. In order to provide such a method, we propose some contributions in both digital topology and graph theory researchfields. As our method requires real-time computation, we first focus on the speed optimization of skeletonization methods, and on the design of new fast skeletonization schemes providing good results. In order to efficiently match the tree representing the topological information with the tree describing the model, we propose new matching definitions and associated algorithms. Finally, we study how to improve the robustness of our method by the use of innovative con-straints in the model. This manuscript ends by a study of the application of our method on several data sets, demon-strating its interesting properties : fast computation, robustness, and adaptability to any kindof subjects
APA, Harvard, Vancouver, ISO, and other styles
26

Benchiheub, Mohamed-El-Fatah. "Contribution à l'analyse des mouvements 3D de la Langue des Signes Française (LSF) en Action et en Perception." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS559/document.

Full text
Abstract:
La langue des signes (LS) est encore une langue peu décrite, en particulier ce qui concerne le mouvement des articulateurs. La recherche sur la LS s’est concentrée sur la compréhension et la modélisation des propretés linguistiques. Peu d’études ont essayé de comprendre la cinématique et la dynamique du mouvement en lui-même et ce que cela apporte à compréhensibilité de la LS générée par des modèles. Cette thèse porte sur l’analyse du mouvement en Langue des Signes Française (LSF) tant des points de vue de sa production et de sa compréhension par les individus sourds.Mieux appréhender le mouvement en LS nécessite la création de nouvelles ressources pour la communauté scientifique étudiant les LSF. Dans cette perspective, nous avons créé et annoté un corpus de données de mouvements 3D de la partie supérieure du corps et du visage, à l'aide du système de capture de mouvement. Le traitement de ce corpus a permis de spécifier la cinématique du mouvement en LSF durant les signes et les transitions.La question posée dans la première partie de cette thèse était de quantifier dans quelle mesure certaines lois classiques connues en contrôle moteur restaient valides durant les mouvements de LS, afin de savoir si les connaissances acquises en contrôle moteur pouvaient être réutilisées en LS.Trouver quelles informations du mouvement sont cruciales pour la compréhension de la LS a constitué la deuxième partie de cette thèse. L’intérêt était de savoir quels aspects du mouvement des modèles de production de LS devraient reproduire en priorité. Dans cette démarche, nous avons étudié dans quelle mesure des individus sourds, signeurs ou non, parvenaient à comprendre la LS en fonction de la quantité d’informations qui leur est disponible
Nowadays, Sign Language (SL) is still little described, particularly for what concerns the movement of articulators. Research on SL has focused on understanding and modeling linguistic properties. Few investigations have been carried out to understand the kinematics and dynamics of the movement itself and what it brings to understand the LS SL generated by models. This thesis deals with the analysis of movement in the French Sign Language LSF with a main focus on its production as well as its understanding by deaf people.Better understanding the movement in SL requires the creation of new resources for the scientific community studying SL. In this framework, we have created and annotated a corpus of 3D motion data from the upper body and face, using a motion capture system. The processing of this corpus made it possible to specify the kinematics of the movement in SL during the signs and the transitions.The first contribution of this thesis was to quantify to what extent certain classical laws, known in motor control, remained valid during the movements of SL, in order to know if the knowledge acquired in motor control could be exploited in SL.Finding relevant information of the movement that is crucial for understanding SL represented the second part of this thesis. We were basically interested to know which aspects of the movement of SL production models should be replicated as a priority. In this approach, we have examined to what extent deaf individuals, whether signers or not, were able to understand SL according to the amount of information available to them
APA, Harvard, Vancouver, ISO, and other styles
27

ROTH, MURIEL. "Développements méthodologiques en imagerie d'activation cérébrale chez l'homme par résonance magnétique nucléaire : quantification de flux, imagerie de l'effet BOLD et correction des mouvements de la tête." Université Joseph Fourier (Grenoble), 1998. http://www.theses.fr/1998GRE10016.

Full text
Abstract:
Ce travail est centre sur les developpements methodologiques en imagerie par resonance magnetique des fonctions du cerveau. Une nouvelle methode d'irm fonctionnelle quantitative basee sur la mesure du debit sanguin est tout d'abord decrite. Des images angiographiques ont permis de mesurer le debit dans une veine drainant le cortex moteur. Des variations significatives du debit sanguin entre des periodes de repos, de simulation mentale et d'execution d'un acte moteur ont ete mises en evidence. Ces informations fonctionnelles ne permettent pas de localiser precisement les regions corticales activees. Cette localisation a ete effectuee en appliquant un traitement approprie sur des images sensibles aux variations du taux d'oxygenation sanguine. Des cartes d'activation cerebrale de bonne resolution spatiale ( 3 mm) sont ainsi obtenues. Nous avons alors demontre que l'aire motrice primaire est activee lors de la simulation mentale d'un acte moteur. Les mouvements de la tete survenant pendant un examen fonctionnel induisent des erreurs sur les cartes d'activation. Un nouvel algorithme de correction des deplacements dans le plan des images est presente. Cet algorithme utilise les proprietes de la transformation de fourier concernant les rotations et les translations afin de determiner rapidement les parametres du deplacement. Des tests sur des images simulees ont permis de montrer la fiabilite et la precision de l'algorithme.
APA, Harvard, Vancouver, ISO, and other styles
28

Fontmarty, Mathias. "Vision et filtrage particulaire pour le suivi tridimensionnel de mouvements humains: applications à la robotique." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00400305.

Full text
Abstract:
Un défi majeur de la Robotique aujourd'hui est sans doute celui du robot personnel. Un objectif sous-jacent est de permettre à un robot mobile de naviguer de manière autonome dans un environnement de grandes dimensions en présence de public. Lors de son évolution, le robot doit pouvoir détecter et prendre en compte la présence d'humains dans son voisinage, par exemple pour les éviter, leur céder le passage, faciliter ou sécuriser leurs déplacements. Cependant, pour une interaction active, le robot doit également être capable de percevoir et d'interpréter leurs postures, leurs démarches ou leurs gestes. Dans ce but, nous souhaitons mettre en place un système de suivi visuel des mouvements humains à partir des caméras embarquées sur le robot. Une représentation 3D fruste de l'enveloppe corporelle est proposée à partir de considérations biomécaniques et anthropomorphes. La démarche consiste alors à recaler ce modèle dans les images obtenues en exploitant plusieurs indices visuels 2D (contours, couleur, mouvements) complétés par une reconstruction 3D éparse de la scène. Pour estimer les paramètres de situation et de configuration du modèle 3D, nous exploitons les techniques de filtrage particulaire, bien connues en suivi visuel. Des évolutions de l'algorithme générique de filtrage sont cependant envisagées afin de répondre plus efficacement au problème posé et de satisfaire des contraintes temporelles cohérentes avec le contexte applicatif. Afin d'aborder les problèmes de manière graduelle, deux contextes sont étudiés. Le premier, de type robotique ubitquiste, repose sur l'utilisation de caméras d'ambiance fixes proposant des points de vue différents et complémentaires de la scène à étudier. Le second, de type robotique mobile, exploite des caméras stéréoscopiques embarquées sur le robot.Ce travail a été effectué au sein du groupe Robotique Action Perception (RAP) du LAAS-CNRS.
APA, Harvard, Vancouver, ISO, and other styles
29

Datas, Adrien. "Analyse et simulation de mouvements d'atteinte contraints en position et orientation pour un humanoïde de synthèse." Thesis, Toulouse, INPT, 2013. http://www.theses.fr/2013INPT0005/document.

Full text
Abstract:
La simulation du geste humain est une thématique de recherche importante et trouve notamment une application dans l'analyse ergonomique pour l'aide à la conception de postes de travail. Le sujet de cette thèse concerne la génération automatique de tâches d'atteinte dans le plan horizontal pour un humanoïde. Ces dernières, à partir d'un objectif exprimé dans l'espace de la tâche, requièrent une coordination de l'ensemble des liaisons. L'une des principales difficultés rencontrées lors de la simulation de gestes réalistes est liée à la redondance naturelle de l'humain. Notre démarche est focalisée principalement sur deux aspects : - le mouvement de la main dans l'espace opérationnel (trajectoire spatiale et profil temporel), - la coordination des différentes sous-chaînes cinématiques. Afin de caractériser le mouvement humain, nous avons mené une campagne de capture de mouvements pour des gestes d'atteinte contraignant la position et l'orientation de la main dans le plan horizontal. Ces acquisitions nous ont permis de connaître l'évolution spatiale et temporelle de la main dans l'espace de la tâche, en translation et en rotation. Ces données acquises couplées à une méthode de rejeu ont également permis d'analyser les relations intrinsèques qui lient l'espace de la tâche à l'espace articulaire du mannequin. Le schéma de génération automatique de mouvements réalistes est basé sur une pile de tâche avec une approche cinématique. L'hypothèse retenue pour simuler le geste est de suivre le chemin le plus court dans l'espace de la tâche tout en bornant le coût dans l'espace articulaire. Un ensemble de paramètres permet de régler le schéma. Il en résulte une cartographie de réglages qui permet de simuler une classe de mouvements réalistes. Enfin, ce schéma de génération automatique de mouvements réalistes est validé par une comparaison quantitative et qualitative entre la simulation et le geste humain
The simulation of human movement is an active theme of research, particularly in ergonomic analysis to aid in the design of workstations. The aim of this thesis concerns the automatic generation of reaching tasks in the horizontal plane for a virtual humanoid. An objective expressed in the task space, requires coordination of all joints of the mannequin. The main difficulties encountered in the simulation of realistic movements is related to the natural redundancy of the human. Our approach is focused mainly on two aspects: - Motion of the hand's operator in the task space (spatial and temporal aspect), - Coordination of all kinematic chains. To characterize human movement, we conducted a set of motion capture with position and orientation constraints of the hand in the horizontal plane. These acquisitions allowed to know the spatial and temporal evolution of the hand in the task space, for translation and rotation aspects. These acquired data were coupled with a playback method to analyze the intrinsic relations that link the task space to joint space of the model. The automatic generation scheme of realistic motion is based on a stack of task with a kinematic approach. The assumption used to simulate the action is to follow the shortest path in the task space while limiting the cost in the joint space. The scheme is characterized by a set of parameters. A global map of parameter adjustment enables the simulation of a class of realistic movements. Finally, this scheme is validated quantitatively and qualitatively with comparison between the simulation and the human gesture
APA, Harvard, Vancouver, ISO, and other styles
30

Hernoux, Franck. "Conception et évaluation d'un système transparent de capture de mouvements des mains pour l'interaction 3D temps réel en environnements virtuels." Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2011. http://pastel.archives-ouvertes.fr/pastel-00651084.

Full text
Abstract:
Le but de cette thèse est de proposer et d'évaluer un système transparent de capture de mouvements des mains en temps réel pour permettre la réalisation d'interactions 3D en environnement virtuel (E.V.). Les outils tels que le clavier et la souris ne suffisent plus lorsque l'on travaille dans des E.V. 3D et les systèmes de capture de mouvements actuels ont l'inconvénient du coût et du port de matériel. Les systèmes basés sur des caméras et le traitement d'images comblent en partie ces lacunes, mais ne permettent pas encore une capture de mouvements 3D précise, efficace et temps réel. Notre système propose une solution à ce problème grâce à une caméra 3D. Nous avons implémenté des modalités qui permettent une interaction plus naturelle avec les objets et l'E.V. L'objectif de notre système est d'obtenir des performances au moins égales à celles d'outils couramment utilisés en réalité virtuelle tout en offrant une meilleure acceptabilité globale, mesurée sous l'angle de l'utilité, de l'utilisabilité et du sentiment d'immersion. Pour répondre à cet objectif, nous avons mené 3 études expérimentales impliquant plus de 100 participants. L'étude 1 a comparé, pour une tâche de sélection, la première version de notre système (basé sur une Camera 3D MESA SwissRanger) à une souris classique. L'expérimentation 2 est axée sur l'étude de la réalisation de tâches de manipulation d'objets (positionnement, orientation, redimensionnement) et de navigation en E.V. Pour cette étude, nous avons comparé la version améliorée de notre système (basée sur la Microsoft Kinect) à des gants de données associés à des capteurs magnétiques. La 3ème étude, complémentaire, porte sur l'évaluation de nouvelles modalités d'interaction, implémentées d'après les commentaires recueillis auprès des participants de la seconde étude.
APA, Harvard, Vancouver, ISO, and other styles
31

Hernoux, Franck. "Conception et évaluation d'un système transparent de capture de mouvements des mains pour l'interaction 3D temps réel en environnements virtuels." Paris, ENSAM, 2010. http://www.theses.fr/2011ENAM0039.

Full text
Abstract:
Le but de cette thèse est de proposer et d'évaluer un système transparent de capture de mouvements des mains en temps réel pour permettre la réalisation d'interactions 3D en environnement virtuel (E. V. ). Les outils tels que le clavier et la souris ne suffisent plus lorsque l'on travaille dans des E. V. 3D et les systèmes de capture de mouvements actuels ont l'inconvénient du coût et du port de matériel. Les systèmes basés sur des caméras et le traitement d'images comblent en partie ces lacunes, mais ne permettent pas encore une capture de mouvements 3D précise, efficace et temps réel. Notre système propose une solution à ce problème grâce à une caméra 3D. Nous avons implémenté des modalités qui permettent une interaction plus naturelle avec les objets et l'E. V. L'objectif de notre système est d'obtenir des performances au moins égales à celles d'outils couramment utilisés en réalité virtuelle tout en offrant une meilleure acceptabilité globale, mesurée sous l'angle de l'utilité, de l'utilisabilité et du sentiment d'immersion. Pour répondre à cet objectif, nous avons mené 3 études expérimentales impliquant plus de 100 participants. L'étude 1 a comparé, pour une tâche de sélection, la première version de notre système (basé sur une Camera 3D MESA SwissRanger) à une souris classique. L'expérimentation 2 est axée sur l'étude de la réalisation de tâches de manipulation d'objets (positionnement, orientation, redimensionnement) et de navigation en E. V. Pour cette étude, nous avons comparé la version améliorée de notre système (basée sur la Microsoft Kinect) à des gants de données associés à des capteurs magnétiques. La 3ème étude, complémentaire, porte sur l'évaluation de nouvelles modalités d'interaction, implémentées d'après les commentaires recueillis auprès des participants de la seconde étude
The purpose of this thesis is to propose and evaluate a markerless system for capturing hand movements in real time to allow 3D interactions in virtual environment (VE). Tools such as keyboard and mouse are not enough for interacting in 3D VE; current motion capture systems are expensive and require wearing equipments. Systems based on cameras and image processing partially fill these gaps, but do not yet allow an accurate, efficient and real-time 3D motion capture. Our system provides a solution to this problem with a 3D camera. We have implemented modalities that allow a more natural interaction with objects and VE. The goal of our system is to obtain performances at least equal to those of common tools in virtual reality while providing a better overall acceptability (i. E. , usefulness, usability, immersion). To achieve this goal, we conducted three experimental studies involving over 100 participants. With the first study, we compared the first version of our system (based on a 3D Camera MESA SwissRanger) to a traditional mouse, for a selection task. The second experiment was focused on the study of the realization of objects-manipulation tasks (position, orientation, scaling) and navigation tasks in VE. For this study, we compared the improved version of our system (based on Microsoft Kinect) with data gloves associated with magnetic sensors. An additional study concerns the evaluation of new modalities of interaction, implemented based on participants' feedback of the second study
APA, Harvard, Vancouver, ISO, and other styles
32

Brazey, Denis. "Reconnaissance de formes et suivi de mouvements en 4D temps-réel : Restauration de cartes de profondeur." Thesis, Rouen, INSA, 2014. http://www.theses.fr/2014ISAM0019.

Full text
Abstract:
Dans le cadre de cette thèse, nous nous intéressons à plusieurs problématiques liées au traitement de données 3D. La première concerne la détection et le suivi de personnes dans des séquences d'images de profondeur. Nous proposons une amélioration d'une méthode existante basée sur une étape de segmentation, puis de suivi des personnes. La deuxième problématique abordée est la détection et la modélisation de têtes dans un nuage de points 3D. Pour cela, nous adoptons une approche probabiliste basée sur un nouveau modèle de mélange sphérique. La dernière application traitée est liée à la restauration d'images de profondeur présentant des données manquantes. Nous proposons pour cela d'utiliser une méthode d'approximation de surface par Dm-splines d'interpolation avec changements d'échelle pour approximer et restaurer les données. Les résultats présentés illustrent l'efficacité des algorithmes développés
In this dissertation, we are interested in several issues related to 3D data processing. The first one concerns people detection and tracking in depth map sequences. We propose an improvement of an existing method based on a segmentation stage followed by a tracking module. The second issue is head detection and modelling in 3D point clouds. In order to do this, we adopt a probabilistic approach based on a new spherical mixture model. The last considered application deals with the restoration of deteriorated depth maps. To solve this problem, we propose to use a surface approximation method based on interpolation Dm-splines with scale transforms to approximate and restore the image. Presented results illustrate the efficiency of the developed algorithms
APA, Harvard, Vancouver, ISO, and other styles
33

Pasquier, Maud. "Segmentation de la locomotion humaine dans le domaine du sport et de la déficience à partir de capteurs embarqués." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENT098.

Full text
Abstract:
Cette thèse porte sur le traitement de données multi-capteurs liées à la locomotion humaine.Son objectif est de concevoir des outils pour la segmentation de la locomotion à partir d'un réseau de capteurs embarqués et appliquée à deux domaines différents: le sport avec l'ultra-marathon et la déficience causée par un symptome de la maladie de Parkinson. Pour ces deux applications, le travail peut atteindre cet objectif concerné. d'une part, les contraintes matérielles liées au réseau de capteurs, et d'autre part, les algorithmes de traitement des données. Dans un premier temps, nous avons recueilli des données multi-capteurs sur un coureur du Marathon des Sables. Le réseau des capteurs étant confronté à des conditions extrêmes, il a fallu s'adapter à des problèmes techniques avant de pouvoir proposer un outil pour segmenter et classer ces grandes quantités de données. Dans un second temps, nous avons travaillé en collaboration avec un médecin, pour comprendre au mieux le ''freezing" (symptôme perturbant la marche de certains malades atteints de la maladie de Parkinson) afin de proposer une nouvelle méthode de détection pour ce symptôme
This thesis focuses on the treatment of multi-sensor related data locomotion humaine.Son goal is to develop tools for segmentation of locomotion from a network of embedded and applied to two different domains sensors : sport with ultra -marathon and disability caused by a symptom of Parkinson's disease . For both applications, the work can achieve this question. one hand , the physical constraints of the network sensors , and secondly , the data processing algorithms . At first , we collected multi-sensor data on a runner Marathon des Sables. The network of sensors being confronted with extreme conditions, it was necessary to adapt to technical before proposing a tool to segment and classify these large amounts of data problems. In a second step , we worked with a doctor, to understand better the '' freezing " (symptom disrupting the progress of some patients with Parkinson's disease ) to propose a new detection method for this symptom
APA, Harvard, Vancouver, ISO, and other styles
34

Ntawiniga, Frédéric. "Head Motion Tracking in 3D Space for Drivers." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25229/25229.pdf.

Full text
Abstract:
Ce travail présente un système de vision par ordinateur capable de faire un suivi du mouvement en 3D de la tête d’une personne dans le cadre de la conduite automobile. Ce système de vision par ordinateur a été conçu pour faire partie d'un système intégré d’analyse du comportement des conducteurs tout en remplaçant des équipements et des accessoires coûteux, qui sont utilisés pour faire le suivi du mouvement de la tête, mais sont souvent encombrants pour le conducteur. Le fonctionnement du système est divisé en quatre étapes : l'acquisition d'images, la détection de la tête, l’extraction des traits faciaux, la détection de ces traits faciaux et la reconstruction 3D des traits faciaux qui sont suivis. Premièrement, dans l'étape d'acquisition d'images, deux caméras monochromes synchronisées sont employées pour former un système stéréoscopique qui facilitera plus tard la reconstruction 3D de la tête. Deuxièmement, la tête du conducteur est détectée pour diminuer la dimension de l’espace de recherche. Troisièmement, après avoir obtenu une paire d’images de deux caméras, l'étape d'extraction des traits faciaux suit tout en combinant les algorithmes de traitement d'images et la géométrie épipolaire pour effectuer le suivi des traits faciaux qui, dans notre cas, sont les deux yeux et le bout du nez du conducteur. Quatrièmement, dans une étape de détection des traits faciaux, les résultats 2D du suivi sont consolidés par la combinaison d'algorithmes de réseau de neurones et la géométrie du visage humain dans le but de filtrer les mauvais résultats. Enfin, dans la dernière étape, le modèle 3D de la tête est reconstruit grâce aux résultats 2D du suivi et ceux du calibrage stéréoscopique des caméras. En outre, on détermine les mesures 3D selon les six axes de mouvement connus sous le nom de degrés de liberté de la tête (longitudinal, vertical, latéral, roulis, tangage et lacet). La validation des résultats est effectuée en exécutant nos algorithmes sur des vidéos préenregistrés des conducteurs utilisant un simulateur de conduite afin d'obtenir des mesures 3D avec notre système et par la suite, à les comparer et les valider plus tard avec des mesures 3D fournies par un dispositif pour le suivi de mouvement installé sur la tête du conducteur.
This work presents a computer vision module capable of tracking the head motion in 3D space for drivers. This computer vision module was designed to be part of an integrated system to analyze the behaviour of the drivers by replacing costly equipments and accessories that track the head of a driver but are often cumbersome for the user. The vision module operates in five stages: image acquisition, head detection, facial features extraction, facial features detection, and 3D reconstruction of the facial features that are being tracked. Firstly, in the image acquisition stage, two synchronized monochromatic cameras are used to set up a stereoscopic system that will later make the 3D reconstruction of the head simpler. Secondly the driver’s head is detected to reduce the size of the search space for finding facial features. Thirdly, after obtaining a pair of images from the two cameras, the facial features extraction stage follows by combining image processing algorithms and epipolar geometry to track the chosen features that, in our case, consist of the two eyes and the tip of the nose. Fourthly, in a detection stage, the 2D tracking results are consolidated by combining a neural network algorithm and the geometry of the human face to discriminate erroneous results. Finally, in the last stage, the 3D model of the head is reconstructed from the 2D tracking results (e.g. tracking performed in each image independently) and calibration of the stereo pair. In addition 3D measurements according to the six axes of motion known as degrees of freedom of the head (longitudinal, vertical and lateral, roll, pitch and yaw) are obtained. The validation of the results is carried out by running our algorithms on pre-recorded video sequences of drivers using a driving simulator in order to obtain 3D measurements to be compared later with the 3D measurements provided by a motion tracking device installed on the driver’s head.
APA, Harvard, Vancouver, ISO, and other styles
35

Yin, Tairan. "The One-Man-Crowd : towards single-user capture of collective motions using virtual reality." Electronic Thesis or Diss., Université de Rennes (2023-....), 2024. https://ged.univ-rennes1.fr/nuxeo/site/esupversions/10c60af3-9dbd-40c7-8e8b-2ba26ae866b4.

Full text
Abstract:
Les données sur les mouvements de foule sont essentielles pour comprendre et simuler des comportements de foule. Ces données sont toutefois rares en raison des multiples difficultés liées à leur collecte. La réalité virtuelle (RV) a été utilisée pour étudier le comportement individuel dans les foules, généralement en immergeant les utilisateurs dans des foules virtuelles et en capturant leur comportement. Dans cette thèse, nous proposons et évaluons une nouvelle approche établie sur la RV, qui lève les limites des expériences réelles pour l'acquisition de données sur le mouvement des foules. Nous appelons cette approche le paradigme « One-Man-Crowd ». Nous proposons tout d'abord de capturer les mouvements de la foule avec un seul utilisateur. En enregistrant les trajectoires passées et les mouvements du corps de l'utilisateur, et en les affichant sur des personnages virtuels, les utilisateurs construisent progressivement le comportement global de la foule. Nous proposons ensuite un nouveau concept de foule contextuelle qui s'appuie sur la simulation de la foule pour atténuer les biais comportementaux des utilisateurs lors de la procédure de capture. Nous mettons en œuvre deux stratégies différentes, à savoir un processus Replace-Record-Replay (3R) et un processus Replace-Record-Replay-Responsive (4R). Nous évaluons et validons l'approche proposée en reproduisant et en comparant au total cinq expériences de foules réelles. Nos résultats suggèrent que le paradigme One-Man-Crowd offre une approche prometteuse pour l'acquisition de données réalistes sur les mouvements de foule dans des environnements virtuels
Crowd motion data is fundamental for understanding and simulating realistic crowd behaviors. Such data is, however, scarce because of multiple challenges and difficulties involved in its gathering. Virtual Reality (VR) has been leveraged to study individual behavior in crowds, typically by immersing users into simulated virtual crowds and capturing their behavior. In this thesis, we propose and evaluate a novel VR-based approach, lifting the limitations of real-world experiments for the acquisition of crowd motion data. We refer to this approach the One-Man-Crowd paradigm. We first propose to capture crowd motion with a single user. By recording the past trajectories and body movements of the user, and displaying them on virtual characters, the users progressively build the overall crowd behavior by themselves. Then, we propose the new concept of contextual crowds that leverage crowd simulation to mitigate the users' behavioral bias during the capture procedure. We implement two different strategies, namely a Replace-Record-Replay (3R) process and a Replace-Record-Replay-Responsive (4R) process. We evaluate and validate the proposed approach by replicating and comparing with in total five real crowd experiments. Our results suggest that the One-Man-Crowd paradigm offers a promising approach for acquiring realistic crowd motion data in virtual environments
APA, Harvard, Vancouver, ISO, and other styles
36

Marion, Damien. "Sharing big display : développement des technologies et métaphores d'interactions nouvelles pour le partage collaboratif d'affichage en groupe ouvert." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0924/document.

Full text
Abstract:
Aujourd’hui, les écrans ont envahi nos quotidiens. Cette colonisation a engendré l’avènement de nouveaux écrans, les écrans de grand format. Or, ces grands écrans sont souvent utilisés comme de simples affichages statiques n’autorisant que très peu d’interaction aux utilisateurs en présence. Mais alors comment permettre des interactions multi-utilisateur et surtout quels modes et moyens d’interactions proposer afin d’interagir avec ces grands écrans ? Il faut évidemment définir des règles de collaboration : que faire si plusieurs personnes consultent la même information en même temps ? Comment permettre à un nouvel arrivant de prendre conscience de ce qu’il y a à voir alors que des utilisateurs ont déjà “transformé” l’affichage par leur utilisation courante ?Face à ces enjeux, notre travail a consisté, dans un premier temps, à tester des interactions multi-utilisateurs sur grand écran à l’aide d’un dispositif de détection et de suivi de la position et de l’orientation de la tête (head tracking) instrumenté. Nous avons ainsi mis en évidence l’importance du concept de « vision flottante » dans la recherche collaborative d’informations sur grand écran. Dans un second temps, nos recherches se sont concentrées sur le développement d’un dispositif d’head tracking permettant des interactions multi-utilisateur (jusqu’à 6 personnes), sans artefacts et sans calibrage avec un écran de grand format. Enfin, nous présentons l’étude comparative d’un même affichage tantôt statique et tantôt rendu dynamique à l’aide de notre dispositif. Cette étude est basée sur l’évaluation de l’expérience utilisateur (UX). Ainsi, nous avons pu dégager les premières recommandations concernant les métaphores d’interactions à mettre en place pour interagir avec un écran de grand format dans un contexte d’usage en groupe ouvert.Ce travail de doctorat a été consacré à la mise en avant de la faisabilité, de l’intérêt et de la proposition de premières orientations concernant la conception d’interactions multi-utilisateurs avec un écran de grand format basées sur une technique d’head tracking
Screens have invaded our daily life. Amongst them, large displays are becoming increasingly present in public places. Sometimes, a few interaction are proposed to the users, but most of the time they are simply used as static displays. So, how to interact with these large displays and especially how to allow multi-user interactions? Of course, we have to define rules for collaboration: what we have to do if several people consult the same information at the same time? How to allow a newcomer to become aware of what there is to see when users have already "transformed" the display by their current use?First, our work consisted in testing instrumented multi-user interactions, based on a head tracking system, during a collaborative information seeking task, on a large display. In this part, we have highlighted the importance of the concept of "floating vision". Then, our research focused on the development of a head tracking system allowing intuitive interactions, without needing neither a special equipment nor individual calibration. Our system supports several users (up to six) simultaneously interacting with individualized information on a large display. Finally, we present the study of performance gain within a context of multi-user competitive consultation of information. We compare the benefit of an adaptive display (information move in front of users who are focusing on them), with a standard display. This study is based on user experience (UX) analysis. Thus, we were able to identify the first recommendations about interaction metaphors allowing intuitive interactions with a large display in an open group context.This research was devoted to highlighting the feasibility, interest and proposition of initial orientations concerning the design of multi-user interactions with large public displays based on a head tracking technique
APA, Harvard, Vancouver, ISO, and other styles
37

Tabacaru, Sabina. "Humorous implications and meanings : a multi-modal approach to sarcasm in interactional humor." Thesis, Lille 3, 2014. http://www.theses.fr/2014LIL30015.

Full text
Abstract:
Cette thèse examine les différentes façons utilisées pour construire de l’humour en interaction dans deux séries américaines contemporaines—/Dr. House/ et /The Big Bang Theory/. A travers les différentes techniques d’écriture, nous observons les éléments utilisés pour construire des énoncés humoristiques. Le dialogue entre les personnages occupe une place fondamentale puisqu’il est centré sur les points de convergence et donc sur l’idée d’intersubjectivité entre les interlocuteurs.Cette étude est basée sur une expérience originale qui implique l’examen de la gestuelle utilisée par les personnages dans les deux séries pour créer des effets humoristiques. Les gestes et les différentes techniques humoristiques ont été annotés dans le logiciel vidéo ELAN qui permet une vision plus large sur les processus créant l’humour en interaction.Les résultats montrent une visible préférence pour le sarcasme en tant que catégorie de l’humour la plus utilisée dans le corpus. De plus, le corpus montre aussi une prédilection pour l’utilisation de certaines expressions du visage (haussement et froncement des sourcils) ainsi que certains mouvements de la tête (inclinaison et hochement). Ces éléments sont repris et expliqués en fonction de leur rôle dans le contexte et dans l’attitude des locuteurs pour une meilleure compréhension de l’humour en interaction
This dissertation examines the different techniques used to achieve humor in interaction in two contemporary American television-series—/House M.D./ and /The Big Bang Theory./ Through different writing techniques, we observe the elements that are used in the process of humorous meaning construction. The dialogue between interlocutors plays a central role since it centers on intersubjectivity, and hence, the common ground between speakers.This original study also implies the investigation of the different gestures used by interlocutors in the two series to create humorous effects. These /gestural triggers/ as well as the different humor types have been annotated in ELAN, which allows a more holistic view of the processes involved in humor.The results show an evident preference for sarcasm as well as a preference for certain facial expressions (raising eyebrows and frowning) and head movements (head tilts and head nods). These elements are explained in accordance with a given context and with the speakers’ attitude for a better understanding of humor in interaction
APA, Harvard, Vancouver, ISO, and other styles
38

Marcellin, Félix. "Analyse de la précision d’un nouveau système de capture du mouvement optique : cas du Mokam." Thesis, Compiègne, 2021. https://bibliotheque.utc.fr/Default/doc/SYRACUSE/2021COMP2626.

Full text
Abstract:
De nombreux systèmes de capture du mouvement voient le jour chaque année. Pourtant bien que ces systèmes entrent dans la famille des outils métrologiques, les informations sur la précision de mesures sont hétérogènes et leur champ d’application est à la discrétion de l’utilisateur. Dans ce contexte, la question de recherche que je me suis posée est : comment comparer les précisions des systèmes d’analyse du mouvement de technologie différente et comment définir une application compatible ? Dans cette thèse, je me suis intéressé aux systèmes d’analyse du mouvement optique avec marqueurs. Les deux systèmes de capture du mouvement que j’ai utilisés sont le système Mokam (Kinestesia, Verton, France) et le système Vicon (Oxford Metrics, Oxford, United Kingdom). Ce dernier est considéré comme référence. Pour obtenir les informations de précision d’un système, j’ai proposé un protocole expérimental permettant d’évaluer la précision en statique et lors de la réalisation de mouvement. Puis j’ai identifié des applications pour le contrôle postural ou l’analyse quantifiée de la locomotion réalisable par un système en fonction de ses capacités de précision. Ce travail de recherche a permis, dans un premier temps d’évaluer la précision spatiale de localisation tridimensionnelle de ces deux systèmes transposables à tous les systèmes de capture du mouvement avec marqueur. Dans un deuxième temps, il a été montré que la précision de mesure est un point crucial pour déterminer l’application d’usage de ces systèmes. En d’autres termes, tout système de capture du mouvement ne peut être dédié à toute application
Many motion capture systems emerge each year. However, although these systems are part of the family of metrology tools, the information on measurement accuracy is heterogeneous and their scope is at the discretion of the user. In this context, the research question I asked myself was : how to compare the accuracy of motion capture systems of different technologies and how to define a compatible application ? In this thesis, I was interested in optical motion analysis systems with markers. The two motion capture systems I used are the Mokam system (Kinestesia ,Verton, France) and the Vicon system (Oxford Metrics, United Kingdom). The latter is considered as the reference. In order to obtain the precision information of a system, I proposed an experimental protocol to evaluate the precision in statics and during the realisation of movement. Then I identified applications for postural control or quantified analysis of the locomotion achievable by a system according to its precision capabilities. This research work aloud, in a first step, to evaluate the spatial precision of three-dimensional localisation of these two systems transposable to all marker-based motion capture systems. Secondly, it was shown that measurement accuracy is a crucial point in determining the application of these systems. In other words, not every motion capture system can be dedicated to every application
APA, Harvard, Vancouver, ISO, and other styles
39

Fleuriet, Jérome. "Capture fovéale d'une cible visuelle en mouvement : Approche neurophysiologique chez le singe." Thesis, Aix-Marseille 2, 2011. http://www.theses.fr/2011AIX20717.

Full text
Abstract:
Intercepter une cible en mouvement est un défi spatiotemporel relevé par de nombreuses espèces animales. Ici, nous nous sommes intéressés à la capture fovéale lors de l’orientation saccadique du regard vers une cible visuelle mobile chez le singe vigile. La théorie actuelle propose que l’interception saccadique fasse intervenir deux voies neuronales. Une première voie acheminerait, via le colliculus supérieur profond (CSp), un signal de position échantillonnée au générateur saccadique. La seconde, via le cervelet, fournirait une commande supplémentaire sur la base des signaux de mouvement visuel. Une étude comportementale a été réalisée afin d’analyser la dynamique de l’influence de ces signaux sur la trajectoire saccadique et a permis de mettre en évidence une influence continue. Dans une seconde étude, nous avons testé la robustesse du système oculomoteur à une perturbation spatiotemporelle inattendue (par microstimulation électrique du CSp) et montré la présence de saccades de correction précises. L’ensemble de nos résultats plaide pour une représentation continue du but des saccades d’interception
Intercepting a visual moving target is a spatiotemporal challenge for the brain achieved by various species. Here, we investigated the foveal capture of a moving target by saccadic gaze shifts in the awake monkey. The current theory proposes that the saccadic interception involves two neural pathways. A first pathway would convey to the saccade burst generator a sampled target position signal through the superior colliculus (SC). The second one, through the cerebellum, would convey an additional command on the basis of motion-related signals. A behavioral experiment was performed to analyze the influence of motion-related signals on the saccade dynamics and allowed showing a continuous influence. In a second study, we tested the robustness of the oculomotor system to an unexpected spatiotemporal perturbation (by electrical microstimulation in the deep SC) and showed the presence of accurate correction saccades. Our results argue for a continuous representation of the saccade goal
APA, Harvard, Vancouver, ISO, and other styles
40

Chaumeil, Anaïs. "Evaluation et développement de méthodes d'analyse du mouvement sans marqueurs à partir de vidéos." Electronic Thesis or Diss., Lyon 1, 2024. http://www.theses.fr/2024LYO10209.

Full text
Abstract:
L’analyse du mouvement sans marqueurs à partir de vidéos a bénéficié, au cours des dernières années, du développement des méthodes automatiques d’estimation de points, basées sur l’apprentissage profond. Pour l’analyse du mouvement en biomécanique, ces méthodes présentent de multiples avantages, comme la non-instrumentation du participant ou encore la possibilité de réaliser l’analyse du mouvement en dehors du laboratoire. L’objectif de cette thèse est alors de contribuer à l’évaluation et au développement de méthodes d’analyse du mouvement sans marqueurs à partir de vidéos pour différentes applications en biomécanique. Tout d’abord, une méthode existante d’analyse du mouvement sans marqueurs à partir de vidéos est évaluée pour des mouvements et des paramètres cinétiques, qui sont peu étudiés dans la littérature. Ensuite, la caractérisation des points d’intérêt 2D estimés par les méthodes automatiques d’estimation de points est réalisée, et l’influence de ces caractéristiques sur la reconstruction en 3D des points est étudiée. Enfin, une méthode utilisant l’entièreté des cartes de confiance obtenues en sortie des méthodes automatiques d’estimation de points et permettant de calculer la cinématique 3D est proposée et évaluée
Video-based markerless motion capture has benefitted, in the last few years, from the development of automatic point estimation methods, which are based on deep learning techniques. For motion analysis in biomechanics, these methods have numerous advantages, such as the possibility to analyse the movement without participant-worn equipment or outside of the laboratory. The goal of this thesis is thus to contribute to the evaluation and development of video-based markerless motion capture methods for applications in biomechanics. First, an existing video-based markerless motion capture method is evaluated for movements and kinematic parameters, rarely studied in the literature. Then, 2D keypoints estimated by automatic point estimation methods are characterized, and the influence of these characteristics on 3D point reconstruction is studied. Finally, a method using whole confidence heatmaps – which are obtained using automatic point estimation methods – to compute 3D kinematics is proposed and evaluated
APA, Harvard, Vancouver, ISO, and other styles
41

Guingo, Geoffrey. "Synthèse de texture dynamique sur objets déformables." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM053.

Full text
Abstract:
Dans les mondes virtuels, l'apparence des objets mis en scène est un point crucial pour l'immersion de l'utilisateur. Afin d'approximer les relations lumière-matière, une manière communément mise en place est d’habiller les objets de la scène avec des textures. Afin d’aider les artistes dans le processus de création, des méthodes de synthèse et d'édition de texture ont vu le jour. Ces méthodes se différencient par les gammes de textures synthétisables, et notamment par la prise en compte des textures hétérogènes qui sont un réel défi. Ces textures sont composées de plusieurs régions aux contenus différents, dont la répartition est régie par une structure globale. Chacune des zones correspond à un matériau différent ayant une apparence et un comportement dynamique propre.Premièrement, nous proposons un modèle additif de textures statiques, permettant la synthèse à la volée de textures hétérogènes de tailles arbitraires à partir d'un exemple. Cette méthode comprend un modèle de bruit gaussien variant spatialement, ainsi qu'un mécanisme permettant la synchronisation avec une couche de structure. L’objectif est d’améliorer la variété de la synthèse tout en préservant des détails plausibles à petite échelle. Notre méthode se compose d'une phase d'analyse, composée d'un ensemble d'algorithmes permettant d'instancier les différentes couches à partir d'une image d'exemple, puis d'une étape de synthèse temps réel. Au moment de la synthèse, les deux couches sont générées indépendamment, synchronisées et ajoutées, en préservant la cohérence des détails même lorsque la couche de structure est déformée afin d'augmenter la variété.Dans un second temps, nous proposons une nouvelle approche pour modéliser et contrôler la déformation dynamique des textures, dont l'implantation dans le pipeline graphique standard reste simple. La déformation est modélisée à la résolution des pixels sous forme d'un warping dans le domaine paramétrique. Cela permet ainsi d'avoir un comportement différent pour chaque pixel, et donc dépendant du contenu de la texture. Le warping est défini localement et dynamiquement par une intégration en temps réel le long des lignes de flux d’un champ de vitesse pré-calculé, et peut être contrôlé par la déformation de la géométrie de la surface sous-jacente, par des paramètres d’environnement ou par édition interactive. Nous proposons de plus une méthode pour pré-calculer le champ de vitesse à partir d’une simple carte scalaire représentant des comportements dynamiques hétérogènes, ainsi qu’une solution pour gérer les problèmes d’échantillonnage survenant dans les zones sur-étirées lors de la déformation
In virtual worlds, the objects appearance is a crucial point for users immersion. In order to approximate light-matter relationships, a common way is to use textures. To help artists during the creative process, texture synthesis and texture editing methods have emerged. These methods are differentiated by the ranges of synthesizable textures, and especially by taking into account the heterogeneous textures. These textures are composed of several regions with different contents, whose distribution is lead by a global structure. Each of the zones corresponds to a different material having a specific appearance and dynamic behavior.First, we propose an additive model of static textures, allowing on-the-fly synthesis of heterogeneous textures of arbitrary sizes from an example. This method includes a spatially varying Gaussian noise pattern, as well as a mechanism for synchronization with a structure layer. The aim is to improve the variety of synthesis while preserving plausible small details. Our method consists of an analysis phase, composed of a set of algorithms for instantiating the different layers from an example image, then a real-time synthesis step. During synthesis, the two layers are independently generated, synchronized, and added, preserving details consistency even when the structure layer is deformed to increase variety.In a second step, we propose a new approach to model and control the dynamic deformation of textures, whose implementation in the standard graphical pipeline remains simple. The deformation is modeled at pixels resolution in the form of a warping in the parametric domain. Making possible to have a different behavior for each pixel, and thus depending of texture content. The warping is locally and dynamically defined by real-time integration along the flow lines of a pre-calculated velocity field, and can be controlled by the deformation of the underlying surface geometry, by parameters of environment or through interactive editing. In addition, we propose a method to pre-compute the velocity field from a simple scalar map representing heterogeneous dynamic behaviors, as well as a solution to handle sampling problems occurring in overstretched areas at the time. deformation
APA, Harvard, Vancouver, ISO, and other styles
42

Morel, Marion. "Modélisation de séries temporelles multidimensionnelles. Application à l'évaluation générique et automatique du geste sportif." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066235/document.

Full text
Abstract:
Qu'il tente de prévenir la chute d'une personne âgée, de traduire la langue des signes ou de contrôler un humain virtuel, l'analyse de gestes est un vaste domaine de recherche qui s'attelle à reconnaître, classifier, segmenter, indexer ou encore évaluer différents types de mouvements. Cependant, peu de travaux se concentrent sur cette dernière approche d'évaluation. Ce travail de thèse propose de mettre en place un outil d’évaluation automatique et générique d’un geste sportif, reposant sur l’utilisation d’une base de données de gestes experts acquis via un système de capture de mouvements. Afin d’extraire un mouvement de référence, l’algorithme de déformation temporelle dynamique (DTW) est considéré pour aligner puis moyenner les gestes. Les méthodes d’alignements et de moyennage de séries temporelles se confrontant aux conséquences néfastes de chemins de déformation du DTW pathologiques, des contraintes locales sont ajoutées et donnent lieu à un nouvel algorithme appelé CDBA. La qualité d’un geste est estimée spatialement et temporellement à chaque instant et pour chaque membre par comparaison avec le geste de référence et pondérée par la dispersion des données expertes autour de ce geste moyen. Le processus ainsi mis en place est validé à partir de gestes de karaté et de tennis annotés par des entraîneurs. Un premier prototype d’outil d’entraînement en ligne est finalement proposé et laisse entrevoir les potentialités d’usage qui pourraient être menées à la suite de ce travail
Either to reduce falling risks in elderly people, to translate the sign language or to control a virtual human being, gesture analysis is thriving research field that aims at recognizing, classifying, segmenting, indexing and evaluating different types of motions. As few studies tackle the evaluation process, this PhD focuses on the design of an autonomous system for the generic evaluation of sport-related gestures. The tool is trained on the basis of experts’ motions recorded with a motion capture system. Dynamic Time Warping (DTW) is deployed to obtain a reference gesture thanks to data alignment and averaging. Nevertheless, this standard method suffers from pathological paths issues that reduce its effectiveness. For this reason, local constraints are added to the new DTW-based algorithm, called CDBA (Constrained DTW Barycenter Averaging). At each time step and for each limb, the quality of a gesture is spatially and temporally assessed. Each new motion is compared to the reference gesture and weighted in terms of data dispersion around the reference.The process is validated on annotated karate and tennis databases. A first online training prototype is given in order to prompt further research on this subject
APA, Harvard, Vancouver, ISO, and other styles
43

Fernandez-Abrevaya, Victoria. "Apprentissage à grande échelle de modèles de formes et de mouvements pour le visage 3D." Electronic Thesis or Diss., Université Grenoble Alpes, 2020. https://theses.hal.science/tel-03151303.

Full text
Abstract:
Les modèles du visage 3D fondés sur des données sont une direction prometteuse pour capturer les subtilités complexes du visage humain, et une composante centrale de nombreuses applications grâce à leur capacité à simplifier des tâches complexes. La plupart des approches basées sur les données à ce jour ont été construites à partir d’un nombre limité d’échantillons ou par une augmentation par données synthétiques, principalement en raison de la difficulté à obtenir des scans 3D à grande échelle. Pourtant, il existe une quantité substantielle d’informations qui peuvent être recueillies lorsque l’on considère les sources publiquement accessibles qui ont été capturées au cours de la dernière décennie, dont la combinaison peut potentiellement apporter des modèles plus puissants.Cette thèse propose de nouvelles méthodes pour construire des modèles de la géométrie du visage 3D fondés sur des données, et examine si des performances améliorées peuvent être obtenues en apprenant à partir d’ensembles de données vastes et variés. Afin d’utiliser efficacement un grand nombre d’échantillons d’apprentissage, nous développons de nouvelles techniques d’apprentissage profond conçues pour gérer efficacement les données faciales tri-dimensionnelles. Nous nous concentrons sur plusieurs aspects qui influencent la géométrie du visage : ses composantes de forme, y compris les détails, ses composants de mouvement telles que l’expression, et l’interaction entre ces deux sous-espaces.Nous développons notamment deux approches pour construire des modèles génératifs qui découplent l’espace latent en fonction des sources naturelles de variation, e.g.identité et expression. La première approche considère une nouvelle architecture d’auto-encodeur profond qui permet d’apprendre un modèle multilinéaire sans nécessiter l’assemblage des données comme un tenseur complet. Nous proposons ensuite un nouveau modèle non linéaire basé sur l’apprentissage antagoniste qui davantage améliore la capacité de découplage. Ceci est rendu possible par une nouvelle architecture 3D-2D qui combine un générateur 3D avec un discriminateur 2D, où les deux domaines sont connectés par une couche de projection géométrique.En tant que besoin préalable à la construction de modèles basés sur les données, nous abordons également le problème de mise en correspondance d’un grand nombre de scans 3D de visages en mouvement. Nous proposons une approche qui peut gérer automatiquement une variété de séquences avec des hypothèses minimales sur les données d’entrée. Ceci est réalisé par l’utilisation d’un modèle spatio-temporel ainsi qu’une initialisation basée sur la régression, et nous montrons que nous pouvons obtenir des correspondances précises d’une manière efficace et évolutive.Finalement, nous abordons le problème de la récupération des normales de surface à partir d’images naturelles, dans le but d’enrichir les reconstructions 3D grossières existantes. Nous proposons une méthode qui peut exploiter toutes les images disponibles ainsi que les données normales, qu’elles soient couplées ou non, grâce à une nouvelle architecture d’apprentissage cross-modale. Notre approche repose sur un nouveau module qui permet de transférer les détails locaux de l’image vers la surface de sortie sans nuire aux performances lors de l’auto-encodage des modalités, en obtenant des résultats de pointe pour la tâche
Data-driven models of the 3D face are a promising direction for capturing the subtle complexities of the human face, and a central component to numerous applications thanks to their ability to simplify complex tasks. Most data-driven approaches to date were built from either a relatively limited number of samples or by synthetic data augmentation, mainly because of the difficulty in obtaining large-scale and accurate 3D scans of the face. Yet, there is a substantial amount of information that can be gathered when considering publicly available sources that have been captured over the last decade, whose combination can potentially bring forward more powerful models.This thesis proposes novel methods for building data-driven models of the 3D face geometry, and investigates whether improved performances can be obtained by learning from large and varied datasets of 3D facial scans. In order to make efficient use of a large number of training samples we develop novel deep learning techniques designed to effectively handle three-dimensional face data. We focus on several aspects that influence the geometry of the face: its shape components including fine details, its motion components such as expression, and the interaction between these two subspaces.We develop in particular two approaches for building generative models that decouple the latent space according to natural sources of variation, e.g.identity and expression. The first approach considers a novel deep autoencoder architecture that allows to learn a multilinear model without requiring the training data to be assembled as a complete tensor. We next propose a novel non-linear model based on adversarial training that further improves the decoupling capacity. This is enabled by a new 3D-2D architecture combining a 3D generator with a 2D discriminator, where both domains are bridged by a geometry mapping layer.As a necessary prerequisite for building data-driven models, we also address the problem of registering a large number of 3D facial scans in motion. We propose an approach that can efficiently and automatically handle a variety of sequences while making minimal assumptions on the input data. This is achieved by the use of a spatiotemporal model as well as a regression-based initialization, and we show that we can obtain accurate registrations in an efficient and scalable manner.Finally, we address the problem of recovering surface normals from natural images, with the goal of enriching existing coarse 3D reconstructions. We propose a method that can leverage all available image and normal data, whether paired or not, thanks to a new cross-modal learning architecture. Core to our approach is a novel module that we call deactivable skip connections, which allows to transfer the local details from the image to the output surface without hurting the performance when autoencoding modalities, achieving state-of-the-art results for the task
APA, Harvard, Vancouver, ISO, and other styles
44

Peckel, Mathieu. "Le lien réciproque entre musique et mouvement étudié à travers les mouvements induits par la musique." Thesis, Dijon, 2014. http://www.theses.fr/2014DIJOL025/document.

Full text
Abstract:
La musique et le mouvement sont inséparables. Les mouvements produits spontanément lors de l'écoute musicale seraient le reflet d'un lien étroit entre le système perceptif et moteur. Ce lien est l'objet d'étude de cette thèse. Une première approche concernait l'impact des mouvements induits par la musique sur la cognition musicale. Dans deux études, nous montrons que bouger en rythme sur la musique n'améliore ni la rétention de nouveaux morceaux de musique (Etude 1) ni la rétention d'informations contextuelles relatives à leur encodage (Etude 2). Les résultats des ces deux études suggèrent la superficialité du traitement inhérent à l'expression des affordances musicales nécessaire à la production de mouvements induits par la musique dans la tâche motrice ainsi qu'un traitement moteur automatique de la musique indépendamment de la tâche. L'importance du groove musical a également été mise en évidence. Une deuxième approche concernait l'influence de la perception de rythmes musicaux sur la production de mouvements rythmiques. Notre troisième étude testait l'hypothèse selon laquelle les membres du corps seraient influencés de manière différente en fonction du tempo musical. Les résultats montrent que la tâche de tapping était la plus influencée par la perception de rythmes musicaux. Ceci serait dû à la nature similaire de la pulsation musicale et des mécanismes de timing impliqués dans le tapping ainsi qu'à des phénomènes de résonance motrice. Nous avons également observé la mise en place de certaines stratégies face à la tâche. L'ensemble de ces résultats est discuté à la lumière du lien entre perception et action, de la cognition musicale incarnée et des affordances musicales
Music and movement are inseparable. The movements that are spontaneously procuded when listening to music are thought to be related to the close relationship between the perceptual and motor system in listeners. This particular link is the main topic of this thesis. A first approach was focused on the impact of music-induced movements on music cognition. In two studies, we show that moving along to music neither enhances the retention of new musical pieces (Study 1) nor the retention of the contextual information related to their encoding (Study 2). These results suggest a shallow processing inherent to the expression of musical affordances required for the production of music-induced movements in the motor task. Moreover, they suggest that music is automatically processed in a motoric fashion independantly of the task. Our results also brought forward the importance of the musical groove. A second approach focused on the influence of the perception of musical rhythms on the production of rythmic movements. Our third study tested the hypothesis that different limbs would be differentially influenced depending on the musical tempo. Results show that the tapping taks was the most influenced by the perception of musical rhythms. We argued that this would come from the similar nature of the musical pulse and the timing mecanisms involved in the tapping task and motor resonance phenomena. We also observed different strategies put in place to cope with the task. All these results are discussed in light of the link between perception and action, embodied musical cognition and musical affordances
APA, Harvard, Vancouver, ISO, and other styles
45

Szinte, Martin. "The recovery of target locations in space across movements of eyes and head." Phd thesis, Université René Descartes - Paris V, 2012. http://tel.archives-ouvertes.fr/tel-00760375.

Full text
Abstract:
The visual system has evolved to deal with the consequences of our own movements onour perception. In particular, evolution has given us the ability to perceive our visual world as stableand continuous despite large shift of the image on our retinas when we move our eyes, head orbody. Animal studies have recently shown that in some cortical and sub-cortical areas involved inattention and saccade control, neurons are able to anticipate the consequences of voluntary eyemovements on their visual input. These neurons predict how the world will look like after a saccadeby remapping the location of each attended object to the place it will occupy following a saccade.In a series of studies, we first showed that remapping could be evaluated in a non-invasive fashion in human with simple apparent motion targets. Using eye movement recordingsand psychophysical methods, we evaluated the distribution of remapping errors across the visualfield and found that saccade compensation was fairly accurate. The pattern of errors observedsupport a model of space constancy based on a remapping of attention pointers and excluded otherknown models. Then using targets that moved continuously while a saccade was made across themotion path, we were able to directly visualize the remapping processes. With this novel method wedemonstrated again the existence of systematic errors of correction for the saccade, best explainedby an inaccurate remapping of expected moving target locations. We then extended our model toother body movements, and studied the contribution of sub-cortical receptors (otoliths and semi-circular canals) in the maintenance of space constancy across head movements. Contrary tostudies reporting almost perfect compensations for head movements, we observed breakdowns ofspace constancy for head tilt as well as for head translation. Then, we tested remapping of targetlocations to correct for saccades at the very edge of the visual field, remapping that would place theexpected target location outside the visual field. Our results suggest that visual areas involved inremapping construct a global representation of space extending out beyond the traditional visualfield. Finally, we conducted experiments to determine the allocation of attention across saccades.We demonstrated that the attention captured by a brief transient was remapped to the correctspatial location after the eye movement and that this shift can be observed even before thesaccade.Taken together these results demonstrate the management of attention pointers to therecovery of target locations in space as well as the ability of behavioral measurements to address atopic pioneered by eletrophysiologists.
APA, Harvard, Vancouver, ISO, and other styles
46

Dagnes, Nicole. "3D human face analysis for recognition applications and motion capture." Thesis, Compiègne, 2020. http://www.theses.fr/2020COMP2542.

Full text
Abstract:
Cette thèse se propose comme une étude géométrique de la surface faciale en 3D, dont le but est de fournir un ensemble d'entités, issues du contexte de la géométrie différentielle, à utiliser comme descripteurs faciaux dans les applications d'analyse du visage, comme la reconnaissance faciale et la reconnaissance des expressions faciales. En effet, bien que chaque visage soit unique, tous les visages sont similaires et leurs caractéristiques morphologiques sont les mêmes pour tous les individus. Par conséquent, il est primordial pour l'analyse des visages d'extraire les caractéristiques faciales les plus appropriées. Tous les traits du visage, proposés dans cette étude, sont basés uniquement sur les propriétés géométriques de la surface faciale. En effet, l'objectif final de cette recherche est de démontrer que la géométrie différentielle est un outil complet pour l'analyse des visages et que les caractéristiques géométriques conviennent pour décrire et comparer des visages et, en général, pour extraire des informations pertinentes pour l'analyse faciale dans les différents domaines d'application. Enfin, ce travail se concentre aussi sur l'analyse des troubles musculo-squelettiques en proposant une quantification objective des mouvements du visage pour aider la chirurgie maxillo-faciale et la rééducation des mouvements du visage. Ce travail de recherche explore le système de capture du mouvement 3D, en adoptant la plateforme Technologie, Sport et Santé, située au Centre d'Innovation de l'Université de Technologie de Compiègne, au sein du Laboratoire de Biomécanique et Bioingénierie (BMBI)
This thesis is intended as a geometrical study of the three-dimensional facial surface, whose aim is to provide an application framework of entities coming from Differential Geometry context to use as facial descriptors in face analysis applications, like FR and FER fields. Indeed, although every visage is unique, all faces are similar and their morphological features are the same for all mankind. Hence, it is primary for face analysis to extract suitable features. All the facial features, proposed in this study, are based only on the geometrical properties of the facial surface. Then, these geometrical descriptors and the related entities proposed have been applied in the description of facial surface in pattern recognition contexts. Indeed, the final goal of this research is to prove that Differential Geometry is a comprehensive tool oriented to face analysis and geometrical features are suitable to describe and compare faces and, generally, to extract relevant information for human face analysis in different practical application fields. Finally, since in the last decades face analysis has gained great attention also for clinical application, this work focuses on musculoskeletal disorders analysis by proposing an objective quantification of facial movements for helping maxillofacial surgery and facial motion rehabilitation. At this time, different methods are employed for evaluating facial muscles function. This research work investigates the 3D motion capture system, adopting the Technology, Sport and Health platform, located in the Innovation Centre of the University of Technology of Compiègne, in the Biomechanics and Bioengineering Laboratory (BMBI)
APA, Harvard, Vancouver, ISO, and other styles
47

Bouvel, Simon. "Méthodes expérimentales et fusion de données imagerie-cinématique pour la modélisation du mouvement pathologique de l'épaule." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066184/document.

Full text
Abstract:
Nous présentons les différentes technologies et méthodes permettant de mesurer les mouvements de l'épaule, et les difficultés associées, comme le glissement des tissus. Cela nous permet d'étayer notre choix de réaliser une fusion de données entre des acquisitions de capture de mouvements optoéléctronique où le sujet est immobile, et d'autres où le sujet est en mouvement. Nous proposons de réaliser cette fusion de données par de l'interpolation spatiale de repères de coordonnées à partir de données dispersées, et plus particulièrement avec la méthode d'interpolation par voisins naturels, qui a été adaptée aux besoins de cette étude. Des expérimentations avec un robot manipulateur ont été réalisées afin de vérifier la faisabilité de la méthode développée. Le robot manipulateur fournit une vérité terrain qui serait inaccessible avec l'humain. Les résultats de ces expérimentations nous ont encouragés dans la poursuite de l'étude avec des expérimentations sur l'humain. Les données acquises avec sujets immobiles et celles réalisées avec sujets en mouvement nous ont permis, par l'application de l'interpolation par voisins naturels, d'estimer les mouvements de la scapula par rapport au torse alors que les sujets réalisaient des mouvements d'abduction, de flexion, et d'élévation dans le plan de la scapula. Les résultats obtenus concordent avec la littérature. Ainsi est encouragée l'utilisation d'une part de la méthode que nous avons développée, et d'autre part, plus globalement, de l'approche de l'interpolation spatiale pour la mesure des mouvements des os en compensant les glissements des tissus
This work takes place in the context of shoulder complex motion measurement in biomechanics. We present the technologies and methods that apply to this problem, and the associated obstacles (particularly the skin tissue deformation), in order to justify our choice of performing data fusion between measurements where the subjects remain still, and other where they are in motion. We suggest to perform this data fusion through spatial interpolation of reference frames from scattered data, specifically with the natural neighbors algorithm, that has been adapted to the framework of this study. A series of experimentations with a manipulator robot has been performed in order to assess the feasibility of the developed method, the robot giving access to ground truth that would be unavailable with human experimentations. The results we obtained encouraged us to pursue the study with human experimentations. These experimentation have been performed using an optoelectronic motion capture technology. The data gathered while subjects remained still, and the one acquired with the subjects in motion allowed us, through natural neighbor’s interpolation, to estimation the motion of the scapula relative to the thorax, for abduction, flexion, and scapular plane elevation movements. The results we obtained were similar to the ones found in the literature, encouraging on the one hand the method we developed, and on the other hand the spatial interpolation approach for bone motion measurement in biomechanics, compensating the skin tissue artefact
APA, Harvard, Vancouver, ISO, and other styles
48

Barnachon, Mathieu. "Reconnaissance d'actions en temps réel à partir d'exemples." Phd thesis, Université Claude Bernard - Lyon I, 2013. http://tel.archives-ouvertes.fr/tel-00820113.

Full text
Abstract:
Le développement de l'image numérique et des outils associés ces dernières années a entraîné une évolution dans les attentes des utilisateurs et des changements dans leurs habitudes de travail. Cette évolution apporte de nouvelles possibilités d'utilisation ouvrant l'usage à un public très large, allant des interactions gestuelles aux jeux vidéo, en passant par le suivi d'activités à domicile, la surveillance, ... Pour qu'elles puissent être performantes et attractives, ces nouvelles technologies nécessitent la mise en œuvre d'outils de reconnaissance et d'interprétation des gestes humains, par des méthodes efficaces, rapides et ouvertes. Actuellement, les méthodes proposées en reconnaissance d'actions peuvent être regroupées en trois catégories principales : les approches de type apprentissage automatique (Machine Learning), les modélisations stochastique ou encore les méthodes utilisant le paradigme des examplars. Les travaux développés dans cette thèse se rattachent à cette dernière catégorie : " méthodes à base d'exemples " (examplar-based) où l'apprentissage peut être fait à partir de quelques instances représentatives. Nous avons fait le choix d'une démarche qui limite le recours à des grandes bases de données, et qui permet la reconnaissance d'action de façon anticipée, c'est-à-dire avant que cette dernière ne soit finie. Pour ce faire, nos travaux ont été menés selon deux visions complémentaires, avec le soucis constant d'aboutir à des traitements qui soient temps réel, précis et ouverts à la reconnaissance de nouvelles actions
APA, Harvard, Vancouver, ISO, and other styles
49

Fontmarty, Mathias. "Vision et filtrage particulaire pour le suivi tridimensionnel de mouvement humain : applications à la robotique." Toulouse 3, 2008. http://www.theses.fr/2008TOU30162.

Full text
Abstract:
Un défi majeur de la Robotique aujourd'hui est sans doute celui du robot personnel. Un objectif sous-jacent est de permettre à un robot mobile de naviguer de manière autonome dans un environnement de grandes dimensions en présence de public. Lors de son évolution, le robot doit pouvoir détecter et prendre en compte la présence d'humains dans son voisinage, par exemple pour les éviter, leur céder le passage, faciliter ou sécuriser leurs déplacements. Cependant, pour une interaction active, le robot doit également être capable de percevoir et d'interpréter leurs postures, leurs démarches ou leurs gestes. Dans ce but, nous souhaitons mettre en place un système de suivi visuel des mouvements humains à partir des caméras embarquées sur le robot. Une représentation 3D fruste de l'enveloppe corporelle est proposée à partir de considérations biomécaniques et anthropomorphes. La démarche consiste alors à recaler ce modèle dans les images obtenues en exploitant plusieurs indices visuels 2D (contours, couleur, mouvements) complétés par une reconstruction 3D éparse de la scène. Pour estimer les paramètres de situation et de configuration du modèle 3D, nous exploitons les techniques de filtrage particulaire, bien connues en suivi visuel. Des évolutions de l'algorithme générique de filtrage sont cependant envisagées afin de répondre plus efficacement au problème posé et de satisfaire des contraintes temporelles cohérentes avec le contexte applicatif. Afin d'aborder les problèmes de manière graduelle, deux contextes sont étudiés. .
A great robotic challenge today is the one of the personal robot. While moving in real environments, the robot must take into account the human presence in its neighborhood in order to avoid them or to facilitate their moves. However, for an active interaction, the robot must also be able to perceive their pose or their moves. To this end, we are willing to set up a human motion tracking system from embedded cameras on the robot. A rough 3D representation of the human body is proposed taking into account biomecanics and anthropomorphic constraints. The model projection is then fitted to the images by exploiting various 2D visual cues (edges, colors, motion) and 3D sparse reconstruction of the scene. In order to estimate the 3D configuration parameters, we use the well-known particle flters. Evolutions are considered in order to efficiently tackle the problem by satisfying strong temporal constraints due to the final application. To address issues step by step, two different contexts are proposed. The first one (ubiquist robotics) operate with fixed ambiance cameras proposing various and complementary view points. The second one (mobile robotics) exploits a stereo camera embedded on the robot
APA, Harvard, Vancouver, ISO, and other styles
50

Pichon, Romain. "Atteinte du contrôle postural des personnes avec BPCO : modifications, caractéristiques et activités de la vie quotidienne." Electronic Thesis or Diss., Rennes 2, 2023. http://www.theses.fr/2023REN20039.

Full text
Abstract:
La Broncho-Pneumopathie Chronique Obstructive (BPCO) est une pathologie respiratoire à la prévalence élevée. Des travaux antérieurs ont mis en évidence que le contrôle postural des personnes avec BPCO (pBPCO) était altéré. Cette thèse s’est d’abord attachée à préciser les caractéristiques de cette modification du contrôle postural, puis s’est articulée autour de quatre objectifs : identifier les facteurs discriminants d’un contrôle postural réduit dans cette population, étudier les liens entre contrôle postural et facteurs cliniques, caractériser le contrôle postural des pBPCO au cours d’activités de la vie quotidienne (AVQ) et étudier l’influence d’une tâche cognitive sur le contrôle postural des pBPCO. Les résultats principaux de ce travail tendent à montrer que l’atteinte du contrôle postural est présente chez environ 60% des pBPCO et que de nombreux composants du contrôle postural peuvent être altérés. Les pBPCO avec un contrôle postural réduit se caractérisent par une qualité de vie liée aux symptômes faible, une pression partielle en oxygène basse, une force des muscles inspirateurs faible et un indice de masse corporelle élevé. D’autre part, l’analyse biomécanique d’une séquence d’AVQ a mis en évidence des modifications des paramètres de contrôle postural (réduction des vitesses moyennes du centre de masse dans les trois directions, de variabilité de sa vitesse en médio-latéral et vertical, et de sa vitesse pic verticale) chez les pBPCO comparativement aux participants contrôles. L’analyse des associations a principalement montré un lien entre la dyspnée éprouvée lors des AVQ réalisées et les paramètres de contrôle postural évalués. Enfin, nos résultats suggèrent qu’une tâche cognitive a un effet similaire sur le contrôle postural de pBPCO et de participants contrôles
Chronic Obstructive Pulmonary Disease (COPD) is highly prevalent respiratory pathology. Previous research has shown that postural control is impaired in people with COPD (PwCOPD). The first aim of this thesis was to identify the characteristics of this postural control modification, then focused on four objectives : to identify the discriminating factors of reduced postural control in this population, to study the associations between postural control and clinical factors, to characterise the postural control of PwCOPD during activities of daily living (ADL) and to study the influence of a cognitive task on the postural control of PwCOPD. The main result of this work tend to show that postural control is impaired in around 60% of PwCOPD and that many components of postural control can be impaired. PwCOPD with a reduced postural control are characterised by a low symptom-related quality of life, a low arterial pressure in oxygen, a reduced inspiratory muscle strength and a high body mass index. Biomechanical analysis of a sequence of ADL revealed some changes in postural control parameters (reduction in mean center of mass velocities in the three directions, in the variability of its medio-lateral and vertical velocity, and in its peak vertical velocity) in PwCOPD compared with control participants. The association analysis mainly showed a link between dyspnea during performed ADL and assessed postural control parameters. Finally, our results suggest that a cognitive task has a similar influence on postural control parameters of PwCOPD and control participants
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography