Thèses sur le sujet « Modélisation de sujets »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Modélisation de sujets.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 34 meilleures thèses pour votre recherche sur le sujet « Modélisation de sujets ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Pierrat, Jean-Jacques. « Modélisation de systèmes à évènements discrets sujets à des pannes ». Grenoble INPG, 1987. http://www.theses.fr/1987INPG0103.

Texte intégral
Résumé :
Modelisation par un reseau de files d'attente et evaluation des performances pour un systeme discret sujet a des pannes. Application a la modelisation d'une reparation de panne dans un serveur de reseau de files d'attente et evaluation des performances pour un atelier flexible
Styles APA, Harvard, Vancouver, ISO, etc.
2

Glas, Nadine. « Modélisation des stratégies verbales d'engagement dans les interactions humain-agent ». Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0047/document.

Texte intégral
Résumé :
Dans une interaction humain-agent, l’engagement de l’utilisateur est un élément essentiel pour atteindre l’objectif de l’interaction. Dans cette thèse, nous étudions comment l’engagement de l’utilisateur pourrait être favorisé par le comportement de l’agent. Nous nous concentrons sur les stratégies de comportement verbal de l’agent qui concernent respectivement la forme, le timing et le contenu de ses énoncés. Nous présentons des études empiriques qui concernent certains aspects du comportement de politesse de l’agent, du comportement d’interruption de l’agent, et les sujets de conversation que l’agent adresse lors de l’interaction. Basé sur les résultats de la dernière étude, nous proposons un Gestionnaire de Sujets axé sur l’engagement (modèle computationnel) qui personnalise les sujets d’une interaction dans des conversations où l’agent donne des informations à un utilisateur humain. Le Modèle de Sélection des Sujets du Gestionnaire de Sujets décide sur quoi l’agent devrait parler et quand. Pour cela, il prend en compte la perception par l’agent de l’utilisateur, qui est dynamiquement mis à jour, ainsi que l’état mental et les préférences de l’agent. Le Modèle de Transition de Sujets du Gestionnaire de Sujet, basé sur une étude empirique, calcule comment l’agent doit présenter les sujets dans l’interaction en cours sans perdre la cohérence de l’interaction. Nous avons implémenté et évalué le Gestionnaire de Sujets dans un agent virtuel conversationnel qui joue le rôle d’un visiteur dans un musée
In human-agent interaction the engagement of the user is an essential aspect to complete the goal of the interaction. In this thesis we study how the user’s engagement could be favoured by the agent’s behaviour. We thereby focus on the agent’s verbal behaviour considering strategies that regard respectively the form, timing, and content of utterances : We present empirical studies that regard (aspects of) the agent’s politeness behaviour, interruption behaviour, and the topics that the agent addresses in the interaction. Based on the outcomes of the latter study we propose an engagement-driven Topic Manager (computational model) that personalises the topics of an interaction in human-agent information-giving chat. The Topic Selection component of the Topic Manager decides what the agent should talk about and when. For this it takes into account the agent’s dynamically updated perception of the user as well as the agent’s own mental state. The Topic Transition component of the Topic Manager, based upon an empirical study, computes how the agent should introduce the topics in the ongoing interaction without loosing the coherence of the interaction. We implemented and evaluated the Topic Manager in a conversational virtual agent that plays the role of a visitor in amuseum
Styles APA, Harvard, Vancouver, ISO, etc.
3

Fil, Nicolas. « Caractérisation et modélisation des propriétés d’émission électronique sous champ magnétique pour des systèmes RF hautes puissances sujets à l’effet multipactor ». Thesis, Toulouse, ISAE, 2017. http://www.theses.fr/2017ESAE0025/document.

Texte intégral
Résumé :
La fusion nucléaire contrôlée par confinement magnétique avec les réacteurs de type Tokamaks et les applications spatiales ont en commun d’utiliser des composants Haute-Fréquence (HF) sous vide à forte puissance. Ces composants peuvent être sujets à l’effet multipactor qui augmente la densité électronique dans le vide au sein des systèmes, ce qui est susceptible d’induire une dégradation des performances des équipements et de détériorer les composants du système. Ces recherches consistent à améliorer la compréhension et la prédiction de ces phénomènes. Dans un premier temps nous avons réalisé une étude de sensibilité de l’effet multipactor au rendement d’émission électronique totale (noté TEEY). Cette étude a permis de montrer que l’effet multipactor est sensible à des variations d’énergies autour de la première énergie critique et dans la gamme d’énergies entre la première énergie critique et l’énergie du maximum. De plus, les composants HF utilisés dans les réacteurs Tokamak et dans le domaine du spatial peuvent être soumis à un champ magnétique continu. Nous avons donc développé un nouveau dispositif expérimental afin d’étudier ce phénomène. Le fonctionnement du dispositif et la méthode de mesure ont été analysées et optimisées à l’aide de modélisations numériques avec le logiciel PIC SPIS. Une fois que l’utilisation du dispositif a été optimisée et que le protocole de mesures a été validé, nous avons étudié l’influence d’un champ magnétique uniforme et continu sur le TEEY du cuivre. Nous avons démontré que le rendement d’émission électronique totale du cuivre est influencé par la présence d’un champ magnétique et par conséquent également l’effet multipactor
Space communication payload as well as magnetic confinement fusion devices, among other applications, are affected by multipactor effect. This undesirable phenomenon can appear inside high frequency (HF) components under vacuum and lead to increase the electron density in the vacuum within the system. Multipactor effect can thus disturb the wave signal and trigger local temperature increases or breakdowns. This PhD research aims to improve our understanding and the prediction of the multipactor effect. The multipactor phenomenon is a resonant process which can appear above a certain RF power threshold. To determine this power threshold, experimental tests or/and simulations are commonly used. We have made a study to evaluate the multipactor power threshold sensitivity to the TEEY. Two particular critical parameters have been found: first cross-over energy and the energies between the first cross-over and the maximum energies. In some situations, the HF components are submitted to DC magnetic fields which might affect the electron emission properties and hence the multipactor power threshold. Current multipactor simulation codes don’t take into account the effect of the magnetic field on the TEEY. A new experimental setup specially designed to investigate this effect was developed during this work. Our new experimental setup and the associated TEEY measurement technique were analysed and optimized thanks to measurements and SPIS simulations. We used the setup to study the influence of magnetic field perpendicular to the sample surface on the TEEY of copper. We have demonstrated that the magnetic field affects the copper TEEY, and hence multipactor power threshold
Styles APA, Harvard, Vancouver, ISO, etc.
4

Glas, Nadine. « Modélisation des stratégies verbales d'engagement dans les interactions humain-agent ». Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0047.

Texte intégral
Résumé :
Dans une interaction humain-agent, l’engagement de l’utilisateur est un élément essentiel pour atteindre l’objectif de l’interaction. Dans cette thèse, nous étudions comment l’engagement de l’utilisateur pourrait être favorisé par le comportement de l’agent. Nous nous concentrons sur les stratégies de comportement verbal de l’agent qui concernent respectivement la forme, le timing et le contenu de ses énoncés. Nous présentons des études empiriques qui concernent certains aspects du comportement de politesse de l’agent, du comportement d’interruption de l’agent, et les sujets de conversation que l’agent adresse lors de l’interaction. Basé sur les résultats de la dernière étude, nous proposons un Gestionnaire de Sujets axé sur l’engagement (modèle computationnel) qui personnalise les sujets d’une interaction dans des conversations où l’agent donne des informations à un utilisateur humain. Le Modèle de Sélection des Sujets du Gestionnaire de Sujets décide sur quoi l’agent devrait parler et quand. Pour cela, il prend en compte la perception par l’agent de l’utilisateur, qui est dynamiquement mis à jour, ainsi que l’état mental et les préférences de l’agent. Le Modèle de Transition de Sujets du Gestionnaire de Sujet, basé sur une étude empirique, calcule comment l’agent doit présenter les sujets dans l’interaction en cours sans perdre la cohérence de l’interaction. Nous avons implémenté et évalué le Gestionnaire de Sujets dans un agent virtuel conversationnel qui joue le rôle d’un visiteur dans un musée
In human-agent interaction the engagement of the user is an essential aspect to complete the goal of the interaction. In this thesis we study how the user’s engagement could be favoured by the agent’s behaviour. We thereby focus on the agent’s verbal behaviour considering strategies that regard respectively the form, timing, and content of utterances : We present empirical studies that regard (aspects of) the agent’s politeness behaviour, interruption behaviour, and the topics that the agent addresses in the interaction. Based on the outcomes of the latter study we propose an engagement-driven Topic Manager (computational model) that personalises the topics of an interaction in human-agent information-giving chat. The Topic Selection component of the Topic Manager decides what the agent should talk about and when. For this it takes into account the agent’s dynamically updated perception of the user as well as the agent’s own mental state. The Topic Transition component of the Topic Manager, based upon an empirical study, computes how the agent should introduce the topics in the ongoing interaction without loosing the coherence of the interaction. We implemented and evaluated the Topic Manager in a conversational virtual agent that plays the role of a visitor in amuseum
Styles APA, Harvard, Vancouver, ISO, etc.
5

Dessureault, Danny. « Les sujets atteints de troubles mentaux graves en milieu hospitalier ou carcéral, explication et modélisation de la prise en charge actuelle ». Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape10/PQDD_0021/NQ47607.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Lampire, Nicolas. « Caractérisation de la cinématique et de la dynamique musculaire lors de la marche chez les sujets hémiparétiques : approche par modélisation musculosquelettique ». Thesis, Lyon 1, 2012. http://www.theses.fr/2012LYO10262/document.

Texte intégral
Résumé :
Cette thèse a été réalisée dans le cadre d’une convention CIFRE, marquant la collaboration entre le LBMC (Laboratoire de Biomécanique et Mécanique des Chocs) et le Centre de Médecine Physique et de Réadaptation L’ADAPT Loiret. Le LBMC résulte du rapprochement en janvier 2003 d’une équipe d’enseignants-chercheurs de l’université Claude Bernard Lyon1 et du Laboratoire de Biomécanique et Mécanique des Chocs de l’INRETS (devenu l’IFSTTAR depuis sa fusion avec le LCPC). Regroupant environ 40 permanents, dont Laurence CHEZE, ma directrice de thèse, le LBMC est dirigé par Philippe VEZIN, Directeur de Recherche à l’IFSTTAR. Le CMPR L’ADAPT Loiret est un centre de rééducation situé sur le site hospitalier d’Amilly, à proximité de Montargis. Son activité est axée sur les pathologies neurologiques (paraplégies, tétraplégies, hémiplégies, maladies dégénératives du système nerveux central), la traumatologie (suites d’accident de la voie publique et traumatologie du sport) et l'appareillage des amputations du membre inférieur. Le nouveau bâtiment (fin 2007) dispose d'équipements de dernière génération et d'un plateau technique de 1990 m² avec gymnase sportif et balnéothérapie. Il dispose également d’un laboratoire d’analyse quantifiée de la marche. L’intégration d’un doctorant dans l’équipe du Docteur CARNÉ permettait, d’une part, de développer l’activité de ce laboratoire, et d’autre part de mettre en place une activité de recherche clinique. Mon activité professionnelle consiste à réaliser des examens, à visée diagnostique, d’analyse quantifiée de la marche. L’activité de recherche est en lien avec l’activité clinique et l’offre de soin liée à l’analyse du mouvement (prise en charge thérapeutique, injection de toxine, orthèse de marche, ...). Il faut également associer à ces deux structures l’équipe Motricité du GRCTH (Groupement de Recherche Clinique et Technologique sur le Handicap, EA 4497) de l’Université de Versailles Saint Quentin, associée au CIC-IT 805 et plus particulièrement Didier PRADON, mon co-directeur de thèse. La thématique de recherche émergeant de cette collaboration est la caractérisation des troubles de la marche des sujets affectés par une pathologie du système nerveux central
This thesis was carried out under a CIFRE, marking the collaboration between LBMC (Laboratory of Biomechanics and Impact Mechanics) and the Centre of Physical Medicine and Rehabilitation ADAPT Loiret. The research theme emerging from this collaboration is the characterization of gait disorders in subjects affected by a disease of the central nervous system
Styles APA, Harvard, Vancouver, ISO, etc.
7

Faessel, Hélène. « Analyse de la pharmacocinétique du SDZ HTF 919 par modélisation après administrations intraveineuse et orale à des sujets sains : étude de bioéquivalence ». Paris 5, 1994. http://www.theses.fr/1994PA05P149.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Filliard, Jean-Robert. « Contribution à la modélisation de la croissance des sujets très grands : validité d'un indice d'age statural, en relation avec des épreuves d'efficience motrice ». Paris 10, 1998. http://www.theses.fr/1998PA100095.

Texte intégral
Résumé :
L'etude de la croissance staturale des sujets tres grands a permis de montrer que les valeurs de tailles des jeunes pratiquants (tes) de basket-bail ne representent qu'un tres faible pourcentage de la population francaise (moins de 1 pour 1000). Leurs courbes d'accroissement statural et de vitesse de croissance sont relativement superposables, mais decalees vers des valeurs superieures, a celles de la population de reference. En periode pubertaire, la grande variabilite interindividuelle, dans l'evolution de la stature au cours de la croissance, se traduit par une dissociation des valeurs individuelles par rapport aux valeurs moyennes, du fait du decalage qui existe entre l'age chronologique et l'age physiologique. Dans ces conditions, la prevision de la stature definitive doit se realiser avant le debut de la puberte, soit avant 10 ans chez les filles et 12 chez les garcons. L'apparition du pic de croissance statural, sa precocite ou son relatif retard, ainsi que son intensite, influencent la taille definitive. La comparaison de 7 methodes de prediction de la taille adulte met en evidence une plus grande precision pour la methode de tanner (tw2). L'evaluation de l'efficience motrice des jeunes basketteurs (garcons et filles) permet de faire ressortir trois grands secteurs generalement cites pour la classification des qualites physiques, celui de la puissance, celui de l'adresse, celui de la vitesse. Collectes longitudinalement sur une duree de 4 ans, les resultats aux mesures biometriques et aux epreuves de capacite physique ont ete analyses a la lumiere de 3 criteres : l'age civil, l'age statural, et l'age physiologique determine a partir de l'age osseux (methode de tanner). Il en ressort que l'age civil n'est pas un bon critere de discrimination. On remarque par contre des relations significatives, entre les caracteres mesures, et l'age physiologique d'une part et l'age statural d'autre part. La modelisation des courbes de croissance staturale, prenant en compteces parametres jusqu'a l'age adulte, pourrait constituer un outil predictif de la taille adulte chez ces sujets de tres grandes tailles.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Ho, Thi Kim Thoa. « Modélisation et analyse des réseaux complexes associées à des informations textuelles : les apports de la prétopologie, du topic modeling et de l’apprentissage automatique à l’étude de la dynamique des réseaux sociaux, la prédiction de liens et la diffusion des sujets ». Thesis, Université Paris sciences et lettres, 2020. http://www.theses.fr/2020UPSLP047.

Texte intégral
Résumé :
L’objet de cette thèse porte sur le concept de réseau complexe associé à de l’information textuelle. Nous nous sommes intéressés à l’analyse de ces réseaux avec une perspective d’application aux réseaux sociaux. Notre première contribution a consisté à réaliser un modèle d’analyse pour un réseau social dynamique en utilisant l’approche de modélisation à base d’agents (agent based modeling ou ABM), modèle auteur-sujet du text-mining (« author-topic modeling » ou ATM), et en ayant recours à le cadre mathématique de la prétopologie pour représenter la proximité des sujets. Notre modélisation se nomme Textual-ABM. Notre démarche a été d’utiliser le modèle auteur-sujet pour estimer l’intérêt de l’utilisateur sur la base du contenu textuel et d’employer la prétopologie pour modéliser plusieurs relations et représenter un ensemble de voisinages plus élaboré qu’une simple relation. Notre deuxième contribution concerne la diffusion des informations sur un réseau social « hétérogène ». Nous proposons d’étendre le modèle de diffusion épidémique independant cascade model (IC) et le modèle de diffusion en cascade prétopologique que nous nommons respectivement Textual-Homo-IC et Textual-PCM. Pour Textual-Homo-IC, la probabilité d’infection est basée sur l’homophilie c’est-à-dire l’affiliation à des agents ressemblants, celle-ci est obtenue à partir du contenu textuel en utilisant le modèle de sujet (topic modeling). Pour Textual-PCM, une fonction d’adhérence (pseudo-closure function) avec différentes variantes d’association pour les relations qui la constitue est proposée pour réaliser un ensemble de voisinages plus complexe. En outre, nous proposons d’utiliser l’apprentissage supervisé pour prédire la diffusion d’un sujet avec une combinaison de facteurs intrinsèques ou externes. Notre troisième contribution concerne la présiction des relations entre co-auteurs avec l’ajout d’une nouvelle caractéristique topologique liés aux facteurs géographiques et fonctionnalités de contenu à l’aide du topic modeling. L’ensemble de ces travaux est accompagné d’une partie expérimentale et de la présentation des algorithmes développés
This thesis deals with the concept of complex network associated with textual information. We are interested in the analysis of these networks with a perspective of application to social networks. Our first contribution consisted in building an analysis model for a dynamic social network using the agent based modeling (ABM) approach, author-topic modeling (ATM), and using the mathematical framework of pretopology to represent the proximity of the subjects. Our modeling is called Textual-ABM. Our proposal has been to use author-topic modeling to estimate user interest based on text content and to use pretopology to model several relationships and to represent a set of neighborhoods that is more elaborate than a simple relationship. Our second contribution concerns the diffusion of information on a "heterogeneous" social network. We propose to extend the independent cascade epidemic diffusion model (IC) and the pretopological cascade diffusion model that we call Textual-Homo-IC and Textual-PCM respectively. For Textual-Homo-IC, the probability of infection is based on homophilia (resemblance of agents) which is obtained from the textual content using the topic modeling. For Textual-PCM, a pseudo-closure function with different strong levels is proposed to realize a more complex set of neighborhoods. In addition, we propose to use supervised learning to predict the diffusion of a topic with a combination of intrinsic or external factors. Our third contribution concerns the prediction of relationships between co-authors with the addition of a new topological feature related to geographical factors and content features using topic modelling. All this work was achieved by the design of specific algorithms and validated by experiments
Styles APA, Harvard, Vancouver, ISO, etc.
10

Li, Ke. « Exploring Topic Evolution in Large Scientific Archives with Pivot Graphs ». Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS043.

Texte intégral
Résumé :
Il existe une demande croissante d'outils pratiques pour explorer l'évolution de la recherche scientifique publiée dans des archives bibliographiques telles que le Web of Science, arXiv, PubMed ou ISTEX. L’extraction de topics et de leur évolution à partir de ces archives documentaires a de nombreuses applications et peut être étendue pour synthétiser des récits à partir d'ensembles de documents dans plusieurs domaines, y compris les flux d’actualités, les articles de recherche, les textes juridiques et les œuvres littéraires. Dans cette thèse, nous proposons un modèle de données et un langage d'interrogation pour la visualisation et l'exploration de réseaux d'évolution de sujets de recherche scientifiques. Notre modèle est indépendant d'une méthode particulière d'extraction et d'alignement de topics et propose un ensemble de métriques sémantiques et structurelles pour caractériser et filtrer des motifs d'évolution de domaines scientifiques. Ces métriques sont particulièrement utiles pour la visualisation et l'exploration de grands réseaux d'évolution de topics. Nous présentons également une implémentation de notre modèle sur Apache Spark et les résultats expérimentaux obtenus pour quatre archives de documents représentatives
There is an increasing demand for practical tools to explore the evolution of scientific research published in bibliographic archives such as the Web of Science, arXiv, PubMed or ISTEX. Revealing meaningful evolution patterns from these document archives has many applications and can be extended to synthesize narratives from datasets across multiple domains, including news stories, research papers, legal cases and works of literature. In this thesis, we propose a data model and query language for the visualization and exploration of topic evolution networks. Our model is independent of a particular topic extraction and alignment method and proposes a set of semantic and structural metrics for characterizing and filtering meaningful topic evolution patterns. These metrics are particularly useful for the visualization and the exploration of large topic evolution networks. We also present a prototype implementation of our model on top of Apache Spark and experimental results obtained for four representative document archives
Styles APA, Harvard, Vancouver, ISO, etc.
11

Huet, Bernard. « Le sujet, l'objet, le projet dans la modélisation des systèmes d'information ». Paris 6, 1992. http://www.theses.fr/1992PA066511.

Texte intégral
Résumé :
L'objet est le resultat d'une etude du sujet passe a travers le filtre du projet. Alors que les methodes de modelisation (les projets) des systemes d'information proposees depuis vingt ans par la communaute scientifique internationale reposent par hypothese de base sur une demarche positiviste, la these soutenue ici est que ces methodes doivent reposer sur une demarche rationaliste validee par des connaissances epistemologiques et scientifiques. L'etude de la liaison sujet-projet est basee sur trois hypotheses que nous nous attachons a confirmer: 1) le sujet presente des caracteristiques constitutives generiques; 2) la demarche rationaliste, par opposition a la demarche positiviste, permet le transfert de ces caracteristiques constitutives du sujet dans le projet; 3) la prise en compte de ces caracteristiques constitutives generiques dans le projet est une condition sine qua non a une representation fidele de l'objet a partir du sujet. L'etude de la liaison sujet-objet est basee sur trois hypotheses que nous nous attachons a confirmer: 1) le sujet peut etre filtre de mille et une facons au travers d'autant de filtres que constituent les divers projets qui conduisent a la construction d'autant d'objets; 2) le sujet constitue par le contexte d'application presente des caracteristiques constitutives generiques et specifiques; 3) la prise en compte de ces caracteristiques constitutives generiques et specifiques dans la reduction de la variete des liaisons sujet-objet est une condition sine qua non a une representation fidele de l'objet a partir du sujet. In fine, une demarche rationaliste validee par des elements epistemologiques et scientifiques pour la conception des methodes de modelisation des systemes d'information fournit un cadre de reference independant de la technologie, et l'abord du monde des organisations socio-economiques au moyen d'instruments scientifiques et adaptes
Styles APA, Harvard, Vancouver, ISO, etc.
12

Plissonnier, Didier. « Modélisation du rejet chronique par la transplantation aortique chez le rat ». Paris 5, 1996. http://www.theses.fr/1996PA05CD13.

Texte intégral
Résumé :
Le support de ce travail repose sur la mise au point d'un modèle expérimental de rejet vasculaire chronique : la transplantation aortique chez le rat. Ce modèle se définit par la greffe allogénique d'une structure composée de trois compartiments différents : le compartiment médial est isolé du compartiment intimal et adventitiel par la limitante élastique interne et externe. Ce modèle se caractérise par une agression de la paroi artérielle aboutissant à une nécrose de la média. Un phénomène réparateur associe un épaississement intimal et une fibrose du compartiment adventitiel. La première approche a consisté à étudier l'effet de 3 types d'hypertension artérielle différents sur le modèle. Alors que l'agression de la média dépendait du potentiel immun du receveur, la réponse intimale proliférative augmentait avec l'hypertension artérielle. La deuxième approche avait pour but l'étude de l'effet de la cyclosporine associée à une héparine de bas poids moléculaire (HBPM). La cyclosporine seule diminuait l'agression du greffon, en particulier la destruction de la média. L'HBPM seule diminuait la réponse intimale proliférative. Les deux molécules agissaient en synergie pour prévenir complètement la destruction du greffon. La troisième approche décrivait la séquence des évènements immunologiques affectant la paroi artérielle. L'infiltration inflammatoire cellulaire du compartiment externe et interne était en discordance avec l'absence de pénétration cellulaire du compartiment médial. Cette inaccessibilité du compartiment médial s'accompagnait de dépôts d'immunoglobulines. La dernière approche était fondée sur le concept de compartimentation de la paroi artérielle pour caractériser les immunoglobulines de la média. A partir d'une part de cultures des trois types cellulaires de la paroi, et d'autre part des immunoglobulines sériques ou obtenues par élution, nous avons pu affirmer la spécificité des immunoglobulines pour les cellules musculaires lisses, et préciser le caractère MHC 1 du support antigénique. .
Styles APA, Harvard, Vancouver, ISO, etc.
13

Favrais, Géraldine. « Impact de l'interleukine-1β systémique sur le développement cérébral du souriceau : modélisation de la leucoencéphalopathie du nouveau-né prématuré ». Paris 5, 2009. http://www.theses.fr/2009PA05T043.

Texte intégral
Résumé :
Le pronostic des enfants nés prématurés est conditionné par leur devenir neurologique marqué par la survenue d'atteintes de la substance blanche cérébrale plus fréquentes en cas d'infection. Au moyen d'injections intra-péritonéales d'interleukine-1β (IL-1β) chez le souriceau, l'action des cytokines systémiques a été étudiée sur le cerveau en développement sous 2 aspects : i) La modulation de la réaction inflammatoire cérébrale générée par un stress excitotoxique. L'inflammation systémique à cette période de développement sensibilise le cerveau à l'agression excitotoxique par un défaut de la réponse anti-inflammatoire potentialisant l'effet toxique du TNFα. Ii) La myélinisation et les fonctions cognitives. Une hypomyélinisation diffuse à gaine de myéline intacte avec axonopathie est observée. Ces anomalies s'accompagnent d' altérations des fonctions cognitives. Ainsi, l'élévation des cytokines circulantes est impliquée dans la physiopathologie des leucoencéphalopathies du nouveau-né
Prematurity compromizes the neurological outcome. Indeed, white matter damage is linked to preterm birth and occurs more frequently in the infectious context. We have sujected pups to intra-peritoneal injections of interleukin-1β (IL-1β) and aimed to explore the effect of systemic cytokines on brain development under 2 aspects: i) The inflammatory reaction secondary to a brain excitotoxic stress. IL-lp sensitizes the brain to a subsequent excitotoxic stress. This result can be explained by a reduction of the anti-inflammatory response and a potentialization of the noxious effect of TNFα. Ii) Myelination and cognitive functions. An alteration of myelination is observed associated with an axonopathy. In contrast, the morphological aspect of myelin sheath is conserved. Furthermore, mice treated with IL-1β exhibit cognitive dysfunctions at P30. Systemic cytokines are implicated in the pathophysiology of white matter damage, modeling the leucoencephalopathy of the preterm
Styles APA, Harvard, Vancouver, ISO, etc.
14

Sedaghati, Afshan. « Modélisation d’un système exploratoire d’aide à l’insulinothérapie chez le sujet âgé diabétique de type 2 ». Thesis, Reims, 2014. http://www.theses.fr/2014REIMS018.

Texte intégral
Résumé :
La mise sous schéma insulinique multi-injections des patients diabétiques âgés est risquée et complexe. L’éventuelle perte d’autonomie induite par le traitement et la variabilité des besoins insuliniques doivent être prises en compte. Dans les protocoles thérapeutiques, le démarrage de l’insulinothérapie se base sur la prescription d’une posologie faible ajustée en fonction de résultats glycémiques. Un temps d’adaptation est donc nécessaire afin de prescrire la dose optimale. Pour ces raisons, cette thèse propose une méthodologie originale pour modéliser l’insulinothérapie chez les sujets âgés diabétiques de type 2 à partir de certaines variables endogènes (cliniques et biologiques) avec deux objectifs : 1. aider les médecins dans la phase de détermination de la prescription insulinique, 2. individualiser le traitement en fonction du profil physiologique du patient. La méthodologie, basée sur la logique floue, a permis l’analyse d’un échantillon de 71 diabétiques âgés de plus de 65 ans. Trois profils types de besoins insuliniques ont été mis en évidence et les variables discriminantes à l’origine de cette typologie ont été identifiées. La méthodologie s’inspirant du raisonnement à base de cas permet d’individualiser le traitement en proposant la dose à prescrire à partir des plus proches cas sélectionnés dans l’échantillon. Ces travaux apportent deux contributions principales : - sur l’insulinothérapie des personnes âgées diabétiques de type 2, - sur la méthodologie originale du traitement numérique des données médicales lors de suivis thérapeutiques
Starting insulin therapy with daily multi-injections in the elderly type 2 diabetic patients is a difficult challenge. The possible loss of autonomy induced by the treatment and the variability of the insulin needs must be taken into account. In the therapeutic protocols, starting insulin therapy is based on the prescription of low dosage adjusted according to blood glucose results. A time of adjustment is therefore necessary to prescribe the optimal dose.For these reasons, this thesis proposes an original methodology for modeling insulin therapy in elderly subjects with type 2 diabetes from certain biological and clinical endogenous variables with two objectives:1. assist physicians at the stage of determination of insulin prescription, 2. individualize insulin treatment depending on the physiological profile of the patient. The methodology based on fuzzy logic, allowed the analysis of a sample of 71 diabetic patients aged over 65 years. Three profiles types of insulin requirements and the discriminating variables underlying this typology have been identified. Methodology based on case based reasoning allows individualizing the treatment to prescribe insulin dosage from the closest (nearest) cases selected in the sample.Our works provide two main contributions:- on insulin therapy in elderly type 2 diabetic patients, - on the original methodology of the digital process of medical data at therapeutic follow-ups
Styles APA, Harvard, Vancouver, ISO, etc.
15

Mollard, Régis. « Apport de la biostereometrie dans la modelisation du corps humain : aspects statiques et dynamiques ». Paris 5, 1987. http://www.theses.fr/1987PA05S003.

Texte intégral
Résumé :
Ce travail a pour objectif de contribuer à améliorer les procédures de quantification des caractéristiques physiques de l'Homme, à partir de mesures en trois dimensions (3-D) sur le vivant. Il apporte des données nouvelles sur la morphologie et sur le mouvement susceptibles de s'intégrer dans une modélisation du corps humain. L'analyse bibliographique des travaux de Biostereometne a permis de dégager les avantages et les limites des moyens d'investigation actuellement disponibles, en relation avec leur domaine d'utilisation. Deux stations de photogrammétrie, une pour le corps entier, l'autre plus spécialement adaptée a la mesure de l'extrémité céphalique, ont été réalisées pour permettre des études de morphologie. Un analyseur 3-D a été adapté pour des enregistrements de mouvements. Après la vérification des qualités metrologiques de ces systèmes de mesure, des protocoles d'acquisition ont été élabores puis appliqués à différents échantillons de la population française. En ce qui concerne les aspects statiques, les quantifications de morphologie ont été centrées sur les paramètres de surfaces, de volumes et d'inerties segmentaires, jusqu'à présent assez peu étudiées sur le vivant. Des méthodes d'estimation, à partir de mesures anthropométriques classiques, sont proposées pour ces trois types de données. Des évaluations sur les formes corporelles ont également été réalisées au niveau. Des typologies de visage. Des critères de classification géométrique ont été détermines a partir de 1 étude des variabilités interindividuelles des contours de la face sur des échantillons d'hommes et de femmes adultes. Les aspects dynamiques ont porté sur des analyses de mouvements d'atteintes du membre supérieur. Des typologies particulières d'actions ont pu être identifiées après une étude des variabilités intra et interindividuelles de différents paramètres cinématiques. Une représentation du membre supérieur sous forme de chaînons articulés est proposée. Après la discussion des méthodes mises en place et des résultats obtenus, l'intégration de ces résultats est envisagée dans un modèle de représentation du corps humain qui peut être considéré comme la structure de base d'une modélisation plus complète de l'opérateur humain.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Monjaux, Perrine. « Modélisation et animation intéractive de visages virtuels de dessins animés ». Paris 5, 2007. http://www.theses.fr/2007PA05S023.

Texte intégral
Résumé :
La production de dessins animés 2D qui suit un schéma mis en place dans les années 1920 fait intervenir un très grand nombre de compétences différentes. Par opposition à ce mode de travail traditionnel, la production de films de synthèse 3D, en exploitant des technologies et des outils les plus récents, devient intéressante en termes de temps et coûts de fabrication. Dans ce contexte compétitif, cette thèse a pour objectif de contribuer au développement d'une plate-forme de reconstruction, déformation et animation de modèles 3D de visages pour les dessins animés 2D. Nos contributions ont porté sur l'élaboration d'une méthode de conception de visages virtuels 3D à partir d'une part d'un modèle 3D et d'autre part d'un ensemble de dessins 2D représentant les caractéristiques faciales, la mise au point d'une procédure de création de poses clés, utilisant plusieurs méthodes de déformation non-rigide et la conception d'un module d'animation 3D compatible avec le standard MPEG-4/AFX
The production of 2D cartoons that follows a pattern established in the 1920 involves a very large number of different skills. In contrast to this traditional way, the production of 3D films, using the most recent technology and tools, becomes interesting in terms of time and manufacturing costs. In this competitive context, this thesis aims to contribute to development a platform reconstruction, deformation and animation of 3D models faces for 2D cartoons. Our contributions have focused on the development of a methodology to create 3D virtual faces from a 3D model and a set of 2D drawings representing facial features, the development of a procedure for creating key poses, using several methods of non-rigid deformation and design of a 3D animation module compatible with the standard MPEG-4/AFX
Styles APA, Harvard, Vancouver, ISO, etc.
17

Dusch, Elodie. « Modélisation de la réponse impulsionnelle pour la détection de particules en microscopie par fluorescence ». Paris 5, 2008. http://www.theses.fr/2008PA05S015.

Texte intégral
Résumé :
La réponse impulsionnelle d'un microscope, appelée Point Spread Function, crée un flou et une déformation des objets sur les images de fluorescence. Une connaissance précise de cette fonction peut permettre de corriger ce phénomène, ou encore de donner un a priori sur la taille des objets recherchés dans l'image. En effet, sous la supposition que les particules biologiques fluorescentes peuvent être assimilées à des impulsions lumineuses, l'image de ces particules sera alors exactement cette PSF. Dans un premier temps, nous nous intéressons à la modélisation de la réponse impulsionnelle en microscopie par fluorescence. Afin d'obtenir un modèle analytique, nous étudions la diffraction des ondes dans un système optique parfait. Nous proposons un modèle analytique 3D de la PSF d'un microscope confocal à balayage par ligne en nous basant sur la théorie scalaire de Debye. Ce microscope, dont le fonctionnement peut être comparé à un microscope à champ large suivant la direction de la ligne et un microscope confocal classique suivant la direction perpendiculaire, possède une PSF asymétrique dans le plan focal. La modélisation proposée comprend un modèle asymétrique ainsi qu'une approximation gaussienne de ce modèle. Une comparaison de ces deux représentations est réalisée sur une vérité terrain. Dans un deuxième temps, nous utilisons ces modèles pour la détection 3D de particules fluorescentes. Nous proposons une méthode de détection basée sur la courbure locale, combinée à une modélisation statistique de la formation de l'image afin d'estimer les positions sous-voxelliques des particules détectées. Cette modélisation prend en compte les perturbations affectant l'image et l'approximation analytique de la réponse impulsionnelle. De plus, nous étudions l'influence de la modélisation analytique et de son approximation gaussienne sur la détection de particules sous la résolution optique. Enfin, nous présentons des applications concrètes de la méthode à des problématiques biologiques, réalistes en collaboration avec d'autres équipes de l'Institut Pasteur de Corée
In fluorescent Microscopy, the impulse response also called Point Spread Function (PSF) creates a blur and a deformation of imaged objects. Accurate model PSF allows to correct this phenomenon and also to define a priori on objet size. Indeed, base on the assumption that fluorescent particles are defined as impulse, biological fluorescent spot can be characterized by PSF. In the first part of this work, we focus on the modelization of fluorescent microscopy PSF. In order to obtain an analytical model, we study the light diffraction theory in perfect optical system. We introduce a 3D analytical model of fluorescent line-scanning confocal microscope PSF using the scalar Debye diffraction integral. This microscope can be considered as widefield microscope in the direction of the line illumination and as point-scanning confocal microscope in perpendicular direction, which yields an asymmetrical PSF in the focal plane. Based on our asymmetric model, we propose also a Gaussian approximation of the PSF. Both models are compared to a ground truth. In the second part, we use these models to detect 3D fluorescent particles. We propose a detection method based on local curvature, combined to a statistical representation of image formation in order to estimate the subvoxel localizations of the detected particles. This representation takes into account noise and PSF analytical models. Moreover, we study the effect of inaccurate PSF approximation on sub-resolution spot detections. Finally, we present practical applications of the method to biological problems, performed in collaboration with other teams of Institut Pasteur Korea
Styles APA, Harvard, Vancouver, ISO, etc.
18

Bonnet, Benjamin. « Performance du ventricule gauche chez le sujet hypertendu : étude biomécanique par modélisation du couplage ventriculo-aortique ». Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT106/document.

Texte intégral
Résumé :
Introduction : Les paramètres éjectionnels d’évaluation de la fonction ventriculaire gauche, sont directement influencés par la post-charge. Dans ce contexte chez l’hypertendu, une analyse complète de la performance du ventricule gauche (VG) doit pouvoir intégrer des paramètres hémodynamiques (variations de volume du VG vs variations de pressions aortique) mais aussi des paramètres de «déplacement » des parois. L’objectif de cette thèse est de déterminer avec des techniques non invasives le couplage ventriculo-aortique chez l’hypertendu.Méthodes : Les courbes de pression-volume ont été obtenues par échographie 3D en temps réel pour les volumes et tonométrie pour la pression carotidienne. A partir des boucles pression-volume, une méthode des moindres carrés non linéaire est utilisée pour construire la droite d’élastance. Le couplage ventriculo-aortique est estimé par le rapport de l’élastance télé-systolique de sortie du VG (Ees) et d’entrée aortique (Ea). Le transfert d’énergie du VG à l’aorte (rendement) est calculé par le rapport de la puissance d’éjection et de la puissance de déformation myocardique.Résultats : L’étude de validation de notre nouvelle méthode de modélisation d’Ees montre une bonne sensibilité et reproductibilité par rapport aux méthodes invasives de référence. Outre sa précision, l’avantage de notre méthode est la simplicité de son application clinique. Les premiers résultats de ce travail montrent que à un stade précoce de l’HTA, l’augmentation simultanée de la puissance d’éjection et d’Ea est compensée par une augmentation du rendement du VG et d’Ees pour un couplage ventriculo-aortique qui reste préservé.Conclusion : Le travail de modélisation de la relation pression-volume de cette thèse a permis son application clinique sur une population de sujets hypertendus. Ces premiers résultats positifs ont permis la mise en place d’une étude randomisée sur l’influence de l’apport sodé sur le couplage ventriculo-aortique chez l’hypertendu. L’avantage de cette nouvelle méthode de calcul d’Ees, basée sur l’échocardiographie 3D en temps réel, permet de se passer de toutes les hypothèses géométriques qui étaient jusqu’alors nécessaires pour les études en imagerie bidimensionnelle. Le recours à l'imagerie reste en revanche plus complexe pour l’analyse des déplacements en 3D qui nécessitent encore un travail de modélisation
Introduction : In addition to contractility, afterload is one of the main determinants of left ventricular (LV) performance. Thus, analysis of LV function in hypertension not only requires incorporation of hemodynamics parameters such as LV time-varying volume and pressure, but also LV wall strain and stress. The aim of the present study is to evaluate non invasively LV-arterial coupling in hypertension.Method : LV volumes and pressures curves were obtained from real-time 3D echocardiography (RT3DE) and carotid tonometry, respectively. The pressure-volume (P-V) curves thus obtained were fitted with a non linear least squares method. We then computed the slope and the intercept of time varying élastance, and volume intercept V0. LV-aortic coupling is estimated by the ratio of LV and aortic elastance (Ees and Ea). Energy transfer from the left ventricle to aorta is defined as the ratio of external work and myocardial strain work (Pmeca). Cyclic variations of wall thickness and strain rate were measured by 2D speckle-tracking. Pmeca was calculated according to the produce of LV wall stress with strain rate.Result : A good univariate relationship and a good agreement were found between previous invasive calculation of Ees and our new proposed “Ejection P-V Curve” method. In hypertensive patients, increase in Ea and LV efficiency were compensated by a parallel increase in Ees without change in Ea/EesConclusion : Ees and V0 can be estimated non invasively from modeling of the P-V curve during ejection. This approach was found to be reproducible and sensitive enough to detect an expected difference in LV contractility in hypertensive patients. Due to its non invasive nature, our new proposed “Ejection P-V Curve” method is now applicable to a randomized study of the effect of sodium intake on LV performance in hypertension. Among strengths of these new methods based on RT3DE, is to exclude the necessity of geometrics assumptions for the evaluation of LV volumes. However, 3D analysis of LV strain is not yet fully-developed, with the necessity to improve the performance of frame acquisition and modeling
Styles APA, Harvard, Vancouver, ISO, etc.
19

Cabassut, Jacques. « Psychopathologie(s) du grand brûlé : modélisation d'une praxis clinique analytique auprès du sujet accidenté et suicidant : thèse ». Nice, 2001. http://www.theses.fr/2001NICE2013.

Texte intégral
Résumé :
Les implications psychopathologiques de la brûlure, déterminées par le contexte accidentel ou suicidaire de la lésion, nous ont conduit à établir des modèles théoriques spécifiques et des praxis distinctes, les uns empruntant à la clinique du traumatisme, les autres à celle du passage à l'acte. Les opérateurs conceptuels lacaniens du réel, de l'imaginaire et du symbolique nous ont permis de réinterroger les notions de trauma freudien et d'acting. A travers leur mode de nouage spécifique, nous avons procédé à une écriture borroméenne propre à chacune des populations de brûlés, faisant appel au "Nom du Père" pour le traumatisé et au "sinthôme" pour le suicidant. Nous avons pu à partir d'elle, modéliser notre pratique. Ainsi, via l'analyse de cas, sujets brûlés traumatisés, avons-nous démontré l'existence d'une passerelle clinique et d'une connexion possible du traumatisme actuel à celui initial du refoulement originaire, définissant par là-même une clinique langagière du re-voilement du réel. La praxis alors déployée, propre à l'approche lacanienne, s'inscrit du côté de la finitude et de l'infinitude du sujet par opposition à une clinique de la complétude, véhiculée par le modèle du "Moi-peau" propre à D. Anzieu. L'étude de l'acting dans sa composante mélancolique comme dans son mécanisme caratéristique du niederkommt freudien, nous amené à désigner le suicidant en tant que que sujet en état-limite. Une praxis originale articulée au défaut de l'opération Nom du Père et faisant appel à la solution para-psychotique et prothétique du sinth^ome a été élaborée. Elle est incarnée dans notre pratique personnelle par le Szondi-test. Enfin, la pathoanalyse et la méthodologie szondiennes, via l'utilisation du test, sont venues démontrer la valeur heuristique de notre approche et valider notre hypothèse initiale : l'expérience commune du feu et de la lésion cutanée, n'est pas synonyme d'une identité de problématique psychopathologique entre les brûlés.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Ben, Hajel-Boujemaa Nozha. « Modélisation floue de l'incertitude pour la segmentation d'images ». Paris 5, 1993. http://www.theses.fr/1993PA05S004.

Texte intégral
Résumé :
L'objectif de cette recherche est l'étude et la conception de nouvelles méthodes pour la reconnaissance des formes fondées sur la théorie des ensembles flous, et leur application à la segmentation des images médicales. Après une revue des principales méthodes de la segmentation, les modèles adaptatifs flous pour la reconnaissance des formes procédant par optimisation itérative, sont exposés dans la première partie de ce travail. La deuxième partie présente une nouvelle approche pour la segmentation fondée sur la classification floue suivie d'une nouvelle fonction de décision que nous avons appelée: «fonction de décision par focalisation graduelle». Elle procède en deux étapes permettant de classer les pixels «forts» et de localiser les pixels «ambigus», simulant, ainsi, le processus de la perception visuelle humaine. Cette méthode permet de modéliser et de quantifier le flou numérique des images en mesurant l'ambiguïté des pixels. Le contexte spatial de chaque pixel «ambigu» est pris en compte pour son attribution finale à une région. Cette méthode, procédant d'abord globalement dans l'espace des attributs et ensuite localement dans l'espace «image», permet une meilleure localisation des frontières et une détection de contours plus réguliers. Ensuite, la méthode précitée est située dans un cadre mathématique plus large moyennant la démonstration, de l'existence d'un lien entre la classification utilisée et le modèle variationnel de Mumford & Shah pour la segmentation. Ce lien mathématique nous permet de proposer un critère objectif pour le choix optimal des paramètres de l'algorithme utilisé et permet de jeter les bases préliminaires d'une théorie unifiée des méthodes de segmentation. Une application à la détection du contour interne du ventricule gauche est présentée sur des images de tomographie cardiaque aux rayons x ainsi que sur des images de scènes intérieures.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Auriol, Jean-Bernard. « Modélisation du sujet humain en situation de résolution de problème basée sur le couplage d'un formalisme logique et d'un formalisme d'opérateurs ». Paris, ENST, 1999. http://www.theses.fr/1999ENST0049.

Texte intégral
Résumé :
L'objectif de cette thèse est de démontrer que la résolution de problèmes par des sujets humains s'effectue par le couplage de deux modules indépendants: un module logique en charge des opérations d'évaluation, et un ensemble d'opérateurs en charge des opérations de calcul. L'existence de chacun des deux modules se justifie indépendamment: le module logique rend compte des capacités logiques des sujets, notamment leur capacité de concevoir des arguments au cours des conversations, alors que les opérateurs permettent d'expliquer les comportements routiniers et experts. Le couplage de ces deux modules permet d'expliquer le comportement des sujets novices en résolution de problème, et permet d'envisager le développement de l'expertise en proposant des lieux d'apprentissage tant au niveau logique qu'au niveau calculatoire. La validation de cette modélisation s'est effectuée en reproduisant de manière satisfaisante le comportement des sujets humains sur le problème de la tour de Hanoi. Afin d'illustrer la généralité de cette approche, la résolution de problèmes de trigonométrie a également été étudiée. Les résultats obtenus valident la séparation logique/calculatoire proposée dans cette thèse, et permettent d'envisager la résolution de problème sous un angle nouveau. Les notions de but (et l'organisation des buts), d'impasse, de planification et d'apprentissage sont ainsi éclairées de manière originale. Enfin, à la distinction déclaratif/procédural, classique en modélisation cognitive, nous ajoutons la distinction logique/opératoire qui permet de mieux rendre compte du comportement des novices en situation de résolution de problème.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Hernandez, Yanez Carmen Rosa. « Effet de masquage fréquentiel dans les vibrations du corps pour un sujet assis ». Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00838762.

Texte intégral
Résumé :
Dans les sociétés industrialisées, les humains sont exposés à multiples sources de mouvements vibratoires. Jusqu'à présent, l'analyse de l'effet des stimuli vibratoire dans son ensemble a été bien développée, plus précisément en ce qui concerne le seuil de perception. Au cours des dernières années, diverses études ont analysé l'influence de certains facteurs.Cependant, l'effet d'une des composantes du stimulus sur la perception d'autres composants a été rarement rapporté. Dans ce cas, très peu d'information a été trouvée dans la littérature. Dans les deux études trouvées, le seuil absolu a été réévalué en considérant un second signal sinusoïdal. La valeur du seuil était plus élevée que ce qui a été estimé avec le stimulus simple. L'augmentation du seuil a été attribuée à l'effet de masquage. Basé sur ces observations, cette étude examine l'existence de l'effet de masquage dans les vibrations vertical du corps entière. Afin d'examiner l'effet de masquage, la différence entre le seuil absolu et le seuil masqué est nécessaire. Deux types de stimuli ont été utilisés : le stimulus masquage et le stimulus de test. Le masque est un signal de bruit à bande étroite entre 10 et 20 Hz, à trois niveaux d'amplitude différents. La sélection du stimulus de masque a été basée sur le modèle de masquage largement étudié dans certains domaines tels que l'acoustique, le domaine visuel et vibrotactile. Le stimulus de test est un signal sinusoïdale d'amplitude modulée à six fréquences différentes (30, 35, 40, 50, 60, 80 Hz. L'effet de la fréquence sur le seuil absolu estimé est similaire à ce qui a été indiqué par d'autres études. La détection du stimulus en présence du signal de masquage a été empêchée. Par conséquent, il est certainement clair que le phénomène de masquage a eu lieu. Les valeurs des seuils masqués étaient considérablement plus élevées que ceux correspondant aux seuils absolus. Le seuil décroît en fonction de la fréquence de test et l'effet de masque est plus important à haute qu'à faible niveau d'intensité du masque. Le démasquage est lié à l'écart entre les fréquences des signaux masquant et de test. Lorsque l'écart est faible, prévaut la reconnaissance de l'augmentation de l'intensité globale d'énergie. Si l'écart augmente, la discrimination des signaux prédomine.
Styles APA, Harvard, Vancouver, ISO, etc.
23

watelain, eric. « PROPOSITION D'UNE METHODOLOGIE D'ANALYSE DU MOUVEMENT : -- APPLICATION A LA MARCHE DU SUJET HEMIPLEGIQUE -- ». Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 1999. http://tel.archives-ouvertes.fr/tel-00009423.

Texte intégral
Résumé :
Un nombre croissant de systèmes d'analyse tridimensionnelle du mouvement sont utilisés dans des domaines aussi variés que l'ergonomie, l'entraînement sportif ou encore l'évaluation médicale. Cependant, de réelles difficultés persistent quant à l'intégration des résultats numériques de ces systèmes dans le processus de prise de décision. L'objet de ce travail est de proposer une méthodologie permettant une étude rigoureuse d'un mouvement et une intégration des résultats numériques au processus de prise de décision. Cette méthodologie est ensuite appliquée à la marche du sujet hémiplégique. Ce mémoire développe la méthodologie et son application en cinq chapitres. Une synthèse des principales difficultés à franchir tant au niveau humain que matériel pour une contribution effective de l'analyse tridimensionnelle du mouvement au processus de prise de décision est réalisée. A ceci s'ajoute une présentation des principales contraintes et finalités communes à l'analyse du mouvement (chapitre I). La proposition méthodologique est constituée de cinq étapes : 1) l'élaboration de la base de connaissances indispensables, 2) l'identification des indicateurs qualifiés à mesurer, 3) l'élaboration de leurs conditions d'enregistrement, 4) la définition des pré-traitements et de la mise en forme des données et 5) la définition des modalités de présentation et d'accès aux informations (chapitre II). La méthode est ensuite appliquée à l'analyse de la marche du sujet hémiplégique dans la perspective d'en améliorer l'évaluation fonctionnelle (chapitre III). La méthodologie proposée a permis de mettre en évidence les lacunes de la démarche d'analyse généralement appliquées. Elle a également permis de définir les principes de fonctionnement et la maquette d'une interface graphique d'aide à l'évaluation fonctionnelle de la marche du sujet hémiplégique (chapitre IV). Enfin, un bilan de l'ensemble de ce travail de thèse et des perspectives qui s'en dégagent est réalisé (chapitre V). L'élaboration d'une méthodologie générale d'analyse du mouvement humain qui regroupe toutes les étapes d'analyse, du recueil d'informations jusqu'à leur présentation, adaptée à l'utilisateur des résultats, permet donc des applications dans des domaines très variés.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Meddad-Bel, Habich Nadia. « Synthèse, étude des relations structure-activité d'inhibiteurs sélectifs de la phospholipase A2 de groupe II, toxicité et modélisation moléculaire ». Paris 5, 2005. http://www.theses.fr/2005PA05P615.

Texte intégral
Résumé :
La réaction inflammatoire est un processus bénéfique pour l'organisme dans la mesure où elle assure sa défense. Cependant, elle induit aussi des complications sévères qualifiées de pathologies inflammatoires. Dans le cadre de la lutte contre ces pathologies, le rôle des anti-inflammatoires stéroïdiens ou non n'est plus à démontrer, mais ces composés présentent des effets secondaires qui limitent leur utilisation thérapeutique. Les PLA2 humaines sécrétées non pancréatiques (shnp-PLA2) jouent un rôle majeur dans la propagation et l'amplification de l'inflammation. Ces enzymes ubiquitaires hydrolysent la liaison ester en position sn-2 des phospholipides et libèrent l'acide arachidonique et le lyso-PAF, précurseurs majeurs des eicosanoïdes et du PAF, médiateurs lipidiques de l'inflammation. Notre laboratoire a développé, depuis plusieurs années, des séries d'inhibiteurs actifs et sélectifs vis-à-vis de la PLA2 GIIA. Ces molécules sont flexibles et très lipophiles. Nous montrons par dosage fluorimétrique de l'activité enzymatique in vitro que certains de nos molécules induisent une inhibition sélective de la PLA2-II (CI50= 0,029 µM) ; ils sont aussi dépourvus de toxicité. Avec des tests par microtitration cytofluorimétrique en lumière froide, nous mettons en évidence que le taux de radicaux libre (O2°- et H2O2) produit pas les cellules traitées par nos inhibiteurs est inférieur à celui traitées par le LPS 10 µm/mL seul. Une étude de modélisation moléculaire permet de plus de proposer des hypothèses quant au mécanisme d'action de ces inhibiteurs au niveau du site actif de l'enzyme
Inflammatory reaction is a benefic process because of its self defense property. However it can induce serious complications qualified as inflammatory pathologies in asthma, allergy and psoriasis. Many anti-inflammatory drugs are known, but they all present side effects which limit their therapeutic use. Human secretory non-pancreatic PLA2s act in hydrolysing membrane phospholipids on the sn-2 position releasing arachidonic acid and lyso-PAF, the precursor of eicosanoids and PAF, lipid mediators on inflammation. In a previous study we described a series of compounds, in the first part, active but not selective, then, in the second part active, selective but possessing a high lipophilicity. We have shown by in vitro fluorimetric assay that some new inhibitors induce a specific inhibition of PLA2-II (CI50= 0,029 µM) without cytotoxicity. LPS 10 µg/mL induced radical oxygen species (O2°- and H2O2) which could be inhibited by the majority of our products. By using microplate cold light cytofluorimetry, we have shown that free radical production was lower in inhibitors-treated cells then that of the control cells. Molecular modelling studies gave more informations about structure-activity relationships and led us made it possible to propose assumptions as for the mechanism of action of these inhibitors on the level of the active site of the enzyme
Styles APA, Harvard, Vancouver, ISO, etc.
25

Aussem, Alexandre. « Théorie et applications des réseaux de neurones récurrents et dynamiques à la prédiction, à la modélisation et au contrôle adaptif des processus dynamiques ». Paris 5, 1995. http://www.theses.fr/1995PA05S002.

Texte intégral
Résumé :
Cette thèse traite des réseaux de neurones dynamiques et récurrents (DRNN) obtenus en modélisant les connexions par des filtres autorégressifs. En vertu de leur dynamique interne, ces réseaux à récurrence spatiale et temporelle approximent les lois sous-jacentes qui régissent les séries chronologiques par un système d'équations aux différences non linéaires. Un algorithme d'apprentissage local à propagation d'erreur est présente, lequel réduit substanciellement la complexité d'un algorithme à propagation avant. La procédure doit son efficacité à la décroissance exponentielle du gradient dans le réseau adjoint. Ce résultat est démontré. Le potentiel du modèle DRNN est illustré par des simulations intensives sur des séries chronologiques. Des prédictions sont effectuées sur des données astro-climatiques, des processus chaotiques générés par ordinateur et la série des sunspots. Une analyse théorique est présentée, visant à unifier la prédiction, la modélisation et le contrôle adaptatif sous un même formalisme mathématique. La gestion des ressources d'un réseau ATM est aussi explorée par l'entremise de plusieurs réseaux de neurones distribués sur les commutateurs.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Nocua, Cifuentes Jorge Alejandro. « A hybrid power estimation technique to improve high-level power models ». Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT278.

Texte intégral
Résumé :
Une forte consommation d'énergie est un facteur clé impactant les performances des systèmes sur puce (SoC). Des modèles de puissance précis et efficaces doivent être introduits le plus tôt possible dans le flot de conception lorsque la majeure partie du potentiel d'optimisation est possible. Cependant, l'obtention d’une estimation précise ne peut être assurée en raison du manque de connaissance détaillées de la structure du circuit final. La conception actuelle de SoC repose sur la réutilisation de cœur IP (Intelectual Property) car des informations de bas niveau sur les composants du circuit ainsi que la structure sont disponibles. Ainsi, la précision de l'estimation au niveau du système peut être amélioré en utilisant ces informations et en élaborant une méthode d'estimation qui correspond aux besoins de modélisation de puissance des cœurs IP.La principale contribution de cette thèse est le développement d’une technique d'estimation hybride (HPET), dans laquelle les informations provenant de différents niveaux d'abstraction sont utilisées pour évaluer la consommation d'énergie de manière rapide et précise. HPET est basé sur une méthodologie efficace de caractérisation de la bibliothèque technologique et une approche hybride de modélisation de puissance. Les résultats des simulations obtenues avec HPET ont été validés sur différents circuits de référence synthétisés en utilisant la technologie 28nm "Fully Depleted Silicon On Insulator" (FDSOI). Les résultats expérimentaux montrent que nous pouvons atteindre en moyenne jusqu'à 70X d'amélioration en vitesse de calcul tout en ayant une précision au niveau transistor. Pour les deux types puissance analysés (instantanée et moyenne), les résultats de HPET sont bien corrélés par rapport à ceux calculés avec SPECTRE et Primetime-PX. Cela démontre que HPET est une technique efficace pour améliorer la création de macro-modèles de puissance à haut niveau d'abstraction
High power consumption is a key factor hindering System-on-Chip (SoC) performance. Accurate and efficient power models have to be introduced early in the design flow when most of the optimization potential is possible. However, early accuracy cannot be ensured because of the lack of precise knowledge of the final circuit structure. Current SoC design paradigm relies on IP (Intellectual Property) core reuse since low-level information about circuit components and structure is available. Thus, power estimation accuracy at the system level can be improved by using this information and developing an estimation methodology that fits IP cores power modeling needs.The main contribution of this thesis is the development of a Hybrid Power Estimation Technique (HPET), in which, information coming from different abstraction levels is used to assess the power consumption in a fast and accurate manner. HPET is based on an effective characterization methodology of the technology library and an efficient hybrid power modeling approach. Experimental results, derived using HPET, have been validated on different benchmark circuits synthesized using the 28nm “Fully Depleted Silicon On Insulator” (FDSOI) technology. Experimental results show that in average we can achieve up to 70X speedup while having transistor-level accuracy. For both analyzed power types (instantaneous and average), HPET results are well correlated with respect to the ones computed in SPECTRE and Primetime-PX. This demonstrates that HPET is an effective technique to enhance power macro-modeling creation at high abstraction levels
Styles APA, Harvard, Vancouver, ISO, etc.
27

Champendal, Christian. « Analyse d'un corpus d'articles de traitement numérique du signal (TNS : domaine de la physique appliquée aux systèmes de télécommunications) en vue de modélisation linguistique et d'application NTICE ». Nice, 2003. http://www.theses.fr/2003NICE2025.

Texte intégral
Résumé :
Partant du constat que le traitement divergent d'unités lexicales dans divers dictionnaires révèle des carences de l'analyse linguistique ; un corpus d'article de Traitement Numérique du Signal (domaine de la physique appliquée aux systèmes de télécommunications) sert de support à une analyse linguistique appliquée à une série échantillon, en vue de modélisation. La série lexicale choisie est (USE : reuse, reused, reusing, usage, use, used, useful, usefulness, useless, users, uses, using, usual, usually), constituée d'éléments du dictionnaire de niveaux divers. Les mécanismes prédicatifs sont présentés au sein des segments traditionnellement définis : groupe, syntagme et proposition. Les formes prédicatives "de base" et les "participes de présent ou de passé" (notées V0, V1 et V2) constituent un point d'ancrage de cette étude ; il s'agit de voir leur organisation par catégories et leur distribution fonctionnelle, ainsi que leurs liens paraphrastiques à travers des manipulations à prédication et énonciation constantes. Les résultats obtenus permettent une évaluation des distinctions usuelles.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Bazzoli, Caroline. « Evaluation et optimisation de protocoles dans les modèles non linéaires à effets mixtes : application à la modélisation de la pharmacologie des antiretroviraux ». Paris 7, 2009. http://www.theses.fr/2009PA077238.

Texte intégral
Résumé :
Cette thèse porte sur l'évaluation et l'optimisation de protocoles dans les modèles non linéaires à effets mixtes à réponses multiples comme par exemple dans le cadre de la modélisation conjointe de la pharmacocinétique et de la pharmacodynamie d'un médicament ou de la pharmacocinétique d'une molécule et de son métabolite. Nous avons étendu le calcul de la matrice d'information de Fisher dans les modèles non linéaires à effets mixtes pour des modèles à réponses multiple avec la linéarisation usuelle. Nous avons évalué cette extension par simulation et montré ses bonnes performances. Nous avons aussi étendu l'algorithme d'optimisation de Fedorov-Wynn prenant en compte des fonctions de coût sur les prélèvements. Nous avons implémenté ces développements dans de nouvelles versions de la fonction R PFIM, dédiée à l'évaluation et à l'optimisation de protocoles. Nous les avons appliqués à l'étude de la pharmacocinétique plasmatique et intracellulaire des antirétroviraux. Nous avons réalisé une revue sur les études cliniques mesurant des concentrations intracellulaires d'antirétro viraux chez des patients VIH, et montré que beaucoup d'entre elles incluent peu de patients et n'ont pas toujours des protocoles adaptés. Nous avons construit les premiers modèles pharmacocinétiques conjoints de la zidovudine et de la lamivudine et de leur métabolite intracellulaire respectif à partir de données chez des patients VIH. Nous avons ainsi estimé les longues demi-vies de ces métabolites mais aussi leur large variabilité inter-patients. Enfin, nous avons montré que des protocoles optimaux obtenus en fonction de différentes contraintes cliniques sont des protocoles efficaces pour de futures études de ces molécules utilisant ces modèles conjoints
This thesis considers design evaluation and optimisation in the context of nonlinear mixed effect models for multiple responses, as for instance for the joint modelling of the pharmacokinetics and the pharmacodynamics of a drug or for thé pharmacokinetics of a parent drug and its metabolite. We extended the computation of the Fisher information matrix for nonlinear mixed effect models with multiple responses using the usual first-order linéarisation. We evaluated this extension and showed by simulation its relevance. We also extended the Fedorov-Wynn algorithm to include cost functions on the sampling times. We implemented these developments in new versions of the R function PFIM dedicated to design evaluation and optimisation. We also applied them to plasma and intracellular pharmacokinetics of antiretroviral drugs. We performed a review on clinical studies measuring intracellular concentrations of antiretro viral drugs in HIV patients and found that most of these studies had small sample sizes and were not always adequately designed. We developed the first joint pharmacokinetic models of zidovudine and lamivudine and of their respective intracellular metabolites. We estimated the long half-lifes of both metabolites and found large between patients variabilities. Last, we showed that population design optimisation allows the derivation of efficient designs according to clinical constraints for further analysis of these molecules using these joint models
Styles APA, Harvard, Vancouver, ISO, etc.
29

Dhouib, Karem. « Modélisation, analyse et amélioration de la disponibilité des systèmes de production cellulaires dont les machines sont sujettes à des défaillances aléatoires ». Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape11/PQDD_0001/NQ43059.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
30

Yvert, Gaëtan. « Modélisation de l'organisation fonctionnelle de la lecture chez le sujet sain : Etude en EEG-HR par reconstruction de sources et modèles causaux dynamiques. Applications aux patients épileptiques ». Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENS044/document.

Texte intégral
Résumé :
L'écriture et donc a fortiori la lecture est une invention trop récente pour que le substrat neuronal sous tendant ce processus cognitif ait évolué pour se spécialiser dans la reconnaissance visuelle des mots. Ainsi les régions fonctionnelles de la lecture repose à la fois sur les aires corticales dédiées au langage et à la reconnaissance visuelle des objets. Cependant, l'identification complète nécessite au delà du décryptage orthographique, le décodage phonologique ainsi que la récupération de la sémantique. De très nombreuses études en neuroimagerie et en particulier l'IRM se sont intéressées à la localisation des différentes aires fonctionnelles sous tendant ces différentes taches cognitives. Cependant la faible résolution temporelle de l'IRM n'a pas permis de mettre en évidence la dynamique d'intégration au sein du réseau fonctionnel de la lecture. Les enregistrements électrophysiologiques, comme l'EEG, permettent la mise en évidence de la dynamique neuronale grâce à son excellente résolution temporelle. Cependant, la localisation des aires corticales ayant générés les courants de scalp est un problème méthodologique très complexe. Depuis une dizaine d'année, de nombreuses avancées majeures ont été effectuées dans la localisation de source en utilisant des méthodologies nouvelles permettant ainsi de mettre en évidence à la fois les régions fonctionnelles impliquées dans le traitement cognitif ainsi que la dynamique temporelle d'intégration au sein du réseau. Par ailleurs, d'une vision localisationniste, les recherches actuelles tendent vers une vision hodotopique où la fonction d'une région dépend plus de ses connections avec les autres régions du réseau que de sa localisation précise. De nouvelles méthodologies comme les modèles causaux dynamiques permettent de mettre en évidence la structure du réseau et de son fonctionnement. L'objectif de cette thèse a été d'utiliser les derniers outils méthodologiques mis au point afin non seulement de mettre en évidence le réseau de la reconnaissance visuelle des mots mais aussi de proposer un modèle théorique de l'intégration fonctionnelle. En particulier, nous avons mis en évidence l'importance des connexions feedback sur le traitement bottom up de la reconnaissance visuelle des mots à l'instar des objets. Par ailleurs, nous avons appliqué ces méthodologies chez le patient épileptique afin de mettre en évidence les réorganisations fonctionnelles induites par la présence d'un foyer au niveau des régions temporales gauche
Writing and then a fortiori reading is a too recent invention for evolution to develop a specialized neuronal substrate sustaining the visual word form recognition. Thereby functional region underlying reading process rest on cortical area dedicate to language and visual recognition of objects. However, complete identification of a word requires beyond the orthographic decryption, phonological decoding and semantic recovery. Numerous neuroimaging studies and in particular with fMRI have tried to localize the functional regions sustaining these different cognitive processes. Nonetheless, the weak temporal resolution of fMRI do not allowed revealing the dynamic of integration within the reading network. Electrophysiological recording as EEG permit to show the neuronal dynamic thanks to its excellent temporal resolution. However, localization of the cortical area having generate the scalp electrical field is a complex methodological issue. Since a decade, numerous breakthroughs in methodology allow not only to localize functional region but also the temporal dynamic of their interaction. Moreover, from a localisationnist point of view, current research have adopted an hodotopic vision supposing that the function of a region is more depend of its connectivity with the other region of the network than of its precise location. New methodologies as dynamic causal modeling permit to show the network structure and its dynamic integration. The goal of this thesis has been to use latest methodological development to reveal not only the network of the word recognition, but also to propose a functional model of the integration of the visual stimuli within this network. In particular, we have shown the importance of feedback connection on bottom up processing in word recognition as it has been shown for objects recognition. In addition, we have applied those methodologies to epileptic patients to reveal the influence of a left temporal lesion on the functional reorganization of the reading network
Styles APA, Harvard, Vancouver, ISO, etc.
31

Hulot, Jean-Sébastien. « Apport de la modélisation pharmacocinétique/pharmacodynamique et de la pharmacogénétique pour l'adaptation posologique des médicaments à la fonction rénale : application à l'énoxaparine et au méthotrexate ». Paris 5, 2005. http://www.theses.fr/2005PA05P628.

Texte intégral
Résumé :
Notre objectif était d'étudier l'apport de nouvelles approches pharmacologiques (modélisation pharmacocinétique et pharmacogénétique) pour l'amélioration de l'utilisation du médicament en cas d'altérations des processus d'élimination rénale. Dans une première partie, nous avons pu déterminer, à l'aide d'une modélisation pharmacocinétique par approche population, l'influence du niveau de fonction rénale sur la pharmacocinétique de l'enoxaparine. Ces informations nous ont permis de développer une stratégie d'adaptation posologique prenant en compte le niveau de fonction rénale. Dans une seconde partie, nous avons pu établir qu'en dehors d'anomalies de filtration glomérulaire, la présence d'une mutation dans le gène ABCC2 codant pour une protéine MRP2 (impliquée dans la sécrétion tubulaire active de médicaments) non fonctionnelle in vitro, était associée in vivo à un ralentissement de l'élimination de l'un de ses substrats (méthotrexate) et une augmentation du risque toxique
Our aim was to evaluate the interest of two pharmacological approaches (Population Pharmacokinetics/Pharmacodynamics and Pharmacogenetics) to improve the use of drugs in patients presenting with impaired renal functions. In a first part, we determined the influence of renal function on the pharmacokinetics of an anticoagulant (enoxaparin) owing to a population PK modelling approach. This model allowed us to develop a dosing strategy for this drug in renally impaired patients. In an other part, we found that, independently of alteration in the glomerular filtration process, an ABCC2 mutation altering MRP2-mediated methotrexate transport in vitro results in vivo in impaired tubular renal excretion of methotrexate and subsequent renal toxicity. This is the first evidence that genetic factors may contribute to renal drug elimination
Styles APA, Harvard, Vancouver, ISO, etc.
32

Griffon, Nicolas. « Modélisation, création et évaluation de ux de terminologies et de terminologies d'interface : application à la production d'examens complémentaires de biologie et d'imagerie médicale ». Phd thesis, Université de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00877697.

Texte intégral
Résumé :
Les intérêts théoriques, cliniques et économiques, de l'informatisation des prescriptions au sein des établissements de santé sont nombreux : diminution du nombre de prescriptions, amélioration de leur pertinence clinique, diminution des erreurs médicales... Ces béné ces restent théoriques car l'informatisation des prescriptions est, en pratique, confrontée à de nombreux problèmes, parmi lesquels les problèmes d'interopérabilité et d'utilisabilité des solutions logicielles. L'utilisation de terminologies d'interface au sein de ux de terminologies permettrait de dépasser ces problèmes. L'objectif principal de ce travail était de modéliser et développer ces ux de terminologies pour la production d'examens de biologie et d'imagerie médicale puis d'en évaluer les béné ces en termes d'interopérabilité et d'utilisabilité. Des techniques d'analyse des processus ont permis d'aboutir à une modélisation des ux de terminologies qui semble commune à de nombreux domaines. La création des ux proprement dits repose sur des terminologies d'interface, éditées pour l'occasion, et des référentiels nationaux ou internationaux reconnus. Pour l'évaluation, des méthodes spéci- ques mises au point lors du travail d'intégration d'une terminologie d'interface iconique au sein d'un moteur de recherche de recommandations médicales et d'un dossier médical, ont été appliquées. Les ux de terminologies créés induisaient d'importantes pertes d'information entre les di érents systèmes d'information. En imagerie, la terminologie d'interface de prescription était signi cativement plus simple à utiliser que les autres terminologies, une telle di érence n'a pas été mise en évidence dans le domaine de la biologie. Si les ux de terminologies ne sont pas encore fonctionnels, les terminologies d'interface, elles, sont disponibles pour tout établissement de santé ou éditeur de logiciels et devraient faciliter la mise en place de logiciels d'aide à la prescription.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Bouattour, Mohamed. « Assistance à la conception coopérative fondée sur la sémantique des ouvrages : application au domaine du bois ». Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2005. http://tel.archives-ouvertes.fr/tel-00086596.

Texte intégral
Résumé :
La complexité de l'utilisation des systèmes d'aide à la conception coopérative dans le
domaine du bâtiment résulte de la complexité même du travail coopératif (difficultés de
traçabilité des actions, non-disposition sur chaque document de l'ensemble des
informations requises pour accomplir une tâche donnée, problèmes de coordination,
‘discontinuité' des données, etc.). En considérant cet état de fait, nous proposons une étude
des activités liées au travail de groupe dans le cadre de projets de conception de bâtiments,
et plus spécifiquement dans le domaine du bois qui nécessite une importante coopération
entre les concepteurs. Cette étude présente ensuite le concept de projet numérique déduit de
l'analyse du modèle des IFC ‘Industry Foundation Classes' et de l'approche de coopération
basée sur l'utilisation de la maquette numérique dans les secteurs de l'industrie automobile
et aéronautique. En effet, l'échange des données basé sur l'utilisation des objets
interopérables constitue une approche nouvelle à approfondir dans le domaine du bâtiment.
Ainsi, afin de concevoir un environnement virtuel coopératif regroupant ces notions
étudiées, nous proposons un modèle tenant compte des informations sémantiques relatives
aux ouvrages échangés par les acteurs. Nous avons mis en œuvre celui-ci dans une
interface d'un système coopératif. Cet outil prototype offre une représentation graphique
d'un contexte coopératif de projet favorisant l'organisation et le regroupement des
informations nécessaires à la conception de bâtiments.
Styles APA, Harvard, Vancouver, ISO, etc.
34

LAMPIRE, Nicolas. « Caractérisation de la cinématique et de la dynamique musculaire lors de la marche chez les sujets hémiparétiques : approche par modélisation musculosquelettique ». Phd thesis, 2012. http://tel.archives-ouvertes.fr/tel-00991136.

Texte intégral
Résumé :
Cette thèse a été réalisée dans le cadre d’une convention CIFRE, marquant la collaboration entre le LBMC (Laboratoire de Biomécanique et Mécanique des Chocs) et le Centre de Médecine Physique et de Réadaptation L’ADAPT Loiret. Le LBMC résulte du rapprochement en janvier 2003 d’une équipe d’enseignants-chercheurs de l’université Claude Bernard Lyon1 et du Laboratoire de Biomécanique et Mécanique des Chocs de l’INRETS (devenu l’IFSTTAR depuis sa fusion avec le LCPC). Regroupant environ 40 permanents, dont Laurence CHEZE, ma directrice de thèse, le LBMC est dirigé par Philippe VEZIN, Directeur de Recherche à l’IFSTTAR. Le CMPR L’ADAPT Loiret est un centre de rééducation situé sur le site hospitalier d’Amilly, à proximité de Montargis. Son activité est axée sur les pathologies neurologiques (paraplégies, tétraplégies, hémiplégies, maladies dégénératives du système nerveux central), la traumatologie (suites d’accident de la voie publique et traumatologie du sport) et l'appareillage des amputations du membre inférieur. Le nouveau bâtiment (fin 2007) dispose d'équipements de dernière génération et d'un plateau technique de 1990 m² avec gymnase sportif et balnéothérapie. Il dispose également d’un laboratoire d’analyse quantifiée de la marche. L’intégration d’un doctorant dans l’équipe du Docteur CARNÉ permettait, d’une part, de développer l’activité de ce laboratoire, et d’autre part de mettre en place une activité de recherche clinique. Mon activité professionnelle consiste à réaliser des examens, à visée diagnostique, d’analyse quantifiée de la marche. L’activité de recherche est en lien avec l’activité clinique et l’offre de soin liée à l’analyse du mouvement (prise en charge thérapeutique, injection de toxine, orthèse de marche, ...). Il faut également associer à ces deux structures l’équipe Motricité du GRCTH (Groupement de Recherche Clinique et Technologique sur le Handicap, EA 4497) de l’Université de Versailles Saint Quentin, associée au CIC-IT 805 et plus particulièrement Didier PRADON, mon co-directeur de thèse. La thématique de recherche émergeant de cette collaboration est la caractérisation des troubles de la marche des sujets affectés par une pathologie du système nerveux central.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie