To see the other types of publications on this topic, follow the link: Modèle basé sur la physique.

Dissertations / Theses on the topic 'Modèle basé sur la physique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèle basé sur la physique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Tournemenne, Robin. "Optimisation d’un instrument de musique de type cuivre basée sur des simulations sonores par modèle physique." Thesis, Ecole centrale de Nantes, 2017. http://www.theses.fr/2017ECDN0015/document.

Full text
Abstract:
Le travail présenté dans cette thèse s’intéresse à l’optimisation de la géométrie interne (la perce) des instruments de musique à vent de la famille des cuivres. L’originalité de l’approche repose sur l’utilisation de simulations sonores par modèle physique pour déterminer la perce optimisant des qualités sonores telles que la justesse ou le timbre de l’instrument. Le modèle physique utilisé, représentant le fonctionnement de l’excitateur, du résonateur et du couplage entre ces deux éléments, permet d’obtenir des sons représentatifs de leur interaction. La méthode de simulation utilisée est l’équilibrage harmonique, qui produit des simulations sonores en régime permanent, représentatives de la perce et des paramètres de contrôle du musicien virtuel. Différents problèmes d’optimisation sont formulés, pour lesquels la fonction objectif à minimiser et les contraintes représentent des attributs de la qualité des notes, la variable d’optimisation étant les dimensions géométriques de la perce. Étant donné les coûts de calcul et l'indisponibilité des dérivées de la fonction objectif, une méthode d’optimisation par recherche directe assistée de métamodèles est choisie (MADS). Deux exemples d'optimisation de la justesse ou du timbre d'une trompette, avec 2 et 5 variables d’optimisation, valident l'approche. Les résultats montrent que la méthode optimise la justesse globale de l’instrument de manière robuste, pour un coût raisonnable. Enfin, deux études perceptives étudient, d’une part, la capacité du modèle physique à produire des sons perceptivement différents entre des instruments différents, et, d’autre part, comment les différences entre un instrument nominal et un instrument optimisé sont perçues
This thesis presents a method for design optimization of brass wind instruments. The shape of a trumpet's bore is optimized to improve intonation or the instrument timbre using a physics-based sound simulation model. This physics-based model consists of an acoustic model of the resonator, a mechanical model of the excitator and a model of the coupling between the excitator and the resonator. The simulation uses the harmonic balance technique to computate sounds in permanent regime, representative of the shape of the resonator according tocontrol parameters of the excitator (virtual musician). Optimization problems are formulated, in which the objective function to be minimized and the constraints define features of the instrument’s quality regarding the different playable notes. The design variables are the physical dimensions of the resonator. Given the computationally expensive function evaluation and the unavailability of gradients, a surrogate-assisted optimization framework is implemented using the mesh adaptive direct search algorithm (MADS). Two examples (with two and five design optimization variables) demonstrate the validity of the approach. Results show that significant improvement of intonation can be robustly achieved at reasonable computational cost. At last, two perceptive studies are carried out in order to confirm, on the one hand, the capacity of the physics based model to elicit differences between the instruments and, on the other hand, the capacity of the optimization method to propose perceptually distinct instruments
APA, Harvard, Vancouver, ISO, and other styles
2

Jaganathen, Yannen. "Vers une description unifiée de la structure et des réactions basée sur le modèle en couches avec états de Gamow." Caen, 2012. http://www.theses.fr/2012CAEN2041.

Full text
Abstract:
Le modèle en couches avec états de Gamow qui apporte une description des états nucléaires liés, résonnants et de diffusion peut être considéré comme une extension du modèle en couches aux systèmes quantiques ouverts. Par un traitement rigoureux du continuum de diffusion non-résonnant à une particule, le modèle pose les bases d'un cadre théorique unifié permettant de décrire sur un même plan la structure des noyaux et les mécanismes de réactions. Considéré jusqu'à présent uniquement pour des études de structure, ce travail de thèse signe la première application du modèle en couches avec états de Gamow aux réactions nucléaires, et plus spécifiquement aux réactions de diffusions élastiques et inélastiques de nucléons. Les développements théoriques et numériques effectués y constituent une démonstration de la faisabilité des méthodes et permettent une description d’une part de la cible pouvant être liée ou résonnante et d’autre part des états liés, résonnants et de diffusion du système global. Pour la première mise en pratique du modèle, la diffusion d'un proton par le noyau à halo a été étudiée au moyen d'interactions schématiques de portée finie. Le formalisme a alors permis de déterminer les spectres des noyaux à A-1 et A corps et les sections efficaces différentielles de diffusion élastique et de diffusion inélastique vers l'état excité. La convergence des calculs au nombre de couches partielles est analysée ; les résultats sont comparés aux données expérimentales et leur sensibilité au choix de l'interaction à deux corps est également examinée
Gamow Shell Model which provides a consistent many-body description of nuclear bound states, resonances and scattering states can be considered an open-quantum-system extension to the standard Shell Model. The model lays the groundwork to a unified theoretical framework for the description of nuclear structure and nuclear reactions through a proper treatment of the coupling to the non-resonant particle continuum. So far used as a tool for nuclear structure studies, this work deals with its generalization to nuclear reactions, and more specifically to elastic and inelastic nucleon-nucleus scattering. We have shown that this model can be used in practical applications and allows a description on the one hand of the target which can be bound or resonant and the other hand the bound, resonant and scattering states of the total system. The first applications of the Gamow Shell Model formalism to proton scattering from 6He halo nucleus are presented in the thesis by the means of finite-ranged schematic interactions. The energy spectra of nuclei are determined, as well as p-6He phase shifts and differential cross sections, both elastic and inelastic (to the excited state of). The convergence of calculated cross sections to the number of partial waves is reviewed; results are compared to experimental data and their sensitivity to the choice of two-body interactions is also investigated
APA, Harvard, Vancouver, ISO, and other styles
3

Taktak, Rym. "Étude de la déchirure ductile basée sur un modèle de croissance de cavités." Electronic Thesis or Diss., Lille 1, 2008. http://www.theses.fr/2008LIL10134.

Full text
Abstract:
Ce travail est une contribution à l'analyse du comportement à l'endommagement des matériaux ductiles. L'endommagement ductile désigne le processus de dégradation progressive des propriétés physiques et mécaniques d'un matériau lorsqu'il subit, sous l'effet d'un chargement et avant rupture, une déformation plastique importante à température ambiante ou peu élevée. L'objectif de ce travail est de déterminer un critère de propagation de fissures pour simuler la déchirure des matériaux ductiles en se basant sur les modèles d'endommagements locaux. Nous avons mené une campagne expérimentale sur 3 matériaux structurellement très différents: un acier 12NC6, un aluminium 2024T351 et un polymère PA66. Le modèle de croissance des cavités Rice-Tracey s'est révélé très limité à décrire la rupture des matériaux testés, nous avons alors proposé une modification de ce modèle en l'enrichissant de paramètres micromécaniques permettant de prendre en compte l'effet de la croissance et des interactions entre les cavités. Le modèle proposé a été implanté dans un code de calcul par éléments finis pour simuler l'amorçage d'une fissure et sa propagation au cours du chargement. Nous avons validé ce modèle analytique à l'aide des résultats expérimentaux des trois matériaux. Les résultats numériques obtenus en termes de courbes R et «charge-déplacement» comparés aux résultats expérimentaux ont permis de valider le modèle sur les trois matériaux étudiés
The purpose of this thesis is to contribute to the study of ductile fracture of materials on micromechanical models based on local approach. Ductile fracture of metals occurs mainly by nucleation, growth and coalescence of voids. Concerning the local approach of ductile fracture, the emphasis is laid on the micromechanical model of Rice-Tracey. The latter based on growth cavities is verified in order to describe the ductile tearing in stainless steel NiCr(12NC6), 2024T351 aluminium alloy and polymer PA66. The experimental study is carried out on compact tension ct , central crack panel ccp, single edge notched tension sent and tensile axisymetric notched specimens to characterize ductile failure in different materials. The comparison of the experimental results with the classical Rice-Tracey model shows that it cannot make a good prediction using "j -da" curve. On the basis of fitting procedure and numerical simulation a correction of coefficients is introduced to improve the Rice-Tracey model. A methodology of identification of parameters is presented. Ductile crack growth, defined by the" j -da" curve, has been correctly simulated using the numerical calculations by adjusting the three parameters of " modified Rice-Tracey model in the calibration procedure. The proposed model is implemented into a finite element code. Close agreement between the computed results aj'ld experimentally measured values justifies the usefulness of the present modified model
APA, Harvard, Vancouver, ISO, and other styles
4

El, Hore Ali. "Contribution à l'apprentissage de la résolution de problèmes scientifiques par la planification : une méthode d'explication basée sur un modèle appelé l'intention de raisonnements." Toulouse 1, 2006. http://www.theses.fr/2007TOU10003.

Full text
Abstract:
L’apprentissage du raisonnement et de la résolution de problèmes reste un point fondamental dans le cursus des formations des élèves. Cette thèse propose un modèle d’apprentissage par l’humain du raisonnement appliqué dans le cas résolution problèmes théoriques en physique. L’hypothèse de ce travail est inspirée de la théorie constructiviste de l’apprentissage. En effet cette théorie avance que l’apprentissage n’est pas seulement la transmission de la connaissance de l’enseignant à l’apprenant, il est vu plutôt comme un processus actif de recréation de la connaissance par l’apprenant qui apprend en observant, en imitant et en faisant. L’entraînement de l’apprenant doit être précédé par une bonne compréhension du processus de résolution de problème. Nous proposons d’aider l’apprentissage de la science physique en utilisant le système Pero que nous avons développé, dans lequel la résolution est basée sur un modèle de résolution auto explicatif. Ce modèle est un planificateur qui permet de résoudre des problèmes mathématiques appliqués aux sciences physiques. Le modèle propose d’intégrer la notion de l’intention dans le processus de résolution de problèmes afin d’ajouter les connaissances d’explication de la résolution. Le graphe de résolution dans lequel les nœuds correspondent aux états du planificateur et les arcs aux actions de résolution permet de représenter les explications comme étant le but, les moyens et la justification de résolution au niveau de chaque action. Lors de l’apprentissage, les connaissances explicatives sont générées pour permettre à l’apprenant de faire les observations nécessaires à leur compréhension avant de reproduire des résolutions similaires. Cette thèse a permis de développer le prototype Pero, dans lequel un module d’indexation basé sur une ontologie du domaine a été ajouté pour pouvoir retrouver les exercices déjà résolus. La validation de l’approche est faite sur un ensemble d’exercices en électricité
Learning the art of reasoning and problem solving is a fundamental part of student training. This thesis proposes a model for the study of reasoning applied to the resolution of theoretical problems in physics. Drawing on constructivist theories of learning, training is presented not so much as the transmission of knowledge from the teacher to the learners but rather as an active process of re-creation of that knowledge by learners who learn by observing, imitating and by doing. Training must be preceded by a thorough understanding of problem solving techniques. We propose to help the study of physics by using a system we have developed called the Pero system. Problem solving is based on a self-explanatory resolution model. This model is a planner that allows solving mathematical problems applied to physics. The model proposes to integrate the notion of intention into the process of resolution in order to add knowledge of problem solving explanations. The resolution graph, in which the nodes correspond to the states of the planner and the curves to the actions of resolution, makes it possible to represent explanations as being the goal, the means and the rationale of resolution at the level of each action. At the time of the training, explanatory knowledge is generated to allow learners to make the observations necessary to promote understanding before reproducing similar resolutions. This thesis lies behind the development of the Pero prototype in which an indexing module based on ontology of the field was added. The indexing module makes it possible to find exercises which have already been solved. The validation of the approach is based on a series of exercises in the field of electricity.
APA, Harvard, Vancouver, ISO, and other styles
5

Taktak, Rym. "Étude de la déchirure ductile basée sur un modèle de croissance de cavités." Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10134.

Full text
Abstract:
Ce travail est une contribution à l'analyse du comportement à l'endommagement des matériaux ductiles. L'endommagement ductile désigne le processus de dégradation progressive des propriétés physiques et mécaniques d'un matériau lorsqu'il subit, sous l'effet d'un chargement et avant rupture, une déformation plastique importante à température ambiante ou peu élevée. L'objectif de ce travail est de déterminer un critère de propagation de fissures pour simuler la déchirure des matériaux ductiles en se basant sur les modèles d'endommagements locaux. Nous avons mené une campagne expérimentale sur 3 matériaux structurellement très différents: un acier 12NC6, un aluminium 2024T351 et un polymère PA66. Le modèle de croissance des cavités Rice-Tracey s'est révélé très limité à décrire la rupture des matériaux testés, nous avons alors proposé une modification de ce modèle en l'enrichissant de paramètres micromécaniques permettant de prendre en compte l'effet de la croissance et des interactions entre les cavités. Le modèle proposé a été implanté dans un code de calcul par éléments finis pour simuler l'amorçage d'une fissure et sa propagation au cours du chargement. Nous avons validé ce modèle analytique à l'aide des résultats expérimentaux des trois matériaux. Les résultats numériques obtenus en termes de courbes R et «charge-déplacement» comparés aux résultats expérimentaux ont permis de valider le modèle sur les trois matériaux étudiés
The purpose of this thesis is to contribute to the study of ductile fracture of materials on micromechanical models based on local approach. Ductile fracture of metals occurs mainly by nucleation, growth and coalescence of voids. Concerning the local approach of ductile fracture, the emphasis is laid on the micromechanical model of Rice-Tracey. The latter based on growth cavities is verified in order to describe the ductile tearing in stainless steel NiCr(12NC6), 2024T351 aluminium alloy and polymer PA66. The experimental study is carried out on compact tension ct , central crack panel ccp, single edge notched tension sent and tensile axisymetric notched specimens to characterize ductile failure in different materials. The comparison of the experimental results with the classical Rice-Tracey model shows that it cannot make a good prediction using "j -da" curve. On the basis of fitting procedure and numerical simulation a correction of coefficients is introduced to improve the Rice-Tracey model. A methodology of identification of parameters is presented. Ductile crack growth, defined by the" j -da" curve, has been correctly simulated using the numerical calculations by adjusting the three parameters of " modified Rice-Tracey model in the calibration procedure. The proposed model is implemented into a finite element code. Close agreement between the computed results aj'ld experimentally measured values justifies the usefulness of the present modified model
APA, Harvard, Vancouver, ISO, and other styles
6

Arizmendi, David. "Simulation numérique par la méthode des éléments finis, de la déformation plastique des cristaux à structure cubique centrée en utilisant un modèle basé sur les mécanismes physiques de la plasticité cristalline." Paris 13, 1999. http://www.theses.fr/1999PA132052.

Full text
Abstract:
Un code de calcul, basé sur la méthode des éléments finis, des grandes transformations élastoviscoplastiques de monocristaux à structure cubique centrée a été développé pour analyser et prédire l'hétérogénéité de la déformation de ces matériaux. L’élasticité anisotrope et les particularités des micro-mécanismes du glissement plastique de la structure (c. C. ) Ont été pris en compte. La loi de comportement utilise une approche similaire à celle proposée par C. Teodosiu et al. Pour la structure c. F. C. . Les variables internes de ce modèle sont les densités de dislocations. La loi d’écoulement est une loi viscoplastique du type loi puissance. L’écrouissage est décrit par une composante thermiquement activée caractéristique de la friction de réseau et par une composante qui représente l’écrouissage forêt. L'objectif de cette étude est : i) la proposition dans le cadre de la mécanique des milieux continus et de la plasticité cristalline d'une loi élastoviscoplastique adaptée aux monocristaux à structure c. C. ; ii) l'identification dans le cas du fer des paramètres du modèle, à partir d'essais expérimentaux recueillis dans la littérature ; iii) la validation de cette loi de comportement, par comparaison entre les données expérimentales obtenues a partir d'un essai de traction uniaxiale in situ à l’intérieur d'un microscope électronique à balayage (m. E. B. ) d'un monocristal de fer et les résultats numériques obtenus par des simulations, utilisant le modèle proposé et identifié, par la méthode des éléments finis de ce même essai mécanique ; iv) l'application de ce modèle, en réalisant des simulations numériques d'essais de traction uniaxiale d’agrégats a petits nombres de grains pour analyser l'influence de la distribution spatiale des orientations sur le comportement global et local et l'influence des grains voisins sur le comportement d'un grain.
APA, Harvard, Vancouver, ISO, and other styles
7

Bernal, Caroline. "Promotion des comportements actifs chez des enfants d’école primaire issus d’un quartier défavorisé : mise en place et évaluation d’une intervention multi-leviers basée sur le modèle socio-écologique et effets de l’activité physique sur les capacités attentionnelles." Thesis, Pau, 2020. http://www.theses.fr/2020PAUU3056.

Full text
Abstract:
L'une des stratégies les plus prometteuses pour promouvoir l'activité physique (AP) et réduire le temps sédentaire (TS) auprès des enfants est la mise en place d'interventions en milieu scolaire. Cette thèse comportait 4 objectifs principaux : 1) Analyser l'AP et le TS des enfants de 8 à 11 ans à différents moments de la journée en France et en Espagne ; 2) Mettre en place et évaluer l'efficacité d'une intervention multi-leviers en milieu scolaire visant à promouvoir les comportements actifs d’enfants de 6 à 10 ans issus d'un quartier défavorisé; 3) Analyser les expériences vécues par les enseignants au cours de cette intervention ; 4) Explorer les effets de l’AP et de la motricité sur les capacités attentionnelles des enfants. Des effets positifs se sont produits avant l'intervention dans chaque école et ont été maintenus en post intervention (p<0,05). Les capacités attentionnelles étaient prédites par les habiletés motrices, notamment par la coordination du membre supérieur. Ainsi, ce travail fournit de nouvelles orientations dans la promotion des comportements actifs
One of the most promising strategies to promote physical activity (PA) and reduce sedentary time (ST) of the children is the implementation of school-based interventions. This work had 4 main objectives: 1) To analyse PA and ST of 8-to-11 year-old children during different periods of the day in France and in Spain; 2) To construct and evaluate the effectiveness of a duplicated school-based intervention designed to active behaviours of 6-to-10-years-old children of a disadvantaged neighbourhood; 3) To analyse the experiences of the teachers during this intervention; 4) To explore the relationships between PA, motor skills and attentional capacities for children. Positives effects have occurred before the intervention in each school and have been maintained at post-intervention (p<0.05). Attentional capacities were predicted by motors skills, including coordination of the upper limb. Thus, this work provides new directions in the advancement of PA promotion
APA, Harvard, Vancouver, ISO, and other styles
8

Blagouchine, Iaroslav. "Modélisation et analyse de la parole : Contrôle d’un robot parlant via un modèle interne optimal basé sur les réseaux de neurones artificiels. Outils statistiques en analyse de la parole." Thesis, Aix-Marseille 2, 2010. http://www.theses.fr/2010AIX26666.

Full text
Abstract:
Cette thèse de doctorat traite les aspects de la modélisation et de l'analyse de la parole, regroupés sous le chapeau commun de la qualité. Le premier aspect est représenté par le développement d'un modèle interne de contrôle de la production de la parole ; le deuxième, par le développement des outils pour son analyse. Un modèle interne optimal sous contraintes est proposé pour le contrôle d'un robot parlant, basé sur l'hypothèse du point d'équilibre (EPH, modèle-lambda). Ce modèle interne se repose sur le principe suivant : les mouvements du robot sont produits de telle façon que la longueur du chemin, parcouru dans l'espace interne des commandes motrices lambda, soit minimale, sous certaines contraintes liées à l'espace externe. L'aspect mathématique du problème conduit au problème géodésique généralisé, un problème relevant du calcul variationnel, dont la solution exacte analytique est assez complexe. En utilisant certains résultats empiriques, une solution approximative est enfin développée et implémentée. La solution du problème donne des résultats intéressants et prometteurs, et montre que le modèle interne proposé permet d'atteindre une certaine réalité de la production de la parole ; notamment, des similitudes entre la parole réelle et celle produite par le robot sont constatées. Puis, dans un but d'analyser et de caractériser le signal de parole, plusieurs méthodes d'analyse statistique sont développées. Elles sont basées sur les statistiques d'ordre supérieurs et sur l'entropie discrète normalisée. Dans ce cadre, nous avons également élaboré un estimateur non-biaisée et efficace du cumulant d'ordre quatre, en deux versions bloc et adaptative
This Ph.D. dissertation deals with speech modeling and processing, which both share the speech quality aspect. An optimum internal model with constraints is proposed and discussed for the control of a biomechanical speech robot based on the equilibrium point hypothesis (EPH, lambda-model). It is supposed that the robot internal space is composed of the motor commands lambda of the equilibrium point hypothesis. The main idea of the work is that the robot movements, and in particular the robot speech production, are carried out in such a way that, the length of the path, traveled in the internal space, is minimized under acoustical and mechanical constraints. Mathematical aspect of the problem leads to one of the problems of variational calculus, the so-called geodesic problem, whose exact analytical solution is quite complicated. By using some empirical findings, an approximate solution for the proposed optimum internal model is then developed and implemented. It gives interesting and challenging results, and shows that the proposed internal model is quite realistic; namely, some similarities are found between the robot speech and the real one. Next, by aiming to analyze speech signals, several methods of statistical speech signal processing are developed. They are based on higher-order statistics (namely, on normalized central moments and on the fourth-order cumulant), as well as on the discrete normalized entropy. In this framework, we also designed an unbiased and efficient estimator of the fourth-order cumulant in both batch and adaptive versions
APA, Harvard, Vancouver, ISO, and other styles
9

Ma, Tai-Yu. "Modèle dynamique de transport basé sur les activités." Phd thesis, Ecole des Ponts ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003309.

Full text
Abstract:
Le travail de recherche porte sur deux thèmes: 1. développement d'un modèle dynamique multimodal basé sur les activités ; 2. développement de méthodes de résolution de l'équilibre du réseau multimodal dynamique. Nous proposons un modèle dynamique multimodal simulant l'enchaînement des déplacements basé sur les activités. Deux nouvelles méthodes de résolution du problème d'équilibre du réseau sont proposées : 1. l'algorithme de colonie de fourmis en discrétisation temporelle ; 2. la méthode de l'Entropie Relative. Cette dernière constitue une avancée méthodologique qui considère que l'équilibre du réseau est un événement rare parmi les états possibles du réseau. Pour réduire les besoins en moyens de calcul pour l'application dans un grand réseau, nous simulons les voyageurs par paquets en nous appuyant sur un nouveau modèle macroscopique de trafic en coordonnées Lagrangiennnes. Ce modèle permet de décrire la propagation des paquets conformément au modèle macroscopique du premier ordre.
APA, Harvard, Vancouver, ISO, and other styles
10

Ma, Ta-Yu. "Modèle dynamique de transport basé sur les activités." Marne-la-vallée, ENPC, 2007. https://pastel.archives-ouvertes.fr/pastel-00003309.

Full text
Abstract:
Le travail de recherche porte sur deux thèmes: 1. Développement d’un modèle dynamique multimodal basé sur les activités ; 2. Développement de méthodes de résolution de l’équilibre du réseau multimodal dynamique. Nous proposons un modèle dynamique multimodal simulant l’enchaînement des déplacements basé sur les activités. Deux nouvelles méthodes de résolution du problème d’équilibre du réseau sont proposées : 1. L’algorithme de colonie de fourmis en discrétisation temporelle ; 2. La méthode de l’Entropie Relative. Cette dernière constitue une avancée méthodologique qui considère que l’équilibre du réseau est un événement rare parmi les états possibles du réseau. Pour réduire les besoins en moyens de calcul pour l’application dans un grand réseau, nous simulons les voyageurs par paquets en nous appuyant sur un nouveau modèle macroscopique de trafic en coordonnées Lagrangiennnes. Ce modèle permet de décrire la propagation des paquets conformément au modèle macroscopique du premier ordre.
APA, Harvard, Vancouver, ISO, and other styles
11

Descamps, Cathy. "Etude de la capture du CO2 [dioxyde de carbone] par absorption physique dans les systèmes de production d'électricité basés sur la gazéification du charbon intégrée à un cycle combiné." Phd thesis, École Nationale Supérieure des Mines de Paris, 2004. http://pastel.archives-ouvertes.fr/pastel-00005506.

Full text
Abstract:
La volonté de réduction des émissions de gaz à d'effet de serre est à l'origine de l'étude de la capture du CO2 dans les systèmes de production d'électricité à base de gazéification du charbon intégrée à un cycle combiné. Une étude comparative des procédés de capture de CO2 retenus dans la littérature (MEA-MDEA, AMP, N-Méthyl- Pyrrolidone et méthanol) a conduit au choix de l'absorption physique par le méthanol. La simulation du fonctionnement de l'IGCC avec capture de CO2 a été réalisée à l'aide du logiciel Aspen Plus
APA, Harvard, Vancouver, ISO, and other styles
12

Andriamasinoro, Fenintsoa. "Proposition d'un modèle d'agents hybrides basé sur la motivation naturelle." Phd thesis, Université de la Réunion, 2003. http://tel.archives-ouvertes.fr/tel-00474542.

Full text
Abstract:
La thématique principale des recherches présentées dans le présent travail concerne la modélisation de comportement d'agents informatiques hybrides au sein de Systèmes multi-agents (SMA). Un agent hybride est un agent qui dispose à la fois de comportements réactifs et de comportements cognitifs. S'inspirant à la base d'une réflexion principalement psychophysiologique du vivant, ce travail s'insère dans la problématique plus vaste de l'Intelligence artificielle distribuée et de la Vie artificielle. Partant du principe qu'un être humain, même s'il est cognitif, est aussi une espèce issue de la nature, le présent travail a pour objectif de mettre en place une architecture hybride générique d'agents artificiels dont la base du comportement est la motivation naturelle existant dans ces agents. La particularité de cette étude est que nous intégrons les concepts d'instinct, pulsion, faim, soif, etc. dans les agents cognitifs ou hybrides alors que dans la plupart des cas, ces notions ont toujours été l'apanage des modèles d'agents réactifs, particulièrement ceux basés sur les animâts. A terme, le raisonnement et les attitudes mentales ne seront donc plus les seuls facteurs à prendre en compte pour comprendre le comportement de ces agents cognitifs ou hybrides. Au niveau de l'architecture, nous obtenons ainsi à la base un modèle générique basé uniformément sur le concept de motivation naturelle et ce, quel que soit le type de l'agent étudié (réactif, cognitif, hybride). Au niveau du comportement, nous proposons de fournir un cadre hybride permettant de gérer, à un niveau générique, la sélection d'actions et plus précisément pour le présent contexte, la sélection de motivations. Le terme "générique" signifie que l'ensemble des critères fournis dans le mécanisme de sélection ne dépend pas de l'application mais permettra à l'utilisateur du système de se préoccuper au minimum des stratégies de sélection. Pour ce faire, il appartient au modèle de fournir les règles de positionnement pour chaque motivation. Sur le plan de la conception, nous adoptons un modèle issu d'un travail déjà existant dans le monde de la psychologie. Il s'agit de la pyramide du psychologue américain Abraham Maslow, portant sur les cinq besoins abstraits des humains. Le choix d'un modèle issu de l'étude du monde réel est important. Nous évitons en effet de devoir fournir des hypothèses théoriques de conception. Notre cadre d'application concerne en premier lieu une application cas d'école axée sur des agents fourrageurs qui se déplacent pour transporter des objets. Puis, dans un cadre plus réel, l'étude porte sur la simulation du comportement des paysans dans une région à Madagascar.
APA, Harvard, Vancouver, ISO, and other styles
13

Brini, Asma Hedia. "Un modèle de recherche d'information basé sur les réseaux possibilistes." Toulouse 3, 2005. http://www.theses.fr/2005TOU30224.

Full text
Abstract:
Nous proposons une approche moins restrictive pour la modélisation de la pertinence dans le cadre de la Recherche d'Information (RI). Un réseau possibiliste décrit graphiquement le modèle : les documents, leurs termes d'indexation et la requête sont des variables binaires et les arcs sont quantifiés dans le cadre de la théorie des possibilités. Ce modèle répond à des propositions du type : il est plausible à un certain degré que le document constitue une bonne réponse à la requête; (ii) il est nécessaire, certain que le document répond à la requête. La première proposition vise à éliminer certains documents de la réponse ; la seconde se focalise sur les documents qui seraient pertinents. Nous avons aussi défini trois nouvelles mesures qui mesurent l'importance d'un terme dans la collection dans le but de pénaliser les documents ne contenant pas certains termes (importants) par exemple. Ces mesures sont adaptables à tous les modèles de RI. Les résultats obtenus sont encourageants
We propose an approach to Information Retrieval (IR) where relevance is flexible. The model is based on possibilistic networks where documents, index terms and query are binary variables and arcs are quantified in the theory of possibility framework. This model should provide proposition like : (i) it is plausible to a certain degree that the document is relevant ; (ii) it is necessary that the document is relevant given the query. The first kind of answer is meant to eliminate irrelevant documents (weak plausibility). The second answer focuses attention on what looks very relevant. Besides, we proposed three new discriminant factors that penalise documents not containing query important terms. These factors can be adaptable to any existing models. The results obtained show the effectiveness of our approach
APA, Harvard, Vancouver, ISO, and other styles
14

Ganet, Leslie. "Construction et catégorisation d'explication : un modèle basé sur la catégorisation contextuelle." Paris 8, 2006. http://www.theses.fr/2006PA082668.

Full text
Abstract:
Alors que l’explication pédagogique remplit une fonction déterminante dans les processus de compréhension et d’apprentissage, la manière dont est produite cette dernière n’a pas jusqu’ici de solution satisfaisante contrairement à l’explication scientifique. Le point de vue défendu dans ce mémoire est que le contexte de la topique et de la situation d’explication sont des éléments qui participent à la construction de son contenu conceptuel pouvant être modélisée à partir des mécanismes de catégorisation contextuelle. Dans ce cadre, la construction de l’explication est vue comme un processus actif de construction de représentation sous la forme d’un réseau de catégories (treillis de Galois) et la génération de l’explication comme un parcours ordonné des catégories. L’exposition suit un parcours descendant du réseau de catégories en formulant chronologiquement les propriétés communes, propres et relationnelles. L’implication, basée sur l’exposition, créée un lien ascendant vers une catégorie cible. Les prédictions du modèle sont évaluées avec sept expérimentations et les résultats sont discutés au regard des types d’explication et du contexte
Whereas teaching explanation fulfils a determining function in the processes of comprehension and training, contrary to scientific explanation, the way in which the production of an explanation is carried out does not have a satisfactory solution up to now. The point of view defended in this research is that the context of the topics of the explanation and the context of the situation of explanation are elements which take part in the construction of the conceptual contents of the explanation which can be modelled with contextual categorization mechanisms. Within this framework, the construction of explanation is seen as an active process of construction of representa-tion in the form of a network of categories (lattice of Galois lattices) and verbalization as an ordered exhibition of categories and of implication. Exhibition follows a top-down formulation of the common, specific and relational properties. Implication is a bottom-up link towards the target category. Predictions of the model are evaluated with seven experiments and the results are discussed according to types of explana-tions and of contexts
APA, Harvard, Vancouver, ISO, and other styles
15

Ould, Ouali Lydia. "Modèle de négociation collaborative basé sur la relation interpersonnelle de dominance." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS470/document.

Full text
Abstract:
L'essor des travaux en informatique affective voit la naissance de diverses questions de recherches pour étudier les interactions agents /humains. Parmi elles, se pose la question de l'impact des relations interpersonnelles sur les stratégies de communications. Les interactions entre un agent conversation et un utilisateur humain prennent généralement place dans des environnements collaboratifs où les interlocuteurs partagent des buts communs. La relation interpersonnelle que les individus créent durant leurs interactions affecte leurs stratégies de communications. Par ailleurs, des individus qui collaborent pour atteindre un but commun sont généralement amenés à négocier. Ce type de négociation permet aux négociateurs d'échanger des informations afin de mieux collaborer. L'objectif cette thèse est d'étudier l'impact de la relation interpersonnelle de dominance sur les stratégies de négociation collaborative entre un agent et un humain. Ce travail se base sur des études en psychologie sociale qui ont défini les comportements liés à la manifestation de la dominance dans une négociation. Nous proposons un modèle de négociation collaborative dont le modèle décisionnel est régi par la relation de dominance. En effet, en fonction de sa position dans le spectre de dominance, l'agent est capable d'exprimer une stratégie de négociation spécifique. En parallèle, l'agent simule une relation interpersonnelle de dominance avec son interlocuteur. Pour ce faire, nous avons doté l'agent d'un modèle de théorie de l'esprit qui permet à l'agent de raisonner sur les comportements de son interlocuteur afin de prédire sa position dans le spectre de dominance. Ensuite, il adapte sa stratégie de négociation vers une stratégie complémentaire à celle détectée chez son interlocuteur. Nos résultats ont montré que les comportements de dominance exprimés par notre agent sont correctement perçus. Par ailleurs, le modèle de la théorie de l'esprit est capable de faire de bonnes prédictions avec seulement une représentation partielle de l'état mental de l'interlocuteur. Enfin, la simulation de la relation interpersonnelle de dominance a un impact positif sur la négociation: les négociateurs atteignent de bon taux de gains communs. De plus, la relation de dominance augmente le sentiment d'appréciation entre les négociateurs et la négociation est perçue comme confortable
The rise of work in affective computing sees the emergence of various research questions to study agent / human interactions. Among them raises the question of the impact of interpersonal relations on the strategies of communication. Human/agent interactions usually take place in collaborative environments in which the agent and the user share common goals. The interpersonal relations which individuals create during their interactions affects their communications strategies. Moreover, individuals who collaborate to achieve a common goal are usually brought to negotiate. This type of negotiation allows the negotiators to efficiently exchange information and their respective expertise in order to better collaborate. The objective of this thesis is to study the impact of the interpersonal relationship of dominance on collaborative negotiation strategies between an agent and a human. This work is based on studies from social psychology to define the behaviours related to the manifestation of dominance in a negotiation. We propose a collaborative negotiation model whose decision model is governed by the interpersonal relation of dominance. Depending on its position in the dominance spectrum, the agent is able to express a specific negotiation strategy. In parallel, the agent simulates an interpersonal relationship of dominance with his interlocutor. To this aim, we provided the agent with a model of theory of mind that allows him to reason about the behaviour of his interlocutor in order to predict his position in the dominance spectrum. Afterwards, the agent adapts his negotiation strategy to complement the negotiation strategy detected in the interlocutor. Our results showed that the dominance behaviours expressed by our agent are correctly perceived by human participants. Furthermore, our model of theory of mind is able de make accurate predictions of the interlocutor behaviours of dominance with only a partial representation of the other's mental state. Finally, the simulation of the interpersonal relation of dominance has a positive impact on the negotiation: the negotiators reach a good rate of common gains and the negotiation is perceived comfortable which increases the liking between the negotiators
APA, Harvard, Vancouver, ISO, and other styles
16

Truong, Hien Thi Thu. "Un modèle de collaboration basé sur les contrats et la confiance." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00769076.

Full text
Abstract:
De nos jours, les technologies de l'information offrent aux utilisateurs la possibilité de travailler avec n'importe qui, à n'importe quel moment, de n'importe où et avec plusieurs dispositifs hétérogènes. Cette évolution favorise un nouveau modèle distribué de collaboration de confiance où les utilisateurs peuvent travailler sur des documents partagés avec qui ils ont confiance. La collaboration multi-synchrone est largement utilisée pour soutenir le travail collaboratif en maintenant des flux simultanés de l'activité des utilisateurs qui divergent et convergent continuellement. Cependant, ce modèle n'offre pas de support concernant l'expression et la vérification de restriction d'usage des données. Cette thèse présente C-PPC, un modèle de collaboration basé sur les contrats et sur la confiance. Dans ce modèle, des contrats sont utilisés comme des règles d'utilisation des données et les utilisateurs collaborent en fonction des niveaux de confiance qu'ils attribuent aux autres en accord avec le respect des contrats. Nous formalisons les contrats en utilisant des concepts déontiques: permission, obligation et prohibition. Les contrats sont inclus dans les historiques d'opérations des données partagées. Le modèle C-PPC fournit un mécanisme pour la fusion des modifications des données et des contrats. N'importe quel utilisateur peut auditer les historiques à n'importe quel moment et les résultats de l'audit sont utilisés pour actualiser les niveaux de confiance en se basant sur une métrique de confiance. Nous proposons une solution reposant sur des authentificateurs basés sur les chaînes de hachage pour garantir l'intégrité des historiques et la responsabilité des utilisateurs. Nous fournissons des algorithmes pour construire les authentificateurs et vérifier les historiques puis nous prouvons leur correction. Des résultats expérimentaux montrent la faisabilité du modèle C-PPC.
APA, Harvard, Vancouver, ISO, and other styles
17

Truong, Hien Thi Thu. "Un modèle de collaboration basé sur les contrats et la confiance." Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0181.

Full text
Abstract:
De nos jours, les technologies de l'information offrent aux utilisateurs la possibilité de travailler avec n'importe qui, à n'importe quel moment, de n'importe où et avec plusieurs dispositifs hétérogènes. Cette évolution favorise un nouveau modèle distribué de collaboration de confiance où les utilisateurs peuvent travailler sur des documents partagés avec qui ils ont confiance. La collaboration multi-synchrone est largement utilisée pour soutenir le travail collaboratif en maintenant des flux simultanés de l'activité des utilisateurs qui divergent et convergent continuellement. Cependant, ce modèle n'offre pas de support concernant l'expression et la vérification de restriction d'usage des données. Cette thèse présente C-PPC, un modèle de collaboration basé sur les contrats et sur la confiance. Dans ce modèle, des contrats sont utilisés comme des règles d'utilisation des données et les utilisateurs collaborent en fonction des niveaux de confiance qu'ils attribuent aux autres en accord avec le respect des contrats. Nous formalisons les contrats en utilisant des concepts déontiques: permission, obligation et prohibition. Les contrats sont inclus dans les historiques d'opérations des données partagées. Le modèle C-PPC fournit un mécanisme pour la fusion des modifications des données et des contrats. N'importe quel utilisateur peut auditer les historiques à n'importe quel moment et les résultats de l'audit sont utilisés pour actualiser les niveaux de confiance en se basant sur une métrique de confiance. Nous proposons une solution reposant sur des authentificateurs basés sur les chaînes de hachage pour garantir l'intégrité des historiques et la responsabilité des utilisateurs. Nous fournissons des algorithmes pour construire les authentificateurs et vérifier les historiques puis nous prouvons leur correction. Des résultats expérimentaux montrent la faisabilité du modèle C-PPC
Nowadays, information technologies provide users ability to work with anyone, at any time, from everywhere and with several heterogeneous devices. This evolution fosters a new distributed trustworthy collaboration model where users can work on shared documents with whom they trust. Multi-synchronous collaboration is widely used for supporting collaborative work by maintaining simultaneous streams of user activities which continually diverge and converge. However, this model lacks support on how usage restrictions on data can be expressed and checked within the model. This thesis proposes "C-PPC", a multi-synchronous contract-based and trust-aware collaboration model. In this model, contracts are used as usage rules and users collaborate according to trust levels they have on others computed according to contract compliance. We formalize contracts by using deontic concepts: permission, obligation and prohibition. Contracts are enclosed in logs of operations over shared data. The C-PPC model provides a mechanism for merging data changes and contracts. Any user can audit logs at any time and auditing results are used to update user trust levels based on a trust metric. We propose a solution relying on hash-chain based authenticators that ensures integrity of logs and user accountability. We provide algorithms for constructing authenticators and verifying logs and prove their correctness. A set of experimental results shows the feasibility of the C-PPC model
APA, Harvard, Vancouver, ISO, and other styles
18

Dolganov, Rostislav. "Développement d'un modèle LES basé sur la théorie de la distorsion rapide." Phd thesis, Ecole Centrale de Lille, 2009. http://tel.archives-ouvertes.fr/tel-00577098.

Full text
Abstract:
Le modèle LES-Langevin a été étudié pour les écoulements turbulents de canal. Cette approche se base sur la dynamique des échelles sous-mailles qui d'abord a été étudiée dans le cadre de la théorie de la distorsion rapide. Le tenseur de contrainte des échelles sous-mailles a été modélisé par la combinaison d'une force turbulente et d'une viscosité turbulente. L'équation de la force turbulente est dérivée de la dynamique des échelles sous-mailles avec les hypothèses de la théorie de la distorsion rapide. Les termes non-linéaires contenant les échelles sous-mailles de la pression ont été modélisés par une force stochastique. La viscosité turbulente permet d'améliorer la dissipation des échelles résolues qui est produite par le tenseur de Reynolds sous-maille. L'avantage du modèle est la modélisation de la force turbulente par une équation dynamique dérivée des équations de Navier-Stokes. Cela donne la possibilité d'inclure tous les effets importants des échelles sous-mailles représentés par les équations de Navier-Stokes. Par exemple, le transfert inverse d'énergie des échelles sous-mailles vers les échelles résolues. La modélisation directe du gradient du tenseur de contrainte des échelles sous-mailles réduit le temps de calcul par rapport à une simulation directe, ce qui est l'objectif principal d'une simulation des grandes échelles (LES). Le travail a montré un besoin pour une étude plus approfondie de l'équation de la force turbulente afin de mieux reproduire l'action des échelles sous-mailles
APA, Harvard, Vancouver, ISO, and other styles
19

Fagot, Alain. "Réexécution déterministe pour un modèle procédural parallèle basé sur les processus légers." Phd thesis, Grenoble INPG, 1997. http://tel.archives-ouvertes.fr/tel-00004942.

Full text
Abstract:
Cette thèse définit un modèle d'exécution de programmes parallèles basés sur l'appel de procédures exécutées à distance par des processus légers. L'équivalence de deux exécutions dans le modèle procédural parallèle sert de guide pour la construction d'un mécanisme de réexécution déterministe pour le noyau exécutif Athapascan-0a. Le modèle étudié n'est pas spécifique à Athapascan et peut s'appliquer à d'autres environnements de programmation. Les modèles concernés utilisent des ressources partagées actives. Dans cette famille de modèles se trouvent, entre autres, les modèles d'appels de procédures à distance, les modèles Clients-Serveurs et les modèles à objets actifs. Le modèle exploite des événements abstraits composés d'événements de plus bas niveau. Le nombre d'événements enregistrés est ainsi réduit sans surcoût de calcul lié à cette réduction. Le mécanisme de réexécution déterministe réalisé pour Athapascan-0a est validé expérimentalement. Une méthodologie de mesures systématiques est appliquée pour mesurer le surcoût en temps dû à l'enregistrement des traces nécessaires à la réexécution. Les mesures des temps d'exécution s'effectuent pour des programmes parallèles synthétiques générés à partir de modèles d'algorithmes. Les surcoûts mesurés montrent une faible intrusion du mécanisme d'enregistrement des traces.
APA, Harvard, Vancouver, ISO, and other styles
20

Yassine, Imad. "Définition d'un langage formel de requêtes basé sur un modèle entité-association." Mémoire, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/4828.

Full text
Abstract:
Dans le cadre du développement des systèmes d'information, les méthodes formelles de spécification permettent d'éliminer ou de réduire le besoin des phases de conception et d'implémentation, l'importance étant mise sur les phases de spécification des besoins et d'analyse. La méthode EB[indice supérieur 3] est une de ces méthodes conçue pour spécifier le comportement fonctionnel des systèmes d'information. Elle est basée sur une algèbre de processus dont les requêtes de sortie sont spécifiées à l'aide de règles d'entrée-sortie. Ce mémoire présente la définition d'un langage formel de requêtes basé sur un modèle entité-association, qui permet de spécifier les requêtes de sortie de la méthode de spécification EB[indice supérieur 3] . Des schémas de traduction sont élaborés pour réaliser la compilation de ces requêtes vers du code exécutable. Ils sont utilisés par l'outil EB[indice supérieur 3]QG développé et intégré dans la plateforme APIS dédiée à la génération automatique des systèmes d'information à l'aide de la méthode de spécification EB[indice supérieur 3].
APA, Harvard, Vancouver, ISO, and other styles
21

Maurice, François. "Un modèle d'évaluation et d'amélioration d'entités logicielles basé sur l'utilisation de métriques." Toulouse 3, 1996. http://www.theses.fr/1996TOU30192.

Full text
Abstract:
L'augmentation de la duree du developpement, de la complexite et de la criticite des taches a automatiser pour la realisation de logiciels a rendu de plus en plus difficile la satisfaction de leur qualite. De ce constat est ne le besoin de mesurer les produits logiciels afin de comprendre comment leurs aspects internes (tels que la taille, le couplage ou encore la complexite) nuisent a leur qualite externe telle que leur fiabilite, leur maintenabilite ou leur productivite, et ce afin de pouvoir prendre les decisions pour les ameliorer. De nombreuses metriques ont ete definies mais un manque de rigueur dans leur definition et leur application n'a pas permis d'obtenir les resultats escomptes dans l'amelioration des logiciels. La definition des metriques manque souvent de precisions sur ce qui est mesure, empechant ainsi leur critique et leur reutilisation de maniere efficace. De plus, leur definition ne s'insere pas dans une demarche coherente prenant en compte un but initial. L'application des metriques, qui se refere a l'utilisation des techniques statistiques aux valeurs fournies par les metriques, est trop souvent bafouee. Les caracteristiques des donnees collectees sont peu souvent prises en compte pour le choix des techniques statistiques impliquant ainsi une interpretation des resultats qui entraine des prises de decision d'amelioration inadequates aux problemes rencontres. Nous presentons une demarche permettant l'evaluation d'attributs internes et externes d'entites logicielles du type produit, processus ou ressource. Cette demarche utilise et renforce le paradigme defini par la methode ami. Ce processus permet, etape par etape, de suivre le deroulement d'une activite de mesurage coherente et pertinente pour l'amelioration des artefacts logiciels. Il comprend quatre etapes principales: la definition du but d'amelioration qui est raffine en sous-buts puis en questions, la specification des metriques permettant de repondre a ces questions et ainsi d'aider a la realisation du but initial, la verification de la specification de chaque metrique et la determination du type d'echelle qu'elles permettent de definir, et enfin leur validation pour verifier leur caractere predictif envers une metrique qui evalue un attribut externe de la qualite. Un lien significatif entre un ensemble de metriques evaluant des attributs internes et une metrique evaluant un attribut externe est une condition necessaire a l'amelioration des logiciels. Cela permet de modifier ou de calibrer les attributs internes d'un logiciel en cours de developpement afin d'ameliorer un aspect de sa qualite externe
APA, Harvard, Vancouver, ISO, and other styles
22

Hernert, Patrice. "Un système d'acquisition de définitions basé sur le modèle des graphes conceptuels." Paris 13, 1993. http://www.theses.fr/1993PA132012.

Full text
Abstract:
Nous proposons un système d'acquisition de définitions, basé sur le modèle de graphes conceptuels. Nous accordons un intérêt particulier aux définitions hyperonymiques de noms et de verbes, à partir desquelles le système élabore une hiérarchie taxinomique arborescente. Le cas des définitions paraphrastiques non hyperonymiques est également considéré. En particulier, nous nous intéressons aux définitions morpho-semantiques qui ont recours à des préfixes tels que action de, fait de, etc. Les définitions, après analyses syntaxique et sémantique, sont transformées en graphes conceptuels, puis stockées dans un fichier. Poser des questions est la manière la plus naturelle de vérifier qu'une connaissance a été correctement assimilée. C'est pourquoi l'utilisateur dispose de la possibilité de poser des questions oui/non, c'est-a-dire en fait de soumettre au système des énoncés dont il s'agit de déduire ou de réfuter la validité. Le dialogue entre le système et l'utilisateur se déroule en français.
APA, Harvard, Vancouver, ISO, and other styles
23

Ghadi, Abderrahim. "Modèle hiérarchique de contrôle d'accès d'UNIX basé sur un graphe de rôles." Strasbourg, 2010. http://www.theses.fr/2010STRA6005.

Full text
Abstract:
En termes de contrôle d’accès, est-il possible de répondre à la question suivante : "Le système de contrôle d’accès est-il décidable ?". En d’autres termes "Est-il vrai qu’à partir d’un état de protection sûr, nous pouvons dire à n’importe quel instant qu’il n’y a aucune intrusion qui mettra en péril notre système ?". Afin de répondre à cette question, nous proposons la modélisation du système de contrôle d’accès sous forme de graphe de rôles. Les rôles, qui représentent les noeuds du graphe, contiennent selon, la politique de sécurité, un certain nombre de privilèges. Chaque privilège représente un ou plusieurs droits d’accès sur un objet donné. Nous avons présenté deux méthodes d’utilisation de ce graphe : La première consiste à utiliser un algorithme, que nous avons développé en se basant sur les algorithmes de la théorie des graphes, permettant de parcourir les chemins du graphe afin de trouver les transferts de privilèges illicites. La deuxième consiste à stocker notre graphe dans un annuaire LDAP, ceci nous amène à developper un nouveau schéma LDAP pour représenter notre graphe de rôles
Concerning access control, can the following question be addressed : "Is the access control system decidable ?". In other words : is it true that starting from a safe state of protection, we can assume at any time that is no intrusion which will endanger our system ?. In order to answer this question, we propose to model the access control system in the form of a graph of roles. The roles, which represent the vertices of graph contain, according to the security-policy, certain number of privileges. Every privilege represents one or several access rights on a given object. We presented two methods of use of this graph : The first consists in using an algorithm, which we developed by basing itself on the algorithms of the theory of the graphs, permit to search all over the path of the graph in order to find illicit privilege transfer. The second consists in storing our graph in a directory LDAP, this which brings us to develop a new plan LDAP to represent our graph of roles
APA, Harvard, Vancouver, ISO, and other styles
24

Majoul, Salam. "Etude et mise en oeuvre d'un modèle de coordination basé sur la réécriture." Toulouse 3, 2000. http://www.theses.fr/2000TOU30171.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Heinrich, Sophie. "Développement d'un nouveau modèle de point de scission basé sur des ingrédients microscopiques." Paris 11, 2006. http://www.theses.fr/2006PA112247.

Full text
Abstract:
La fission des noyaux est un phénomène extrêmement complexe et un modèle réaliste décrivant l'ensemble du processus n'existe pas encore à l'heure actuelle. Ce travail porte sur la description théorique des distributions de fragments de fission, en masse, charge, énergie et déformation. Il s'agit de réactualiser et d'enrichir le modèle de point de scission de B. D. Wilkins. Nous voulons tester si un modèle statistique, appliqué au point de scission et utilisant les résultats des calculs microscopiques modernes, permet une description quantitative des distributions des fragments de fission. Nous calculons les surfaces d'énergie disponible au point de scission, en fonction de la déformation des fragments. Ces surfaces sont obtenues à partir de calculs microscopiques Hartree-Fock-Bogoliubov contraints, qui assurent un traitement réaliste de la variation du potentiel de chaque fragment en fonction de sa déformation. La pondération statistique est décrite par les densités de niveaux des fragments. Nous nous attachons à éviter autant que possible d'inclure des paramètres empiriques dans notre modèle. Le choix de la distance entre les fragments au point de scission est discuté sur la base des configurations de scission obtenues dans les calculs dynamiques totalement microscopiques. La confrontation de nos résultats avec les données expérimentales, sur la base d'une large systématique, est très satisfaisante et nous amène à analyser les capacités et les limites de notre approche. Nous proposons diverses voies d'amélioration, notamment par l'ajout d'éléments de dynamique
Nucleus fission process is a very complex phenomenon and, even nowadays, no realistic models describing the overall process are available. The work presented here deals with a theoretical description of fission fragments distributions in mass, charge, energy and deformation. We have reconsidered and updated the B. D. Wilking Scission Point model. Our purpose was to test if this statistic model applied at the scission point and by introducing new results of modern microscopic calculations allows to describe quantitatively the fission fragments distributions. We calculate the surface energy available at the scission point as a function of the fragments deformations. This surface is obtained from a Hartree Fock Bogoliubov microscopic calculation which guarantee a realistic description of the potential dependence on the deformation for each fragment. The statistic balance is described by the level densities of the fragment. We have tried to avoid as much as possible the input of empirical parameters in the model. Our only parameter, the distance between each fragment at the scission point, is discussed by comparison with scission configuration obtained from full dynamical microscopic calculations. Also, the comparison between our results and experimental data is very satisfying and allow us to discuss the success and limitations of our approach. We finally proposed ideas to improve the model, in particular by applying dynamical corrections
APA, Harvard, Vancouver, ISO, and other styles
26

Lesage, David. "Un modèle dynamique de spécifications d'ingénierie basé sur une approche de géométrie variationnelle." Grenoble INPG, 2002. http://www.theses.fr/2002INPG0115.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Bonneu, Adrien. "Développement d’un modèle continu d’enracinement, basé sur l’agrégation de l’architecture racinaire des plantes." Thesis, Montpellier 2, 2011. http://www.theses.fr/2011MON20109/document.

Full text
Abstract:
La modélisation et la simulation de la croissance racinaire des plantes en relation avec l'eau et le transfert de nutriments dans le sol constituent un défi majeur permettant des applications dans diverses thématiques de recherche. Les modèles de croissance racinaire ont été classés en SM (Structural Models), FSM (Functional Structural Models) et DBM (Density Based Models). Les modèles basés sur des représentations explicites de la structure du système racinaire simulent des systèmes de manière réaliste. Les modèles basés sur des densités agrègent le développement racinaire et décrivent l'évolution de densités racinaires dans l'espace et le temps. Le principal avantage de ce type de modèles basés sur des formulations continues est le temps de calcul qui est indépendant du nombre de racines, ce qui est particulièrement utile pour des applications à l'échelle d'une population de plantes. De plus, l'utilisation de modèles continus facilite le couplage avec d'autres modèles fonctionnels et physiques qui sont aussi basés sur des équations continues, tels que le transport de nutriments et d'eau dans le sol.Le but de la thèse est de proposer un modèle continu générique (i.e. applicable à une large diversité d'architectures racinaires) et minimal (i.e. avec le moins de paramètres possible), basé sur une équation aux dérivées partielles. Ce modèle est présenté en 3D et considère le nombre d'apex par unité de volume comme étant la variable de sortie. L'équation est composée de trois principaux phénomènes physiques, à savoir l'advection, la diffusion et la réaction, qui agrègent différents processus racinaires de développement et d'architecture, e.g. la croissance primaire, la ramification et la mortalité. Un schéma numérique basé sur la méthode de splitting d'opérateurs est proposée afin de résoudre l'équation en séparant les trois opérateurs physiques. C'est une méthode puissante et numériquement consistante qui permet de choisir des schémas numériques appropriés pour chaque opérateur. Des données observées avec leur variabilité, qui sont codées en utilisant les modèles architecturaux, sont permettent la calibration du modèle continu. Le modèle continu est donc utilisé afin de simuler l'évolution spatio-temporelle de la densité moyenne du nombre d'apex pour des systèmes racinaires dont leurs développements diffèrent. L'évaluation de cette approche de modélisation est traitée sur : 1- des racines horizontales d'eucalyptus, chacune contrôlée par un apex principal ; 2- des systèmes centralisés, e.g. les systèmes du maïs, et 3- des systèmes décentralisés, e.g. les systèmes de chiendent. Les résultats de la méthode de calibration sont satisfaisants et ont permis de définir et simuler diverses stratégies de croissance racinaire
Modelling and simulating plant root growth in connection with soil water and nutrient transfer is an important challenge that finds applications in many fields of research. Root growth models have been classified into SM (Structural Models), FSM (Functional Structural Models) and DBM (Density Based Models). Models based on explicit representations of root system structures simulate realistic patterns. Density based models aggregate root development and describe the evolution of root densities in space and time. The main advantage of this kind of models based on continuous formulation is that the computational time is independent of the number of roots, which is especially useful for applications at the plant stand scale. Moreover, the use of continuous models facilitates coupling with other functional and physical models that are also based on continuous equations such as water and nutrient transport.The aim of the thesis is to propose a minimal (i.e. involving a minimum number of parameters) and generic (i.e. applicable to a wide range of root architectures) continuous model based on a partial differential equation. This model is presented in a 3D form and considers the number of apices per unit volume of soil as output variable. The equation includes three main physical phenomena, namely advection, diffusion andreaction, which aggregate different aspects of root architectural and developmental rules, e.g. primary growth, branching and mortality. A numerical scheme based on an operator splitting method is proposed to solve the equation by separating the three different processes. It is a powerful and consistent numerical method that allows the use of appropriate numerical scheme for each operator. Observed data with their variability, which are encoded using architectural models, are used to calibrate the continuous model. The continuous model is then used to simulate the spatio-temporal evolution of the mean density of apex number for root systems with different developmental rules. The evaluation of this modelling approach is carried out on : 1- horizontal roots of eucalyptus that are controlled by a main apex ; 2- centralizedsystems, e.g. maize root systems, and 3- decentralized root systems, e.g. couch grass root systems.The results of the calibration method were satisfactory and allowed us to define and simulate different root growth strategies
APA, Harvard, Vancouver, ISO, and other styles
28

Lechartier, Élodie. "Contribution au prognostic de pile à combustible PEMFC basé sur modèle semi-analytique." Thesis, Besançon, 2016. http://www.theses.fr/2016BESA2066/document.

Full text
Abstract:
Les préoccupations environnementales actuelles nous amènent à envisager des solutions alternatives, telles que la pile à combustible. Cette dernière malgré ses avantages présente des faiblesses qui ralentissent sa diffusion au sein de l'industrie, entre autres, sa trop courte durée de vie. Face à cette considération, nous proposons d'appliquer le PHM à la PEMFC. Il faut donc développer le pronostic puis considérer son insertion au sein d'un système industriel. Nous choisissons de baser l'approche proposée sur un modèle de comportement, tout en proposant de combler le manque de connaissance concernant le vieillissement de la pile par les données, ce qui nous permet amène à développer une approche hybride. Dans ces travaux, le modèle comportemental est étudié sur des durées de plus en plus grandes pour enfin proposer une prédiction de l'ordre du millier d'heure. Afin de prendre en compte une implantation au sein d'un système réel, une étude sur la généricité et applicabilité de l'approche est réalisée. Ainsi, ces travaux proposent une approche de pronostic hybride basée sur un modèle de comportement et étudie son insertion au sein d'un système réel
The current environmental concerns lead us to consider alternative solutions. The fuel cell can be one of them with numerous advantages, it presents however weaknesses, especially, its life duration which is too short. Face to this issue, we offer to apply the PHM to the PEMFC. For that, it is necessary to develop the prognostics for this application and the possibility of the on-line implementation on an industrial system. It was chosen to base the approach on a behavioral model in which the knowledge gaps are completed with the use of data. So, the approach proposed here, is hybrid. In this work, the behavioral model is studied on laps of time longer in order to finally introduce a prediction of a thousand of hours. Then, the online implementation on a real system is considered with a genericity and an applicability study. This work proposes a hybrid prognostics approach based on a behavioral model and study its implementation on an industrial system
APA, Harvard, Vancouver, ISO, and other styles
29

Rabab, Houssam. "Modeling of sodium-ion batteries for on-board diagnosis of their states of charge and health." Electronic Thesis or Diss., Compiègne, 2024. http://www.theses.fr/2024COMP2809.

Full text
Abstract:
La thèse présente un modèle basé sur la physique pour les cellules sodium-ion de type NVPF/HC. Le modèle tient compte des complexités de la modélisation de ces cellules, notamment à cause de leurs non-linéarités liées au courant, à la température et à l'état de charge (State of charge : SoC). La structure du modèle est un circuit équivalent amélioré par des concepts utilisés dans les modèles à particules uniques (Single particle model : SPM) pour former une structure ECM-SPe, adaptée aux diagnostics de SoC et d'état de santé (State of health : SoH). La structure ECM-SPe sépare les effets de la diffusion en phase solide et en phase liquide. Il est montré que la modélisation classique des effets de diffusion en phase solide par une impédance entraîne de nombreuses difficultés. En remplacement, une approche novatrice est proposée en utilisant des décalages en SoC de la tension en circuit ouvert (Open circuit voltage : OCV). Ces décalages sont en lien direct avec les phénomènes électrochimiques, ce qui permet la mise en place de modèles de non-linéarités physiques. La structure ECM-SPe caractérise divers phénomènes électrochimiques sous forme de contributions de tension : surtension ohmique ou statique (Vs), surtension de surface (Vsurf) qui comprend les surtensions des transferts de charge et de l'interphase solide-électrolyte (Solid-electrolyte interphase : SEI), surtension de diffusion en phase liquide (Vld) et la tension d'équilibre de surface (Surface equilibrium voltage : SEV). Des modèles analytiques pour les non-linéarités en courant, en température et en SoC sont proposés pour chaque contribution de tension. Ces modèles des non-linéarités sont basés sur des équations théoriques et empiriques pour caractériser les paramètres du modèle sans recours à des tables d'interpolation. Le modèle NVPF/HC est l'ensemble de la structure ECM-SPe avec les modèles des non-linéarités des contributions en tension. La thèse détaille les protocoles expérimentaux pour la détermination des paramètres, ce qui comprend des tests à courant constant, des créneaux de courant, et des spectroscopies d'impédance, réalisés sous divers courants, températures et SoC. La performance du modèle est validée par des comparaisons avec des données expérimentales, démontrant des résultats prometteurs. En plus, le modèle NVPF/HC peut servir comme un outil de diagnostic des transferts de charge et de la SEI en séparant leurs non-linéarités en courant, température et en SoC. Le modèle montre sa fiabilité pour estimer la tension de la cellule dans des applications à courant variable, avec de bonnes performances à des courants allant jusqu'à ±5C et des températures au-dessus de 5 °C. L'étude souligne également la nécessité de développer des tests de caractérisation distincts pour les contributions de diffusion solide et liquide
The thesis presents a physics-based model for sodium-ion cells of the NVPF/HC type. The model takes into account the complexities involved in modeling these cells, notably due to their nonlinearities in current, temperature and state of charge (SoC). The model structure is an equivalent circuit enhanced by concepts used in single particle models (SPM) to form an ECM-SPe structure, suitable for diagnosis of the SoC and the state nof health (SoH) of the cell. The ECM-SPe structure separates the effects of solid-phase and liquid-phase diffusion. It is shown that classical modeling of solid-phase diffusion effects by impedance leads to numerous difficulties. As a replacement, an innovative approach is proposed using shifts in SoC of the open circuit voltage (OCV). These shifts are directly related to electrochemical phenomena, enabling the implementation of physical nonlinearity models. The ECM-SPe structure characterizes various electrochemical phenomena as voltage contributions: ohmic or static overvoltage (Vs), surface overvoltage (Vsurf) which includes charge transfers and the solid electrolyte interphase (SEI) overvoltages, liquid phase diffusion overvoltage (Vld) and the surface equilibrium voltage (SEV). Analytical models for current, temperature and SoC nonlinearities are proposed for each voltage contribution. These nonlinearity models are based on physical and empirical equations to characterize the model parameters without the use of lookup tables. The NVPF/HC model consists of the ECM-SPe structure with the nonlinearity models for the voltage contributions. The PhD details experimental protocols for parameter determination, which include constant current tests, pulse tests, and impedance spectroscopies, performed under various currents, temperatures and SoC. The performance of the model is validated by comparisons with experimental data, demonstrating promising results. In addition, the NVPF/HC model can be used as a diagnostic tool for charge transfers and SEI by separating their nonlinearities in current, temperature and SoC. The NVPF/HC model shows its reliability for estimating the cell voltage in variablecurrent applications, with good performance at currents up to ±5C and temperatures above 5 ◦C. The study also highlights the need to develop distinct characterization tests for solid and liquid diffusion contributions
APA, Harvard, Vancouver, ISO, and other styles
30

Saint-Aimé, Sébastien. "Conception et réalisation d'un robot compagnon expressif basé sur un modèle calculatoire des émotions." Phd thesis, Université Européenne de Bretagne, 2009. http://tel.archives-ouvertes.fr/tel-00589294.

Full text
Abstract:
Les robots à vocation sociale ou robotique sociale, au départ très limités dans leur mécanique et leurs capacités intellectuelles, avaient la plupart du temps pour buts la distraction et l'amusement de personnes. De nos jours, les scientifiques s'intéressent aux relations psychologiques qu'il est possible d'entretenir avec ce type de nouveau média de communication. La Robothérapie, qui reprend les règles de la robotique sociale, a pour but d'améliorer l'état psychologique et physiologique de personnes malades, marginalisées ou atteintes de handicaps physiques ou mentaux. Il apparait que les robots peuvent jouer un rôle d'accompagnement et d'éveil. Il faut pour cela les doter de capacités de communications. Le nouveau défi du domaine des robots compagnons consiste à offrir un enrichissement du comportement par leur interaction avec les humains. Quelques études existent déjà dans le domaine de la RAA : " Robot Assisted Activity " et, plus précisément, dans le domaine du RAT : Le " Robot Assisted Therapy ". Les premières expérimentations dans ce domaine de la robotique ont prouvé que les robots compagnons peuvent donner un certain confort moral et psychologique aux personnes fragiles. Dans ce contexte, le projet MAPH (Média Actif Pour le Handicap) a pour objectif d'apporter un réconfort psychologique aux enfants fragilisés (ex. longue hospitalisation ou difficultés d'intégration sociale) à l'aide du robot compagnon. L'objectif de mon travail de recherche tend vers la réalisation d'un robot avec un contact agréable et qui sera doté de capacités d'expression corporelle, de perception et de compréhension du langage naturel de sorte qu'il puisse établir une représentation formelle de l'état émotif de son interlocuteur. Il s'agit de définir et concevoir un modèle des états émotifs du robot et de son évolution, afin que ses réactions semblent les plus naturelles possibles. Ce manuscrit présentera les méthodes utilisées et permettant d'atteindre l'objectif fixé. Nous présenterons les définitions utilisées pour la modélisation du processus émotionnel, la réalisation du modèle de calcul des émotions permettant de générer un état émotionnel ressenti, la construction du robot compagnon expressif et les expérimentations réalisées tentant de valider nos choix de conception et de développement.
APA, Harvard, Vancouver, ISO, and other styles
31

Vautherin, Jacques. "Un modèle algébrique, basé sur les réseaux de Petri, pour l'étude des systèmes parallèles." Paris 11, 1985. http://www.theses.fr/1985PA112219.

Full text
Abstract:
Nous présentons une méthode de spécification formelle des systèmes parallèles qui combine la théorie des types abstraits algébriques à celle des réseaux de Petri (RdP). Nous introduisons aussi quelques d'outils d'analyse des spécifications ainsi obtenues. Notamment, nous étudions comment les propriétés des modèles d'une spécification sont liées à celles d'un RdP ordinaire sous-jacent; comment on peut, en étendant le concept usuel de semi-flots pour les RdP, calculer sur une spécification des invariants du comportement de ses modèles ; et enfin comment on peut étendre, à certains modèles « réguliers », des caractérisations structurelles de vivacité connues pour certains RdP ordinaires (machines à états, graphes d'évènements)
We present a method of formal specification for parallel systems which combines abstract data types theory and Petri nets (PN) theory. We also introduce some analysis tools for such specifications: we examine how the properties of the models of a specification are related to the properties of an ordinary underlying PN; also, by extending the usual concept of semi-flow for ordinary PN, we show how it is possible to compute on a specification some invariants of the behaviour of its models. Finally, we present, for some "regular" models, an extension of the structural characterization of vivacity already known for some ordinary PN (states machines, events graphs)
APA, Harvard, Vancouver, ISO, and other styles
32

Conrad-Lapostolle, Véronique. "Construction d'un modèle d'expansion de progéniteurs hématopoïétiques humains basé sur l'utilisation d'un biomatériau endothélialisé." Bordeaux 2, 1999. http://www.theses.fr/1999BOR28699.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Eke, Didier Félix. "Méthode d'identification en virgule fixe d'un modèle non linéaire basé sur les algorithmes génétiques." Thèse, Université du Québec à Trois-Rivières, 2008. http://depot-e.uqtr.ca/1808/1/030042217.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Hachicha, Maroua. "Un modèle de prise de décision basé sur la performace des procesus métiers collaboratifs." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE2028.

Full text
Abstract:
Cette thèse se focalise sur l’amélioration de l’évaluation de performance des processus métiers collaboratifs. Il s’agit de poursuivre l’évolution de la collaboration entre l’entreprise et ses partenaires. Trois niveaux d’abstraction ont été d’abord identifiés : Métier, fonctionnel et applicatif. Ensuite, nous avons développé une approche descendante allant du niveau métier au niveau applicatif. Dans le niveau métier, des différents d’indicateurs clés de performance ont été proposés à travers la méthodeECOGRAI. Dans le niveau applicatif, nous avons proposé un référentiel d’analyse contenant des indicateurs techniques fonctionnels tels que la durée, l’input, l’output, et non-fonctionnels notamment la maturité, le risque, l’interopérabilité à partir des traces d’exécution. Nous avons proposé ainsi un modèle ontologique en vue de capitaliser et enrichir la sémantique de la performance de ces processus. Nous avons proposé un modèle ascendant pour l’agrégation des indicateurs technique au niveaumétier. Le principal objectif de cette agrégation est la corrélation entre le comportement de l’application métier agrégé à partir de l’exécution et l’évolution des indicateurs métiers. Un autre modèle de gestion des événements métiers a été également proposé pour consolider le processus d’apprentissage de notre approche. Par ailleurs, pour assurer la convergence de la performance, nous avons combiné entre la gestion des traces et la gestion des évènements métiers. Cette combinaison permet d’accompagner l’évolution des processus métiers collaboratifs pendant leur exécution. L’accompagnement évoqué avant favorise l’obtention d’un diagnostic sur la performance pour servir à la prise de décision. Cette dernière est liée étroitement à la détection des alertes et particulièrement à l’anticipation des déviations de la performance le plus rapidement possible. Pour valider lacontribution scientifique de cette thèse, une étude de cas a été réalisée sur un processus de création de devis dans le cadre du projet européen FITMAN
This thesis focuses on improving the performance evaluation of collaborative business processes. It is about pursuing the evolution of the collaboration between the company and its partners. In the beginning, three abstraction levels were identified: Business, functional and application. Then, we developed a top-down approach from the business level to the application level. In the business level, different key performance indicators have been proposed through the ECOGRAI method. In the application level, we proposed an analytical repository containing functional technical indicators such as duration, input, output, and non-functional, including maturity, risk, and interoperability based on execution traces. We have thus proposed an ontological model in order to capitalize and enrich the semantics of the performance of these processes. We proposed a bottom-up model for the aggregation of technical indicators at the business level. The main objective of this aggregation is the correlation between the behavior of the aggregated business application from the execution and the evolution of the business indicators. Another business event management model was also proposed to consolidate the learning process of our approach. Moreover, to ensure the convergence of performance, we have combined traces management and business event management. This combination allows to accompany the evolution of the collaborative business processes during their execution. The aforementionedaccompaniment favors the obtaining of a diagnosis on performance to be used for decision-making. The latter is closely linked to the detection of alerts and particularly to the anticipation of deviations in performance as quickly as possible. To validate the scientific contribution of this thesis, a case study was carried out on a process of creation of quote within the framework of the European project FITMAN
APA, Harvard, Vancouver, ISO, and other styles
35

Saint-Aimé, Sébastien. "Conception et réalisation d'un robot compagnon expressif basé sur un modèle calculatoire des émotions." Lorient, 2010. http://www.theses.fr/2010LORIS188.

Full text
Abstract:
Les robots à vocation sociale ou robotique sociale, au départ très limités dans leur mécanique et leurs capacités intellectuelles, avaient la plupart du temps pour buts la distraction et l’amusement de personnes. De nos jours, les scientifiques s’intéressent aux relations psychologiques qu’il est possible d’entretenir avec ce type de nouveau média de communication. La Robothérapie, qui reprend les règles de la robotique sociale, a pour but d’améliorer l’état psychologique et physiologique de personnes malades, marginalisées ou atteintes de handicaps physiques ou mentaux. Il apparait que les robots peuvent jouer un rôle d’accompagnement et d’éveil. Il faut pour cela les doter de capacités de communications. Le nouveau défi du domaine des robots compagnons consiste à offrir un enrichissement du comportement par leur interaction avec les humains. Quelques études existent déjà dans le domaine de la RAA : « Robot Assisted Activity » et, plus précisément, dans le domaine du RAT : Le « Robot Assisted Therapy ». Les premières expérimentations dans ce domaine de la robotique ont prouvé que les robots compagnons peuvent donner un certain confort moral et psychologique aux personnes fragiles. Dans ce contexte, le projet MAPH (Média Actif Pour le Handicap) a pour objectif d’apporter un réconfort psychologique aux enfants fragilisés (ex. Longue hospitalisation ou difficultés d’intégration sociale) à l’aide du robot compagnon. L’objectif de mon travail de recherche tend vers la réalisation d’un robot avec un contact agréable et qui sera doté de capacités d’expression corporelle, de perception et de compréhension du langage naturel de sorte qu’il puisse établir une représentation formelle de l’état émotif de son interlocuteur. Il s’agit de définir et concevoir un modèle des états émotifs du robot et de son évolution, afin que ses réactions semblent les plus naturelles possibles. Ce manuscrit présentera les méthodes utilisées et permettant d'atteindre l’objectif fixé. Nous présenterons les définitions utilisées pour la modélisation du processus émotionnel, la réalisation du modèle de calcul des émotions permettant de générer un état émotionnel ressenti, la construction du robot compagnon expressif et les expérimentations réalisées tentant de valider nos choix de conception et de développement.
APA, Harvard, Vancouver, ISO, and other styles
36

Huafeng, Yu. "Un Modèle Réactif Basé sur MARTE Dédié au Calcul Intensif à Parallélisme de Données : Transformation vers le Modèle Synchrone." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2008. http://tel.archives-ouvertes.fr/tel-00497248.

Full text
Abstract:

Les travaux de cette thèse s'inscrivent dans le cadre de la validation formelle et le contrôle réactif de calculs à haute performance sur systèmes-sur-puce (SoC).

Dans ce contexte, la première contribution est la modélisation synchrone accompagnée d'une transformation d'applications en équations synchrones. Les modéles synchrones permettent de résoudre plusieurs questions liées à la validation formelle via l'usage des outils et techniques formels offerts par la technologie synchrone. Les transformations sont développées selon l'approche d'Ingénierie Dirigé par les Modèles (IDM).

La deuxième contribution est une extension et amélioration des mécanismes de contrôle pour les calculs à haute performance, sous forme de constructeurs de langage de haut-niveau et de leur sémantique. Ils ont été défini afin de permettre la vérification, synthèse et génération de code. Il s'agit de déterminer un niveau d'abstraction de représentation des systèmes où soit extraite la partie contrôle, et de la modéliser sous forme d'automates à états finis. Ceci permet de spécifier et implémenter des changements de modes de calculs, qui se distinguent par exemple par les ressources utilisées, la qualité de service fournie, ou le choix d'algorithme remplissant une fonctionnalité.

Ces contributions permettent l'utilisation d'outils d'analyse et vérification, tels que la vérification de propriétés d'assignement unique et dépendance acyclique, model checking. L'utilisation de techniques de synthèse de contrôleurs discrets est également traitée. Elles peuvent assurer la correction de faˆ on constructive: à partir d'une spécification partielle du contrôle, la partie manquante pour que les propriétés soient satisfaites est calculée. Grâce à ces techniques, lors du développement de la partie contrôle, la spécification est simplifiée, et le résultat est assuré d'être correct par construction.

Les modélisations synchrone et de contrôle reposes sur MARTE et UML. Les travaux de cette thèse sont été partiellement implémentés dans le cadre de Gaspard, dédié aux applications de traitement de données intensives. Une étude de cas est présentée, dans laquelle nous nous intéressont à une application de système embarqué pour téléphone portable multimédia.

APA, Harvard, Vancouver, ISO, and other styles
37

Yu, Huafeng. "Un modèle réactif basé sur MARTE dédié au calcul intensif à parallélisme de données : transformation vers le modèle synchrone." Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10151/document.

Full text
Abstract:
Le contexte de ce travail est l'assistance à la conception de systèmes embarqués, et particulièrement de Systems on Chip (SoC). Les domaines d'application concernés sont variés: avionique, téléphones portables, automobile. La complexité de ces systèmes, et leur interaction forte avec leur environnement, posent des problème de maîtrise de la conception (pour éviter les détections d'erreurs tardives, les diagnostics et réparations coûteux en moyens, mais aussi en temps de mise sur le marché), et de validation ou certification pour les systèmes à sûreté critique (qui doivent être vérifiés avant leur mise en service). Il s'en suit un fort besoin de méthodes et d'outils pour assister la conception sûre de ces systèmes, qui prennent la forme de méthodologies et de modèles à base de composants, de langages de spécification de haut niveau, d'outils de transformation et compilation, d'analyse et de vérification, de synthèse et génération de code. Dans ce contexte, une contribution est une proposition d'un modèle intermédiaire entre les systèmes de calculs dans le cadre du parallélisme de données intensif et les langages formels. Ce modèle intermédiaire permet la génération du code en langages formel à partir de ces systèmes dans le cadre ingénierie dirigé par les modèles. La validation formelle et l'analyse statique est donc possible sur la base du code généré. Une autre contribution est une proposition de mécanismes de contrôle dans le même cadre, sous forme de constructeurs de langage de haut-niveau et de leur sémantique. On veut les définir pour leur exploitation dans la vérification, synthèse et génération de code. Il s'agit de déterminer un niveau d'abstraction de représentation des systèmes où soit extraite la partie contrôle, et de la modéliser sous forme d'automates à états finis. Ceci permet de spécifier et implémenter des changements de modes calculs, qui se distinguent par exemple par les ressources utilisées, la qualité du service fourni, le choix d'algorithme remplissant une fonctionnalité. Cette abstraction est alors favorable à l'application d'outils d'analyse et vérification (de type model checking). On s'intéressera aussi à l'utilisation de techniques de synthèse de contrôleurs discrets, qui peut assurer la correction de façon constructive: à partir d'une spécification partielle du contrôle, elle calcule la partie manquante pour que les propriétés soient satisfaites. L'avantage pour le développement de la partie contrôle est dans la simplification de la spécification, et la correction par construction du résultat. Ce travail se fera en articulation avec des travaux déjà commencés sur la proposition d'une méthodologie de séparation contrôle/donnée! de mécanismes de contrôle, et leur intégration dans l'environnement de conception de systèmes à parallélisme de données intensif Gaspard. On travaillera dans le cadre des modèles de systèmes réactifs proposés par l'approche synchrone, de ses langages de programmation à base d'automates, et de ses outils académiques et commerciaux. En étude de cas, on s'intéressera à des applications en systèmes embarqués téléphone portable multimédia
The work presented in this dissertation is carried out in the context of System-on-Chip (SoC) and embedded system design, particularly dedicated to data-parallel intensive processing applications (DIAs). Examples of such applications are found in multimedia processing and signal processing. On the one hand, safe design of DIAs is considered to be important due to the need of Quality of Service, safety criticality, etc., in these applications. However, the complexity of current embedded systems makes it difficult to meet this requirement. On the other hand, high-Ievel safe control, is highly demanded in order to ensure the correctness and strengthen the flexibility and adaptivity of DIAs. As an answer to this issue, we propose to take advantage of synchronous languages to assist safe DIAs design. First, a synchronous modeling bridges the gap between the Gaspard2 framework, which is dedicated to SoC design for DIAs, and synchronous languages that act as a model of computation enabling formal validation. The latter, together with their tools, enable high-Ievel validation of Gaspard2 specifications. Secondly, a reactive extension to a previous control proposition in Gaspard2, is also addressed. This extension is based on mode automata and contributes to conferring safe and verifiable features onto the previous proposition. As a result, model checking and discret controller synthesis can be applied for the purpose of correctness verification. Finally, a Model-Driven Engineering (MDE) approach is adopted in order to implement and validate our proposition, as well as benefit fron the advantages of MDE to address system complexity and productivity issues. Synchronous modeling, MARTE-based (the UML profile fo Modeling and Analysis of Real-Time and Embedded system) control modeling, and model transformations, including code generation, are dealt with in the implementation
APA, Harvard, Vancouver, ISO, and other styles
38

Nguyen, An-Te. "COCoFil2 : Un nouveau système de filtrage collaboratif basé sur le modèle des espaces de communautés." Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00353945.

Full text
Abstract:
Face au problème de la surcharge d'information, le filtrage collaboratif a pour principe d'exploiter les évaluations que des utilisateurs ont faites de certains documents, afin de recommander ces mêmes documents à d'autres utilisateurs proches de lui, et sans qu'il soit nécessaire d'analyser le contenu des documents. C'est ainsi qu'émerge la notion de communauté, définie comme un groupe de personnes qui partagent en général les mêmes centres d'intérêt. De notre point de vue, la problématique du filtrage collaboratif consiste à gérer de façon intelligente des communautés puisque, selon son principe de base, la qualité des recommandations dépend fondamentalement de la qualité des communautés formées par le système.
Le premier aspect de la gestion des communautés à étudier est la capacité des utilisateurs à percevoir des communautés. D'une part, la perception des communautés permet d'améliorer la confiance des utilisateurs dans les recommandations générées à partir de ces communautés, et par conséquent de les motiver à fournir des évaluations sur lesquelles appuyer la formation des communautés pour le filtrage collaboratif. D'autre part, cette capacité autorise les utilisateurs à explorer d'autres communautés potentiellement intéressantes.
Le second aspect à prendre en compte est les informations sur lesquelles appuyer la formation des communautés. On voit dans la réalité qu'une personne reçoit souvent toutes sortes de recommandations intéressantes de ses proches, de ses collègues de travail, etc. Nous émettons donc l'hypothèse que la multiplicité des critères pour former des communautés, incluant profession, centres d'intérêt, historique des évaluations, etc., peut être exploitée pour enrichir les recommandations générées pour un utilisateur.
Enfin, les communautés d'un utilisateur évoluent au cours du temps. En raison de la multiplicité des critères, la qualité du positionnement des utilisateurs au sein des communautés est conditionnée par la qualité des valeurs données pour chaque utilisateur à chaque critère. Certains critères demandent beaucoup d'efforts de la part des utilisateurs, et peuvent être coûteux également pour le système, d'où des difficultés à positionner les utilisateurs dans des communautés.
Ainsi, pour la gestion des communautés dans un système de filtrage collaboratif, nous proposons le modèle des espaces de communautés qui présente les caractéristiques suivantes : gestion des communautés explicites, formation multiple des communautés selon divers critères et stratégie de positionnement des utilisateurs au sein des communautés.
L'intégration de notre modèle des espaces de communautés dans un système de filtrage collaboratif permet donc d'améliorer l'exploitation des communautés formées à partir des critères disponibles dans les profils des utilisateurs. Nous présentons la plateforme du filtrage collaboratif COCoFil2 comme la mise en œuvre du modèle proposé ainsi que nos travaux de validation sur un jeu de données réelles.
APA, Harvard, Vancouver, ISO, and other styles
39

Zemirli, Nesrine. "Modèle d'accès personnalisé à l'information basé sur les Diagrammes d'Influence intégrant un profil utilisateur évolutif." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00355844.

Full text
Abstract:
La RI personnalisée est une direction de recherche qui permet la mise en oeuvre de systèmes d'accès à l'information centrés utilisateurs, non dans le sens d'un utilisateur générique mais d'un utilisateur spécifique et ce, en vue d'adapter son fonctionnement à son contexte précis. L'objet de cette thèse est de proposer un modèle formel capable d'intégrer l'utilisateur dans le processus d'accès à l'information. Nous avons orienté nos travaux vers l'utilisation des diagrammes d'influence comme support théorique nous permettant de formaliser l'utilité des décisions associées à la pertinence des documents compte tenu de la requête et du pro- fil de l'utilisateur. L'idée de base est de substituer à la fonction de pertinence classique qui mesure le degré d'appariement requête-document une fonction intégrant l'utilisateur. Dans notre approche, le profil utilisateur comprend ses centres d'intérêt à court terme et long terme. Le profil repose sur une représentation à deux dimensions corrélées : historique des interactions et centres d'intérêts. Le processus de définition du profil est fondé sur l'interaction des phases de construction et d'évolution. Plus précisément, le profil est construit et évolue à partir des informations collectées sur les documents jugés implicitement ou explicitement pertinents lors des interactions de l'utilisateur avec un SRI. Nous utilisons pour cela un opérateur d'agrégation d'informations ainsi qu'une méthode statistique qui permet de scruter le changement dans les centres d'intérêt de l'utilisateur, au cours du temps. N'ayant pas de cadre standard d'évaluation, nous proposons un cadre d'évaluation adapté à l'accès personnalisé à l'information en augmentant les collections de la campagne TREC par des profils utilisateurs simulés. Nous validons notre contribution par comparaison au modèle de recherche Bayésien classique.
APA, Harvard, Vancouver, ISO, and other styles
40

Maradei-Garcia, Maria-Paola. "Modèle cinétique regroupé, basé sur la génération du réseau d'étapes élémentaires, du reformage catalytique régénératif." Poitiers, 2004. http://www.theses.fr/2004POIT2262.

Full text
Abstract:
Un des principaux procédés dans le raffinage pétrochimique est le reformage catalytique. Celui-ci permet d'obtenir des essences à haut indice d'octane. Dans l'industrie pétrochimique, il est important de pouvoir contrôler les procédés afin d'obtenir des produits de qualité à un coût économique acceptable. La connaissance des réactions chimiques impliquées dans le procédé est la réponse à cette inquiétude industrielle. Cette connaissance couplée à l'intérêt d'optimiser le procédé industriel permet la bonne prédiction des rendements et donc un meilleur contrôle de la qualité attendue ; pour cela, l'utilisation de modèles cinétiques est indispensable. La méthodologie de "single events" permet de modéliser cinétiquement un procédé en prenant en compte l'interaction entre molécules ; pour cela, les réactions chimiques sont définies comme étapes élémentaires en utilisant la chimie des carbocations. Les constantes cinétiques sont définies comme indépendantes de la symétrie des molécules impliquées dans une réaction quelconque. Les résultats expérimentaux obtenus à partir d'une charge contenant des isomères d'heptanes ou d'isomères d'octanes nous ont permis, d'une part, d'étudier l'influence des conditions opératoires sur le rendement et la sélectivité des produits principaux et, d'autre part, d'évaluer les paramètres cinétiques du modèle. Par ailleurs, nous avons pu déterminer l'influence des molécules aromatiques présentes dans la charge sur l'activité et la sélectivité du catalyseur ; cette influence a été prise en compte dans le modèle par l'ajout d'une constante d'adsorption des composés aromatiques sur la phase acide, ce qui n'avait jamais été envisagé auparavant
Catalytic reforming is one of the main processes in petrochemical refining. It allows to obtain gasolines with high octane number. In petrochemical industry, it is significant to be able to control the processes in order to obtain high quality products at an acceptable economic cost. The knowledge of chemical reactions implied in the process is the response to this industrial problem. This knowledge coupled with the interest to optimize the industrial process allows the good prediction of the yields and thus a better quality control ; therefore, the use of kinetic models is essential. The "single events" method allows to kinetic modeling of a process while taking into account the interaction between molecules ; therefore, the chemical reactions are defined like elementary steps by using the chemistry of the carbocations. The kinetic constants are defined as independent of the symmetry of the molecules implied in an unspecified reaction. The experimental data obtained from the heptan or octan isomers feeds allowed us to study, on one hand, the influence of the operating conditions on the yield and selectivity of the main products and, on another hand, to estimate the kinetic parameters of the model. Otherwise, we could determine the influence of the aromatic compounds in the feed on the catalyst activity and selectivity. This influence has been taken into account in the model by introducing an adsorption constant on the acid phase for those aromatic species, what had not been done previously
APA, Harvard, Vancouver, ISO, and other styles
41

Zemirli, Wahiba Nesrine. "Modèle d'accès personnalisé à l'information basé sur les Diagrammes d'Influence intégrant un profil utilisateur évolutif." Toulouse 3, 2008. http://www.theses.fr/2008TOU30234.

Full text
Abstract:
La RI personnalisée est une direction de recherche qui permet la mise en oeuvre de systèmes d'accès à l'information centrés utilisateurs, non dans le sens d'un utilisateur générique mais d'un utilisateur spécifique et ce, en vue d'adapter son fonctionnement à son contexte précis. L'objet de cette thèse est de proposer un modèle formel capable d'intégrer l'utilisateur dans le processus d'accès à l'information. Nous avons orienté nos travaux vers l'utilisation des diagrammes d'influence comme support théorique nous permettant de formaliser l'utilité des décisions associées à la pertinence des documents compte tenu de la requête et du profil de l'utilisateur. L'idée de base est de substituer à la fonction de pertinence classique qui mesure le degré d'appariement requête-document une fonction intégrant l'utilisateur. Dans notre approche, le profil utilisateur comprend ses centres d'intérêt à court terme et long terme. Le profil repose sur une représentation à deux dimensions corrélées : historique des interactions et centres d'intérêts. Le processus de définition du profil est fondé sur l'interaction des phases de construction et d'évolution. Plus précisément, le profil est construit et évolue à partir des informations collectées sur les documents jugés implicitement ou explicitement pertinents lors des interactions de l'utilisateur avec un SRI. Nous utilisons pour cela un opérateur d'agrégation d'informations ainsi qu'une méthode statistique qui permet de scruter le changement dans les centres d'intérêt de l'utilisateur, au cours du temps. N'ayant pas de cadre standard d'évaluation, nous proposons un cadre d'évaluation adapté à l'accès personnalisé à l'information en augmentant les collections de la campagne TREC par des profils utilisateurs simulés. Nous validons notre contribution par comparaison au modèle de recherche Bayésien classique
The goal of personalization in information retrieval is to tailor the search engine results to the specific goals, preferences and general interests of the users. This thesis presents a novel IR model able to integrate the user in the process of information access. Our contribution is particularly based on the belief that personalized retrieval is a decision making problem. For this reason, we propose to apply influence diagrams which are an extension of Bayesian networks to such problems, in order to solve the hard problem of user based relevance estimation. The basic underlying idea is to substitute the traditional relevance function which measures the degree of matching document-query, a function indexed by the user. In our approach, the user is profiled using his long-term interests. More precisely the user profiling is performed by managing the user search history using statistical based operators in order to highlight the user short-term interests seen as surrogates for building the long-term ones. The method focuses on the use of both user relevance point of view on familiar words in order to infer and express his interests and the use of a correlation metric measure in order to update them. In order to validate our model, we propose furthermore a novel evaluation protocol suitable for the personalized retrieval task. The test collection is an expansion of the standard TREC test data with user's profiles, obtained using a learning scenario of the user's interests. The experimental results show that our personalized retrieval model is effective
APA, Harvard, Vancouver, ISO, and other styles
42

Pitault, Isabelle. "Modélisation du craquage catalytique de distillats sous vide : modèle cinétique basé sur une description moléculaire." Poitiers, 1994. http://www.theses.fr/1994POIT2296.

Full text
Abstract:
Le craquage catalytique en lit fluidise transporte (fcc) est un procede de raffinage complexe dans lequel il est difficile de prevoir l'effet des conditions operatoires sur les rendements et qualites des produits formes. Dans le but de simuler numeriquement ce reacteur, la modelisation cinetique du craquage catalytique a ete entreprise. Un modele cinetique capable de prevoir la composition chimique de l'essence obtenue a partir de distillats sous vide, en fonction des conditions operatoires est propose. Il comporte 19 familles se differenciant par leur point de coupe et leur nature chimique (paraffine, olefine, naphtene, aromatique). Les reactions qui les lient sont le craquage, le transfert d'hydrogene, la cyclisation et la condensation. La validite du modele a ete verifiee a l'aide de mesures en micro-reacteur a lit fixe dans differentes conditions operatoires: type de charge, masse de catalyseur (de 1 a 6 g), taux de coke predepose sur le catalyseur (0 a 2% de poids), avec une temperature fixe de 530c. Les coefficients stchiometriques du transfert d'hydrogene ont ete estimes par des mesures utilisant des melanges de charges et des molecules modeles telles que le phenyldecane et la decaline. Les vitesses de reaction sont exprimees en fonction des concentrations molaires des reactifs et la desactivation est representee par une fonction du coke forme. Les ordres sont supposes egaux a 1 pour les reactions de craquage et a 2 pour celles de transfert d'hydrogene et de condensation. La determination des 25 constantes de vitesses par optimisation a necessite la modelisation numerique du micro-reacteur. Les resultats obtenus sont satisfaisants, ils montrent qu'un tel modele represente les evolutions observees en micro-reacteur. Les valeurs des constantes cinetiques trouvees sont compatibles avec celles publiees dans les etudes sur molecules modeles. Neanmoins, diverses propositions sont faites pour ameliorer le modele et la precision des constantes
APA, Harvard, Vancouver, ISO, and other styles
43

Bouzouane, Abdenour. "Un modèle multi-agents basé sur le tableau noir : Application au pilotage d'une délégation d'assurances." Ecully, Ecole centrale de Lyon, 1993. http://www.theses.fr/1993ECDL0032.

Full text
Abstract:
Les deux aspects majeurs de la resolution cooperative de problemes auxquels nous nous sommes attaques, concernent le controle de la resolution et le partage de competence entre des experts pour qu'ils cooperent. Cette these presente les resultats de l'etude ayant conduit a la proposition d'un modele de resolution et de representation de connaissances a caracteres multi-experts. Le modele multi-mondes (m3) propose s'inscrit dans la lignee des systemes a tableau noir dans lequel est introduit un controle adaptatif. Ce modele est base sur une hierarchie de paquets thematiques coherents de connaissances que l'on appelle mondes de connaissances (mcs). L'organisation des mcs correspond a une architecture multi-agents multi-niveaux permettant de construire des briques de raisonnement en allant du traitement le plus general au plus specifique. La cooperation entre le mcs s'effectue a travers un memoire locale de communication, elle est assuree par des composants de meme type appeles mondes de connaissances de controle. Le controle adapte au sein d'un groupe de mc est fonction du caractere (pluridisciplinaire, interdisciplinaire) du probleme qui lui est imparti. Afin de valider pratiquement ces mecanismes, un prototype smeig#x a ete realise. Son objectif est de fournir un support intelligent d'aide a la gestion strategique d'une delegation d'assurances. Les principes de base de smeig sont: une architecture integree a base du m3, dans laquelle toutes les donnees sont accessibles par les differents outils
APA, Harvard, Vancouver, ISO, and other styles
44

Delcour, Maxime. "Développement d'un modèle animal de paralysie cérébrale : basé sur l'ischémie prénatale et l'expérience sensorimotrice anormale." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4744/document.

Full text
Abstract:
La paralysie cérébrale (PC) regroupe un ensemble varié de troubles moteurs, sensoriels et cognitifs, liés à des lésions de la substance blanche (i.e. leucomalacie périventriculaire, PVL) survenant, le plus souvent, après un épisode hypoxo-ischémique autour de la naissance. Afin de reproduire la PVL chez l'animal, nous utilisons une ischémie prénatale (PI) qui induit des lésions des substances blanche et grise. Les rats ischémiés développent des déficits cognitifs visuo-spatiaux et une hyperactivité, également observés chez les patients atteints de PC, liés à des lésions du cortex entorhinal, préfrontal et cingulaire. La PI n'induit que des troubles locomoteurs modérés associés à des signes de spasticité, et une atteinte anatomique et fonctionnelle du cortex somesthésique primaire (S1), tandis que le cortex moteur (M1) reste intact. Ainsi, la PI reproduit les symptômes observés chez les enfants et adultes nés prématurément. La présence de mouvements spontanés anormaux au cours de la 1ère année conduisant à la PC suggère une implication de l'expérience sensorimotrice anormale dans le développement de cette pathologie. La combinaison d'une restriction sensorimotrice (SMR) durant le développement et de la PI induit des troubles cognitifs atténués mais une hyperactivité importante. Les rats combinant PI et SMR présentent des déficits posturo-moteurs drastiques et une spasticité, associés à une dégradation des tissus musculo-squelettiques, comparables à ceux observés chez les patients. Ces troubles moteurs, associés à une désorganisation importante des cartes corticales dans S1 et M1, suggèrent un dysfonctionnement important des boucles d'intégration sensorimotrice
Cerebral palsy (CP) corresponds to various motor, sensory and cognitive disorders related to white matter damage (i.e. periventricular leucomalacia, PVL) often occurring after perinatal hypoxic-ischemic events. To reproduce PVL in rodents, we used a prenatal ischemia (PI) that induces white and gray matter damage. The ischemic rats exhibit visual-spatial cognitive deficits and hyperactivity, as observed in patients with CP, related to lesions of entorhinal, prefrontal and cingular cortices. Only mild locomotor disorders are induced by PI, associated to signs of spasticity, along with anatomical and functional degradation in the primary somatosensory cortex (S1), while the primary motor cortex (M1) remains unchanged. Thus, PI recapitulates the main symptoms found in children born preterm. Abnormal spontaneous movements (i.e. general movements) observed in infants who develop CP later on suggest that abnormal sensorimotor experience during maturation is key in the development of this catastrophic disease. The combination of a sensorimotor restriction (SMR) and PI in animal induces fewer cognitive deficits but still hyperactivity. Such a combination leads to severe postural and motor disorders, and spasticity, associated with musculoskeletal pathologies, as observed in patients with CP. In addition to motor disorders, drastic topographical disorganization of cortical maps in S1 and M1 suggest a major dysfunction of sensorimotor loops
APA, Harvard, Vancouver, ISO, and other styles
45

Nikiema, Jean. "Intégration de connaissances biomédicales hétérogènes grâce à un modèle basé sur les ontologies de support." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0179/document.

Full text
Abstract:
Dans le domaine de la santé, il existe un nombre très important de sources de connaissances, qui vont de simples terminologies, classifications et vocabulaires contrôlés à des représentations très formelles, que sont les ontologies. Cette hétérogénéité des sources de connaissances pose le problème de l’utilisation secondaire des données, et en particulier de l’exploitation de données hétérogènes dans le cadre de la médecine personnalisée ou translationnelle. En effet, les données à utiliser peuvent être codées par des sources de connaissances décrivant la même notion clinique de manière différente ou décrivant des notions distinctes mais complémentaires.Pour répondre au besoin d’utilisation conjointe des sources de connaissances encodant les données de santé, nous avons étudié trois processus permettant de répondre aux conflits sémantiques (difficultés résultant de leur mise en relation) : (1) l’alignement qui consiste à créer des relations de mappings (équivalence et/ou subsumption) entre les entités des sources de connaissances, (2) l’intégration qui consiste à créer des mappings et à organiser les autres entités dans une même structure commune cohérente et, enfin, (3) l’enrichissement sémantique de l’intégration qui consiste à créer des mappings grâce à des relations transversales en plus de celles d’équivalence et de subsumption.Dans un premier travail, nous avons aligné la terminologie d’interface du laboratoire d’analyses du CHU de Bordeaux à la LOINC. Deux étapes principales ont été mises en place : (i) le prétraitement des libellés de la terminologie locale qui comportaient des troncatures et des abréviations, ce qui a permis de réduire les risques de survenue de conflits de nomenclature, (ii) le filtrage basé sur la structure de la LOINC afin de résoudre les différents conflits de confusion.Deuxièmement, nous avons intégré RxNorm à la sous-partie de la SNOMED CT décrivant les connaissances sur les médicaments afin d’alimenter la SNOMED CT avec les entités de RxNorm. Ainsi, les médicaments dans RxNorm ont été décrits en OWL grâce à leurs éléments définitionnels (substance, unité de mesure, dose, etc.). Nous avons ensuite fusionné cette représentation de RxNorm à la structure de la SNOMED CT, résultant en une nouvelle source de connaissances. Nous avons ensuite comparé les équivalences inférées (entre les entités de RxNorm et celles de la SNOMED CT) grâce à cette nouvelle structure avec les équivalences créées de manière morphosyntaxique. Notre méthode a résolu des conflits de nomenclature mais s’est confrontée à certains conflits de confusion et d’échelle, ce qui a mis en évidence le besoin d’améliorer RxNorm et SNOMED CT.Finalement, nous avons réalisé une intégration sémantiquement enrichie de la CIM10 et de la CIMO3 en utilisant la SNOMED CT comme support. La CIM10 décrivant des diagnostics et la CIMO3 décrivant cette notion suivant deux axes différents (celui des lésions histologiques et celui des localisations anatomiques), nous avons utilisé la structure de la SNOMED CT pour retrouver des relations transversales entre les concepts de la CIM10 et de la CIMO3 (résolution de conflits ouverts). Au cours du processus, la structure de la SNOMED CT a également été utilisée pour supprimer les mappings erronés (conflits de nomenclature et de confusion) et désambiguïser les cas de mappings multiples (conflits d’échelle)
In the biomedical domain, there are almost as many knowledge resources in health as there are application fields. These knowledge resources, described according to different representation models and for different contexts of use, raise the problem of complexity of their interoperability, especially for actual public health problematics such as personalized medicine, translational medicine and the secondary use of medical data. Indeed, these knowledge resources may represent the same notion in different ways or represent different but complementary notions.For being able to use knowledge resources jointly, we studied three processes that can overcome semantic conflicts (difficulties encountered when relating distinct knowledge resources): the alignment, the integration and the semantic enrichment of the integration. The alignment consists in creating a set of equivalence or subsumption mappings between entities from knowledge resources. The integration aims not only to find mappings but also to organize all knowledge resources’ entities into a unique and coherent structure. Finally, the semantic enrichment of integration consists in finding all the required mapping relations between entities of distinct knowledge resources (equivalence, subsumption, transversal and, failing that, disjunction relations).In this frame, we firstly realized the alignment of laboratory tests terminologies: LOINC and the local terminology of Bordeaux hospital. We pre-processed the noisy labels of the local terminology to reduce the risk of naming conflicts. Then, we suppressed erroneous mappings (confounding conflicts) using the structure of LOINC.Secondly, we integrated RxNorm to SNOMED CT. We constructed formal definitions for each entity in RxNorm by using their definitional features (active ingredient, strength, dose form, etc.) according to the design patterns proposed by SNOMED CT. We then integrated the constructed definitions into SNOMED CT. The obtained structure was classified and the inferred equivalences generated between RxNorm and SNOMED CT were compared to morphosyntactic mappings. Our process resolved some cases of naming conflicts but was confronted to confounding and scaling conflicts, which highlights the need for improving RxNorm and SNOMED CT.Finally, we performed a semantically enriched integration of ICD-10 and ICD-O3 using SNOMED CT as support. As ICD-10 describes diagnoses and ICD-O3 describes this notion according to two different axes (i.e., histological lesions and anatomical structures), we used the SNOMED CT structure to identify transversal relations between their entities (resolution of open conflicts). During the process, the structure of the SNOMED CT was also used to suppress erroneous mappings (naming and confusion conflicts) and disambiguate multiple mappings (scale conflicts)
APA, Harvard, Vancouver, ISO, and other styles
46

Grand, Maxence. "Apprentissage de Modèle d'Actions basé sur l'Induction Grammaticale Régulière pour la Planification en Intelligence Artificielle." Electronic Thesis or Diss., Université Grenoble Alpes, 2022. http://www.theses.fr/2022GRALM044.

Full text
Abstract:
Le domaine de l’intelligence artificielle vise à concevoir des agents autonomes capables de percevoir, d’apprendre et d’agir sans aucune intervention humaine pour accomplir des tâches complexes. Pour accomplir des tâches complexes, l’agent autonome doit planifier les meilleures actions possibles et les exécuter. Pour ce faire, l’agent autonome a besoin d’un modèle d’action. Un modèle d’action est une représentation sémantique des actions qu’il peut exécuter. Dans un modèle d’actions, une action est représentée à l’aide (1) d’une précondition: l’ensemble des conditions qui doivent être satisfaites pour que l’action puisse être exécutée et (2) des effets: l’ensemble des propriétés du monde qui vont être modifiées par l’exécution de l’action. La planification STRIPS est une méthode classique pour concevoir ces modèles d’actions. Cependant, les modèles d’actions STRIPS sont généralement trop restrictifs pour être utilisés dans des applications réelles. Il existe d’autres forme de modèles d’actions: les modèles d’actions temporels permettant de représenter des actions pouvant être exécutées en concurrence, les modèles d’actions HTN permettant de représenter les actions sous formes de tâches et de sous tâches, etc. Ces modèles sont moins restrictifs, mais moins les modèles sont restrictifs plus ils sont difficiles à concevoir. Dans cette thèse, nous nous intéressons aux méthodes facilitant l’acquisition de ces modèles d’actions basées sur les techniques d’apprentissage automatique.Dans cette thèse, nous présentons AMLSI (Action Model Learning with State machine Interaction), une approche d’apprentissage de modèles d’actions basée sur l’induction grammaticale régulière. Dans un premier temps nous montrerons que l’approche AMLSI permet d’apprendre des modèles d’actions STRIPS. Nous montrerons les différentes propriétés de l’approche prouvant son efficacité: robustesse, convergence, requiert peu de données d’apprentissage, qualité des modèles appris. Dans un second temps, nous proposerons deux extensions pour l’apprentissage de modèles d’actions temporels et de modèles d’actions HTN
The field of artificial intelligence aims to design and build autonomous agents able to perceive, learn and act without any human intervention to perform complex tasks. To perform complex tasks, the autonomous agent must plan the best possible actions and execute them. To do this, the autonomous agent needs an action model. An action model is a semantic representation of the actions it can execute. In an action model, an action is represented using (1) a precondition: the set of conditions that must be satisfied for the action to be executed and (2) the effects: the set of properties of the world that will be altered by the execution of the action. STRIPS planning is a classical method to design these action models. However, STRIPS action models are generally too restrictive to be used in real-world applications. There are other forms of action models: temporal action models allowing to represent actions that can be executed concurrently, HTN action models allowing to represent actions as tasks and subtasks, etc. These models are less restrictive, but the less restrictive the models are the more difficult they are to design. In this thesis, we are interested in approaches facilitating the acquisition of these action models based on machine learning techniques.In this thesis, we present AMLSI (Action Model Learning with State machine Interaction), an approach for action model learning based on Regular Grammatical Induction. First, we show that the AMLSI approach allows to learn (STRIPS) action models. We will show the different properties of the approach proving its efficiency: robustness, convergence, require few learning data, quality of the learned models. In a second step, we propose two extensions for temporal action model learning and HTN action model learning
APA, Harvard, Vancouver, ISO, and other styles
47

Kekatos, Nikolaos. "Vérification formelle des systèmes cyber-physiques dans le processus industriel de la conception basée sur modèle." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM081/document.

Full text
Abstract:
Les systèmes cyber-physiques sont une classe de systèmes complexe, de grande échelle, souvent critiques de sûreté, qui apparaissent dans des applications industrielles variées. Des approches de vérification formelle sont capable de fournir des garanties pour la performance et la sûreté de ces systèmes. Elles nécessitent trois éléments : un modèle formel, une méthode de vérification, ainsi qu’un ensemble de spécifications formelles. En revanche, les modèles industriels sont typiquement informels, ils sont analysés dans des environnements de simulation informels et leurs spécifications sont décrits dans un langage naturel informel. Dans cette thèse, nous visons à faciliter l’intégration de la vérification formelle dans le processus industriel de la conception basé sur modèle.Notre première contribution clé est une méthodologie de transformation de modèle. A partir d’un modèle de simulation standard, nous le transformons en un modèle de vérification équivalent, plus précisément en un réseau d’automates hybrides. Le processus de transformation prend en compte des différences de syntaxes, sémantique et d’autres aspects de la modélisation. Pour cette classe de modèle formel, des algorithmes d’atteignabilité peuvent être appliqués pour vérifier des propriétés de sûreté. Un obstacle est que des algorithmes d’atteignabilité se mettent à l’échelle pour des modèles affines par morceaux, mais pas pour des modèles non linéaires. Pour obtenir des surapproximations affines par morceaux des dynamiques non linéaires, nous proposons une technique compositionnelle d’hybridisation syntaxique. Le résultat est un modèle très compact qui retient la structure modulaire du modèle d’origine de simulation, tout en évitant une explosion du nombre de partitions.La seconde contribution clé est une approche pour encoder des spécifications formelles riches de façon à ce qu’elles peuvent être interprétées par des outils d’atteignabilité. Nous prenons en compte des spécifications exprimées sous forme d’un gabarit de motif (pattern template), puisqu’elles sont proche au langage naturel et peuvent être compris facilement par des utilisateurs non experts. Nous fournissons (i) des définitions formelles pour des motifs choisis, qui respectent la sémantique des automates hybrides, et (ii) des observateurs qui encodes les propriétés en tant qu’atteignabilité d’un état d’erreur. En composant ces observateurs avec le modèle formel, les propriétés peuvent être vérifiées par des outils standards de vérification qui sont automatisés.Finalement, nous présentons une chaîne d’outils semi-automatisée ainsi que des études de cas menées en collaboration avec des partenaires industriels
Cyber-Physical Systems form a class of complex, large-scale systems of frequently safety-critical nature in various industrial applications. Formal verification approaches can provide performance and safety guarantees for these systems. They require three elements: a formal model, a formal verification method, and a set of formal specifications. However, industrial models are typically non-formal, they are analyzed in non-formal simulation environments, and their specifications are described in non-formal natural language. In this thesis, we aim to facilitate the integration of formal verification into the industrial model-based design process.Our first key contribution is a model transformation methodology. Starting with a standard simulation model, we transform it into an equivalent verification model, particularly a network of hybrid automata. The transformation process addresses differences in syntax, semantics, and other aspects of modeling. For this class of formal models, so-called reachability algorithms can be applied to verify safety properties. An obstacle is that scalable algorithms exist for piecewise affine (PWA) models, but not for nonlinear ones. To obtain PWA over-approximations of nonlinear dynamics, we propose a compositional syntactic hybridization technique. The result is a highly compact model that retains the modular structure of the original simulation model and largely avoids an explosion in the number of partitions.The second key contribution is an approach to encode rich formal specifications so that they can be interpreted by tools for reachability. Herein, we consider specifications expressed by pattern templates since they are close to natural language and can be easily understood by non-expert users. We provide (i) formal definitions for select patterns that respect the semantics of hybrid automata, and (ii) monitors which encode the properties as the reachability of an error state. By composing these monitors with the formal model under study, the properties can be checked by off-the-shelf fully automated verification tools.Furthermore, we provide a semi-automated toolchain and present results from case studies conducted in collaboration with industrial partners
APA, Harvard, Vancouver, ISO, and other styles
48

Ngouajio, Mathieu. "Développement d'un modèle de prédiction des pertes dues aux mauvaises herbes basé sur l'analyse d'images numériques." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp02/NQ39383.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Hofleitner, Aude. "Développement d'un modèle d'estimation des variables de trafic urbain basé sur l'utilisation des technologies de géolocalisation." Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00798239.

Full text
Abstract:
Face à l'augmentation de la mobilité, les politiques de développement durable cherchent à optimiser l'utilisation des infrastructures de transport existantes. En particulier, les systèmes d'information du trafic à large échelle ont le potentiel d'optimiser l'utilisation du réseau de transport. Ils doivent fournir aux usagers une information fiable en temps réel leur permettant d'optimiser leurs choix d'itinéraires. Ils peuvent également servir d'outils d'aide à la décision pour les gestionnaires du réseau. La thèse étudie comment l'émergence des services Internet sur les téléphones portables et la rapide prolifération des systèmes de géolocalisation permet le développement de nouveaux services d'estimation et d'information des conditions de trafic en réseau urbain. L'utilisation des données provenant de véhicules traceurs nécessite le développement de modèles et d'algorithmes spécifiques, afin d'extraire l'information de ces données qui ne sont envoyées, jusqu'à présent, que par une faible proportion des véhicules circulant sur le réseau et avec une fréquence faible. La variabilité des conditions de circulations, due à la présence de feux de signalisation, motive une approche statistique de la dynamique du trafic, tout en intégrant les principes physiques hydrodynamiques (formation et dissolution de files d'attentes horizontales). Ce modèle statistique permet d'intégrer de façon robuste les données bruitées envoyées par les véhicules traceurs, d'estimer les paramètres physiques caractérisant la dynamique du trafic et d'obtenir l'expression paramétrique de la loi de probabilité des temps de parcours entre deux points quelconques du réseau. La thèse s'appuie sur les données et les infrastructures développées par le projet Mobile Millennium à l'Université de Californie, Berkeley pour valider les modèles et algorithmes proposés. Les résultats soulignent l'importance du développement de modèles statistiques et d'algorithmes adaptés aux données disponibles pour développer un système opérationnel d'estimation du trafic à large échelle
APA, Harvard, Vancouver, ISO, and other styles
50

Paradis, Jocelin. "Modèle théorique de détermination du taux de capitalisation ajusté au risque basé sur des données comptables." Mémoire, Université de Sherbrooke, 1989. http://hdl.handle.net/11143/8233.

Full text
Abstract:
Voici rassemblées les diverses parties de ma recherche sur la détermination d'un taux de capitalisation ajusté au risque. C'est non sans obligeance que je vous incite à lire ce mémoire comme s'il faisait partie intégrale de la littérature concernant ce sujet. L'étendue de ce champs de recherche étant particulièrement vaste, aucune étude ne saurait être exhaustive et porter sur l'ensemble de la question. C'est évidemment pour cette raison que ce mémoire ne traite que d'une partie de ce thème. L'objectif implicite de cette recherche est sans contredit de tenter de concevoir un modèle théorique permettant d'estimer l'importance du risque supporté par les propriétaires d'entreprises dont les titres de participation ne sont pas publiquement transigés. Bien que ce sujet ne soit pas dénué d'intérêt, on constate qu'un nombre restreint de recherches ont été effectuées sur cette question précise. C'est sans doute la grande difficulté que représente l'obtention des données nécessaires à toute recherche impliquant des entreprises privées qui explique la faible popularité de ce thème. Une telle limitation circonscrit presque inévitablement le traitement d'un sujet à un point de vue théorique. Malgré ce fait, c'est dans une perspective élargie et sans perdre de vue les écarts souvent prononcés qui existent entre les deux démarches que j'ai entrepris cette étude. Je considère qu'une telle optique (si elle est continuellement maintenue tout au long d'une recherche) peut, dans une certaine mesure, servir de panacée. J'aimerais finalement ajouter que cette étude s'inscrit en partie dans la lignée de celles qui prétendent vouloir bâtir sur des fondations existantes une meilleure adéquation entre la modélisation et la réalité.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography