Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Émotions – Simulation, Méthodes de.

Dissertationen zum Thema „Émotions – Simulation, Méthodes de“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Émotions – Simulation, Méthodes de" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Ochs, Magalie. „Modélisation, formalisation et mise en œuvre d'un agent rationnel dialoguant émotionnel empathique“. Paris 8, 2007. http://octaviana.fr/document/13337923X#?c=0&m=0&s=0&cv=0.

Der volle Inhalt der Quelle
Annotation:
Les recherches tendent à montrer que les agents virtuels capables d'exprimer des émotions d'empathie permettent d'améliorer l'interaction humain-machine. De tels agents doivent connaître dans quelles circonstances quelles émotions peuvent apparaître durant l'interaction. Pour ce faire, une analyse exploratoire de situations de dialogues réels humain-machine ayant amené l'utilisateur à exprimer des émotions a été réalisée. Ces résultats ont été étudiés à la lumière des descriptions théoriques des émotions en psychologie cognitive afin d'identifier les types d'émotions pouvant apparaître durant un dialogue humain-machine et leurs conditions de déclenchement. A partir de ces informations, un modèle formel des émotions d'un agent rationnel dialoguant a été construit. Les émotions y sont définies par leurs conditions de déclenchement représentées par des états mentaux particuliers, i. E. Des combinaisons de croyances, d'incertitudes et d'intentions. L'intensité de ces émotions est calculée à partir de ces mêmes attitudes mentales. Cette formalisation permet à un agent rationnel dialoguant de déterminer dans quelles situations durant le dialogue quelle émotion d'empathie envers son interlocuteur il devrait exprimer. Ce modèle formel d'émotions a été implémenté sous la forme d'un module de gestion des émotions pour les agents rationnels dialoguants JSA. Une évaluation auprès d'utilisateurs d'un agent rationnel dialoguant émotionnel empathique a permis de mettre en évidence l'amélioration de la perception qu'à l'utilisateur de l'agent lorsque celui exprime des émotions d'empathie
Recent research has shown that virtual agents which express empathic emotions enable to improve the human-machine interaction. Such agents should know in which circumstances which emotion may appear during the interaction. To achieve this goal, an exploratory analysis of real human-machine dialog situations which have lead users to express emotions have been done. The results have been studied in the light of the theoretical descriptions of emotions in cognitive psychology in order to identify the types of emotions that may appear during human-machine dialog and their conditions of elicitation. From this information, a formal model of emotions for a rational dialog agent has been designed. The emotions are defined by their conditions of elicitation represented by particular mental state, i. E. By combinations of beliefs, uncertainties, and intentions. The intensity of these emotions is computed from these mental attitudes. This formalisation enables a rational dialog agent to determine in which dialog situations which empathic emotion it should express. Based on the formal model, a module of emotions for JSA rational dialog agent has been implemented. An evaluation with users of an emotional empathic rational dialog agent has enabled us to highlight the positive effect of such agent on the user's perception
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Benamara, Amine. „Conception d'une patiente virtuelle Alzheimer interactive et expressive : modélisation de biais d'évaluation pour la génération de comportements non-verbaux“. Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG057.

Der volle Inhalt der Quelle
Annotation:
Les patients atteints d’Alzheimer présentent une grande variété de troubles des émotions et des comportements (apathie, agressivité, dépression . . .) qui évoluent avec la maladie. Face à ce type de patients, les membres du personnel soignant et médical doivent être formés à gérer leur propre comportement non-verbal et interpréter celui du patient afin d’améliorer la qualité des interactions et éviter les situations difficiles. Parmi les outils de formation traditionnels les plus utilisés, les patients standardisés (acteurs humains jouant le rôle du patient) sont chers et peu disponibles, et les nouveaux supports de formation numérique (cours en ligne, vidéos . . .) manquent d’interactivité. Les patients virtuels, qui sont des personnages animés interactifs simulant les comportements d’un patient, sont de plus en plus utilisés pour former les soignants à interagir avec des patients. Ils permettent un contrôle fin et dynamique de comportements réalistes à afficher sur ces personnages virtuels, tout en assurant la cohérence avec les objectifs pédagogiques de la formation. Nous présentons dans ces travaux de thèses la méthode employée afin de concevoir un tel patient virtuel interactif et expressif pour simuler une patiente virtuelle atteinte d’Alzheimer. Ces travaux sont inscrits dans le domaine de l’informatique affective, qui représente un contexte multidisciplinaire à la frontière entre informatique et psychologie cognitive. Une expérimentation de Magicien d’Oz nous a permis de récolter un corpus de données d’interaction entre 31 membres du personnel médical et soignant, et une version contrôlée de notre patiente virtuelle. Ces données ont été analysées et intégrées à la conception d’un modèle automatique visant à contrôler automatiquement les réactions de la patiente virtuelle. Nous introduisons ainsi notre modèle COPALZ (COmputational model of Pathological appraisal biases for a virtual Alzheimer’s patient), qui se base sur le modèle Appraisal Bias Model issu de la psychologie cognitive. Notre modèle COPALZ permet de générer des évaluations pathologiques de notre patiente virtuelle afin de reproduire les troubles des émotions et des comportements associés à la maladie d’Alzheimer. Les résultats de l’évaluation suggèrent que notre modèle permet de générer des situations pédagogiquement intéressantes en adaptant le niveau d’avancement de la maladie et l’instabilité de l’humeur de la patiente virtuelle
Alzheimer’s patients display a wide variety of emotional and behavioral disorders (apathy, aggressiveness, depression, etc.) that evolve with the disease. When dealing with this type of patient, medical and nursing staff must be trained to manage their own non-verbal behavior. They must also be trained to understand the patient’s behavior in order to improve the quality of interactions and avoid difficult situations. Standardized patients (human actors playing the role of the patient) are among the most commonly used traditional training tools. However, they are expensive and not widely available. As for digital training materials (online courses, videos...), they lack interactivity. Virtual patients, which are interactive animated characters that simulate patient behaviors, are increasingly used to train caregivers to interact with patients. They enable a precise and dynamic control of realistic behaviors on the virtual patient, while ensuring consistency with the educational objectives of the training. In this thesis, we introduce the method used to design such an interactive and expressive virtual patient to simulate a virtual patient with Alzheimer’s disease. Our work is part of the field of affective computing. This multidisciplinary field is at the intersection of computer science and cognitive psychology. We conducted a Wizard of Oz experiment and collected a corpus of interaction data between 31 medical and nursing staff members and a controlled version of our virtual patient. These data were analyzed and integrated into the design of an automatic model aiming at controlling automatically the reactions of the virtual patient. We thus introduce the COPALZ model (COmputational model of Pathological appraisal biases for a virtual Alzheimer’s patient), which is based on the Appraisal Bias Model from cognitive psychology. Our COPALZ model generates pathological appraisals of our virtual patient in order to reproduce the emotional and behavioral disorders associated with Alzheimer’s disease. The evaluation results suggest that our model can generate pedagogically relevant situations by adjusting the severity of the disease and the mood instability of the virtual patient
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Petit, Olivia. „Le plaisir et la santé dans la consommation alimentaire : activité cérébrale, motivation et simulation sensorielle“. Electronic Thesis or Diss., Aix-Marseille, 2014. http://www.theses.fr/2014AIXM1036.

Der volle Inhalt der Quelle
Annotation:
L'autorégulation est une ressource essentielle pour ne pas succomber à la tentation de consommer des aliments fortement caloriques. Elle demande de la volonté et de contrôler ses émotions et sensations. Cependant, nous évoluons dans un environnement valorisant le plaisir alimentaire où les informations de santé sont mal prises en compte, entrainant des difficultés d'autorégulation. Ces difficultés se retrouvent notamment chez les personnes en surpoids et/ou au régime. Nous avons émis l'hypothèse que valoriser le goût des aliments sains pourrait aider ces personnes à s'autoréguler et nous avons conduit deux expériences pour la tester. Dans la première, les messages basés sur le plaisir de consommer des fruits et légumes se sont avérés plus persuasifs pour ces individus. De la même manière, dans la seconde étude lors de la prise de décision simuler le plaisir procuré par ces aliments augmente davantage le choix d'aliments sains pour ces individus. Par le recours à la neuro-imagerie fonctionnelle, nous montrons également des différences significatives d'activité cérébrale entre ces individus au moment du choix d'aliments sains dans cette condition. Il apparaît plus impulsif chez les sujets les plus sensibles à la récompense, se rapprochant du choix d'aliments fortement caloriques. Au contraire, il apparaît plus réfléchi chez les sujets ayant un IMC élevé, facilitant ainsi l'autorégulation. Au niveau théorique, cette recherche met en avant le rôle positif des émotions et sensations liées au plaisir dans l'autorégulation. Au niveau managérial, elle suggère l'importance d'adapter les stratégies de promotion des aliments sains au public ciblé
Self-regulation is an essential resource for not succumbing to (junk) food. It requires willpower and control of emotions and sensations. However, individuals operate in an environment enhancing food pleasure where health informations are few and poorly considered, causing difficulties in self-regulation. These difficulties are found especially in overweight people and/or dieter. We hypothesized that value the taste of healthy foods could help people to self-regulate and we conducted two experiments to test it. In the first study, messages highlighting the pleasure of eating fruits and vegetables are more persuasive to subjects taking risks to health. Similarly, in the second study in decision making, focusing on the tatste of these foods increases more healthy food choices for these subjects. By using neuroimaging, we have shown brain activity distinctions between these subjects when choosing healthy food in this condition. Choosing healthy food is more impulsive for the most sensitive to reward subjects, approaching the choice of junk foods. Instead, it appears more reflective for subjects with a high BMI and choosing more junk foods, facilitating self-regulation. At the theoretical level this research highlights the positive role of emotions and sensations related to pleasure in self-regulation. At the managerial level, it suggests the importance of adapting strategies to the target audience in order to efficiently healthy food consumption
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Petit, Olivia. „Le plaisir et la santé dans la consommation alimentaire : activité cérébrale, motivation et simulation sensorielle“. Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM1036/document.

Der volle Inhalt der Quelle
Annotation:
L'autorégulation est une ressource essentielle pour ne pas succomber à la tentation de consommer des aliments fortement caloriques. Elle demande de la volonté et de contrôler ses émotions et sensations. Cependant, nous évoluons dans un environnement valorisant le plaisir alimentaire où les informations de santé sont mal prises en compte, entrainant des difficultés d'autorégulation. Ces difficultés se retrouvent notamment chez les personnes en surpoids et/ou au régime. Nous avons émis l'hypothèse que valoriser le goût des aliments sains pourrait aider ces personnes à s'autoréguler et nous avons conduit deux expériences pour la tester. Dans la première, les messages basés sur le plaisir de consommer des fruits et légumes se sont avérés plus persuasifs pour ces individus. De la même manière, dans la seconde étude lors de la prise de décision simuler le plaisir procuré par ces aliments augmente davantage le choix d'aliments sains pour ces individus. Par le recours à la neuro-imagerie fonctionnelle, nous montrons également des différences significatives d'activité cérébrale entre ces individus au moment du choix d'aliments sains dans cette condition. Il apparaît plus impulsif chez les sujets les plus sensibles à la récompense, se rapprochant du choix d'aliments fortement caloriques. Au contraire, il apparaît plus réfléchi chez les sujets ayant un IMC élevé, facilitant ainsi l'autorégulation. Au niveau théorique, cette recherche met en avant le rôle positif des émotions et sensations liées au plaisir dans l'autorégulation. Au niveau managérial, elle suggère l'importance d'adapter les stratégies de promotion des aliments sains au public ciblé
Self-regulation is an essential resource for not succumbing to (junk) food. It requires willpower and control of emotions and sensations. However, individuals operate in an environment enhancing food pleasure where health informations are few and poorly considered, causing difficulties in self-regulation. These difficulties are found especially in overweight people and/or dieter. We hypothesized that value the taste of healthy foods could help people to self-regulate and we conducted two experiments to test it. In the first study, messages highlighting the pleasure of eating fruits and vegetables are more persuasive to subjects taking risks to health. Similarly, in the second study in decision making, focusing on the tatste of these foods increases more healthy food choices for these subjects. By using neuroimaging, we have shown brain activity distinctions between these subjects when choosing healthy food in this condition. Choosing healthy food is more impulsive for the most sensitive to reward subjects, approaching the choice of junk foods. Instead, it appears more reflective for subjects with a high BMI and choosing more junk foods, facilitating self-regulation. At the theoretical level this research highlights the positive role of emotions and sensations related to pleasure in self-regulation. At the managerial level, it suggests the importance of adapting strategies to the target audience in order to efficiently healthy food consumption
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Poncet, Philippe. „Méthodes particulaires pour la simulation des sillages tridimensionnels“. Phd thesis, Université Joseph Fourier (Grenoble), 2001. http://tel.archives-ouvertes.fr/tel-00004699.

Der volle Inhalt der Quelle
Annotation:
Ce travail est consacré au développement des méthodes particulaires pour la résolution des équations de Navier-Stokes incompressibles en dimension 3. L'évaluation des formules de Biot-Savart ayant un coût de calcul prohibitif en dimension trois, on utilise un couplage grille-particules. On applique alors cette technique à la simulation et au contrôle de sillages produits par un cylindre. La première partie est consacrée à la méthode numérique proprement dite. On commence par présenter le modèle lagrangien et la méthode utilisée pour calculer le champ de vitesse, qui est la clef de voûte du schéma. On décrit ensuite, au chapitre 2 comment sont calculées les couches limites. Enfin, on présente au chapitre 3 l'algorithme à pas fractionnaire utilisé, ainsi que les méthodes de transfert entre jeux de particules et grilles sous-jacentes, et le calcul de la diffusion. Le code est alors validé par des simulations d'anneaux tourbillonnaires qui se propulsent sur un obstacle cylindrique, pour des nombres de Reynolds modérés (entre 400 et 2000).La seconde partie utilise la méthode numérique décrite précédemment, en l'appliquant dans un premier temps à la simulation des sillages turbulents qui se développent derrière un cylindre circulaire (chapitre 4), puis au contrôle de ces écoulements au chapitre 4.Il est connu que les solutions bidimensionnelles sont instables pour des nombres de Reynolds suffisamment élevés. Les instabilités tridimensionnelles sont identifiée grâce à leur profil spectral. Elles ont un effet important sur les forces de traînée et sur la fréquence propre de l'écoulement.Le chapitre 5, relatif au contrôle, se propose de mettre en évidence plusieurs phénomènes. On considère un contrôle en boucle ouverte, réalisé par une rotation à pulsation et amplitude constante. On étudie des rotations basse et haute fréquences. Le coefficient de traînée est alors diminué de 43% par le contrôle à haute fréquence, pour un nombre de Reynolds de 550. De plus, on montre que l'écoulement turbulent revient à un état bidimensionnel si l'amplitude de rotation est suffisamment élevée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Xiao, Yi-Jun. „Contribution aux méthodes arithmétiques pour la simulation accélérée“. Marne-la-vallée, ENPC, 1990. http://www.theses.fr/1990ENPC9031.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur les irrégularités de distribution de suites à une ou plusieurs dimensions et sur leurs applications a l'intégration numérique. Elle comprend trois parties. La première partie est consacrée aux suites unidimensionnelles: estimations de la diaphonie de la suite de van der corput à partir de l'étude des sommes exponentielles et étude des suites (n). La deuxième partie porte sur quelques suites classiques en dimension plus grande que une (suites de Fame, suites de Halton). La troisième partie, consacrée aux applications à l'intégration contient de nombreux résultats numériques, permettant de comparer l'efficacité de suites
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Viseur, Sophie. „Simulation stochastique basée-objet de chenaux“. Vandoeuvre-les-Nancy, INPL, 2001. http://www.theses.fr/2001INPL036N.

Der volle Inhalt der Quelle
Annotation:
L'hétérogénéité dans la répartition des sédiments issus de systèmes de chenaux fait de cette architecture une hôte potentielle aux hydrocarbures. Lors de l'étude d'un réservoir, la connaissance des structures souterraines est disponible via les données issues de forages, de campagnes sismiques et de la connaissance géologique du domaine. Les processus de simulation stochastique représentent de nos jours un outil important pour la gestion d'un champ pétrolier à partir des simples données recueillies de la subsurface de la terre. Le but de ces méthodes est de générer plusieurs modèles équiprobables de l'architecture fluviatile afin d'étudier les risques encourus lors de l'exploitation d'un champ pétrolier. Et chaque modèle ainsi généré se doit e satisfaire les données de subsurface et refléter les informations issues de la connaissance géologique du champ étudié. Deux principales approches ont été proposées dans ce domaine : les approches dites " basées-pixel " et les approches dites " basées-objet ". Les méthodes basées pixels s'attachent à distribuer les valeurs d'une propriété (soit continue comme la perméabilité ou la porosité, ou discrète comme les indexes de faciès) dans le volume d'étude. Les méthodes objet (ou booléennes) consiste en la génération d'objets modélisant les corps fluviatiles présents dans le domaine étudié et de les distribuer dans le volume réservoir. Cependant, les difficultés généralement rencontrées dans ces dernières approches consistent à pouvoir générer de manière efficace des modèles réalistes prenant en comptes des données " dures " (les données de puits) ou " floues " (les données de proportion). Nos travaux ont donc été voués à la recherche d'une nouvelle méthode de simulation stochastique basée objet permettant de générer plusieurs modèles d'empilements de chenaux équiprobables, réalistes et rendant compte des données de subsurface.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Stoltz, Gabriel. „Quelques méthodes mathématiques pour la simulation moléculaire et multiéchelle“. Phd thesis, Ecole des Ponts ParisTech, 2007. http://tel.archives-ouvertes.fr/tel-00166728.

Der volle Inhalt der Quelle
Annotation:
Ce travail présente quelques contributions à l'étude théorique et numérique des modèles utilisés en pratique pour la simulation moléculaire de la matière. En particulier, on présente et on analyse des méthodes numériques stochastiques dans le domaine de la physique statistique, permettant de calculer plus efficacement des moyennes d'ensemble. Une application particulièrement importante est le calcul de différences d'énergies libres, par dynamiques adaptatives ou hors d'équilibre. On étudie également quelques techniques, stochastiques ou déterministes, utilisées en chimie quantique et permettant de résoudre de manière approchée le problème de minimisation associé à la recherche de l'état fondamental d'un opérateur de Schrödinger en dimension grande. On propose enfin des modèles réduits permettant une description microscopique simplifiée des ondes de choc et de détonation par le biais d'une dynamique stochastique sur des degrés de liberté moyens, approchant la dynamique hamiltonienne déterministe du système complet.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Ould, Salihi Mohamed Lemine. „Couplage de méthodes numériques en simulation directe d'écoulements incompressibles“. Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00004901.

Der volle Inhalt der Quelle
Annotation:
Ce travail est consacré au développement des méthodes lagrangiennes comme alternatives ou compléments aux méthodes euleriennes conventionnelles pour la simulation d'écoulements incompressibles en présence d'obstacles. On s'intéresse en particulier à des techniques ou des solveurs eulériens et lagrangiens cohabitent dans le même domaine de calcul mais traitent différents termes des équations de Navier-Stokes, ainsi qu'à des techniques de décomposition de domaines ou différents solveurs sont utilisés dans chaques sous-domaines. Lorsque les méthodes euleriennes et lagrangiennes cohabitent dans le même domaine de calcul (méthode V.I.C.), les formules de passage particules-grilles permettent de représenter la vorticité avec la même précision sur une grille fixe et sur la grille lagrangienne. Les méthodes V.I.C. ainsi obtenues combinent stabilité et précision et fournissent une alternative avantageuse aux méthodes différences-finies pour des écoulements confinés. Lorsque le domaine de calcul est décomposé en sous-domaines distincts traités par méthodes lagrangiennes et par méthodes euleriennes, l'interpolation d'ordre élevé permet de réaliser des conditions d'interface consistantes entre les différents sous-domaines. On dispose alors de méthodes de calcul avec décomposition en sous-domaines, de type Euler/Lagrange ou Lagrange/Lagrange, et résolution en formulation (vitesse-tourbillon)/(vitesse-tourbillon) ou (vitesse-pression)/(vitesse-tourbillon). Les différentes méthodes développées ici sont testées sur plusieurs types d'écoulements (cavité entrainée, rebond de dipôles de vorticité, écoulements dans une conduite et sur une marche, écoulements autour d'obstacles) et comparées à des méthodes de différences-finies d'ordre élevé.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Stoltz, Gabriel. „Quelques méthodes mathématiques pour la simulation moleculaire et multiéchelle“. Marne-la-vallée, ENPC, 2007. http://www.theses.fr/2007ENPC0708.

Der volle Inhalt der Quelle
Annotation:
Ce travail présente quelques contributions à l'étude théorique et numérique des modèles utilisés en pratique pour la simulation moléculaire de la matière. En particulier, on présente et on analyse des méthodes numériques stochastiques dans le domaine de la physique statistique, permettant de calculer plus efficacement des moyennes d'ensemble. Une application particulièrement importante est le calcul de différences d'énergies libres, par dynamiques adaptatives ou hors d'équilibre. On étudie également quelques techniques, stochastiques ou déterministes, utilisées en chimie quantique et permettant de résoudre de manière approchée le problème de minimisation associé à la recherche de l'état fondamental d'un opérateur de Schrödinger en dimension grande. On propose enfin des modèles réduits permettant une description microscopique simplifiée des ondes de choc et de détonation par le biais d'une dynamique stochastique sur des degrés de liberté moyens, approchant la dynamique hamiltonienne déterministe du système complet
This work presents some contributions to the theoretical and numerical study of models used in practice in the field of molecular simulation. In particular, stochastic techniques to compute more efficiently ensemble averages in the field of computational statistical physics are presented and analyzed. An important application is the computation of free energy differences using nonequilibrium or adaptive dynamics. Some stochastic or deterministic techniques to solve approximately the Schrödinger ground state problem for high dimensional systems are also studied. Finally, some reduced models for shock and detonation waves, relying on an average stochastic dynamics reproducing in a mean sense the high dimensional deterministic hamiltonian dynamics, are proposed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Gillyboeuf, Jean-Philippe. „Diverses méthodes chimère pour la simulation numérique d'écoulements stationnaires“. Toulouse, INPT, 1996. http://www.theses.fr/1996INPT127H.

Der volle Inhalt der Quelle
Annotation:
La technique chimere est une technique multidomaine qui permet de calculer des ecoulements sur des maillages qui se recouvrent sans aucune contrainte geometrique. La principale difficulte qu'elle pose est de transmettre l'information entre les domaines de calcul. Deux approches sont etudiees : l'une est fondee sur l'interpolation, l'autre sur la deformation des domaines. L'approche par interpolation est meilleure, mais son application n'est pas toujours commode. La solution consiste alors a combiner les deux approches de facon a ce qu'il y ait aussi peu de deformation que possible et autant que necessaire. A maillages equivalents, la qualite des resultats que la technique chimere permet d'obtenir est a peu pres equivalente a celle d'un resultat obtenu par un calcul multidomaine classique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Papadopoulos, Christos. „Méthodes de simulation stochastiques rapides et applications en fiabilité“. Compiègne, 1999. http://www.theses.fr/1999COMP1213.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est l'estimation des probabilités associées aux évènements rares rencontrés en fiabilité. Dans un premier temps, nous avons étudié les principales méthodes de réduction de la variance, et ensuite nous avons développé une heuristique de type "Failure Biasing" appelée la méthode "Inverse" qui s'est montrée très efficace en pratique et qui possède la propriété de l'Erreur Relative Bornée pour la quasi-totalité de systèmes markoviens hautement fiables. L'unique changement optimal, n'est pas toujours exploitable car il contient le paramètre que nous voulons estimer. Par contre, dans certains cas, nous pouvons effectivement le calculer. Ainsi, nous avons présenté la procédure pour le calcul récursif du changement optimal dans le cas de l'estimation de la probabilité d'un évènement rare. Nous avons également donné les classes de systèmes pour lesquelles cette procédure est appliquable. Des approches pratiques pour l'utilisation de la théorie des grandes déviations en simulation, ont également été présentées. Finalement, nous avons présenté deux méthodes pour la simulation des systèmes semi-markoviens : la méthode de la chaîne immergée et celle du risque compétitif. Cette étude a été étendue avec la présentation d'une méthode hybride pour l'estimation de la non-fiabilité d'un système consécutif-k-sur-n, basée sur la méthode analytique-statistique. L'efficacité de cette méthode a été illustrée sur de nombreux exemples.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Minvielle-Larrousse, Pierre. „Méthodes de simulation stochastique pour le traitement de l’information“. Thesis, Pau, 2019. http://www.theses.fr/2019PAUU3005.

Der volle Inhalt der Quelle
Annotation:
Lorsqu’une grandeur d’intérêt ne peut être directement mesurée, il est fréquent de procéder à l’observation d’autres quantités qui lui sont liées par des lois physiques. Ces quantités peuvent contenir de l’information sur la grandeur d’intérêt si l’on sait résoudre le problème inverse, souvent mal posé, et inférer la valeur. L’inférence bayésienne constitue un outil statistique puissant pour l’inversion, qui requiert le calcul d’intégrales en grande dimension. Les méthodes Monte Carlo séquentielles (SMC), aussi dénommées méthodes particulaires, sont une classe de méthodes Monte Carlo permettant d’échantillonner selon une séquence de densités de probabilité de dimension croissante. Il existe de nombreuses applications, que ce soit en filtrage, en optimisation globale ou en simulation d’évènement rare. Les travaux ont porté notamment sur l’extension des méthodes SMC dans un contexte dynamique où le système, régi par un processus de Markov caché, est aussi déterminé par des paramètres statiques que l’on cherche à estimer. En estimation bayésienne séquentielle, la détermination de paramètres fixes provoque des difficultés particulières : un tel processus est non-ergodique, le système n’oubliant pas ses conditions initiales. Il est montré comment il est possible de surmonter ces difficultés dans une application de poursuite et identification de formes géométriques par caméra numérique CCD. Des étapes d’échantillonnage MCMC (Chaîne de Markov Monte Carlo) sont introduites pour diversifier les échantillons sans altérer la distribution a posteriori. Pour une autre application de contrôle de matériau, qui cette fois « hors ligne » mêle paramètres statiques et dynamiques, on a proposé une approche originale. Elle consiste en un algorithme PMMH (Particle Marginal Metropolis-Hastings) intégrant des traitements SMC Rao-Blackwellisés, basés sur des filtres de Kalman d’ensemble en interaction.D’autres travaux en traitement de l’information ont été menés, que ce soit en filtrage particulaire pour la poursuite d’un véhicule en phase de rentrée atmosphérique, en imagerie radar 3D par régularisation parcimonieuse ou en recalage d’image par information mutuelle
When a quantity of interest is not directly observed, it is usual to observe other quantities that are linked by physical laws. They can provide information about the quantity of interest if it is able to solve the inverse problem, often ill posed, and infer the value. Bayesian inference is a powerful tool for inversion that requires the computation of high dimensional integrals. Sequential Monte Carlo (SMC) methods, a.k.a. interacting particles methods, are a type of Monte Carlo methods that are able to sample from a sequence of probability densities of growing dimension. They are many applications, for instance in filtering, in global optimization or rare event simulation.The work has focused in particular on the extension of SMC methods in a dynamic context where the system, governed by a hidden Markov process, is also determined by static parameters that we seek to estimate. In sequential Bayesian estimation, the determination of fixed parameters causes particular difficulties: such a process is non-ergodic, the system not forgetting its initial conditions. It is shown how it is possible to overcome these difficulties in an application of tracking and identification of geometric shapes by CCD digital camera. Markov Monte Carlo Chain (MCMC) sampling steps are introduced to diversify the samples without altering the posterior distribution. For another material control application, which mixes static and dynamic parameters, we proposed an original offline approach. It consists of a Particle Marginal Metropolis-Hastings (PMMH) algorithm that integrates Rao-Blackwellized SMC, based on a bank of interacting Ensemble Kalman filters.Other information processing works has been conducted: particle filtering for atmospheric reentry vehicle tracking, 3D radar imaging by sparse regularization and image registration by mutual information
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Demogeot, Thierry. „Développement de l'environnement de simulation Gaspe“. Vandoeuvre-les-Nancy, INPL, 1992. http://www.theses.fr/1992INPL064N.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Navarro, Barragan Alberto. „Etude d'un procédé de séparation chromatographique en continu : modélisation et mise en oeuvre d'un séparateur à trois sorties fonctionnant en simulation de lit mobile“. Toulouse, INPT, 1997. http://www.theses.fr/1997INPT040G.

Der volle Inhalt der Quelle
Annotation:
L'evolution des systemes de chromatographie continue industrielle est presentee ainsi que leurs domaines d'application actuelles. Dans le cas d'un separateur chromatographique a deux sorties fonctionnant selon le principe de simulation de lit mobile, les modeles permettant de representer les echanges de matiere sont discutes. Un modele simplifie et exploite pour etudier l'influence des conditions de fonctionnement du separateur sur la separation d'un melange glycerol-sulfate de sodium. La modelisation est etendue a la separation de trois constituants dans un separateur chromatographique continu a trois sorties. La resolution des equations derivees de ce modele permet de representer le profil chromatographique installe dans le separateur et de calculer la concentration et la purete des extraits et raffinat. L'influence des principaux facteurs - debits de boucle, de desorbant, de melange, des extraits, de raffinat, le temps de sequence, la configuration du separateur, sont etudies grace au modele. Une installation pilote de separation chromatographique par simulation de lit mobile est mise au point. Les previsions du modele sont verifiees experimentalement dans le cas d'un melange de polyols : mannitol, sorbitol, xylitol. Les conditions operatoires sont optimisees et les orientations validees experimentalement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Lucas, Philippe. „Modélisation et simulation du régime transitoire d'unités de séparation d'un procédé chimique avec leur système de régulation : Application à la conduite d'un atelier industriel“. Châtenay-Malabry, Ecole centrale de Paris, 1988. http://www.theses.fr/1988ECAP0083.

Der volle Inhalt der Quelle
Annotation:
Le travail proposé porte sur la simulation de régimes transitoires d'un procédé industriel et son utilisation pour l'étude de la conduite de cet atelier. A partir de l'observation d'un atelier de distillation et de l'analyse de son comportement pendant les phases transitoires est proposée une méthodologie de modélisation réaliste mais complexe pour représenter le fonctionnement d'un procédé. L'examen de la littérature scientifique sur le calcul du régime transitoire des procédés montre que la résolution numérique s'appuie le plus souvent sur la méthode de Bear comme le montrent les quelques logiciels et applications industrielles proposés. Sur la base des modèles présentés dans la littérature les équations retenues pour représenter l'installation étudiée sont exposées. Elles concernent non seulement l'accumulation et le transport de matière et d'énergie mais aussi l'acquisition de l'information et sa conversion en actions sur le procédé. La mise en oeuvre de cette modélisation avec le logiciel SpeedUp exige que le système d'équations différentielles et algébriques soit bien conditionné. L'obtention de tels systèmes est illustrée par des exemples d'opérations tirées du procédé étudié. Cette expérience permet de formuler des règles générales de modélisation. Quelques modèles ainsi écrits sont présentés. La modélisation ainsi définie appliquée à un évaporateur puis à la colonne de distillation conduit à des réponses qualitativement et quantitativement conformes à la réalité. Le choix des variables de commande d'une colonne de distillation est plus particulièrement exposé. Son application à la colonne étudiée invite après une étude en transitoire à choisir un certain jeu de variables intensives. Cette étude donne quelques recommandations pour la bonne conduite des régimes transitoires de procédés fortement perturbés. Le mémoire se termine par un bilan de l'apport potentiel de la simulation dynamique dans le choix de la stratégie de conduite d'un procédé.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Labeau, Pierre-Etienne. „Méthodes semi-analytiques et outils de simulation en dynamique probabiliste“. Doctoral thesis, Universite Libre de Bruxelles, 1996. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212439.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Bonithon, Gaël. „Méthodes numériques innovantes pour la simulation thermique de composants électroniques“. Phd thesis, Paris, ENSAM, 2010. http://pastel.archives-ouvertes.fr/pastel-00547880.

Der volle Inhalt der Quelle
Annotation:
Les composants électroniques présentent des facteurs d'échelle géométrique importants, et font intervenir des matériaux aux conductivités thermiques très différentes. L'expérience montre que dans ce cadre, la méthode des éléments de frontière est un choix judicieux pour la simulation thermique en régime permanent. En régime transitoire, la dimension temporelle ajoute un certain nombre de difficultés. Parmi celles-ci figurent classiquement l'augmentation des temps de calcul et les critères de stabilité, ou d'un manière plus générale les liens entre discrétisations spatiale et temporelle. Plus spécifiquement, un des enjeux actuels en électronique est de mesurer l'impact de phénomènes très localisés, comme des commutations ou des courts-circuits, sur la thermique globale d'un composant. Il s'agit alors de coupler différentes échelles espace-temps, en assurant en particulier des changements d'échelle sans perte d'information. Dans la première partie de ce travail, on propose d'utiliser la méthode des éléments de frontière transitoire pour répondre à cette problématique. On combine tout d'abord différentes formulations intégrales et des techniques d'optimisation pour réduire le coût de la méthode. On réutilise ensuite ce travail pour développer une approche multi-échelles, et généraliser la méthode des éléments de frontière aux matériaux non linéaires. Une seconde partie est consacrée au développement d'une méthode alternative, visant à réduire les temps de calcul de manière plus significative tout en conservant une base éléments de frontière. Il s'agit d'une méthode de décomposition propre généralisée, qui permet de construire une représentation à variables séparées de la solution de manière non incrémentale. On étudie la convergence de l'algorithme sur différents cas de test, en proposant des techniques pour traiter des conditions aux limites et initiales non homogènes, ainsi que des termes sources non linéaires.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Apraez, Camilo. „Étude comparative de méthodes de simulation de la stabilité transitoire“. Mémoire, École de technologie supérieure, 2012. http://espace.etsmtl.ca/1000/1/APRAEZ_Camilo.pdf.

Der volle Inhalt der Quelle
Annotation:
L’analyse de la stabilité transitoire (ST) est l'un des outils les plus puissants pour étudier et améliorer le comportement des réseaux électriques. Par ailleurs, de nouveaux domaines de recherche utilisent la ST afin de déterminer l’écoulement de puissance de façon optimale à la suite d'une perturbation. La ST est une spécialité de la stabilité de l’angle du rotor qui simule et analyse le comportement dynamique des machines synchrones avant, pendant et après une perturbation. La tendance la plus courante pour étudier la ST est une simulation dans le domaine du temps (SDT). À cette fin, nous formulons un ensemble d’équations différentielles algébriques (EDA) qui simulent le comportement des machines ainsi que le fonctionnement du réseau. Ces équations sont non linéaires et leur résolution nécessite l'application de méthodes numériques d'intégration. Ce projet met en oeuvre un programme de ST qui comprend le modèle détaillé et le modèle classique des machines synchrones. Pour la simulation avec le modèle classique, nous avons inclus dix méthodes différentes d'intégration implicites et explicites à pas d'intégration constants ou variables. Pour le modèle détaillé, nous avons réalisé deux algorithmes qui permettent de résoudre le système EDA avec des méthodes simultanées implicites et partitionnées explicites. De plus, nous avons testé le fonctionnement du programme dans les cas suivants: « WECC » trois machines, « New England » 10 machines, 17 machines et 50 machines. Pour chaque étude de cas, nous avons analysé les performances de chacune de ces méthodes en termes de précision et de rapidité d'exécution. Ce programme vise à servir d’outil de simulation dans les recherches qui demandent l'utilisation d’un programme de ST.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Silva, lopes Laura. „Méthodes numériques pour la simulation d'évènements rares en dynamique moléculaire“. Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC1045.

Der volle Inhalt der Quelle
Annotation:
Dans les systèmes dynamiques aléatoires, tels ceux rencontrés en dynamique moléculaire, les événements rares apparaissent naturellement, comme étant liés à des fluctuations de probabilité faible. En dynamique moléculaire, le repliement des protéines, la dissociation protéine-ligand, et la fermeture ou l’ouverture des canaux ioniques dans les membranes, sont des exemples d’événements rares. La simulation d’événements rares est un domaine de recherche important en biophysique depuis presque trois décennies.En dynamique moléculaire, on est particulièrement intéressé par la simulation de la transition entre les états métastables, qui sont des régions de l’espace des phases dans lesquelles le système reste piégé sur des longues périodes de temps. Ces transitions sont rares, leurs simulations sont donc assez coûteuses et parfois même impossibles. Pour contourner ces difficultés, des méthodes d’échantillonnage ont été développées pour simuler efficacement ces événement rares. Parmi celles-ci les méthodes de splitting consistent à diviser l’événement rare en sous-événements successifs plus probables. Par exemple, la trajectoire réactive est divisée en morceaux qui progressent graduellement de l’état initial vers l’état final.Le Adaptive Multilevel Splitting (AMS) est une méthode de splitting où les positions des interfaces intermédiaires sont obtenues de façon naturelle au cours de l’algorithme. Les surfaces sont définies de telle sorte que les probabilités de transition entre elles soient constantes et ceci minimise la variance de l’estimateur de la probabilité de l’événement rare. AMS est une méthode avec peu de paramètres numériques à choisir par l’utilisateur, tout en garantissant une grande robustesse par rapport au choix de ces paramètres.Cette thèse porte sur l’application de la méthode adaptive multilevel splitting en dynamique moléculaire. Deux types de systèmes ont été étudiés. La première famille est constituée de modèles simples, qui nous ont permis d’améliorer la méthode. La seconde famille est faite de systèmes plus réalistes qui représentent des vrai défis, où AMS est utilisé pour avancer nos connaissances sur les mécanismes moléculaires. Cette thèse contient donc à la fois des contributions de nature méthodologique et numérique.Dans un premier temps, une étude conduite sur le changement conformationnel d’une biomolécule simple a permis de valider l’algorithme. Nous avons ensuite proposé une nouvelle technique utilisant une combinaison d’AMS avec une méthode d’échantillonnage préférentiel de l’ensemble des conditions initiales pour estimer plus efficacement le temps de transition. Celle-ci a été validée sur un problème simple et nos résultats ouvrent des perspectives prometteuses pour des applications à des systèmes plus complexes. Une nouvelle approche pour extraire les mécanismes réactionnels liés aux transitions est aussi proposée dans cette thèse. Elle consiste à appliquer des méthodes de clustering sur les trajectoires réactives générées par AMS. Pendant ce travail de thèse, l’implémentation de la méthode AMS pour NAMD a été améliorée. En particulier, ce manuscrit présente un tutoriel lié à cette implémentation. Nous avons aussi mené des études sur deux systèmes moléculaires complexes avec la méthode AMS. Le premier analyse l’influence du modèle d’eau (TIP3P et TIP4P/2005) sur le processus de dissociation ligand– β -cyclodextrine. Pour le second, la méthode AMS a été utilisée pour échantillonner des trajectoires de dissociation d’un ligand du domaine N-terminal de la protéine Hsp90
In stochastic dynamical systems, such as those encountered in molecular dynamics, rare events naturally appear as events due to some low probability stochastic fluctuations. Examples of rare events in our everyday life includes earthquakes and major floods. In chemistry, protein folding, ligandunbinding from a protein cavity and opening or closing of channels in cell membranes are examples of rare events. Simulation of rare events has been an important field of research in biophysics over the past thirty years.The events of interest in molecular dynamics generally involve transitions between metastable states, which are regions of the phase space where the system tends to stay trapped. These transitions are rare, making the use of a naive, direct Monte Carlo method computationally impracticable. To dealwith this difficulty, sampling methods have been developed to efficiently simulate rare events. Among them are splitting methods, that consists in dividing the rare event of interest into successive nested more likely events.Adaptive Multilevel Splitting (AMS) is a splitting method in which the positions of the intermediate interfaces, used to split reactive trajectories, are adapted on the fly. The surfaces are defined suchthat the probability of transition between them is constant, which minimizes the variance of the rare event probability estimator. AMS is a robust method that requires a small quantity of user defined parameters, and is therefore easy to use.This thesis focuses on the application of the adaptive multilevel splitting method to molecular dynamics. Two kinds of systems are studied. The first one contains simple models that allowed us to improve the way AMS is used. The second one contains more realistic and challenging systems, where AMS isused to get better understanding of the molecular mechanisms. Hence, the contributions of this thesis include both methodological and numerical results.We first validate the AMS method by applying it to the paradigmatic alanine dipeptide conformational change. We then propose a new technique combining AMS and importance sampling to efficiently sample the initial conditions ensemble when using AMS to obtain the transition time. This is validatedon a simple one dimensional problem, and our results show its potential for applications in complex multidimensional systems. A new way to identify reaction mechanisms is also proposed in this thesis.It consists in performing clustering techniques over the reactive trajectories ensemble generated by the AMS method.The implementation of the AMS method for NAMD has been improved during this thesis work. In particular, this manuscript includes a tutorial on how to use AMS on NAMD. The use of the AMS method allowed us to study two complex molecular systems. The first consists in the analysis of the influence of the water model (TIP3P and TIP4P/2005) on the β -cyclodextrin and ligand unbinding process. In the second, we apply the AMS method to sample unbinding trajectories of a ligand from the N-terminal domain of the Hsp90 protein
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Agouzoul, Asmaâ. „Nouvelles méthodes numériques pour la simulation de l’impression 3D métallique“. Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0004.

Der volle Inhalt der Quelle
Annotation:
Le procédé SLM offre de nouvelles perspectives en termes de conception de pièces. Cependant, les phénomènes thermo-mécaniques liés au procédé sont responsables des contraintes résiduelles et de la distorsion de la pièce fabriquée. La simulation numérique est un outil intéressant pour mieux cerner les phénomènes physiques à l’œuvre et leur impact sur la qualité de la pièce. Dans cette thèse, nous proposons différentes approches qui permettent de réaliser les simulations à moindre coût, en utilisant des algorithmes de réduction de modèles. Les résultats sont comparés à ceux obtenus par la méthode des éléments finis. Une méthode inverse d’identification rapide de la contrainte inhérente à partir d'abaques numériques est proposée. L'approche Proper Generalised Décomposition (PGD) est utilisée pour la construction de cet abaque. Nous explorons aussi les avantages qu'offre une implémentation de la PGD sur GPU
Selective Laser Melting offers new perspectives in terms of part design and simplification of complex assemblies. However, severe thermo-mechanical conditions arise and are responsible for local plastic deformation, residual stresses and distortion of the manufactured component. Numerical simulation is an interesting tool for process understanding the physical phenomena and their impact on the quality of the part. In this thesis, we propose different approaches to perform simulations at a lower cost, by using model reduction algorithms. The results are compared with those obtained by the finite element method. A reverse analysis in order to identify the inherent strain responsible for the measured elastic springback makes possible to build offline numerical abacus. Therefore, we use a multi-parametric reduced order model using the so called Proper Generalised Decomposition (PGD) to construct this abacus. We also explore the benefits of an implementation of PGD on GPU
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

MAHMOUD, AHMAD. „Simulation numérique d'écoulements par des méthodes de transformation de domaines“. Grenoble INPG, 1999. http://www.theses.fr/1999INPG0102.

Der volle Inhalt der Quelle
Annotation:
Ce travail fait le point sur les methodes de transformation de domaines utilisees pour la simulation numerique d'ecoulements bi- et tridimensionnels. Dans ce cadre, nous avons developpe des methodes de transformation permettant de calculer des ecoulements etablis dans des filieres a section constante, mais quelconque, et des ecoulements complexes, pour des modeles rheologiques de type newtonien, non-newtonien purement visqueux et viscoelastique. A la difference des analyses proposees dans la litterature, nous considerons une transformation inconnue entre le domaine physique et un domaine transforme (de calcul) plus simple, analyse a laquelle se rattachent les methodes de tubes de courant. Plusieurs problemes ont ete abordes et resolus : 1) la simulation d'ecoulements etablis de fluides obeissant a des lois de comportement newtonienne, non-newtonienne purement visqueuse et viscoelastique integrale pour des conduites de sections complexes, pour lesquelles une approche par decomposition de domaines a ete mise en oeuvre. 2) le calcul d'ecoulements axisymetriques a surface libre inconnue correspondant a l'extrusion en sortie de filiere annulaire, pour un liquide newtonien. 3) la simulation de problemes d'ecoulements axisymetriques comportant des zones de singularite : surfaces avec transition adherence-glissement ou libres. Dans le contexte d'une analyse de tubes de courant, une formulation originale par elements finis utilisant la methode de galerkin a ete proposee pour les cas 2d et 3d. Les resultats, obtenus avec des elements d'approximation d'hermite sont conformes a ceux de la litterature, pour le cas newtonien et en accord avec les donnees experimentales sur un polyethylene lineaire de basse densite represente par une loi de comportement integrale.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Saleh, Susi. „Méthodes de simulation des erreurs transitoires à plusieurs niveaux d'abstraction“. Grenoble INPG, 2005. https://tel.archives-ouvertes.fr/tel-00009587.

Der volle Inhalt der Quelle
Annotation:
La miniaturisation croissante des composants électroniques accroît considérablement la sensibilité des circuits intégrés face aux fautes transitoires de type (SEU) ou (SET). De ce fait, l'analyse de la sensibilité face aux ces fautes transitoires des circuits combinatoires et séquentiels est une tâche essentielle aujourd'hui. Les méthodes analytiques de calcul probabiliste de génération des impulsions SET ou des SEU et de propagation et transformation en erreur, publiées dans la littérateur jusqu'à ce jour, ne sont pas complets car un certain nombre de paramètres ne sont pas pris en compte. Dans cette thèse, nous proposons une méthodologie de simulation de fautes transitoires multi-niveaux qui permettra une évaluation plus rapide et en même temps précise. Cette méthodologie est en fait une collection des méthodes de simulations, une pour chaque niveau d'abstraction (niveau physique, niveau transistor, et niveau portes logiques). Au niveau physique, nous utilisons la simulation physique au niveau composants ou portes logiques élémentaires qui consiste en la caractérisation de chaque type de transistor d'une technologie donnée face aux SET en prenant en compte plusieurs paramètre (l'énergie ou le LET de la particule, l'angle d'incidence et la localisation de l'impact sur le composant, et les dimensions des transistors heurté par la particule). Suite à cette caractérisation, une famille de courbes de courants sera obtenue pour chaque transistor et un domaine de valeurs de l'amplitude et la durée de l'impulsion de courant sera établi. La transformation des impulsions de courants obtenus au niveau physique en impulsions de tension est réalisée à travers des simulations électriques en prenant en compte l'impédance de sortie de chaque porte. Une famille de courbes de tension transitoire sera aussi établie pour chaque porte. Un modèle d'impulsion logique sera défini pour ces impulsions qui sera ensuite utilisé dans des simulations numériques, qui sont beaucoup plus rapides, et qui sont utilisées finalement afin de pouvoir analyser la sensibilité face aux fautes transitoires de type SET et SEU d'un circuit complexe. Les résultats de cette analyse seront utilisés afin de réaliser une cartographie de sensibilité d'un circuit complexe qui nous permet de déterminer les zones les plus sensibles d'un circuit étudié et éventuellement de décider d'un durcissement ponctuel des portes sensibles
The nowadays miniaturization of the electronic components increases considerably the sensitivity of the integrated circuits face to transient faults (SEU) or (SET). The analysis of the transient faults sensitivity for combinational logic and sequential circuits is an essential task today. The analytical methods based on probabilistic calculation of the generation of transient pulses SET or SEU, and of the propagation and the transformation of these transients faults into errors, published in the literature are not complete because a certain number of parameters are not taken into account. In this thesis, we propose a fast and accurate multi levels methodology to simulate transient faults. This methodology is a collection of simulation methods, a method for each level of abstraction (physical level, transistor level, and gate level). At the physical level, we use a physical simulation at the components level for any elementary logical gates which consists in the characterization of each type of transistor of a given technology face of SET by taking into account several parameter (the energy or the LET of the particle, the angle of incidence, the impact localization and the dimensions of the transistors where the particle strike occurs). After this characterization, a family of current curves is obtained for each transistor and a domain of the current amplitude values and the current pulses duration is established. The transformation of the current pulse obtained at the physical level into voltage pulses is done by electrical simulations by taking into account the output impedance of each gate. A family of transient voltage pulse curves is also established for each gate. Furthermore, a logical pulse model is defined for these pulses which will be then used in a numerical simulations, which are much faster, and which are finally used in the sensitivity analysis phase for complex circuit. The results of this analysis are used in order to realize a cartography of a complex circuit sensitivity which allow us to determine the most significant zones of a studied circuit and, if required, to decide a hardening solution of the sensitive gates
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

El, Haddad Rami. „Méthodes quasi-Monte Carlo de simulation des chaînes de Markov“. Chambéry, 2008. http://www.theses.fr/2008CHAMS062.

Der volle Inhalt der Quelle
Annotation:
Les méthodes de Monte Carlo (MC) sont des méthodes probabilistes basées sur l'utilisation des nombres aléatoires dans des simulations répétées afin d'estimer un paramètre. Leurs analogues déterministes sont appelées méthodes Quasi-Monte Carlo (QMC). Leur principe consiste à remplacer les points pseudo-aléatoires par des points quasi-aléatoires déterministes (ou points à discrépance faible). Dans cette thèse, nous proposons et analysons des algorithmes du type QMC pour la simulation des chaînes de Markov multidimensionnelles. Après avoir rappelé le principe et les propriétés des méthodes MC et QMC, nous introduisons quelques modèles financiers simples, qui serviront dans la suite pour tester l'efficacité des algorithmes proposés. Nous détaillons particulièrement des modèles où l'on connait la solution exacte, afin de pouvoir vérifier dans la suite la validité des méthodes d'approximation, et comparer leur efficacité. Dans un premier temps, nous nous intéressons à la simulation des chaînes de Markov à espace d'états discret de dimension S. Nous proposons un schéma itératif QMC permettant l'approximation de la distribution de la chaîne à tout instant. Ce schéma utilise une suite (T,S+1) en base B pour les transitions. De plus, il faut ordonner les copies de la chaine suivant leurs composantes successives à chaque itération. Nous étudions la convergence du schéma en faisant des hypothèses sur la matrice de transition. Nous validons l'étude théorique par des expériences numériques issues de la finance. Les résultats obtenus permettent d'affirmer que le nouvel algorithme est plus efficace que le schéma MC traditionnel. Nous nous intéressons ensuite à la simulation des chaînes de Markov à espace d'états multidimensionnel continu. Nous proposons un schéma QMC d'approximation de la distribution de la chaîne à tout instant. Il utilise le même algorithme de tri des états simulés que dans le cas discret. Nous étudions la convergence de l'algorithme dans le cas unidimensionnel puis multidimensionnel en faisant des hypothèses supplémentaires sur les transitions. Nous illustrons la convergence de l'algorithme par des expériences numériques; leurs résultats montrent que l'approche QMC converge plus rapidement que la technique Monte Carlo. Dans la dernière partie, nous considérons le problème de l'équation de diffusion dans un milieu hétérogène. Nous utilisons une méthode de marche aléatoire en faisant une correction des pas Gaussiens. Nous mettons au point une variante QMC de cette méthode, en adaptant les idées utilisées pour la simulation des chaines de Markov. Nous testons l'efficacité de l'algorithme en dimensions 1, 2 et 3 sur un problème de diffusion d'ions calcium dans un milieu biologique. Dans toutes les expériences, les résultats des calculs QMC sont de meilleure qualité que ceux des simulations MC. Finalement, nous faisons un bilan du travail effectué et nous proposons quelques perspectives pour des travaux futurs
Monte Carlo (MC) methods are probabilistic methods based on the use of random numbers in repeated simulations to estimate some parameter. Their deterministic versions are called Quasi-Monte Carlo (QMC) methods. The idea is to replace pseudo-random points by deterministic quasi-random points (also known as low-discrepancy point sets or sequences). In this work, we propose and analyze QMC-based algorithms for the simulation of multidimensional Markov chains. The quasi-random points we use are (T,S)-sequences in base B. After recalling the principles of MC and QMC methods and their main properties, we introduce some plain financial models, to serve in the following as numerical examples to test the convergence of the proposed schemes. We focus on problems where the exact solution is known, in order to be able to compute the error and to compare the efficiency of the various schemes In a first part, we consider discrete-time Markov chains with S-dimensional state spaces. We propose an iterative QMC scheme for approximating the distribution of the chain at any time. The scheme uses a (T,S+1)-sequence in base b for the transitions. Additionally, one needs to re-order the copies of the chain according to their successive components at each time-step. We study the convergence of the scheme by making some assumptions on the transition matrix. We assess the accuracy of the QMC algorithm through financial examples. The results show that the new technique is more efficient than the traditional MC approach. Then, we propose a QMC algorithm for the simulation of Markov chains with multidimensional continuous state spaces. The method uses the same re-ordering step as in the discrete setting. We provide convergence results in the case of one dimensional chains and then in the case of multidimensional chains, by making additional assumptions. We illustrate the convergence of the algorithm through numerical experiments. The results show that the new method converges faster than the MC algorithm. In the last part, we consider the problem of the diffusion equation in a spatially nonhomogeneous medium. We use a random walk algorithm, in conjunction with a correction of the Gaussian Steplength. We write a QMC variant of the algorithm, by adapting the principles seen for the simulation of the Markov chains. We test the method in dimensions 1, 2 and 3 on a problem involving the diffusion of calcium ions in a biological medium. In all the simulations, the results of QMC computations show a strong improvement over MC outcomes. Finally, we give some perspectives and directions for future work
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Dubos, Samuel. „Simulation des grandes échelles d'écoulements turbulents supersoniques“. Rouen, INSA, 2005. http://www.theses.fr/2005ISAM0007.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Perot, Thomas. „Quel est le niveau de détail pertinent pour modéliser la croissance d'une forêt mélangée ? Comparaison d'une famille de modèles et application aux peuplements mélangés chêne sessile - pin sylvestre“. Paris, AgroParisTech, 2009. http://tel.archives-ouvertes.fr/docs/00/43/25/73/PDF/ManuscritTheseTPerotVF.pdf.

Der volle Inhalt der Quelle
Annotation:
Face à l'intérêt grandissant pour les forêts mélangées, des d'outils et des modèles adaptés à leur gestion sont nécessaires. L'objectif de cette thèse est de montrer comment la construction et la comparaison de modèles ayant différents niveaux de détail peuvent nous aider à choisir le niveau le plus approprié pour modéliser la croissance d'un peuplement mélangé dans un contexte d'application donné. A partir de données récoltées dans des peuplements mélangés chêne sessile (Quercus petraea L. ) pin sylvestre (Pinus sylvestris L. ), nous avons construit une famille de modèles à différents niveaux de détail : un modèle arbre indépendant des distances (MAID), un modèle arbre dépendant des distances (MADD), trois modèles peuplement et un modèle intermédiaire entre le MAID et le MADD utilisant des distributions de voisinage. Pour que la comparaison de ces modèles soit pertinente, nous avons assuré une cohérence entre les modèles en utilisant plusieurs approches. Ces modèles nous ont permis d'acquérir des connaissances sur la croissance et la dynamique de ces forêts en particulier sur les interactions spatiales et temporelles entre le chêne et le pin. Ainsi le MAID a permis de montrer qu'il peut y avoir des phénomènes de compensation de croissance entre les deux espèces. Le MADD a permis de montrer que dans ces peuplements la compétition intraspécifique est supérieure à la compétition interspécifique. Un modèle peuplement obtenu à partir du MADD a permis d'étudier l'influence du taux de mélange sur la production. Pour évaluer la qualité prédictive des modèles, nous avons utilisé un jeu de données indépendant obtenu en partageant nos données avant la construction des modèles. Nous avons ainsi montré que le MAID était plus performant que le MADD pour prédire les accroissements individuels. Les modèles ont aussi été comparés sur des exemples d'applications mettant en œuvre des simulations à court ou moyen terme. La démarche proposée présente un intérêt aussi bien pour la compréhension du phénomène étudié que pour sa modélisation dans un but prédictif. En regroupant l'ensemble des résultats acquis, ce travail nous a permis d'apprécier la pertinence d'un type de modèle en fonction du contexte d'utilisation. Cette démarche très générale pourrait être appliquée à la modélisation d'autres processus comme la mortalité ou la régénération
Appropriate tools and models are needed for the management of mixed forests. The aim of this thesis is to show how the construction and the comparison of models with different levels of detail can help us to choose the most appropriate level to model the growth of a mixed stand. We developed a family of models at different levels of detail from data collected in mixed stands of sessile oak (Quercus petraea L. ) and Scots pine (Pinus sylvestris L. ) : a tree distance independent model (MAID), a tree distance dependent model (MADD), three stand models and an intermediate model bridging the MAID and the MADD. We ensured consistency between models using several approaches in order to make relevant comparisons. These models have given us some knowledge on the growth and dynamics of these forests, in particular on the spatial and temporal interactions between oaks and pines. Thus, we showed a compensatory growth phenomenon between the two species using the MAID. The MADD made it possible to show that, in these stands, the intraspecific competition was stronger than interspecific competition. A stand model developed from the MADD helped us to study the influence of mixing rate on production. To assess the quality of models predictions, we used an independent data set obtained by splitting our data. For example, we have shown that the MAID was more efficient than the MADD to predict individual increments. The models were also compared on examples of applications with short or medium term simulations. The proposed approach is of interest for both understanding the studied phenomenon and developing predictive tools. The different results of this work, allowed us to assess the relevance of a type of model for different contexts of use. This very general approach could be applied to the modeling of other processes such as mortality or regeneration
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Turati, Pietro. „Méthodes de simulation adaptative pour l’évaluation des risques de système complexes“. Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC032/document.

Der volle Inhalt der Quelle
Annotation:
L’évaluation de risques est conditionnée par les connaissances et les informations disponibles au moment où l’analyse est faite. La modélisation et la simulation sont des moyens d’explorer et de comprendre le comportement du système, d’identifier des scénarios critiques et d’éviter des surprises. Un certain nombre de simulations du modèle sont exécutées avec des conditions initiales et opérationnelles différentes pour identifier les scénarios conduisant à des conséquences critiques et pour estimer leurs probabilités d’occurrence. Pour les systèmes complexes, les modèles de simulations peuvent être : i) de haute dimension ; ii) boite noire ; iii) dynamiques ; iv) coûteux en termes de calcul, ce qu’empêche l’analyste d’exécuter toutes les simulations pour les conditions multiples qu’il faut considérer.La présente thèse introduit des cadres avancés d’évaluation des risques basée sur les simulations. Les méthodes développées au sein de ces cadres sont attentives à limiter les coûts de calcul requis par l’analyse, afin de garder une scalabilité vers des systèmes complexes. En particulier, toutes les méthodes proposées partagent l’idée prometteuse de focaliser automatiquement et de conduire d’une manière adaptive les simulations vers les conditions d’intérêt pour l’analyse, c’est-à-dire, vers des informations utiles pour l'évaluation des risques.Les avantages des méthodes proposées ont été montrés en ce qui concerne différentes applications comprenant, entre autres, un sous-réseau de transmission de gaz, un réseau électrique et l’Advanced Lead Fast Reactor European Demonstrator (ALFRED)
Risk assessment is conditioned on the knowledge and information available at the moment of the analysis. Modeling and simulation are ways to explore and understand system behavior, for identifying critical scenarios and avoiding surprises. A number of simulations of the model are run with different initial and operational conditions to identify scenarios leading to critical consequences and to estimate their probabilities of occurrence. For complex systems, the simulation models can be: i) high-dimensional; ii) black-box; iii) dynamic; and iv) computationally expensive to run, preventing the analyst from running the simulations for the multiple conditions that need to be considered.The present thesis presents advanced frameworks of simulation-based risk assessment. The methods developed within the frameworks are attentive to limit the computational cost required by the analysis, in order to keep them scalable to complex systems. In particular, all methods proposed share the powerful idea of automatically focusing and adaptively driving the simulations towards those conditions that are of interest for the analysis, i.e., for risk-oriented information.The advantages of the proposed methods have been shown with respect to different applications including, among others, a gas transmission subnetwork, a power network and the Advanced Lead Fast Reactor European Demonstrator (ALFRED)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Turinici, Gabriel. „Analyse des méthodes numériques de simulation et contrôle en chimie quantique“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 2000. http://tel.archives-ouvertes.fr/tel-00377187.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Venet, Cédric. „Méthodes numériques pour la simulation de problèmes acoustiques de grandes tailles“. Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2011. http://www.theses.fr/2011ECAP0019.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s’intéresse à la simulation acoustique de problèmes de grandes tailles. La parallélisation des méthodes numériques d’acoustique est le sujet principal de cette étude. Le manuscrit est composé de trois parties : lancé de rayon, méthodes de décomposition de domaines et algorithmes asynchrones
This thesis studies numerical methods for large-scale acoustic problems. The parallelization of the numerical acoustic methods is the main focus. The manuscript is composed of three parts: ray-tracing, optimized interface conditions for domain decomposition methods and asynchronous iterative algorithms
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Minjeaud, Sebastian. „Raffinement local adaptatif et méthodes multiniveaux pour la simulation d'écoulements multipĥasiques“. Phd thesis, Université Paul Cézanne - Aix-Marseille III, 2010. http://tel.archives-ouvertes.fr/tel-00535892.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est consacrée à l'étude de certains aspects numériques et mathématiques liés à la simulation d'écoulements incompressibles triphasiques à l'aide d'un modèle à interfaces diffuses de type Cahn-Hilliard/Navier-Stokes. La discrétisation spatiale est effectuée par éléments finis. La présence d'échelles très différentes dans le système suggère l'utilisation d'une méthode de raffinement local adaptatif. La procédure mise en place permet de tenir compte implicitement des non conformités des maillages générés, pour produire in fine des espaces d'approximation conformes. Nous montrons, en outre, qu'il est possible d'exploiter cette méthode pour construire des préconditionneurs multigrilles. Concernant la discrétisation en temps, notre étude a commencé par celle du système de Cahn-Hilliard. Pour remédier aux problèmes de convergence de la méthode de Newton utilisée pour résoudre ce système (non linéaire), nous proposons un schéma semi-implicite permettant de garantir la décroissance de l'énergie. Nous montrons l'existence et la convergence des solutions discrètes. Nous poursuivons ensuite cette étude en donnant une discrétisation en temps inconditionnellement stable du modèle complet Cahn-Hilliard/Navier-Stokes ne couplant pas fortement les deux systèmes. Nous montrons l'existence des solutions discrètes et, dans le cas où les trois fluides ont la même densité, nous montrons leur convergence. Nous étudions, pour terminer cette partie, diverses problématiques liées à l'utilisation de la méthode de projection incrémentale. Enfin, la dernière partie présente plusieurs exemples de simulations numériques, diphasiques et triphasiques, en deux et trois dimensions.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Marquez, Bernard. „Simulation des grandes échelles d'écoulements compressibles par des méthodes éléments finis“. Toulouse, INPT, 1999. http://www.theses.fr/1999INPT0184.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce travail est d'étendre un code industriel, résolvant les équations de Navier-Stokes stationnaires moyennées (RANS), à l'instationnaire puis à la simulation des grandes échelles (LES). Une approximation éléments finis en espace fondée sur la formulation Galerkin/Moindres Carrés est utilisée. L'intégration temporelle est assurée par un schéma explicite Runge Kutta à quatre pas. Les différentes formulaions spatiales et le schéma en temps sont décrits, analysés sur l'équation d'advection monodimensionnelle, puis validés sur des calculs d'amplification temporelle d'instabilités (couche de mélange et couche limite bidimensionnelles). Le modèle de Smagorinsky et une variante sélective sont implémentés. La validation des méthodes numériques et des différents modèles de sous-maille est effectuée sur des simulations de turbulence homogène isotrope et de couches de mélange temporelles tridimensionnelles à différents nombres de Reynolds. L'application finale est l'étude de l'effet d'un jet supersonique sur une couche de mélange plane confinée subsonique supersonique. Les résultats des différentes simulations des grandes échelles sont comparés à une expérience réalisée au CEAT de Poitiers ainsi qu'avec des simulations moyennées k-e.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Choquin, Jean-Philippe. „Simulation numérique d'écoulements tourbillonaires de fluides incompressibles par des méthodes particulaires“. Paris 6, 1987. http://www.theses.fr/1987PA066308.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Casarin, Roberto. „Méthodes de simulation pour l'estimation bayésienne des modèles à variables latentes“. Paris 9, 2007. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2007PA090056.

Der volle Inhalt der Quelle
Annotation:
Les modèles à variables latentes sont très utilisées en économétrie et statistique. Cette thèse se concentre sur l'utilisation des variables latentes dans la modélisation des mélanges des lois, dans l'analyse des séries temporelles et dans les modèles à temps continue. On suit une approche bayésienne de l'inférence fondée sur simulation. La partie recherche a été développée dans quatre chapitres. Le Chapitre 3 propose un modèle de mélange des lois alpha-stables qui prennent en compte, l'asymétrie, les queues épaisses et la multimodalité qui caractérisent les données financières. Le Chapitre 4 propose un modèle à volatilité stochastique à changements de régime avec des innovations du type queues épaisses pour le processus observable. Nous utiliserons une méthode bayésienne de filtrage par simulation, pour filtrer les processus latents et pour estimer les paramètres inconnus. Le Chapitre 5 traite l'estimation de paramètres et l'extraction de la volatilité en utilisant un nouvel algorithme SMC régularisé. Le Chapitre 6 traite l'inférence bayèsienne par Population de Monte Carlo, d'une équation différentielle stochastique, observée à temps discret
Latent variable models are now very common in econometrics and statistics. This thesis mainly focuses on the use of latent variables in mixture modelling, time series analysis and continuous time models. We follow a Bayesian inference framework based on simulation methods. In the third chapter we propose alfa-stable mixtures in order to account for skewness, heavy tails and multimodality in financial modelling. Chapter four proposes a Markov-Switching Stochastic-Volatility model with a heavy-tail observable process. We follow a Bayesian approach and make use of Particle Filter, in order to filter the state and estimate the parameters. Chapter five deals with the parameter estimation and the extraction of the latent structure in the volatilities of the US business cycle and stock market valuations. We propose a new regularised SMC procedure for doing Bayesian inference. In chapter six we employ a Bayesian inference procedure, based on Population Monte Carlo, to estimate the parameters in the drift and diffusion terms of a stochastic differential equation (SDE), from discretely observed data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Minjeaud, Sebastian. „Raffinement local adaptatif et méthodes multiniveaux pour la simulation d’écoulements multiphasiques“. Aix-Marseille 3, 2010. http://www.theses.fr/2010AIX30051.

Der volle Inhalt der Quelle
Annotation:
Ce manuscrit de thèse décrit certains aspects numériques et mathématiques liés à la simulation d’écoulements incompressibles triphasiques à l’aide d’un modèle à interfaces diffuses de type Cahn-Hilliard (les interfaces sont représentées par des zones d’épaisseur faible mais non nulle) couplé aux équations de Navier-Stokes. La discrétisation en espace est effectuée par approximation variationnelle de Galerkin et la méthode des éléments finis. La présence d’échelles très différentes dans le système (les épaisseurs d’interfaces étant très petites devant les tailles caractéristiques du domaine) suggère l’utilisation d’une méthode de raffinement local adaptatif. La procédure que nous avons mise en place, permet de prendre en compte implicitement les non conformités des maillages générés, pour produire in fine des espaces d’approximation éléments finis conformes. Le principe est de raffiner en premier lieu les fonctions de base plutôt que le maillage. Le raffinement d’une fonction de base est rendu possible par l’existence conceptuelle d’une suite emboîtée de grilles uniformément raffinées, desquelles sont déduites des relations “parents-enfants” reliant les fonctions de bases de deux niveaux successifs de raffinement. Nous montrons, en outre, comment exploiter cette méthode pour construire des préconditionneurs multigrilles. A partir d’un espace d’approximation éléments finis composite (contenant plusieurs niveaux de raffinement), il est en effet possible par “coarsening” de reconstruire une suite d’espaces emboîtés auxiliaires, permettant ainsi d’entrer dans le cadre abstrait multigrille. Concernant la discrétisation en temps, notre étude a commencé par celle du système de Cahn-Hilliard. Pour remedier aux problèmes de convergence de la méthode de Newton utilisée pour résoudre ce système (non linéaire), un schéma semi-implicite a été proposé. Il permet de garantir la décroissance de l’énergie libre discrète assurant ainsi la stabilité du schéma. Nous montrons l’existence et la convergence des solutions discrètes vers une solution faible du système. Nous poursuivons ensuite cette étude en donnant une discrétisation en temps inconditionnellement stable du modèle complet Cahn-Hilliard/Navier-Stokes. Un point important est que cette discrétisation ne couple pas fortement les systèmes de Cahn-Hilliard et Navier-Stokes, autorisant une résolution découplée des deux systèmes dans chaque pas de temps. Nous montrons l’existence des solutions discrètes et, dans le cas où les trois fluides ont la même densité, nous montrons leur convergence vers des solutions faibles. Nous étudions, pour terminer cette partie, diverses problématiques liées à l’utilisation de la méthode de projection incrémentale. Enfin, la dernière partie présente plusieurs exemples de simulations numériques, diphasiques et triphasiques, en deux et trois dimensions
This manuscript describes some numerical and mathematical aspects of incompressible multiphase flows simulations with a diffuse interface Cahn-Hillliard/Navier-Stokes model (interfaces have a small but a positive thickness). The space discretisation is performed thanks to a Galerkin formulation and the finite elements method. The presence of different scales in the system (interfaces have a very small thickness compared to the characteristic lengths of the domain) suggests the use of a local adaptive refinement method. The algorithm, that we introduced, allows to implicitly handle the non conformities of the generated meshes to produce conformal finite elements approximation spaces. It consists in refining basis functions instead of cells. The refinement of a basis function is made possible by the conceptual existence of a nested sequence of uniformly refined grids from which “parent-child” relationships are deduced, linking the basis functions of two consecutive refinement levels. Moreover, we show how this method can be exploited to build multigrid preconditioners. From a composite finite elements approximation space, it is indeed possible to rebuild, by “coarsening”, a sequence of auxiliairy nested spaces which allows to enter in the abstract multigrid framework. Concerning the time discretization, we begin by the study of the Cahn-Hilliard system. A semi-implicit scheme is proposed to remedy to convergence failures of the Newton method used to solve this (non linear) system. It guarantees the decrease of the discrete free energy ensuring the stability of the scheme. We show existence and convergence of discrete solutions towards the weak solution of the system. We then continue this study by providing an inconditionnaly stable time discretization of the complete Cahn-Hilliard/Navier-Stokes model. An important point is that this discretization does not strongly couple the Cahn-Hilliard and Navier-Stokes systems allowing to independently solve the two systems in each time step. We show the existence of discrete solutions and, in the case where the three fluids have the same densities, we show their convergence towards weak solutions. We study, to finish this part, different issues linked to the use of the incremental projection method. Finally, the last part presents several examples of numerical simulations, diphasic and triphasic, in two and three dimensions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Legoll, Frédéric. „Méthodes moléculaires et multi-échelles pour la simulation numérique des matériaux“. Paris 6, 2004. http://www.theses.fr/2004PA066203.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Faure, Frédéric. „Nouvelles méthodes pour la simulation numérique du soudage des structures élancées“. Paris 6, 2004. http://www.theses.fr/2004PA066111.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Fréret, Lucie Viviane Françoise. „Méthodes particulaires en vue de la simulation numérique pour la plasturgie“. Châtenay-Malabry, Ecole centrale de Paris, 2007. http://www.theses.fr/2007ECAP1058.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le contexte de simulation de procédés d'injection de thermoplastiques. L'objectif est de pouvoir simuler numériquement des écoulements de fluides à frontière libre avec possiblité de changement de phase. Plus précisement, nous nous sommes intéressés à des écoulements bidimensionnels incompressibles visqueux à l'aide de méthodes particulaires. L'inconsistance des formules discrètes des opérateurs aux dérivées partielles de la méthode MPS (Moving Particle Semi-implicit) est démontrée. En utilisant des techniques d'approximation sans maillages consistantes, proches des formulations MLS (Moving Least Square), on propose alors une méthode particulaire originale qui discrétise les équations de Navier-Stokes incompressible en formulation purement Lagrangienne. Pour la semi-discrétisation en temps, on utilise une méthode de projection standard. La méthode à pas fractionnaire résultante est constituée de trois étapes: une étape de prédiction du champ de vitesses et des positions des particules, une étape de corrections des positions des particules et une étape de correction du champ de vitesses. Une telle discrétisation conserve la répartition quasi-uniforme des particules et ne nécessite pas de génération ou destruction artificielle de particules. Un traitement numérique originale de la surface libre et du calcul de la tension de surface est proposé. Des résutats numériques comparés à ceux d'expériences sont présentés, montrant ainsi la capacité de la méthode à calculer des écoulements à frontière libre dans un cas mono-fluide. Dans une seconde partie, on présente une extension de notre méthode au cas bifluide en utilisant un modèle de mélange. Plusieurs résultats d'instabilités de Rayleigh-Taylor sont comparés à ceux obtenus par d'autres méthodes. En raison des limitations que présente un tel modèle, on s'intéresse alors à un modèle bifluide où chaque fluide est calculé. Ce dernier nécessite préalablement la discrétisation de l'opérateur à coefficients non constants div( a grad). Pour cela, on utilise une représentation intégrale et une formule de quadrature par points de Gauss. Le modèle numérique est une adaptation de la méthode à pas fractionnaire à trois étapes discutée dans la partie mono-fluide. Des résultats numériques très précis montrent la pertinence de l'approche
The framework of this thesis is the simulation of injection processes of thermoplastic materials. The aim is to simulate numerically fluid flows with free boundaries where transition of phase can occur. More precisely, in this work, we have considered bidimensionnal incompressible viscous flows with Lagrangian meshless methods. The lack of consistency of discetrized partial derivatives operator for the MPS method (Moving Particle Semi-implicit) is shown. By using approximated consistent meshless techniques close to MLS approximation (Moving Least Square), we then propose an original Lagrangian meshless method which discretize incompressible Navier-Stokes equations in a purely Lagrangian formulation. Concerning the semi-discretization in time, we use the classical projection method. The resultant fractionnal step method consists in three stages: a prediction step of position and velocity field, a correction step of position particles and a correction step of velocities field. Such a discretization keeps the particle repartition regular and do not need to create or destroy particles. An original numerical treatment to track or capture free surfaces and computation of surface tension force are proposed. We compare numerical results to experiments showing the capability of our method to calculate mono-fluid free surface flows. In a second part, we present a bi-fluid extension using a melt model. The Rayleigh-Taylor results are compared to these obtained by other methods. Because of the limitations of such model, we focus on a bifluid model where each fluid is calculated. This model needs first the non-constant coefficient operator div( a grad) to be discretized. We the use an integral representation ans a quadrature formulae with Gauss's points. The numerical model obtained is a previously three step method adaptation. Precise numerical results show the significance of the approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Rosiello, Immacolata. „Méthodes de simulation, analyse de la complexité, utilisation de modèles, interdisciplinarité“. Aix-Marseille 1, 2009. http://www.theses.fr/2009AIX10111.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est une réflexion épistémologique sur le rôle et les limites de la simulation dans les sciences exactes et dans les sciences sociales. Dans les sciences exactes, la simulation est désormais entérinée comme une pratique scientifique courante, qui s'étale du simple calcul numérique jusqu'à se positionner en vraie source d'investigation et de fabrication de modèles. Plus critique est la position de la simulation dans les sciences sociales, surtout quand elle se décline en mathématisation et calcul des phénomènes humains et économiques et dans la validation conséquente de ses résultats. Nous verrons que le cadre paradigmatique qui à la fois fonde et justifie le recours à la simulation dans les sciences sociales est celui de la complexité. Le chapitre final essaie de tracer le parcours historique des différents aspects de la simulation en économie et finance, là où le recours à la modélisation est constant et lourd de conséquences.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Zoghaib, Maria. „Étude et simulation de méthodes de refroidissement des bandes d'acier défilantes“. Paris, ENMP, 2010. http://www.theses.fr/2010ENMP0032.

Der volle Inhalt der Quelle
Annotation:
L'objectif principal de cette thèse est d'améliorer le processus de refroidissement des bandes d'acier dans les lignes continu de recuit et de galvanisation. Le processus de refroidissement dans ces lignes est d'un intérêt métallurgique majeur. Des capacités de refroidissement insuffisantes peuvent entrainer la production d'acier de qualité inadéquate. Premièrement, le refroidissement par jets de gaz impactant sur l'acier est étudié. Le transfert de chaleur par ce procédé est limité d'une part pas la consommation du ventilateur et d'autre part par els phénomènes instationnaire qui apparaissent au niveau de la plaque pour de vitesse de jets élevées. Ainsi, la configuration du système de soufflage ainsi que les propriétés du gaz refroidissant sont analysés afin d'augmenter le taux de refroidissement en maintenant la consommation énergétique au plus bas. Une configuration optimale est ainsi définie. Par la suite, un modèle numérique est développé pour simuler l'interaction fluide-structure à l'origine des oscillations de la plaque. Ce modèle a permis de comparer des jets obliques à des jets impactant perpendiculairement. La configuration oblique confère plus de stabilité. Cependant, les taux de refroidissement maximaux par impact de jets ne sont pas suffisants pour obtenir des qualités d'acier spécifiques. C'est pour cela qu'une technique de refroidissement plus efficace basée sur le transfert de chaleur par ébullition est introduite. En effet, en raison du changement de phase qui se produit, des flux élevés de chaleur sont dissipés pour des vitesses d'impact minimes. Et, afin de contourner les réactions d'oxydation avec l'eau, un autre liquide à changement de phase est choisi pour le refroidissement, c'est le Pentane. Pour un refroidissement homogène et des économies du débit de fluide, le refroidissement par pulvérisation de gouttelettes (spray) est utilisé. Ainsi, un banc d'expérimentations est mis en place pour caractériser les échanges thermiques d'un spray de Pentane à température de surface élevée. L'effet des différents paramètres hydrodynamiques du spray sont étudiées et une corrélation est proposée. Elle permet de prédire le flux de chaleur évacué par un spray de pentane en fonction de la température de surface et des propriétés hydrodynamiques du spray. La corrélation est par la suite implémentée afin de prédire le taux refroidissement d'une tôle d'acier défilant dans une section de refroidissement par spray de pentane. Les performances de cette dernière sont par la suite comparé à un refroidissement par impact de jet pour le même cahier de charge. Le refroidissement par spray de pentane confère non seulement de meilleurs taux de refroidissement mais optimise aussi les consommations d'énergie
The main scope of this dissertation is to ameliorate the cooling process of the steel strips in continuous annealing and galvanizing lines. Cooling in continuous annealing and galvanizing lines is of great metallurgical interest. Insufficient cooling capacity can result in inadequate steel grades. Cooling by impinging gas jets over the steel surface is first investigated. The heat transfer rates of this process are limited on one side by the blowing device power consumption and on the other by the occurring non stationary phenomena for high impingement velocities. On one side, the blowing device configuration and blown gas properties are analyzed in order to increase the cooling rates while keeping the power consumption at its lowest. The study is undertaken throughout literature, experimental measurements, and numerical results. An optimized configuration is defined. On the other, a numerical model is developed to simulate the fluid-structure interaction that generates the detrimental oscillations of the strip. A configuration of oblique jet impingement is compared to normal impingement. It was proven to confer more stability. However, the maximum cooling rates reached by gas convection are insufficient regarding the cooling rates to obtain special steel grades. A more efficient technique based on boiling heat transfer is investigated. Due to phase change that occurs in boiling heat transfer, high heat fluxes are dissipated for small flow velocities. In order to sidestep the oxidation problems encountered with water, another liquid coolant is chosen, Pentane. For homogenous cooling patterns and savings in flow requirements, spray nozzles are used to impinge Pentane over the hot surface. An experimental bench is then set-up to characterize the cooling rates of a pentane spray for high surface temperature, i. E. Film boiling regime. The effect of the spray hydrodynamic parameters on the heat transfer process is analyzed and a correlation is developed. T he correlation predicts the evacuated heat flux from the hot surface as a function of the surface temperature and spray hydrodynamic parameters. The developed correlation is implemented in a simulation model in order to predict the cooling rate of a Pentane spray cooling section. The latter is then compared to gas jet cooling section for the same terms of reference. Aside from yielding higher cooling rates, Pentane spray cooling results in savings in power consumption
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Daubas, Bruno. „Modélisation et simulation des procédés continus et discontinus“. Toulouse, INPT, 1994. http://www.theses.fr/1994INPT023G.

Der volle Inhalt der Quelle
Annotation:
L'auteur presente une architecture generale de simulateur de procedes chimiques continus et discontinus. Une etude des problemes generiques poses par les ateliers discontinus est exposee. Apres avoir mis en evidence l'interet de decoupler le modele mathematique d'un procede discontinu en modele discret et modele continu, les points suivants sont abordes: ? le choix d'un modele global de la partie discrete du procede: le reseau de petri. Un algorithme de creation automatique d'un rdp a partir des donnees du procede est decrit. L'outil rdp dont l'utilisation dans ce domaine de la simulation est nouvelle, fait l'objet d'une description detaillee assez exhaustive. ? les strategies de modelisation et de simulation de la partie continue sont adaptees aux contraintes posees par le dialogue avec le rdp, d'une part, et avec l'integrateur d'autre part. Le simulateur est presente a travers l'etude de deux exemples qui prouvent les capacites mettant en valeur l'interet des resultats fournis par un tel outil
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Multon, Stéphane. „Évaluation expérimentale et théorique des effets mécaniques de l'alcali-réaction sur des structures modèles“. Marne-la-Vallée, 2003. http://www.theses.fr/2003MARN0181.

Der volle Inhalt der Quelle
Annotation:
L'importance du nombre d'ouvrages atteints d'alcali-réaction en France a conduit le Laboratoire Central des Ponts et Chaussées (LCPC) et Electricité de France (EDF) à développer une vaste étude expérimentale afin de calibrer et valider les méthodologies de re-calcul d'ouvrages atteints et pouvoir répondre aux questions concernant la pérennité, la sécurité et l'aptitude au service des structures dégradées par cette pathologie. L'étude de la bibliographie concernant le développement de cette réaction chimique dans les bétons et ses effets sur les structures, a conduit à définir un programme ambitieux pour mesurer précisément le développement de l'alcali-réaction dans six structures modèles, en caractérisant notamment l'effet de deux paramètres majeurs : les apports d'eau et les contraintes. A l'occasion de ce programme, trois moyens de mesures innovants nécessaires aux suivis hydrique et mécanique de ces structures ont été conçus et qualifiés : -un banc de pesage, afin de mesurer les variations de masse globale de poutres de 900 kg avec une précision de 10 g, -un banc de gammadensimétrie mobile, pour déterminer des profils de variation relative de masse dans leur hauteur, -des extensomètres à corde vibrante sans raideur, de différentes bases de mesure, pour mesurer leurs déformations locales et globales. Un nombre important de mesures "classiques" a également été réalisé, tant sur les poutres modèles que sur des éprouvettes. Cette étude a permis de constituer une banque de données importante, utilisable par de nombreux acteurs du Génie Civil puisqu'elle concerne les déformations de structures endommagées par l'alcali-réaction mais également les transports hydriques dans des structures de béton et les déformations de structures en bétons non atteints d'alcali-réaction. Ce suivi a apporté de nouveaux enseignements directement utilisables pour l'expertise et l'évaluation de la dégradation des ouvrages atteints concernant : -l'évolution des caractéristiques mécaniques d'un béton réactif représentatif de celui d'ouvrages d'art français, -la méthodologie de l'essai d'expansion résiduelle, -les effets d'un gradient d'humidité sur le comportement de structures en béton, -les effets d'apports d'eau tardifs sur le comportement d'ouvrages atteints, -l'influence de l'état de contraintes sur l'amplitude et la cinétique des expansions dues à l'alcali-réaction, que ces contraintes mécaniques soient dues au fonctionnement de l'ouvrage, à la présence d'armatures, à des conditions hydriques variables, -et finalement, l'impact de cette pathologie sur la résistance mécanique des structures atteintes
A large scale experimental program has been carried out at the Laboratoire Central des Ponts et Chaussées (LCPC), with Electricité de France (EDF) as a partner, in order to validate methodologies of mechanical reassessment of real structures damaged by Alkali-Silica Reaction (ASR) and thus answer to the needs of owners of civil engineering structures (bridges, dams, pavements). The final aim is to improve calculation tools in order to determine the evolution of ASR affected structures. Major features of this study were to point out the water driving effect and the compressive stresses consequences on swellings due to ASR. Thus, the hydro-chemo-mechanical behaviour of six instrumented laboratory structures has been monitored during a two years experimentation. Three specific devices have been designed to achieve the numerous measurements, in order to evaluate water movements in concrete and structural behaviours of the six structures : -the weighing device allows to measure the mass variations of the 900 kg beams, with a 10 g accuracy, -the gammadensitometry equipment is used to determine the relative mass variations along the height of the beams, -specific stiffness vibrating wire sensors achieve deformation measurements in the beams. Other current or improved techniques have been also used in order to complement the characterisation of the behaviour of the beams, and to quantify chemo-mechanical data related to the two concrete mixtures during two years. This laboratory experimental survey has collected numerous results to document both moisture and chemo-mechanical deformations, which builds a useful data bank in order to validate models. At last, measurements have increased knowledge useful for expert evaluation of ASR-affected structures about : -mechanical properties evolution of concrete mixture damaged by ASR, -methodology of residual expansion tests, -effects of moisture gradient in ASR-damaged structures, -consequences of late water supply on ASR progress in structures already damaged, -range and time-evolution of ASR swellings under specific stress states, due to mechanical loads, reinforcement or various environmental conditions, and, at last, the effect of this chemical reaction on the mechanical strength of damaged structures
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Di, Benedetto Hervé. „Modélisation du comportement des géomatériaux : application aux enrobés bitumineux et aux bitumes“. Grenoble 1, 1987. http://www.theses.fr/1987GRE10096.

Der volle Inhalt der Quelle
Annotation:
Developpement d'un modele rheologique tenant compte de la viscosite et de la temperature, dans le cadre de la mecanique des milieux continus. Etude experimentale par un appareil triaxial de revolution et un appareil original de torsion compression, confinement d'eprouvette creuse, pour un enrobe et un bitume. Calibration du modele et comparaisons theorie-experience sur chemins de sollicitation homogenes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Dascalu, Daniel. „Méthodes probabilistes pour la modélisation de la maintenance préventive“. Compiègne, 2002. http://www.theses.fr/2002COMP1386.

Der volle Inhalt der Quelle
Annotation:
Cette thèse représente une contribution dans les domaines de fiabilité et de maintenance de systèmes techniques, en particulier dans le domaine de maintenance préventive. Choisir une politique de maintenance pour une installation complexe représente une tâche difficile, avec un effet considérable sur la qualité et le coût de fonctionnement des installations larges, sur les conditions environnementales aussi. Ce manuscrit aide le décideur à faire le choix d’une politique de maintenance, de mise en œuvre la méthodologie et de calculer la performance de système. La thèse contient six chapitres. Le chapitre 1 présente l’histoire de la maintenance et les définitions principales, une classification des politiques de maintenance et les facteurs de décision. Le chapitre 2 présente les méthodes de maintenance les plus importantes et les modèles mathématiques. Le chapitre 3 présente les politiques de maintenance classiques pour les systèmes complexes et l’algorithme nécessaire pour la mise en œuvre en utilisant la théorie de processus stochastiques semi-Markov. Le chapitre 4 présente une politique de maintenance nouvelle, plus réaliste. L’aspect innovant de cet algorithme est le fait qu’il tienne compte des aspects pratiques des actions de maintenance. Le chapitre 5 présente une méthode complètement nouvelle, qui permet de quantifier les actions de maintenance. Le principal avantage est qu’il n’utilise aucune hypothèse irréaliste pour obtenir des résultats concrets pour la performance du système. En addition, l’algorithme permet de calculer l’efficience d’une méthode de maintenance donnée ou de comparer différentes méthodes de maintenance sur la même base. Finalement, le chapitre 5 de Conclusion présente l’importance de la maintenance préventive pour le fonctionnement des installations techniques, les avantages qui résultent en utilisant des procédures automatiques de maintenance et les directions nouvelles dans le domaine de modélisation de la maintenance.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Nomine, Jean-Philippe. „Etude d'outils de simulation du comportement de robots“. Paris 6, 1991. http://www.theses.fr/1991PA066596.

Der volle Inhalt der Quelle
Annotation:
Ce travail est une contribution à l'étude du comportement des robots par la simulation. Nous proposons des outils pour le test de composants logiciels contribuant à faire d'un robot une machine qui agit et perçoit dans un environnement. Différentes représentations du robot et de son environnement sont articulées:―des composants d'émulation du robot fonctionnellement constitué de dispositifs et de composants logiciels pour l'action et la perception; le robot est alors vu comme acteur d'un scénario;―un noyau de simulation qui gère le déroulement d'un scénario dans un décor virtuel, en répondant aux requêtes d'action et de perception émulées. Le noyau de simulation utilise des représentations de l'environnement, de la partie matérielle du robot et de lois physiques régissant leurs évolutions et leurs interactions. Des maquettes de tels outils sont appliquées à l'étude de composants logiciels pour deux applications robotiques: un interpréteur pour l'exécution de tâches de découpe laser par un robot à cinq axes, et un planificateur réactif de missions d'un engin mobile. Nous spécifions ensuite des outils plus généraux, développés en langage Ada. Une version simplifiée est appliquée l'émulation/simulation d'un robot mobile doté d'un composant logiciel de navigation réflexe.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Gabella-Latreille, Céline. „Le modele quinquin-fret : un modele de simulation a l'horizon 2015 des flux nationaux de transport de marchandises“. Lyon 2, 1997. http://www.theses.fr/1997LYO22024.

Der volle Inhalt der Quelle
Annotation:
Le modele quinquin fret constitue un outil d'aide a la decision. Il permet d'evaluer exante les consequences a long terme des mesures de politique des transports envisageables par les pouvoirs publics ou relevant de la strategie commerciale de la sncf. Le potentiel transportable national des modes routiers, ferroviaires et fluviaux peut ainsi etre simule a l'horizon de long terme selon diverses hypotheses liees a la croissance industrielle et aux parametres de competivite inter-nodale
The quinquin fret model is an instrument helping the decision making. It allows is evaluate ex-ante the long term effects of transport policies measures expected by public authorities as to the sncf. The national ton kilometre obtained by road, transport, rail transport or inland navigation can be simulated at a long term toking into account different asseptions related to industrial growth and to modal split factors
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Bourgeois, Timothée. „Effets des perturbations anthropiques sur la biogéochimie dans l'océan côtier à l'échelle globale“. Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV015.

Der volle Inhalt der Quelle
Annotation:
L'océan côtier subit la convergence de nombreuses perturbations anthropiques, avec le changement climatique en première ligne. Le réchauffement, l'acidification de l'océan, l'eutrophisation et la désoxygénation se combinent en menaçant les écosystèmes côtiers et les activités humaines associées. Malheureusement, la très forte hétérogénéité spatiale et temporelle de l'océan côtier limite la compréhension des processus biogéochimiques impliqués et leurs réponses face aux perturbations anthropiques. Les bases de données actuelles d'observations côtières sont encore insuffisantes et les modèles biogéochimiques océaniques globaux ont longtemps été inadaptés à l'étude de l'océan côtier global. En effet, la résolution spatiale de ces modèles était trop grossière pour résoudre de manière pertinente les processus de petites échelles. L'augmentation de la puissance de calcul des supercalculateurs permet l'utilisation de grilles de modèle plus fines adaptées à l'étude de l'océan côtier. Dans cette thèse, nous proposons d'étudier l'évolution au cours des dernières décennies de la biogéochimie de l'océan côtier à l'échelle globale à l'aide du modèle couplé physique-biogéochimie NEMO-PISCES. Après une évaluation de la représentation globale de la biogéochimie côtière et du cycle du carbone côtier dans notre modèle océanique, nous estimons le rôle actuel de l'océan côtier dans l'absorption océanique de carbone anthropique et nous étudions l'impact de la perturbation anthropique des apports fluviaux sur la biogéochimie côtière. En utilisant 3 grilles de résolutions spatiales différentes (200 km, 50 km et 25 km), il a été estimé que l'utilisation de la grille de 50 km représente le meilleur compromis entre les trois résolutions testées et que le passage à 25 km ne montre pas d'améliorations significatives des champs biogéochimiques côtiers évalués. Après cette première évaluation, le puits de carbone anthropique de l'océan côtier a été estimé pour la première fois à partir d'un modèle 3D global. L'océan côtier absorberait ainsi seulement 4,5 % du carbone anthropique absorbé par l'océan global pour la période 1993-2012 alors qu'il représente 7,5 % de la surface océanique globale. L'absorption côtière est réduite par l'export limité du carbone anthropique vers l'océan ouvert ne permettant pas de réduire la concentration moyenne de carbone anthropique des eaux côtières au niveau de celle de la couche de mélange de l'océan ouvert. Enfin, les effets de la perturbation anthropique des apports fluviaux sur la biogéochimie côtière ont été jugés limités quant intégrés à l'échelle côtière globale. Cependant, ces perturbations sont très contrastées régionalement. La mer du Nord présente des variations biogéochimiques mineures du fait de la tendance locale modérée appliquée aux apports fluviaux en nutriments, comparée à la mer de Chine de l'Est où la forte augmentation des apports fluviaux provoque d'importants phénomènes de désoxygénation et d'acidification
The coastal ocean suffers from the convergence of multiple anthropogenic stressors with climate change at the forefront. Combined stresses from global warming, ocean acidification, eutrophication and deoxygenation threaten coastal ecosystems and thus their services that humans rely on. Unfortunately, the coastal ocean's large spatiotemporal heterogeneity limits our understanding of the biogeochemical processes involved and their responses to anthropogenic perturbations. The current database of coastal observations remains insufficient, and global biogeochemical ocean models have long been inadequate to the study of the global coastal ocean. Indeed, the spatial resolution of these models has been too coarse to resolve key small-scale coastal processes. However, continual improvements in computational resources now allow global simulations to be made with sufficiently high model resolution that begins to be suitable for coastal ocean studies. In this thesis, we propose to study the evolution of the coastal ocean biogeochemistry at the global scale over recent decades using higher resolution versions of the global physical-biogeochemical model NEMO-PISCES. After evaluating of the global representation of the coastal biogeochemistry in this ocean model, we estimate the current role of the coastal ocean in the ocean uptake of anthropogenic carbon and we study the impact of the anthropogenically driven changes in riverine inputs on the coastal biogeochemistry. From simulations made at 3 different spatial resolutions (200 km, 50 km, 25 km), we esteem that the 50-km model grid offers the best compromise between quality of results and computational cost. The upgrade to 25 km does not appear to provide significant improvement in model skill of simulating coastal biogeochemical fields. After evaluating the model, we provide an estimate of the coastal-ocean sink of anthropogenic carbon, the first study to do so with a global 3-D model. In our simulation, the coastal zone absorbs only 4.5% of the anthropogenic carbon taken up by the global ocean during 1993-2012, less than the 7.5% proportion of coastal-to-global-ocean surface areas. Coastal uptake is weakened due to a bottleneck in offshore transport, which is inadequate to reduce the mean anthropogenic carbon concentration of coastal waters to the average level found in the open-ocean mixed layer. Finally, the anthropogenic perturbation in riverine delivery of nutrients to the ocean has limited impact on the coastal carbon cycle when integrated across all coastal regions, but locally it can induce sharp biogeochemical contrasts. For example, the North Sea shows minor biogeochemical changes following the moderate local trend in nutrient riverine inputs, which is in dramatic contrast to the East China Sea where extensive deoxygenation and acidification are driven by sharp increases in riverine nutrient inputs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Desbenoit, Brett. „Modélisation et simulation de scènes naturelles complexes“. Lyon 1, 2006. http://www.theses.fr/2006LYO10214.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous abordons le problème de la modélisation de scènes naturelles réalistes. Nous nous sommes plus particulièrement intéressés à la modélisation des détails et à leur répartition. Ces deux aspects jouent un rôle fondamental sur le réalisme des scènes virtuelles. L'approche que nous proposons dans cette thèse repose sur la définition de trois éléments clés : un atlas de formes élémentaires, un algorithme de dispersion et un algorithme de propagation. L'atlas est composé des briques de bases utilisées pour la génération de la géométrie des détails. L'algorithme de propagation, quant à lui, décrit comment ces éléments vont se combiner pour former l'objet final. Enfin, l'algorithme de dispersion définit leur répartition dans la scène. L'approche que nous décrivons permet également de prendre en compte les caractéristiques de l'environnement lors des étapes de placement et de propagation. Nous avons appliqué cette approche à trois éléments que l'on rencontre couramment dans la nature : les lichens, les feuilles et les fissures
In this thesis, we address the modelling realistic natural sceneries. We focus on the modelling of details and their distribution in a complex scene. Details have a great impact over the overall realism of the final scene. Our approach consists in modeling details such as mushrooms, lichens, leaves or fractures and storing them in an atlas of shapes. Those details are distributed in the scene according to specific physically and biologically based dispersion and propagation algorithms, which are controlled by the parameters of the environment such as the wetness, the temperature or the amount of direct and indirect lighting. Our approach enables us to add a vast variety of details without the burden of editing them by hand
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Lecocq, Pascal. „Simulation d'éclairage temps réel par des sources lumineuses mobiles et statiques : outils pour la simulation de conduite“. Université de Marne-la-Vallée, 2001. http://www.theses.fr/2001MARN0122.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Kadi, Imène Yamina. „Simulation et monotonie“. Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0029.

Der volle Inhalt der Quelle
Annotation:
Les travaux de cette thèse portent sur l'apport de la monotonie sur les méthodes de simulations. Dans un premier temps, nous nous intéressons à l'étude des différentes notions de monotonie utilisées dans la modélisation stochastique, en essayant de définir les relations qui existent entre elles. Trois concepts ont été définis dans ce domaine: la monotonie stochastique basée sur la comparaison stochastique, la monotonie réalisable et enfin, la monotonie événementielle utilisée dans la simulation parfaite. Cette étude a permis d'utiliser les propriétés de monotonie stochastique dans le cadre de la simulation parfaite monotone. D'un autre coté, nous avons proposé des codages monotones inversibles pour des systèmes dont la représentation naturelle est non monotone. Ce codage permet d'accélérer les simulations monotones et a trouvé son application dans la simulation de burst optiques. Un autre travail a été réalisé, cette fois-ci, dans le domaine de la simulation parallèle, il consiste à utiliser les propriétés de monotonie des systèmes simulés afin de mieux paralléliser le processus de simulation. Ce qui devrait produire une accélération conséquente des simulations
The work of this thesis concern the contribution of the monotony in simulation methods. Initially, we focus on the study of different monotonicity notions used in stochastic modeling, trying to define the relationships between them. Three concepts have been defined in this field: the stochastic monotonicity based on stochastic comparison, the realizable monotony and finally the events monotony used in the perfect simulation. This study allowed us to use the stochastic monotonicity properties under the monotone perfect simulation. On the other hand, we have proposed monotone invertible encodings for systems whose natural representation is not monotone. This encoding allows to accelerate monotonous simulations and found its application in the simulation of optical burst. Another work was done in the field of parallel simulation, it use monotonicity properties of simulated systems to better parallelize the simulation process. This should produce a substantial acceleration in simulations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Sanchez, Viera Talia. „Prédiction de comportements toxiques à partir des messages sur les réseaux sociaux“. Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66590.

Der volle Inhalt der Quelle
Annotation:
L’objectif de ce mémoire est d’explorer trois différentes techniques pour prédire la toxicité chez les utilisateurs des communautés en ligne. Notre motivation principale est d’aider les modérateurs de ces communautés à concentrer leurs efforts sur les utilisateurs les plus susceptibles d’écrire des messages toxiques, et éviter ainsi de gaspiller du temps et des ressources à surveiller toute la communauté. Nous avons d’abord créé un modèle mathématique capable de prédire les cinq traits de personnalité du modèle OCEAN (Ouverture, Conscienciosité, Extraversion, Agréabilité et Neuroticisme) et les trois traits de la Triade Noire (Narcissisme, Machiavélisme et Psychopathie)d’un utilisateur à partir de son style d’écriture et de son utilisation du vocabulaire. Nos expériences avec ce modèle sur les communautés de Twitter et Reddit ont démontré qu’il existe bien une relation entre la personnalité d’un utilisateur et le niveau de toxicité de ses messages. Particulièrement, nous avons constaté que les utilisateurs avec des valeurs élevées de narcissisme, de machiavélisme et de psychopathie et faibles valeurs de conscienciosité et agréabilité ont plus tendance à écrire des messages toxiques. Dans une deuxième étape, nous appliquons des algorithmes de partitionnement dans l’espace des traits de personnalité et dans l’espace des caractéristiques du langage. Nous avons observé qu’il est possible de détecter des groupes d’utilisateurs potentiellement risqués à surveiller sans avoir besoin de créer un profile pour chaque utilisateur. Finalement, nous avons créé un modèle de régression pour estimer le niveau de toxicité des utilisateurs en fonction de leurs attributs linguistiques. Nous avons observé que les utilisateurs prédits d’avoir les niveaux de toxicité plus élevés par notre régression sont également ceux qui ont des traits de Triade Noire très élevés selon notre modèle de personnalité.
The objective of this study is to explore three different techniques to predict toxicity online community users. Our main motivation is to help the moderators of these communities to focus their efforts on users who are more likely to write toxic messages, and thus avoid wasting time and resources by monitoring the entire community. First, we created a mathematical model capable of predicting the five personality traits of the OCEAN model (Openness, Conscientiousness, Extraversion, Agreeableness and Neuroticism) and the three traits of the Dark Triad (Narcissism, Machiavellianism and Psychopathy) for auser, based on their writing style and choice of vocabulary. The experiments we performed with this model on users of the Twitter and Reddit communities have shown that there is a relationship between a user’s personality and the level of toxicity of their messages. In particular, we found that users with high values of narcissism, Machiavellianism and psychopathy andlow values of conscientiousness and agreeableness were more likely to write toxic messages. For our second technique, we applied clustering algorithms on the predicted personality traits andon the observed language characteristics. This allowed us to show that it is possible to detect clusters of potentially risky users without having to create a profile for each user. Finally, we created a regression model to estimate the level of toxicity of users based on their linguistic attributes alone. We observed that the users predicted to have higher toxicity levels by our regression model are also those who have a very high value of Dark Triad traits according to our personality model.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie