Tesi sul tema "Articulations – Simulation, Méthodes de"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Articulations – Simulation, Méthodes de.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Articulations – Simulation, Méthodes de".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Bourgeteau, Béatrice. "Modélisation numérique des liaisons élastiques en caoutchouc de la liaison au sol automobile destinée à la simulation multi-corps transitoire". Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2009. http://www.theses.fr/2009ECAP0035/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les articulations en caoutchouc naturel sont des éléments indispensables et nombreux dans une liaison au sol automobile afin d'assurer le filtrage des vibrations. Leur comportement non-linéaire, notamment visco-élastique et hystérétique engendrent cependant des phénomènes parfois indésirables ou imprévus qui peuvent impacter la dynamique du véhicule. Ce travail a permis de modéliser l'ensemble des comportements d'une articulation en caoutchouc grâce à un nouveau modèle, le modèle STVS ( Standard Triboelastic Visco Solid) inspiré des travaux sur le génie parasismique et notamment du modèle STS (Standard Triboelastic Solid) de V. Coveney. L'identification d'un tel modèle non-linéaire a été envisagée de différentes façons : empirique, d'après des données fréquentielles. Les bases d'une identification d'après des données temporelles sont également posées. L'introduction d'un modèle d'articulation identifié sur des mesures dans une simulation transitoire multi-corps de liaison au sol d'un véhicule permet de mettre en évidence des phénomènes qui jusqu'à présent n'étaient pas représentés par une simple élasticité, comme des effets de relaxation des articulations lors d'un échelon d'angle au volant, ou l'impact des différentes amplitudes de sollicitations
Rubber bushings are necessary elements to filtrate undesirable vibrations in vehicle chassis. They are numerous and their non linear behaviour like viscoelasticity or hysteresis generate phenomenon which can influence the vehicle dynamics. This study describes a new model for rubber bushings, representative for all their temporal mechanical behaviours. This model Is called STVS ( Standard Triboelastic Visco Solid). The identification of such a non-linear temporal model has been studied through different viewpoints : empirical identification, identification based on frequency data and the grounds for a temporal dat based identification have been described. The introduction of such an identified rubber bushing model in a multi-body simulation of a vehicle chassis, unables us to point out phenomenon which could not be evidenced through a simple elasticity modelling : for instance, relaxation in bushings during a wheele angle sollicitation or the impact of different sollicitation amplitudes on the response of the bushing
2

Charvet, Quemin Françoise. "Synthèse modale des systèmes articulés en grands déplacements". Paris 6, 1990. http://www.theses.fr/1990PA066076.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De nouveaux impératifs de légèreté et de plus grande mobilité ont amené les roboticiens à concevoir des robots à composants flexibles, ouvrant par là-même un nouveau champ d'investigations dans la modélisation dynamique des robots. Le propos de ce travail est la construction en vue de simulations numériques d'un modèle dynamique des robots souples. L'étude porte sur des déformations linéaires et s'appuie sur la décomposition des déplacements en deux contributions: une contribution de corps rigide (pouvant contenir de grandes rotations) et une contribution de corps flexible. Nous avons associé au traitement du problème une méthode de synthèse modale qui utilise les modes propres libres de chaque sous-structure pour modéliser leur déformabilité, et une famille de modes d'ensemble pour représenter leurs mouvements de corps rigide. La méthode a été implantée dans un code de calcul par éléments finis, Castem2000, et a été appliquée à la prédiction du mouvement d'un bras robot souple asservi.
3

Payen, Fabrice. "Contribution au développement d'un modèle généralisé decaractérisation du comportement en flexion des profilés à parois minces". Valenciennes, 1996. https://ged.uphf.fr/nuxeo/site/esupversions/21c724a0-cf3e-4145-9c68-96cad53303fd.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En phase de préconception, il est indispensable d'avoir accès à une méthodologie simplifiée de dimensionnements des composants structuraux à parois minces soumis à des chargements de compression et de flexion. La caractéristique d'effondrement est déterminée à partir de modèles cinématiques. La compression a fait l'objet de travaux précédents. Nous nous intéressons ici au chargement de flexion. La littérature fait apparaitre quelques modèles limités à certains types de sections. Du fait de la diversité des géométries, nous avons entrepris le développement d'un modèle cinématique en flexion généralisé aux profilés à section arbitraire fermée ou ouverte. La première étape de notre démarche a pour objectif une description rigoureuse de la phase précédant l'effondrement, avec le calcul du mode critique de voilement et du moment maximum pour lequel nous distinguons les flambements élastique et plastique. La deuxième étape consiste à déterminer la réponse de post-effondrement où le moment chute et conduit à la ruine totale de la structure. Les composantes de compression et de flexion intervenant en termes de couplage, l'originalité a été de superposer un modèle en compression et un modèle en flexion, et d'extraire cinq mécanismes cinématiques de base représentatifs de toutes les configurations de pliage. Pour le calcul de la réponse en flexion, la section est décomposée en un ensemble de plaques reliées par des conditions aux limites. Le comportement de chaque plaque dépend de sa position par rapport à la fibre neutre et du mode de voilement associé qui est utilisé pour sélectionner le mécanisme cinématique. A chaque pas d'angle de pliage un bilan énergétique est pratiqué. Apres assemblage global de la section, nous calculons la caractéristique instantanée d'effondrement. Enfin, le modèle généralisé en flexion est confronté à des résultats expérimentaux ainsi qu'a des simulations numériques par éléments finis
For the pre-design stage, we use a simplified method to dimension the thin-walled components of the frame subject to bending or compressive loads. The collapse behaviour is given by the kinematic models the previous work considered the compression. Now, we look at bending loads. The literature gives a few models, which are appropriate for particular section types. For each new type, we have a new collapse mode. We would make a generalised kinematic model for an arbitrary open and closed section. We have two steps. The goal of the first step is give the critical buckling mode and the peak moment. For that, we consider either the elastic buckling together with the post-buckling, or the plastic buckling alone. The second step is the post-collapse behaviour, where the capacity for the bending loads drop. As the bending component and the compressive component are coupled, the new feature of this work is to superpose the bending and the compressive models. We have found five new models, wich are representative of all the folding modes. To give the bending collapse moment, the section is decomposed into various plates connected by boundary conditions. The collapse behaviour depends on the buckling mode and the position relative to the neutral axis. For each angle increment, the energy dissipated by the plastic hinge is calculated. Afterwar,we make a global assembly for the section to give the instantaneous collapse moments. We have validated this result with a few experimental tests and finite element calculations
4

Ribeiro, Vinícius. "Deep Supervision of the Vocal Tract Shape for Articulatory Synthesis of Speech". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0311.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La parole est un processus dynamique et non stationnaire qui nécessite l'interaction de plusieurs articulateurs du conduit vocal. Le contexte dans lequel est articulé un phonème influence très fortement sa production, ce phénomène est connu sous le nom de coarticulation. La synthèse articulatoire de la parole et son homologue, l'inversion acoustique-articulatoire, ont de nombreuses applications potentielles, telles que l'apprentissage des langues étrangères et la conception d'approches de remédiation de la production de la parole. De plus, ces modèles sont utiles pour la recherche en synthèse et en reconnaissance automatique de la parole parce qu'ils font le lien avec le processus de production de la parole. La modélisation des articulations de la parole présente des défis tels que la coarticulation, la non-unicité, et la normalisation du locuteur. Historiquement la recherche s'est concentrée sur les modèles géométriques, mathématiques et statistiques pour décrire la dynamique de la parole. Néanmoins, le développement de tels modèles est confronté à la difficulté d'obtenir des données articulatoires pertinentes auprès de locuteurs réels. Le conduit vocal n'étant pas observable de l'extérieur, diverses méthodes invasives et non invasives ont été utilisées pour collecter ces données, notamment le suivi de capteurs collés sur les articulateurs et l'imagerie médicale. Les premières techniques d'extraction de données articulatoires ont utilisé des rayons X, mais cette technique a été abandonnée en raison de l'exposition aux rayonnements ionisants. Ensuite, l'articulographie électromagnétique a rapidement gagné en popularité en raison de sa fréquence d'échantillonnage élevée et de son faible coût par rapport aux autres techniques. Plus récemment, l'imagerie par résonance magnétique en temps réel (RT-MRI) est devenue la méthode d'acquisition privilégiée en raison de la visibilité de tout le conduit vocal depuis la glotte jusqu'aux lèvres. Cette thèse explore la synthèse des gestes articulatoires de la parole correspondant à une séquence de phonèmes. L'objectif principal est de concevoir un modèle qui prédit l'évolution temporelle de la forme du conduit vocal pour chaque phonème de la séquence d'entrée. Néanmoins, le développement d'un modèle temporel réaliste du conduit vocal est un défi, et par conséquent, nous avons décomposé le problème en trois contributions. La première consiste à obtenir le profil du conduit vocal à partir des films d'IRM temps réel en développant une méthode robuste de segmentation des articulations du conduit. La deuxième contribution consiste à construire un modèle articulatoire qui prédit la forme du conduit vocal pour toute entrée phonétique en français. Les défis sont d'apprendre la coarticulation et d'imposer les lieux d'articulation et les gestes articulatoires qui conduisent à l'acoustique attendue. La troisième contribution est l'évaluation des formes prédites par le modèle. Nous proposons de quantifier l'information phonétique à l'aide de la reconnaissance automatique de phonèmes. Nous mesurons l'information phonétique capturée par les contours médiosagittaux et celle reproduite par le synthétiseur de la forme du conduit vocal en utilisant le taux d'erreur phonétique et les représentations internes du reconnaisseur. Cette thèse ouvre des pistes importantes pour la synthèse articulatoire de la parole. Nous avons observé que la modélisation directe, c'est-à-dire sans modèle articulatoire, conduit aux meilleurs résultats et aux plus naturels. Néanmoins, l'utilisation d'un modèle articulatoire intermédiaire permet d'introduire des connaissances phonétiques pertinentes dans le modèle. Enfin, ce travail ouvre une nouvelle piste de recherche pour évaluer les modèles articulatoires à travers leur représentation phonétique
Speech is a dynamic and non-stationary process that requires the interaction of several vocal tract articulators. The context in which a phoneme is articulated strongly influences its production, a phenomenon known as coarticulation. Articulatory speech synthesis and its counterpart, acoustic-to-articulatory inversion, hold many potential applications, such as L2 learning and speech therapy design. Moreover, these models are helpful for speech synthesis and automatic speech recognition since they create a link to the speech production process. Modeling speech articulations presents challenges such as coarticulation, non-uniqueness, and speaker normalization. Historically, the research focused on geometrical, mathematical, and statistical models to describe speech dynamics. Nevertheless, developing such models faces the difficulty of obtaining relevant articulatory data from actual speakers. Since the vocal tract is not observable from the outside, various invasive and non-invasive methods have been used to collect these data, including flesh point tracking and medical imaging. The first attempts to extract articulatory data used X-rays, but it was abandoned due to the exposition to ionizing radiation. Then, electromagnetic articulography rapidly grew in popularity due to the high sampling rate and the low cost compared to the alternatives. More recently, real-time magnetic resonance imaging (RT-MRI) has been the preferred acquisition method due to the visibility of the the vocal tract from the glottis to the lips. This thesis explores the synthesis of speech articulation gestures corresponding to a sequence of phonemes. The primary objective is to design a model that predicts the temporal evolution of the vocal tract shape for each phoneme in the input sequence. Nevertheless, developing a realistic temporal model of the vocal tract is challenging. Therefore, we split the problem into three contributions. The first is obtaining the vocal tract profile from the RT-MRI films by developing a robust method for segmenting vocal tract articulations. The second contribution is to build an articulatory model that predicts the vocal tract shape for any phonetic input in French. The challenges are learning coarticulation and enforcing the places of articulation and articulatory gestures that lead to the expected acoustics. The third contribution is the evaluation of the predicted shapes. We propose to quantify phonetic information with the aid of phoneme recognition. We measure the phonetic information retained by the mid-sagittal contours and that reproduced by the vocal tract shape synthesizer using the phoneme error rate and the recognizer's internal representations. This thesis points to significant directions in speech articulation synthesis. We observe that directly modeling, without an articulatory model, leads to the best and most natural results. Nevertheless, using an intermediate articulatory model permits the introduction of relevant phonetic knowledge into the model. Finally, we open a new direction to evaluate articulatory models through their phonetic representations
5

Girod, Loïc. "Développement et modélisation d'éléments de prothèse pour la main". Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10076/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Comme toute articulation fonctionnelle, l’articulation interphalangienne proximale(IPP) est la cible de lésions ou de pathologies pouvant compromettre les fonctions globales de la main. Les principaux objectifs d’une arthroplastie digitale sont de restituer la fonction et la stabilité de l’articulation et de réduire ou supprimer la douleur de manière durable. Le présent travail de thèse porte sur le développement et la modélisation de deux concepts prothétiques pour l’articulation IPP : une prothèse semi-contrainte en alliage de nickel-titane et une prothèse de resurfaçage. Outre le travail de dimensionnement, des essais de fatigue et d’usure sont conduits sur les deux implants. Des études complémentaires à chaque concept sont présentées. Celles-ci portent en premier lieu sur la mise en forme et les traitements thermiques de la prothèse semi-contrainte accompagnées d’une étude de relargage de nickel et une investigation sur les mécanismes mis en jeu. Enfin, une modélisation par éléments finis de l’interaction entre une prothèse articulaire et son environnement osseux est présentée de manière à évaluer la stabilité primaire des implants
As any functional joint, the proximal interphalangeal joint (PIP) is the target of hurts or of pathologies which can compromise the global functions of the hand. The main objectives of a digital arthroplasty are to restore the function and the stability of the joint and to reduce or suppress the pain in a long-lasting way. The present work of thesis concerns the development and the modeling of two concepts of PIP prostheses: a semiconstrained prosthesis made of nickel-titanium alloy and a resurfacing prosthesis. Besides the work of sizing, fatigue and wear tests are done on both implants. Additional studies are presented for each concept. First, we focus on the shaping and the heat treatments of the semi-constrained prosthesis accompanied with a study nickel ion release and an investigation on the involved mechanisms. Eventually, a finite element modeling of the interaction between the prosthesis and the surrounding bone is presented to estimate the primary stability of implants
6

Brocard, Daniel. "Elaboration d'une méthode de simulation pour la chirurgie orthognathique avec évaluation des résultats par la technique des tracés condyliens". Toulouse 3, 1992. http://www.theses.fr/1992TOU30214.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les modifications chirurgicales du squelette facial des patients qui presentent des dysmorphoses squelettiques entrainent des variations adaptatives des structures musculo-articulaires. Une technique de simulation et de preparation sur articulateur semi-adaptable de la chirurgie orthognathique maxillaire, mandibulaire, ou combinee, est decrite et detaillee; elle permet de prevoir l'acte chirurgical avec precision en donnant la position finale des structures anatomiques, les valeurs des deplacements squelettiques et des osteotomies, et de proposer une ou plusieurs gouttieres interocclusales chirurgicales. Les traces de la trajectoire condylienne renseignent qualitativement et quantitativement sur la fonction de l'articulation temporo-mandibulaire. Vingt articulations de dix patients ayant beneficie d'un traitement ortho-chirurgical avec simulation sur articulateur semi-adaptable sont examinees avant, apres l'intervention et a long terme grace a des enregistrements graphiques de traces des deplacements condyliens. Ces traces revelent que l'amplitude des deplacements condyliens(ouverture, propulsion, lateralite non travaillante) est diminuee apres la chirurgie pour toutes les articulations, mais qu'a plus long terme, l'amplitude des mouvements redevient sensiblement equivalente a l'amplitude originelle. Aucune articulation saine au depart n'a ete trouvee avec un derangement interne apres la chirurgie. Une articulation presentant un derangement interne avant le traitement chirurgical, n'a presente aucune modification dans les traces apres la chirurgie et a long terme. Ainsi, dans le cadre de cette etude, l'action de la chirurgie orthognathique sur la fonction des elements musculo-articulaires entraine un desequilibre musculaire reversible qui se normalise a moyen ou a long terme
7

Poncet, Philippe. "Méthodes particulaires pour la simulation des sillages tridimensionnels". Phd thesis, Université Joseph Fourier (Grenoble), 2001. http://tel.archives-ouvertes.fr/tel-00004699.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail est consacré au développement des méthodes particulaires pour la résolution des équations de Navier-Stokes incompressibles en dimension 3. L'évaluation des formules de Biot-Savart ayant un coût de calcul prohibitif en dimension trois, on utilise un couplage grille-particules. On applique alors cette technique à la simulation et au contrôle de sillages produits par un cylindre. La première partie est consacrée à la méthode numérique proprement dite. On commence par présenter le modèle lagrangien et la méthode utilisée pour calculer le champ de vitesse, qui est la clef de voûte du schéma. On décrit ensuite, au chapitre 2 comment sont calculées les couches limites. Enfin, on présente au chapitre 3 l'algorithme à pas fractionnaire utilisé, ainsi que les méthodes de transfert entre jeux de particules et grilles sous-jacentes, et le calcul de la diffusion. Le code est alors validé par des simulations d'anneaux tourbillonnaires qui se propulsent sur un obstacle cylindrique, pour des nombres de Reynolds modérés (entre 400 et 2000).La seconde partie utilise la méthode numérique décrite précédemment, en l'appliquant dans un premier temps à la simulation des sillages turbulents qui se développent derrière un cylindre circulaire (chapitre 4), puis au contrôle de ces écoulements au chapitre 4.Il est connu que les solutions bidimensionnelles sont instables pour des nombres de Reynolds suffisamment élevés. Les instabilités tridimensionnelles sont identifiée grâce à leur profil spectral. Elles ont un effet important sur les forces de traînée et sur la fréquence propre de l'écoulement.Le chapitre 5, relatif au contrôle, se propose de mettre en évidence plusieurs phénomènes. On considère un contrôle en boucle ouverte, réalisé par une rotation à pulsation et amplitude constante. On étudie des rotations basse et haute fréquences. Le coefficient de traînée est alors diminué de 43% par le contrôle à haute fréquence, pour un nombre de Reynolds de 550. De plus, on montre que l'écoulement turbulent revient à un état bidimensionnel si l'amplitude de rotation est suffisamment élevée.
8

Xiao, Yi-Jun. "Contribution aux méthodes arithmétiques pour la simulation accélérée". Marne-la-vallée, ENPC, 1990. http://www.theses.fr/1990ENPC9031.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte sur les irrégularités de distribution de suites à une ou plusieurs dimensions et sur leurs applications a l'intégration numérique. Elle comprend trois parties. La première partie est consacrée aux suites unidimensionnelles: estimations de la diaphonie de la suite de van der corput à partir de l'étude des sommes exponentielles et étude des suites (n). La deuxième partie porte sur quelques suites classiques en dimension plus grande que une (suites de Fame, suites de Halton). La troisième partie, consacrée aux applications à l'intégration contient de nombreux résultats numériques, permettant de comparer l'efficacité de suites
9

Farrar, Richard. "Simulation and analysis of the wear of metal on metal articulations in artificial hip joints". Thesis, University of Leeds, 2001. http://etheses.whiterose.ac.uk/4397/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Metal on metal articulations used in hip joint replacement were demonstratedth rough the 1960's and 70's to perform adequately and comparably to metal on plastic articulations but their use then fell into decline as orthopaedic surgeons preferred metal on polyethylene articulations. However, one of the main causes of failure of prosthetic hip joints was then discovered to be aseptic loosening due to particle induced osteolysis, such particles arising from wear of the prosthetic components, and in particular from polyethylene bearing surfaces. Through the late 1980's and the 1990's the concept of metal on metal bearings has re-emerged as one potential solution to the clinical problems associated with polyethylene particle induced osteolysis. In this thesis both theoretical analysis and practical testing using a 12 station MMED hip joint simulator were employed to investigate how metal on metal articulations may be optimized so as to reducet he amount of wear debris generatedth rough their use. Hence, such articulations should function effectively within the environment of a human hip joint when they form part of a total hip replacement design. To this end the effect of diametral clearance, head size, and material composition were both tested and analyzed. Finally a modular clinical design of hip joint replacemenwt as tested to assess its performance. Wear was found to be strongly related to bearing clearance in practical tests as predicted by the theory. A lower limit of clearance existed due to deviations from perfect form which were unavoidable with current manufacturing technology. A band of clearance was defined for 22, 28, and 35mm diameter bearings within which reduced wear was exhibited. Steady state wear rates, following the initial bedding in period, were generally equal regardless of total wear volume. High carbon against high carbon content cobalt chromium articulations did not produce the lowest wear contrary to previous studies in the literature. The mean hardness of, and hardness difference between, bearing surfaces influenced the wear performance of metal on metal articulations. It was possible to design a clinical metal on metal bearing having modular femoral (head and stem) and acetabular (insert and shell) components with optimized metal on metal articulation. This metal on metal device has been introduced into clinical use throughout the world.
10

Viseur, Sophie. "Simulation stochastique basée-objet de chenaux". Vandoeuvre-les-Nancy, INPL, 2001. http://www.theses.fr/2001INPL036N.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'hétérogénéité dans la répartition des sédiments issus de systèmes de chenaux fait de cette architecture une hôte potentielle aux hydrocarbures. Lors de l'étude d'un réservoir, la connaissance des structures souterraines est disponible via les données issues de forages, de campagnes sismiques et de la connaissance géologique du domaine. Les processus de simulation stochastique représentent de nos jours un outil important pour la gestion d'un champ pétrolier à partir des simples données recueillies de la subsurface de la terre. Le but de ces méthodes est de générer plusieurs modèles équiprobables de l'architecture fluviatile afin d'étudier les risques encourus lors de l'exploitation d'un champ pétrolier. Et chaque modèle ainsi généré se doit e satisfaire les données de subsurface et refléter les informations issues de la connaissance géologique du champ étudié. Deux principales approches ont été proposées dans ce domaine : les approches dites " basées-pixel " et les approches dites " basées-objet ". Les méthodes basées pixels s'attachent à distribuer les valeurs d'une propriété (soit continue comme la perméabilité ou la porosité, ou discrète comme les indexes de faciès) dans le volume d'étude. Les méthodes objet (ou booléennes) consiste en la génération d'objets modélisant les corps fluviatiles présents dans le domaine étudié et de les distribuer dans le volume réservoir. Cependant, les difficultés généralement rencontrées dans ces dernières approches consistent à pouvoir générer de manière efficace des modèles réalistes prenant en comptes des données " dures " (les données de puits) ou " floues " (les données de proportion). Nos travaux ont donc été voués à la recherche d'une nouvelle méthode de simulation stochastique basée objet permettant de générer plusieurs modèles d'empilements de chenaux équiprobables, réalistes et rendant compte des données de subsurface.
11

Stoltz, Gabriel. "Quelques méthodes mathématiques pour la simulation moléculaire et multiéchelle". Phd thesis, Ecole des Ponts ParisTech, 2007. http://tel.archives-ouvertes.fr/tel-00166728.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail présente quelques contributions à l'étude théorique et numérique des modèles utilisés en pratique pour la simulation moléculaire de la matière. En particulier, on présente et on analyse des méthodes numériques stochastiques dans le domaine de la physique statistique, permettant de calculer plus efficacement des moyennes d'ensemble. Une application particulièrement importante est le calcul de différences d'énergies libres, par dynamiques adaptatives ou hors d'équilibre. On étudie également quelques techniques, stochastiques ou déterministes, utilisées en chimie quantique et permettant de résoudre de manière approchée le problème de minimisation associé à la recherche de l'état fondamental d'un opérateur de Schrödinger en dimension grande. On propose enfin des modèles réduits permettant une description microscopique simplifiée des ondes de choc et de détonation par le biais d'une dynamique stochastique sur des degrés de liberté moyens, approchant la dynamique hamiltonienne déterministe du système complet.
12

Ould, Salihi Mohamed Lemine. "Couplage de méthodes numériques en simulation directe d'écoulements incompressibles". Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00004901.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail est consacré au développement des méthodes lagrangiennes comme alternatives ou compléments aux méthodes euleriennes conventionnelles pour la simulation d'écoulements incompressibles en présence d'obstacles. On s'intéresse en particulier à des techniques ou des solveurs eulériens et lagrangiens cohabitent dans le même domaine de calcul mais traitent différents termes des équations de Navier-Stokes, ainsi qu'à des techniques de décomposition de domaines ou différents solveurs sont utilisés dans chaques sous-domaines. Lorsque les méthodes euleriennes et lagrangiennes cohabitent dans le même domaine de calcul (méthode V.I.C.), les formules de passage particules-grilles permettent de représenter la vorticité avec la même précision sur une grille fixe et sur la grille lagrangienne. Les méthodes V.I.C. ainsi obtenues combinent stabilité et précision et fournissent une alternative avantageuse aux méthodes différences-finies pour des écoulements confinés. Lorsque le domaine de calcul est décomposé en sous-domaines distincts traités par méthodes lagrangiennes et par méthodes euleriennes, l'interpolation d'ordre élevé permet de réaliser des conditions d'interface consistantes entre les différents sous-domaines. On dispose alors de méthodes de calcul avec décomposition en sous-domaines, de type Euler/Lagrange ou Lagrange/Lagrange, et résolution en formulation (vitesse-tourbillon)/(vitesse-tourbillon) ou (vitesse-pression)/(vitesse-tourbillon). Les différentes méthodes développées ici sont testées sur plusieurs types d'écoulements (cavité entrainée, rebond de dipôles de vorticité, écoulements dans une conduite et sur une marche, écoulements autour d'obstacles) et comparées à des méthodes de différences-finies d'ordre élevé.
13

Stoltz, Gabriel. "Quelques méthodes mathématiques pour la simulation moleculaire et multiéchelle". Marne-la-vallée, ENPC, 2007. http://www.theses.fr/2007ENPC0708.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail présente quelques contributions à l'étude théorique et numérique des modèles utilisés en pratique pour la simulation moléculaire de la matière. En particulier, on présente et on analyse des méthodes numériques stochastiques dans le domaine de la physique statistique, permettant de calculer plus efficacement des moyennes d'ensemble. Une application particulièrement importante est le calcul de différences d'énergies libres, par dynamiques adaptatives ou hors d'équilibre. On étudie également quelques techniques, stochastiques ou déterministes, utilisées en chimie quantique et permettant de résoudre de manière approchée le problème de minimisation associé à la recherche de l'état fondamental d'un opérateur de Schrödinger en dimension grande. On propose enfin des modèles réduits permettant une description microscopique simplifiée des ondes de choc et de détonation par le biais d'une dynamique stochastique sur des degrés de liberté moyens, approchant la dynamique hamiltonienne déterministe du système complet
This work presents some contributions to the theoretical and numerical study of models used in practice in the field of molecular simulation. In particular, stochastic techniques to compute more efficiently ensemble averages in the field of computational statistical physics are presented and analyzed. An important application is the computation of free energy differences using nonequilibrium or adaptive dynamics. Some stochastic or deterministic techniques to solve approximately the Schrödinger ground state problem for high dimensional systems are also studied. Finally, some reduced models for shock and detonation waves, relying on an average stochastic dynamics reproducing in a mean sense the high dimensional deterministic hamiltonian dynamics, are proposed
14

Gillyboeuf, Jean-Philippe. "Diverses méthodes chimère pour la simulation numérique d'écoulements stationnaires". Toulouse, INPT, 1996. http://www.theses.fr/1996INPT127H.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La technique chimere est une technique multidomaine qui permet de calculer des ecoulements sur des maillages qui se recouvrent sans aucune contrainte geometrique. La principale difficulte qu'elle pose est de transmettre l'information entre les domaines de calcul. Deux approches sont etudiees : l'une est fondee sur l'interpolation, l'autre sur la deformation des domaines. L'approche par interpolation est meilleure, mais son application n'est pas toujours commode. La solution consiste alors a combiner les deux approches de facon a ce qu'il y ait aussi peu de deformation que possible et autant que necessaire. A maillages equivalents, la qualite des resultats que la technique chimere permet d'obtenir est a peu pres equivalente a celle d'un resultat obtenu par un calcul multidomaine classique.
15

Papadopoulos, Christos. "Méthodes de simulation stochastiques rapides et applications en fiabilité". Compiègne, 1999. http://www.theses.fr/1999COMP1213.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de cette thèse est l'estimation des probabilités associées aux évènements rares rencontrés en fiabilité. Dans un premier temps, nous avons étudié les principales méthodes de réduction de la variance, et ensuite nous avons développé une heuristique de type "Failure Biasing" appelée la méthode "Inverse" qui s'est montrée très efficace en pratique et qui possède la propriété de l'Erreur Relative Bornée pour la quasi-totalité de systèmes markoviens hautement fiables. L'unique changement optimal, n'est pas toujours exploitable car il contient le paramètre que nous voulons estimer. Par contre, dans certains cas, nous pouvons effectivement le calculer. Ainsi, nous avons présenté la procédure pour le calcul récursif du changement optimal dans le cas de l'estimation de la probabilité d'un évènement rare. Nous avons également donné les classes de systèmes pour lesquelles cette procédure est appliquable. Des approches pratiques pour l'utilisation de la théorie des grandes déviations en simulation, ont également été présentées. Finalement, nous avons présenté deux méthodes pour la simulation des systèmes semi-markoviens : la méthode de la chaîne immergée et celle du risque compétitif. Cette étude a été étendue avec la présentation d'une méthode hybride pour l'estimation de la non-fiabilité d'un système consécutif-k-sur-n, basée sur la méthode analytique-statistique. L'efficacité de cette méthode a été illustrée sur de nombreux exemples.
16

Minvielle-Larrousse, Pierre. "Méthodes de simulation stochastique pour le traitement de l’information". Thesis, Pau, 2019. http://www.theses.fr/2019PAUU3005.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Lorsqu’une grandeur d’intérêt ne peut être directement mesurée, il est fréquent de procéder à l’observation d’autres quantités qui lui sont liées par des lois physiques. Ces quantités peuvent contenir de l’information sur la grandeur d’intérêt si l’on sait résoudre le problème inverse, souvent mal posé, et inférer la valeur. L’inférence bayésienne constitue un outil statistique puissant pour l’inversion, qui requiert le calcul d’intégrales en grande dimension. Les méthodes Monte Carlo séquentielles (SMC), aussi dénommées méthodes particulaires, sont une classe de méthodes Monte Carlo permettant d’échantillonner selon une séquence de densités de probabilité de dimension croissante. Il existe de nombreuses applications, que ce soit en filtrage, en optimisation globale ou en simulation d’évènement rare. Les travaux ont porté notamment sur l’extension des méthodes SMC dans un contexte dynamique où le système, régi par un processus de Markov caché, est aussi déterminé par des paramètres statiques que l’on cherche à estimer. En estimation bayésienne séquentielle, la détermination de paramètres fixes provoque des difficultés particulières : un tel processus est non-ergodique, le système n’oubliant pas ses conditions initiales. Il est montré comment il est possible de surmonter ces difficultés dans une application de poursuite et identification de formes géométriques par caméra numérique CCD. Des étapes d’échantillonnage MCMC (Chaîne de Markov Monte Carlo) sont introduites pour diversifier les échantillons sans altérer la distribution a posteriori. Pour une autre application de contrôle de matériau, qui cette fois « hors ligne » mêle paramètres statiques et dynamiques, on a proposé une approche originale. Elle consiste en un algorithme PMMH (Particle Marginal Metropolis-Hastings) intégrant des traitements SMC Rao-Blackwellisés, basés sur des filtres de Kalman d’ensemble en interaction.D’autres travaux en traitement de l’information ont été menés, que ce soit en filtrage particulaire pour la poursuite d’un véhicule en phase de rentrée atmosphérique, en imagerie radar 3D par régularisation parcimonieuse ou en recalage d’image par information mutuelle
When a quantity of interest is not directly observed, it is usual to observe other quantities that are linked by physical laws. They can provide information about the quantity of interest if it is able to solve the inverse problem, often ill posed, and infer the value. Bayesian inference is a powerful tool for inversion that requires the computation of high dimensional integrals. Sequential Monte Carlo (SMC) methods, a.k.a. interacting particles methods, are a type of Monte Carlo methods that are able to sample from a sequence of probability densities of growing dimension. They are many applications, for instance in filtering, in global optimization or rare event simulation.The work has focused in particular on the extension of SMC methods in a dynamic context where the system, governed by a hidden Markov process, is also determined by static parameters that we seek to estimate. In sequential Bayesian estimation, the determination of fixed parameters causes particular difficulties: such a process is non-ergodic, the system not forgetting its initial conditions. It is shown how it is possible to overcome these difficulties in an application of tracking and identification of geometric shapes by CCD digital camera. Markov Monte Carlo Chain (MCMC) sampling steps are introduced to diversify the samples without altering the posterior distribution. For another material control application, which mixes static and dynamic parameters, we proposed an original offline approach. It consists of a Particle Marginal Metropolis-Hastings (PMMH) algorithm that integrates Rao-Blackwellized SMC, based on a bank of interacting Ensemble Kalman filters.Other information processing works has been conducted: particle filtering for atmospheric reentry vehicle tracking, 3D radar imaging by sparse regularization and image registration by mutual information
17

Demogeot, Thierry. "Développement de l'environnement de simulation Gaspe". Vandoeuvre-les-Nancy, INPL, 1992. http://www.theses.fr/1992INPL064N.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Navarro, Barragan Alberto. "Etude d'un procédé de séparation chromatographique en continu : modélisation et mise en oeuvre d'un séparateur à trois sorties fonctionnant en simulation de lit mobile". Toulouse, INPT, 1997. http://www.theses.fr/1997INPT040G.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'evolution des systemes de chromatographie continue industrielle est presentee ainsi que leurs domaines d'application actuelles. Dans le cas d'un separateur chromatographique a deux sorties fonctionnant selon le principe de simulation de lit mobile, les modeles permettant de representer les echanges de matiere sont discutes. Un modele simplifie et exploite pour etudier l'influence des conditions de fonctionnement du separateur sur la separation d'un melange glycerol-sulfate de sodium. La modelisation est etendue a la separation de trois constituants dans un separateur chromatographique continu a trois sorties. La resolution des equations derivees de ce modele permet de representer le profil chromatographique installe dans le separateur et de calculer la concentration et la purete des extraits et raffinat. L'influence des principaux facteurs - debits de boucle, de desorbant, de melange, des extraits, de raffinat, le temps de sequence, la configuration du separateur, sont etudies grace au modele. Une installation pilote de separation chromatographique par simulation de lit mobile est mise au point. Les previsions du modele sont verifiees experimentalement dans le cas d'un melange de polyols : mannitol, sorbitol, xylitol. Les conditions operatoires sont optimisees et les orientations validees experimentalement.
19

Lucas, Philippe. "Modélisation et simulation du régime transitoire d'unités de séparation d'un procédé chimique avec leur système de régulation : Application à la conduite d'un atelier industriel". Châtenay-Malabry, Ecole centrale de Paris, 1988. http://www.theses.fr/1988ECAP0083.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail proposé porte sur la simulation de régimes transitoires d'un procédé industriel et son utilisation pour l'étude de la conduite de cet atelier. A partir de l'observation d'un atelier de distillation et de l'analyse de son comportement pendant les phases transitoires est proposée une méthodologie de modélisation réaliste mais complexe pour représenter le fonctionnement d'un procédé. L'examen de la littérature scientifique sur le calcul du régime transitoire des procédés montre que la résolution numérique s'appuie le plus souvent sur la méthode de Bear comme le montrent les quelques logiciels et applications industrielles proposés. Sur la base des modèles présentés dans la littérature les équations retenues pour représenter l'installation étudiée sont exposées. Elles concernent non seulement l'accumulation et le transport de matière et d'énergie mais aussi l'acquisition de l'information et sa conversion en actions sur le procédé. La mise en oeuvre de cette modélisation avec le logiciel SpeedUp exige que le système d'équations différentielles et algébriques soit bien conditionné. L'obtention de tels systèmes est illustrée par des exemples d'opérations tirées du procédé étudié. Cette expérience permet de formuler des règles générales de modélisation. Quelques modèles ainsi écrits sont présentés. La modélisation ainsi définie appliquée à un évaporateur puis à la colonne de distillation conduit à des réponses qualitativement et quantitativement conformes à la réalité. Le choix des variables de commande d'une colonne de distillation est plus particulièrement exposé. Son application à la colonne étudiée invite après une étude en transitoire à choisir un certain jeu de variables intensives. Cette étude donne quelques recommandations pour la bonne conduite des régimes transitoires de procédés fortement perturbés. Le mémoire se termine par un bilan de l'apport potentiel de la simulation dynamique dans le choix de la stratégie de conduite d'un procédé.
20

Aoun, Mhamad. "Elaboration et validation d’un modèle de l’articulation temporo-mandibulaire par éléments finis". Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14034/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s’inscrit dans un projet à long terme de conception de nouvelle prothèse de l’Articulation Temporo-Mandibulaire (ATM). Afin de faciliter une caractérisation non invasive de l’ATM, elle a conduit à l’élaboration d’un modèle élément finis plan de l’ATM. Le modèle, construit à partir de relevés IRM, intègre le ménisque ainsi que les insertions musculaires et ligamentaires. Il est commandé en déplacements imposés tout d’abord et en efforts imposés ensuite. Les déplacements ont été mesurés par analyse vidéo 3D et les efforts musculaires ont été évalués par EMG au cours de travaux antérieurs réalisés au sein du laboratoire. Le modèle est ici exploité pour simuler un mouvement d’ouverture et un serrage inter-incisives dans trois configurations qui correspondent à des ouvertures de 5 mm, 25 mm et 30 mm. Les résultats de ces simulations, validés par IRM, ont permis de caractériser le rôle du disque articulaire de l’ATM dans la réalisation des déplacements et la transmission des efforts. L’étude souligne la nécessité de rechercher des solutions technologiques de remplacement du disque articulaire lors de la conception d’une nouvelle prothèse
This study presents a part of a long-term project that aims to design a new prosthesis for the Temporomandibular Joint (TMJ). In order to facilitate a non-invasive characterization of the TMJ, a plane finite element model of the joint has been elaborated starting from MRI images. The model integrates the meniscus as well as the principal ligaments and the main muscular insertions. It has been driven firstly with displacements and then with forces. The displacements have been measured using a 3D motion analysis system and the muscles forces have been taken from anterior former EMG studies led in the laboratory. An opening movement and inter-incisors clenching in three configurations which correspond to openings of 5, 25 and 30 mm have been simulated. The results of these simulations, validated by MRI, made it possible to characterize the function of the articular disk during the movement and the transmission of actions. This study underlines the necessity of seeking technological solutions to replace the meniscus when designing a new prosthesis
21

Labeau, Pierre-Etienne. "Méthodes semi-analytiques et outils de simulation en dynamique probabiliste". Doctoral thesis, Universite Libre de Bruxelles, 1996. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212439.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Bonithon, Gaël. "Méthodes numériques innovantes pour la simulation thermique de composants électroniques". Phd thesis, Paris, ENSAM, 2010. http://pastel.archives-ouvertes.fr/pastel-00547880.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les composants électroniques présentent des facteurs d'échelle géométrique importants, et font intervenir des matériaux aux conductivités thermiques très différentes. L'expérience montre que dans ce cadre, la méthode des éléments de frontière est un choix judicieux pour la simulation thermique en régime permanent. En régime transitoire, la dimension temporelle ajoute un certain nombre de difficultés. Parmi celles-ci figurent classiquement l'augmentation des temps de calcul et les critères de stabilité, ou d'un manière plus générale les liens entre discrétisations spatiale et temporelle. Plus spécifiquement, un des enjeux actuels en électronique est de mesurer l'impact de phénomènes très localisés, comme des commutations ou des courts-circuits, sur la thermique globale d'un composant. Il s'agit alors de coupler différentes échelles espace-temps, en assurant en particulier des changements d'échelle sans perte d'information. Dans la première partie de ce travail, on propose d'utiliser la méthode des éléments de frontière transitoire pour répondre à cette problématique. On combine tout d'abord différentes formulations intégrales et des techniques d'optimisation pour réduire le coût de la méthode. On réutilise ensuite ce travail pour développer une approche multi-échelles, et généraliser la méthode des éléments de frontière aux matériaux non linéaires. Une seconde partie est consacrée au développement d'une méthode alternative, visant à réduire les temps de calcul de manière plus significative tout en conservant une base éléments de frontière. Il s'agit d'une méthode de décomposition propre généralisée, qui permet de construire une représentation à variables séparées de la solution de manière non incrémentale. On étudie la convergence de l'algorithme sur différents cas de test, en proposant des techniques pour traiter des conditions aux limites et initiales non homogènes, ainsi que des termes sources non linéaires.
23

Apraez, Camilo. "Étude comparative de méthodes de simulation de la stabilité transitoire". Mémoire, École de technologie supérieure, 2012. http://espace.etsmtl.ca/1000/1/APRAEZ_Camilo.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’analyse de la stabilité transitoire (ST) est l'un des outils les plus puissants pour étudier et améliorer le comportement des réseaux électriques. Par ailleurs, de nouveaux domaines de recherche utilisent la ST afin de déterminer l’écoulement de puissance de façon optimale à la suite d'une perturbation. La ST est une spécialité de la stabilité de l’angle du rotor qui simule et analyse le comportement dynamique des machines synchrones avant, pendant et après une perturbation. La tendance la plus courante pour étudier la ST est une simulation dans le domaine du temps (SDT). À cette fin, nous formulons un ensemble d’équations différentielles algébriques (EDA) qui simulent le comportement des machines ainsi que le fonctionnement du réseau. Ces équations sont non linéaires et leur résolution nécessite l'application de méthodes numériques d'intégration. Ce projet met en oeuvre un programme de ST qui comprend le modèle détaillé et le modèle classique des machines synchrones. Pour la simulation avec le modèle classique, nous avons inclus dix méthodes différentes d'intégration implicites et explicites à pas d'intégration constants ou variables. Pour le modèle détaillé, nous avons réalisé deux algorithmes qui permettent de résoudre le système EDA avec des méthodes simultanées implicites et partitionnées explicites. De plus, nous avons testé le fonctionnement du programme dans les cas suivants: « WECC » trois machines, « New England » 10 machines, 17 machines et 50 machines. Pour chaque étude de cas, nous avons analysé les performances de chacune de ces méthodes en termes de précision et de rapidité d'exécution. Ce programme vise à servir d’outil de simulation dans les recherches qui demandent l'utilisation d’un programme de ST.
24

Silva, lopes Laura. "Méthodes numériques pour la simulation d'évènements rares en dynamique moléculaire". Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC1045.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans les systèmes dynamiques aléatoires, tels ceux rencontrés en dynamique moléculaire, les événements rares apparaissent naturellement, comme étant liés à des fluctuations de probabilité faible. En dynamique moléculaire, le repliement des protéines, la dissociation protéine-ligand, et la fermeture ou l’ouverture des canaux ioniques dans les membranes, sont des exemples d’événements rares. La simulation d’événements rares est un domaine de recherche important en biophysique depuis presque trois décennies.En dynamique moléculaire, on est particulièrement intéressé par la simulation de la transition entre les états métastables, qui sont des régions de l’espace des phases dans lesquelles le système reste piégé sur des longues périodes de temps. Ces transitions sont rares, leurs simulations sont donc assez coûteuses et parfois même impossibles. Pour contourner ces difficultés, des méthodes d’échantillonnage ont été développées pour simuler efficacement ces événement rares. Parmi celles-ci les méthodes de splitting consistent à diviser l’événement rare en sous-événements successifs plus probables. Par exemple, la trajectoire réactive est divisée en morceaux qui progressent graduellement de l’état initial vers l’état final.Le Adaptive Multilevel Splitting (AMS) est une méthode de splitting où les positions des interfaces intermédiaires sont obtenues de façon naturelle au cours de l’algorithme. Les surfaces sont définies de telle sorte que les probabilités de transition entre elles soient constantes et ceci minimise la variance de l’estimateur de la probabilité de l’événement rare. AMS est une méthode avec peu de paramètres numériques à choisir par l’utilisateur, tout en garantissant une grande robustesse par rapport au choix de ces paramètres.Cette thèse porte sur l’application de la méthode adaptive multilevel splitting en dynamique moléculaire. Deux types de systèmes ont été étudiés. La première famille est constituée de modèles simples, qui nous ont permis d’améliorer la méthode. La seconde famille est faite de systèmes plus réalistes qui représentent des vrai défis, où AMS est utilisé pour avancer nos connaissances sur les mécanismes moléculaires. Cette thèse contient donc à la fois des contributions de nature méthodologique et numérique.Dans un premier temps, une étude conduite sur le changement conformationnel d’une biomolécule simple a permis de valider l’algorithme. Nous avons ensuite proposé une nouvelle technique utilisant une combinaison d’AMS avec une méthode d’échantillonnage préférentiel de l’ensemble des conditions initiales pour estimer plus efficacement le temps de transition. Celle-ci a été validée sur un problème simple et nos résultats ouvrent des perspectives prometteuses pour des applications à des systèmes plus complexes. Une nouvelle approche pour extraire les mécanismes réactionnels liés aux transitions est aussi proposée dans cette thèse. Elle consiste à appliquer des méthodes de clustering sur les trajectoires réactives générées par AMS. Pendant ce travail de thèse, l’implémentation de la méthode AMS pour NAMD a été améliorée. En particulier, ce manuscrit présente un tutoriel lié à cette implémentation. Nous avons aussi mené des études sur deux systèmes moléculaires complexes avec la méthode AMS. Le premier analyse l’influence du modèle d’eau (TIP3P et TIP4P/2005) sur le processus de dissociation ligand– β -cyclodextrine. Pour le second, la méthode AMS a été utilisée pour échantillonner des trajectoires de dissociation d’un ligand du domaine N-terminal de la protéine Hsp90
In stochastic dynamical systems, such as those encountered in molecular dynamics, rare events naturally appear as events due to some low probability stochastic fluctuations. Examples of rare events in our everyday life includes earthquakes and major floods. In chemistry, protein folding, ligandunbinding from a protein cavity and opening or closing of channels in cell membranes are examples of rare events. Simulation of rare events has been an important field of research in biophysics over the past thirty years.The events of interest in molecular dynamics generally involve transitions between metastable states, which are regions of the phase space where the system tends to stay trapped. These transitions are rare, making the use of a naive, direct Monte Carlo method computationally impracticable. To dealwith this difficulty, sampling methods have been developed to efficiently simulate rare events. Among them are splitting methods, that consists in dividing the rare event of interest into successive nested more likely events.Adaptive Multilevel Splitting (AMS) is a splitting method in which the positions of the intermediate interfaces, used to split reactive trajectories, are adapted on the fly. The surfaces are defined suchthat the probability of transition between them is constant, which minimizes the variance of the rare event probability estimator. AMS is a robust method that requires a small quantity of user defined parameters, and is therefore easy to use.This thesis focuses on the application of the adaptive multilevel splitting method to molecular dynamics. Two kinds of systems are studied. The first one contains simple models that allowed us to improve the way AMS is used. The second one contains more realistic and challenging systems, where AMS isused to get better understanding of the molecular mechanisms. Hence, the contributions of this thesis include both methodological and numerical results.We first validate the AMS method by applying it to the paradigmatic alanine dipeptide conformational change. We then propose a new technique combining AMS and importance sampling to efficiently sample the initial conditions ensemble when using AMS to obtain the transition time. This is validatedon a simple one dimensional problem, and our results show its potential for applications in complex multidimensional systems. A new way to identify reaction mechanisms is also proposed in this thesis.It consists in performing clustering techniques over the reactive trajectories ensemble generated by the AMS method.The implementation of the AMS method for NAMD has been improved during this thesis work. In particular, this manuscript includes a tutorial on how to use AMS on NAMD. The use of the AMS method allowed us to study two complex molecular systems. The first consists in the analysis of the influence of the water model (TIP3P and TIP4P/2005) on the β -cyclodextrin and ligand unbinding process. In the second, we apply the AMS method to sample unbinding trajectories of a ligand from the N-terminal domain of the Hsp90 protein
25

Agouzoul, Asmaâ. "Nouvelles méthodes numériques pour la simulation de l’impression 3D métallique". Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0004.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le procédé SLM offre de nouvelles perspectives en termes de conception de pièces. Cependant, les phénomènes thermo-mécaniques liés au procédé sont responsables des contraintes résiduelles et de la distorsion de la pièce fabriquée. La simulation numérique est un outil intéressant pour mieux cerner les phénomènes physiques à l’œuvre et leur impact sur la qualité de la pièce. Dans cette thèse, nous proposons différentes approches qui permettent de réaliser les simulations à moindre coût, en utilisant des algorithmes de réduction de modèles. Les résultats sont comparés à ceux obtenus par la méthode des éléments finis. Une méthode inverse d’identification rapide de la contrainte inhérente à partir d'abaques numériques est proposée. L'approche Proper Generalised Décomposition (PGD) est utilisée pour la construction de cet abaque. Nous explorons aussi les avantages qu'offre une implémentation de la PGD sur GPU
Selective Laser Melting offers new perspectives in terms of part design and simplification of complex assemblies. However, severe thermo-mechanical conditions arise and are responsible for local plastic deformation, residual stresses and distortion of the manufactured component. Numerical simulation is an interesting tool for process understanding the physical phenomena and their impact on the quality of the part. In this thesis, we propose different approaches to perform simulations at a lower cost, by using model reduction algorithms. The results are compared with those obtained by the finite element method. A reverse analysis in order to identify the inherent strain responsible for the measured elastic springback makes possible to build offline numerical abacus. Therefore, we use a multi-parametric reduced order model using the so called Proper Generalised Decomposition (PGD) to construct this abacus. We also explore the benefits of an implementation of PGD on GPU
26

MAHMOUD, AHMAD. "Simulation numérique d'écoulements par des méthodes de transformation de domaines". Grenoble INPG, 1999. http://www.theses.fr/1999INPG0102.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail fait le point sur les methodes de transformation de domaines utilisees pour la simulation numerique d'ecoulements bi- et tridimensionnels. Dans ce cadre, nous avons developpe des methodes de transformation permettant de calculer des ecoulements etablis dans des filieres a section constante, mais quelconque, et des ecoulements complexes, pour des modeles rheologiques de type newtonien, non-newtonien purement visqueux et viscoelastique. A la difference des analyses proposees dans la litterature, nous considerons une transformation inconnue entre le domaine physique et un domaine transforme (de calcul) plus simple, analyse a laquelle se rattachent les methodes de tubes de courant. Plusieurs problemes ont ete abordes et resolus : 1) la simulation d'ecoulements etablis de fluides obeissant a des lois de comportement newtonienne, non-newtonienne purement visqueuse et viscoelastique integrale pour des conduites de sections complexes, pour lesquelles une approche par decomposition de domaines a ete mise en oeuvre. 2) le calcul d'ecoulements axisymetriques a surface libre inconnue correspondant a l'extrusion en sortie de filiere annulaire, pour un liquide newtonien. 3) la simulation de problemes d'ecoulements axisymetriques comportant des zones de singularite : surfaces avec transition adherence-glissement ou libres. Dans le contexte d'une analyse de tubes de courant, une formulation originale par elements finis utilisant la methode de galerkin a ete proposee pour les cas 2d et 3d. Les resultats, obtenus avec des elements d'approximation d'hermite sont conformes a ceux de la litterature, pour le cas newtonien et en accord avec les donnees experimentales sur un polyethylene lineaire de basse densite represente par une loi de comportement integrale.
27

Saleh, Susi. "Méthodes de simulation des erreurs transitoires à plusieurs niveaux d'abstraction". Grenoble INPG, 2005. https://tel.archives-ouvertes.fr/tel-00009587.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La miniaturisation croissante des composants électroniques accroît considérablement la sensibilité des circuits intégrés face aux fautes transitoires de type (SEU) ou (SET). De ce fait, l'analyse de la sensibilité face aux ces fautes transitoires des circuits combinatoires et séquentiels est une tâche essentielle aujourd'hui. Les méthodes analytiques de calcul probabiliste de génération des impulsions SET ou des SEU et de propagation et transformation en erreur, publiées dans la littérateur jusqu'à ce jour, ne sont pas complets car un certain nombre de paramètres ne sont pas pris en compte. Dans cette thèse, nous proposons une méthodologie de simulation de fautes transitoires multi-niveaux qui permettra une évaluation plus rapide et en même temps précise. Cette méthodologie est en fait une collection des méthodes de simulations, une pour chaque niveau d'abstraction (niveau physique, niveau transistor, et niveau portes logiques). Au niveau physique, nous utilisons la simulation physique au niveau composants ou portes logiques élémentaires qui consiste en la caractérisation de chaque type de transistor d'une technologie donnée face aux SET en prenant en compte plusieurs paramètre (l'énergie ou le LET de la particule, l'angle d'incidence et la localisation de l'impact sur le composant, et les dimensions des transistors heurté par la particule). Suite à cette caractérisation, une famille de courbes de courants sera obtenue pour chaque transistor et un domaine de valeurs de l'amplitude et la durée de l'impulsion de courant sera établi. La transformation des impulsions de courants obtenus au niveau physique en impulsions de tension est réalisée à travers des simulations électriques en prenant en compte l'impédance de sortie de chaque porte. Une famille de courbes de tension transitoire sera aussi établie pour chaque porte. Un modèle d'impulsion logique sera défini pour ces impulsions qui sera ensuite utilisé dans des simulations numériques, qui sont beaucoup plus rapides, et qui sont utilisées finalement afin de pouvoir analyser la sensibilité face aux fautes transitoires de type SET et SEU d'un circuit complexe. Les résultats de cette analyse seront utilisés afin de réaliser une cartographie de sensibilité d'un circuit complexe qui nous permet de déterminer les zones les plus sensibles d'un circuit étudié et éventuellement de décider d'un durcissement ponctuel des portes sensibles
The nowadays miniaturization of the electronic components increases considerably the sensitivity of the integrated circuits face to transient faults (SEU) or (SET). The analysis of the transient faults sensitivity for combinational logic and sequential circuits is an essential task today. The analytical methods based on probabilistic calculation of the generation of transient pulses SET or SEU, and of the propagation and the transformation of these transients faults into errors, published in the literature are not complete because a certain number of parameters are not taken into account. In this thesis, we propose a fast and accurate multi levels methodology to simulate transient faults. This methodology is a collection of simulation methods, a method for each level of abstraction (physical level, transistor level, and gate level). At the physical level, we use a physical simulation at the components level for any elementary logical gates which consists in the characterization of each type of transistor of a given technology face of SET by taking into account several parameter (the energy or the LET of the particle, the angle of incidence, the impact localization and the dimensions of the transistors where the particle strike occurs). After this characterization, a family of current curves is obtained for each transistor and a domain of the current amplitude values and the current pulses duration is established. The transformation of the current pulse obtained at the physical level into voltage pulses is done by electrical simulations by taking into account the output impedance of each gate. A family of transient voltage pulse curves is also established for each gate. Furthermore, a logical pulse model is defined for these pulses which will be then used in a numerical simulations, which are much faster, and which are finally used in the sensitivity analysis phase for complex circuit. The results of this analysis are used in order to realize a cartography of a complex circuit sensitivity which allow us to determine the most significant zones of a studied circuit and, if required, to decide a hardening solution of the sensitive gates
28

El, Haddad Rami. "Méthodes quasi-Monte Carlo de simulation des chaînes de Markov". Chambéry, 2008. http://www.theses.fr/2008CHAMS062.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les méthodes de Monte Carlo (MC) sont des méthodes probabilistes basées sur l'utilisation des nombres aléatoires dans des simulations répétées afin d'estimer un paramètre. Leurs analogues déterministes sont appelées méthodes Quasi-Monte Carlo (QMC). Leur principe consiste à remplacer les points pseudo-aléatoires par des points quasi-aléatoires déterministes (ou points à discrépance faible). Dans cette thèse, nous proposons et analysons des algorithmes du type QMC pour la simulation des chaînes de Markov multidimensionnelles. Après avoir rappelé le principe et les propriétés des méthodes MC et QMC, nous introduisons quelques modèles financiers simples, qui serviront dans la suite pour tester l'efficacité des algorithmes proposés. Nous détaillons particulièrement des modèles où l'on connait la solution exacte, afin de pouvoir vérifier dans la suite la validité des méthodes d'approximation, et comparer leur efficacité. Dans un premier temps, nous nous intéressons à la simulation des chaînes de Markov à espace d'états discret de dimension S. Nous proposons un schéma itératif QMC permettant l'approximation de la distribution de la chaîne à tout instant. Ce schéma utilise une suite (T,S+1) en base B pour les transitions. De plus, il faut ordonner les copies de la chaine suivant leurs composantes successives à chaque itération. Nous étudions la convergence du schéma en faisant des hypothèses sur la matrice de transition. Nous validons l'étude théorique par des expériences numériques issues de la finance. Les résultats obtenus permettent d'affirmer que le nouvel algorithme est plus efficace que le schéma MC traditionnel. Nous nous intéressons ensuite à la simulation des chaînes de Markov à espace d'états multidimensionnel continu. Nous proposons un schéma QMC d'approximation de la distribution de la chaîne à tout instant. Il utilise le même algorithme de tri des états simulés que dans le cas discret. Nous étudions la convergence de l'algorithme dans le cas unidimensionnel puis multidimensionnel en faisant des hypothèses supplémentaires sur les transitions. Nous illustrons la convergence de l'algorithme par des expériences numériques; leurs résultats montrent que l'approche QMC converge plus rapidement que la technique Monte Carlo. Dans la dernière partie, nous considérons le problème de l'équation de diffusion dans un milieu hétérogène. Nous utilisons une méthode de marche aléatoire en faisant une correction des pas Gaussiens. Nous mettons au point une variante QMC de cette méthode, en adaptant les idées utilisées pour la simulation des chaines de Markov. Nous testons l'efficacité de l'algorithme en dimensions 1, 2 et 3 sur un problème de diffusion d'ions calcium dans un milieu biologique. Dans toutes les expériences, les résultats des calculs QMC sont de meilleure qualité que ceux des simulations MC. Finalement, nous faisons un bilan du travail effectué et nous proposons quelques perspectives pour des travaux futurs
Monte Carlo (MC) methods are probabilistic methods based on the use of random numbers in repeated simulations to estimate some parameter. Their deterministic versions are called Quasi-Monte Carlo (QMC) methods. The idea is to replace pseudo-random points by deterministic quasi-random points (also known as low-discrepancy point sets or sequences). In this work, we propose and analyze QMC-based algorithms for the simulation of multidimensional Markov chains. The quasi-random points we use are (T,S)-sequences in base B. After recalling the principles of MC and QMC methods and their main properties, we introduce some plain financial models, to serve in the following as numerical examples to test the convergence of the proposed schemes. We focus on problems where the exact solution is known, in order to be able to compute the error and to compare the efficiency of the various schemes In a first part, we consider discrete-time Markov chains with S-dimensional state spaces. We propose an iterative QMC scheme for approximating the distribution of the chain at any time. The scheme uses a (T,S+1)-sequence in base b for the transitions. Additionally, one needs to re-order the copies of the chain according to their successive components at each time-step. We study the convergence of the scheme by making some assumptions on the transition matrix. We assess the accuracy of the QMC algorithm through financial examples. The results show that the new technique is more efficient than the traditional MC approach. Then, we propose a QMC algorithm for the simulation of Markov chains with multidimensional continuous state spaces. The method uses the same re-ordering step as in the discrete setting. We provide convergence results in the case of one dimensional chains and then in the case of multidimensional chains, by making additional assumptions. We illustrate the convergence of the algorithm through numerical experiments. The results show that the new method converges faster than the MC algorithm. In the last part, we consider the problem of the diffusion equation in a spatially nonhomogeneous medium. We use a random walk algorithm, in conjunction with a correction of the Gaussian Steplength. We write a QMC variant of the algorithm, by adapting the principles seen for the simulation of the Markov chains. We test the method in dimensions 1, 2 and 3 on a problem involving the diffusion of calcium ions in a biological medium. In all the simulations, the results of QMC computations show a strong improvement over MC outcomes. Finally, we give some perspectives and directions for future work
29

Dubos, Samuel. "Simulation des grandes échelles d'écoulements turbulents supersoniques". Rouen, INSA, 2005. http://www.theses.fr/2005ISAM0007.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Perot, Thomas. "Quel est le niveau de détail pertinent pour modéliser la croissance d'une forêt mélangée ? Comparaison d'une famille de modèles et application aux peuplements mélangés chêne sessile - pin sylvestre". Paris, AgroParisTech, 2009. http://tel.archives-ouvertes.fr/docs/00/43/25/73/PDF/ManuscritTheseTPerotVF.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Face à l'intérêt grandissant pour les forêts mélangées, des d'outils et des modèles adaptés à leur gestion sont nécessaires. L'objectif de cette thèse est de montrer comment la construction et la comparaison de modèles ayant différents niveaux de détail peuvent nous aider à choisir le niveau le plus approprié pour modéliser la croissance d'un peuplement mélangé dans un contexte d'application donné. A partir de données récoltées dans des peuplements mélangés chêne sessile (Quercus petraea L. ) pin sylvestre (Pinus sylvestris L. ), nous avons construit une famille de modèles à différents niveaux de détail : un modèle arbre indépendant des distances (MAID), un modèle arbre dépendant des distances (MADD), trois modèles peuplement et un modèle intermédiaire entre le MAID et le MADD utilisant des distributions de voisinage. Pour que la comparaison de ces modèles soit pertinente, nous avons assuré une cohérence entre les modèles en utilisant plusieurs approches. Ces modèles nous ont permis d'acquérir des connaissances sur la croissance et la dynamique de ces forêts en particulier sur les interactions spatiales et temporelles entre le chêne et le pin. Ainsi le MAID a permis de montrer qu'il peut y avoir des phénomènes de compensation de croissance entre les deux espèces. Le MADD a permis de montrer que dans ces peuplements la compétition intraspécifique est supérieure à la compétition interspécifique. Un modèle peuplement obtenu à partir du MADD a permis d'étudier l'influence du taux de mélange sur la production. Pour évaluer la qualité prédictive des modèles, nous avons utilisé un jeu de données indépendant obtenu en partageant nos données avant la construction des modèles. Nous avons ainsi montré que le MAID était plus performant que le MADD pour prédire les accroissements individuels. Les modèles ont aussi été comparés sur des exemples d'applications mettant en œuvre des simulations à court ou moyen terme. La démarche proposée présente un intérêt aussi bien pour la compréhension du phénomène étudié que pour sa modélisation dans un but prédictif. En regroupant l'ensemble des résultats acquis, ce travail nous a permis d'apprécier la pertinence d'un type de modèle en fonction du contexte d'utilisation. Cette démarche très générale pourrait être appliquée à la modélisation d'autres processus comme la mortalité ou la régénération
Appropriate tools and models are needed for the management of mixed forests. The aim of this thesis is to show how the construction and the comparison of models with different levels of detail can help us to choose the most appropriate level to model the growth of a mixed stand. We developed a family of models at different levels of detail from data collected in mixed stands of sessile oak (Quercus petraea L. ) and Scots pine (Pinus sylvestris L. ) : a tree distance independent model (MAID), a tree distance dependent model (MADD), three stand models and an intermediate model bridging the MAID and the MADD. We ensured consistency between models using several approaches in order to make relevant comparisons. These models have given us some knowledge on the growth and dynamics of these forests, in particular on the spatial and temporal interactions between oaks and pines. Thus, we showed a compensatory growth phenomenon between the two species using the MAID. The MADD made it possible to show that, in these stands, the intraspecific competition was stronger than interspecific competition. A stand model developed from the MADD helped us to study the influence of mixing rate on production. To assess the quality of models predictions, we used an independent data set obtained by splitting our data. For example, we have shown that the MAID was more efficient than the MADD to predict individual increments. The models were also compared on examples of applications with short or medium term simulations. The proposed approach is of interest for both understanding the studied phenomenon and developing predictive tools. The different results of this work, allowed us to assess the relevance of a type of model for different contexts of use. This very general approach could be applied to the modeling of other processes such as mortality or regeneration
31

Turati, Pietro. "Méthodes de simulation adaptative pour l’évaluation des risques de système complexes". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC032/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’évaluation de risques est conditionnée par les connaissances et les informations disponibles au moment où l’analyse est faite. La modélisation et la simulation sont des moyens d’explorer et de comprendre le comportement du système, d’identifier des scénarios critiques et d’éviter des surprises. Un certain nombre de simulations du modèle sont exécutées avec des conditions initiales et opérationnelles différentes pour identifier les scénarios conduisant à des conséquences critiques et pour estimer leurs probabilités d’occurrence. Pour les systèmes complexes, les modèles de simulations peuvent être : i) de haute dimension ; ii) boite noire ; iii) dynamiques ; iv) coûteux en termes de calcul, ce qu’empêche l’analyste d’exécuter toutes les simulations pour les conditions multiples qu’il faut considérer.La présente thèse introduit des cadres avancés d’évaluation des risques basée sur les simulations. Les méthodes développées au sein de ces cadres sont attentives à limiter les coûts de calcul requis par l’analyse, afin de garder une scalabilité vers des systèmes complexes. En particulier, toutes les méthodes proposées partagent l’idée prometteuse de focaliser automatiquement et de conduire d’une manière adaptive les simulations vers les conditions d’intérêt pour l’analyse, c’est-à-dire, vers des informations utiles pour l'évaluation des risques.Les avantages des méthodes proposées ont été montrés en ce qui concerne différentes applications comprenant, entre autres, un sous-réseau de transmission de gaz, un réseau électrique et l’Advanced Lead Fast Reactor European Demonstrator (ALFRED)
Risk assessment is conditioned on the knowledge and information available at the moment of the analysis. Modeling and simulation are ways to explore and understand system behavior, for identifying critical scenarios and avoiding surprises. A number of simulations of the model are run with different initial and operational conditions to identify scenarios leading to critical consequences and to estimate their probabilities of occurrence. For complex systems, the simulation models can be: i) high-dimensional; ii) black-box; iii) dynamic; and iv) computationally expensive to run, preventing the analyst from running the simulations for the multiple conditions that need to be considered.The present thesis presents advanced frameworks of simulation-based risk assessment. The methods developed within the frameworks are attentive to limit the computational cost required by the analysis, in order to keep them scalable to complex systems. In particular, all methods proposed share the powerful idea of automatically focusing and adaptively driving the simulations towards those conditions that are of interest for the analysis, i.e., for risk-oriented information.The advantages of the proposed methods have been shown with respect to different applications including, among others, a gas transmission subnetwork, a power network and the Advanced Lead Fast Reactor European Demonstrator (ALFRED)
32

Daubas, Bruno. "Modélisation et simulation des procédés continus et discontinus". Toulouse, INPT, 1994. http://www.theses.fr/1994INPT023G.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'auteur presente une architecture generale de simulateur de procedes chimiques continus et discontinus. Une etude des problemes generiques poses par les ateliers discontinus est exposee. Apres avoir mis en evidence l'interet de decoupler le modele mathematique d'un procede discontinu en modele discret et modele continu, les points suivants sont abordes: ? le choix d'un modele global de la partie discrete du procede: le reseau de petri. Un algorithme de creation automatique d'un rdp a partir des donnees du procede est decrit. L'outil rdp dont l'utilisation dans ce domaine de la simulation est nouvelle, fait l'objet d'une description detaillee assez exhaustive. ? les strategies de modelisation et de simulation de la partie continue sont adaptees aux contraintes posees par le dialogue avec le rdp, d'une part, et avec l'integrateur d'autre part. Le simulateur est presente a travers l'etude de deux exemples qui prouvent les capacites mettant en valeur l'interet des resultats fournis par un tel outil
33

Turinici, Gabriel. "Analyse des méthodes numériques de simulation et contrôle en chimie quantique". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2000. http://tel.archives-ouvertes.fr/tel-00377187.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Venet, Cédric. "Méthodes numériques pour la simulation de problèmes acoustiques de grandes tailles". Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2011. http://www.theses.fr/2011ECAP0019.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s’intéresse à la simulation acoustique de problèmes de grandes tailles. La parallélisation des méthodes numériques d’acoustique est le sujet principal de cette étude. Le manuscrit est composé de trois parties : lancé de rayon, méthodes de décomposition de domaines et algorithmes asynchrones
This thesis studies numerical methods for large-scale acoustic problems. The parallelization of the numerical acoustic methods is the main focus. The manuscript is composed of three parts: ray-tracing, optimized interface conditions for domain decomposition methods and asynchronous iterative algorithms
35

Minjeaud, Sebastian. "Raffinement local adaptatif et méthodes multiniveaux pour la simulation d'écoulements multipĥasiques". Phd thesis, Université Paul Cézanne - Aix-Marseille III, 2010. http://tel.archives-ouvertes.fr/tel-00535892.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est consacrée à l'étude de certains aspects numériques et mathématiques liés à la simulation d'écoulements incompressibles triphasiques à l'aide d'un modèle à interfaces diffuses de type Cahn-Hilliard/Navier-Stokes. La discrétisation spatiale est effectuée par éléments finis. La présence d'échelles très différentes dans le système suggère l'utilisation d'une méthode de raffinement local adaptatif. La procédure mise en place permet de tenir compte implicitement des non conformités des maillages générés, pour produire in fine des espaces d'approximation conformes. Nous montrons, en outre, qu'il est possible d'exploiter cette méthode pour construire des préconditionneurs multigrilles. Concernant la discrétisation en temps, notre étude a commencé par celle du système de Cahn-Hilliard. Pour remédier aux problèmes de convergence de la méthode de Newton utilisée pour résoudre ce système (non linéaire), nous proposons un schéma semi-implicite permettant de garantir la décroissance de l'énergie. Nous montrons l'existence et la convergence des solutions discrètes. Nous poursuivons ensuite cette étude en donnant une discrétisation en temps inconditionnellement stable du modèle complet Cahn-Hilliard/Navier-Stokes ne couplant pas fortement les deux systèmes. Nous montrons l'existence des solutions discrètes et, dans le cas où les trois fluides ont la même densité, nous montrons leur convergence. Nous étudions, pour terminer cette partie, diverses problématiques liées à l'utilisation de la méthode de projection incrémentale. Enfin, la dernière partie présente plusieurs exemples de simulations numériques, diphasiques et triphasiques, en deux et trois dimensions.
36

Marquez, Bernard. "Simulation des grandes échelles d'écoulements compressibles par des méthodes éléments finis". Toulouse, INPT, 1999. http://www.theses.fr/1999INPT0184.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de ce travail est d'étendre un code industriel, résolvant les équations de Navier-Stokes stationnaires moyennées (RANS), à l'instationnaire puis à la simulation des grandes échelles (LES). Une approximation éléments finis en espace fondée sur la formulation Galerkin/Moindres Carrés est utilisée. L'intégration temporelle est assurée par un schéma explicite Runge Kutta à quatre pas. Les différentes formulaions spatiales et le schéma en temps sont décrits, analysés sur l'équation d'advection monodimensionnelle, puis validés sur des calculs d'amplification temporelle d'instabilités (couche de mélange et couche limite bidimensionnelles). Le modèle de Smagorinsky et une variante sélective sont implémentés. La validation des méthodes numériques et des différents modèles de sous-maille est effectuée sur des simulations de turbulence homogène isotrope et de couches de mélange temporelles tridimensionnelles à différents nombres de Reynolds. L'application finale est l'étude de l'effet d'un jet supersonique sur une couche de mélange plane confinée subsonique supersonique. Les résultats des différentes simulations des grandes échelles sont comparés à une expérience réalisée au CEAT de Poitiers ainsi qu'avec des simulations moyennées k-e.
37

Choquin, Jean-Philippe. "Simulation numérique d'écoulements tourbillonaires de fluides incompressibles par des méthodes particulaires". Paris 6, 1987. http://www.theses.fr/1987PA066308.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Casarin, Roberto. "Méthodes de simulation pour l'estimation bayésienne des modèles à variables latentes". Paris 9, 2007. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2007PA090056.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les modèles à variables latentes sont très utilisées en économétrie et statistique. Cette thèse se concentre sur l'utilisation des variables latentes dans la modélisation des mélanges des lois, dans l'analyse des séries temporelles et dans les modèles à temps continue. On suit une approche bayésienne de l'inférence fondée sur simulation. La partie recherche a été développée dans quatre chapitres. Le Chapitre 3 propose un modèle de mélange des lois alpha-stables qui prennent en compte, l'asymétrie, les queues épaisses et la multimodalité qui caractérisent les données financières. Le Chapitre 4 propose un modèle à volatilité stochastique à changements de régime avec des innovations du type queues épaisses pour le processus observable. Nous utiliserons une méthode bayésienne de filtrage par simulation, pour filtrer les processus latents et pour estimer les paramètres inconnus. Le Chapitre 5 traite l'estimation de paramètres et l'extraction de la volatilité en utilisant un nouvel algorithme SMC régularisé. Le Chapitre 6 traite l'inférence bayèsienne par Population de Monte Carlo, d'une équation différentielle stochastique, observée à temps discret
Latent variable models are now very common in econometrics and statistics. This thesis mainly focuses on the use of latent variables in mixture modelling, time series analysis and continuous time models. We follow a Bayesian inference framework based on simulation methods. In the third chapter we propose alfa-stable mixtures in order to account for skewness, heavy tails and multimodality in financial modelling. Chapter four proposes a Markov-Switching Stochastic-Volatility model with a heavy-tail observable process. We follow a Bayesian approach and make use of Particle Filter, in order to filter the state and estimate the parameters. Chapter five deals with the parameter estimation and the extraction of the latent structure in the volatilities of the US business cycle and stock market valuations. We propose a new regularised SMC procedure for doing Bayesian inference. In chapter six we employ a Bayesian inference procedure, based on Population Monte Carlo, to estimate the parameters in the drift and diffusion terms of a stochastic differential equation (SDE), from discretely observed data
39

Minjeaud, Sebastian. "Raffinement local adaptatif et méthodes multiniveaux pour la simulation d’écoulements multiphasiques". Aix-Marseille 3, 2010. http://www.theses.fr/2010AIX30051.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce manuscrit de thèse décrit certains aspects numériques et mathématiques liés à la simulation d’écoulements incompressibles triphasiques à l’aide d’un modèle à interfaces diffuses de type Cahn-Hilliard (les interfaces sont représentées par des zones d’épaisseur faible mais non nulle) couplé aux équations de Navier-Stokes. La discrétisation en espace est effectuée par approximation variationnelle de Galerkin et la méthode des éléments finis. La présence d’échelles très différentes dans le système (les épaisseurs d’interfaces étant très petites devant les tailles caractéristiques du domaine) suggère l’utilisation d’une méthode de raffinement local adaptatif. La procédure que nous avons mise en place, permet de prendre en compte implicitement les non conformités des maillages générés, pour produire in fine des espaces d’approximation éléments finis conformes. Le principe est de raffiner en premier lieu les fonctions de base plutôt que le maillage. Le raffinement d’une fonction de base est rendu possible par l’existence conceptuelle d’une suite emboîtée de grilles uniformément raffinées, desquelles sont déduites des relations “parents-enfants” reliant les fonctions de bases de deux niveaux successifs de raffinement. Nous montrons, en outre, comment exploiter cette méthode pour construire des préconditionneurs multigrilles. A partir d’un espace d’approximation éléments finis composite (contenant plusieurs niveaux de raffinement), il est en effet possible par “coarsening” de reconstruire une suite d’espaces emboîtés auxiliaires, permettant ainsi d’entrer dans le cadre abstrait multigrille. Concernant la discrétisation en temps, notre étude a commencé par celle du système de Cahn-Hilliard. Pour remedier aux problèmes de convergence de la méthode de Newton utilisée pour résoudre ce système (non linéaire), un schéma semi-implicite a été proposé. Il permet de garantir la décroissance de l’énergie libre discrète assurant ainsi la stabilité du schéma. Nous montrons l’existence et la convergence des solutions discrètes vers une solution faible du système. Nous poursuivons ensuite cette étude en donnant une discrétisation en temps inconditionnellement stable du modèle complet Cahn-Hilliard/Navier-Stokes. Un point important est que cette discrétisation ne couple pas fortement les systèmes de Cahn-Hilliard et Navier-Stokes, autorisant une résolution découplée des deux systèmes dans chaque pas de temps. Nous montrons l’existence des solutions discrètes et, dans le cas où les trois fluides ont la même densité, nous montrons leur convergence vers des solutions faibles. Nous étudions, pour terminer cette partie, diverses problématiques liées à l’utilisation de la méthode de projection incrémentale. Enfin, la dernière partie présente plusieurs exemples de simulations numériques, diphasiques et triphasiques, en deux et trois dimensions
This manuscript describes some numerical and mathematical aspects of incompressible multiphase flows simulations with a diffuse interface Cahn-Hillliard/Navier-Stokes model (interfaces have a small but a positive thickness). The space discretisation is performed thanks to a Galerkin formulation and the finite elements method. The presence of different scales in the system (interfaces have a very small thickness compared to the characteristic lengths of the domain) suggests the use of a local adaptive refinement method. The algorithm, that we introduced, allows to implicitly handle the non conformities of the generated meshes to produce conformal finite elements approximation spaces. It consists in refining basis functions instead of cells. The refinement of a basis function is made possible by the conceptual existence of a nested sequence of uniformly refined grids from which “parent-child” relationships are deduced, linking the basis functions of two consecutive refinement levels. Moreover, we show how this method can be exploited to build multigrid preconditioners. From a composite finite elements approximation space, it is indeed possible to rebuild, by “coarsening”, a sequence of auxiliairy nested spaces which allows to enter in the abstract multigrid framework. Concerning the time discretization, we begin by the study of the Cahn-Hilliard system. A semi-implicit scheme is proposed to remedy to convergence failures of the Newton method used to solve this (non linear) system. It guarantees the decrease of the discrete free energy ensuring the stability of the scheme. We show existence and convergence of discrete solutions towards the weak solution of the system. We then continue this study by providing an inconditionnaly stable time discretization of the complete Cahn-Hilliard/Navier-Stokes model. An important point is that this discretization does not strongly couple the Cahn-Hilliard and Navier-Stokes systems allowing to independently solve the two systems in each time step. We show the existence of discrete solutions and, in the case where the three fluids have the same densities, we show their convergence towards weak solutions. We study, to finish this part, different issues linked to the use of the incremental projection method. Finally, the last part presents several examples of numerical simulations, diphasic and triphasic, in two and three dimensions
40

Legoll, Frédéric. "Méthodes moléculaires et multi-échelles pour la simulation numérique des matériaux". Paris 6, 2004. http://www.theses.fr/2004PA066203.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Faure, Frédéric. "Nouvelles méthodes pour la simulation numérique du soudage des structures élancées". Paris 6, 2004. http://www.theses.fr/2004PA066111.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Fréret, Lucie Viviane Françoise. "Méthodes particulaires en vue de la simulation numérique pour la plasturgie". Châtenay-Malabry, Ecole centrale de Paris, 2007. http://www.theses.fr/2007ECAP1058.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'inscrit dans le contexte de simulation de procédés d'injection de thermoplastiques. L'objectif est de pouvoir simuler numériquement des écoulements de fluides à frontière libre avec possiblité de changement de phase. Plus précisement, nous nous sommes intéressés à des écoulements bidimensionnels incompressibles visqueux à l'aide de méthodes particulaires. L'inconsistance des formules discrètes des opérateurs aux dérivées partielles de la méthode MPS (Moving Particle Semi-implicit) est démontrée. En utilisant des techniques d'approximation sans maillages consistantes, proches des formulations MLS (Moving Least Square), on propose alors une méthode particulaire originale qui discrétise les équations de Navier-Stokes incompressible en formulation purement Lagrangienne. Pour la semi-discrétisation en temps, on utilise une méthode de projection standard. La méthode à pas fractionnaire résultante est constituée de trois étapes: une étape de prédiction du champ de vitesses et des positions des particules, une étape de corrections des positions des particules et une étape de correction du champ de vitesses. Une telle discrétisation conserve la répartition quasi-uniforme des particules et ne nécessite pas de génération ou destruction artificielle de particules. Un traitement numérique originale de la surface libre et du calcul de la tension de surface est proposé. Des résutats numériques comparés à ceux d'expériences sont présentés, montrant ainsi la capacité de la méthode à calculer des écoulements à frontière libre dans un cas mono-fluide. Dans une seconde partie, on présente une extension de notre méthode au cas bifluide en utilisant un modèle de mélange. Plusieurs résultats d'instabilités de Rayleigh-Taylor sont comparés à ceux obtenus par d'autres méthodes. En raison des limitations que présente un tel modèle, on s'intéresse alors à un modèle bifluide où chaque fluide est calculé. Ce dernier nécessite préalablement la discrétisation de l'opérateur à coefficients non constants div( a grad). Pour cela, on utilise une représentation intégrale et une formule de quadrature par points de Gauss. Le modèle numérique est une adaptation de la méthode à pas fractionnaire à trois étapes discutée dans la partie mono-fluide. Des résultats numériques très précis montrent la pertinence de l'approche
The framework of this thesis is the simulation of injection processes of thermoplastic materials. The aim is to simulate numerically fluid flows with free boundaries where transition of phase can occur. More precisely, in this work, we have considered bidimensionnal incompressible viscous flows with Lagrangian meshless methods. The lack of consistency of discetrized partial derivatives operator for the MPS method (Moving Particle Semi-implicit) is shown. By using approximated consistent meshless techniques close to MLS approximation (Moving Least Square), we then propose an original Lagrangian meshless method which discretize incompressible Navier-Stokes equations in a purely Lagrangian formulation. Concerning the semi-discretization in time, we use the classical projection method. The resultant fractionnal step method consists in three stages: a prediction step of position and velocity field, a correction step of position particles and a correction step of velocities field. Such a discretization keeps the particle repartition regular and do not need to create or destroy particles. An original numerical treatment to track or capture free surfaces and computation of surface tension force are proposed. We compare numerical results to experiments showing the capability of our method to calculate mono-fluid free surface flows. In a second part, we present a bi-fluid extension using a melt model. The Rayleigh-Taylor results are compared to these obtained by other methods. Because of the limitations of such model, we focus on a bifluid model where each fluid is calculated. This model needs first the non-constant coefficient operator div( a grad) to be discretized. We the use an integral representation ans a quadrature formulae with Gauss's points. The numerical model obtained is a previously three step method adaptation. Precise numerical results show the significance of the approach
43

Rosiello, Immacolata. "Méthodes de simulation, analyse de la complexité, utilisation de modèles, interdisciplinarité". Aix-Marseille 1, 2009. http://www.theses.fr/2009AIX10111.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de cette thèse est une réflexion épistémologique sur le rôle et les limites de la simulation dans les sciences exactes et dans les sciences sociales. Dans les sciences exactes, la simulation est désormais entérinée comme une pratique scientifique courante, qui s'étale du simple calcul numérique jusqu'à se positionner en vraie source d'investigation et de fabrication de modèles. Plus critique est la position de la simulation dans les sciences sociales, surtout quand elle se décline en mathématisation et calcul des phénomènes humains et économiques et dans la validation conséquente de ses résultats. Nous verrons que le cadre paradigmatique qui à la fois fonde et justifie le recours à la simulation dans les sciences sociales est celui de la complexité. Le chapitre final essaie de tracer le parcours historique des différents aspects de la simulation en économie et finance, là où le recours à la modélisation est constant et lourd de conséquences.
44

Zoghaib, Maria. "Étude et simulation de méthodes de refroidissement des bandes d'acier défilantes". Paris, ENMP, 2010. http://www.theses.fr/2010ENMP0032.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif principal de cette thèse est d'améliorer le processus de refroidissement des bandes d'acier dans les lignes continu de recuit et de galvanisation. Le processus de refroidissement dans ces lignes est d'un intérêt métallurgique majeur. Des capacités de refroidissement insuffisantes peuvent entrainer la production d'acier de qualité inadéquate. Premièrement, le refroidissement par jets de gaz impactant sur l'acier est étudié. Le transfert de chaleur par ce procédé est limité d'une part pas la consommation du ventilateur et d'autre part par els phénomènes instationnaire qui apparaissent au niveau de la plaque pour de vitesse de jets élevées. Ainsi, la configuration du système de soufflage ainsi que les propriétés du gaz refroidissant sont analysés afin d'augmenter le taux de refroidissement en maintenant la consommation énergétique au plus bas. Une configuration optimale est ainsi définie. Par la suite, un modèle numérique est développé pour simuler l'interaction fluide-structure à l'origine des oscillations de la plaque. Ce modèle a permis de comparer des jets obliques à des jets impactant perpendiculairement. La configuration oblique confère plus de stabilité. Cependant, les taux de refroidissement maximaux par impact de jets ne sont pas suffisants pour obtenir des qualités d'acier spécifiques. C'est pour cela qu'une technique de refroidissement plus efficace basée sur le transfert de chaleur par ébullition est introduite. En effet, en raison du changement de phase qui se produit, des flux élevés de chaleur sont dissipés pour des vitesses d'impact minimes. Et, afin de contourner les réactions d'oxydation avec l'eau, un autre liquide à changement de phase est choisi pour le refroidissement, c'est le Pentane. Pour un refroidissement homogène et des économies du débit de fluide, le refroidissement par pulvérisation de gouttelettes (spray) est utilisé. Ainsi, un banc d'expérimentations est mis en place pour caractériser les échanges thermiques d'un spray de Pentane à température de surface élevée. L'effet des différents paramètres hydrodynamiques du spray sont étudiées et une corrélation est proposée. Elle permet de prédire le flux de chaleur évacué par un spray de pentane en fonction de la température de surface et des propriétés hydrodynamiques du spray. La corrélation est par la suite implémentée afin de prédire le taux refroidissement d'une tôle d'acier défilant dans une section de refroidissement par spray de pentane. Les performances de cette dernière sont par la suite comparé à un refroidissement par impact de jet pour le même cahier de charge. Le refroidissement par spray de pentane confère non seulement de meilleurs taux de refroidissement mais optimise aussi les consommations d'énergie
The main scope of this dissertation is to ameliorate the cooling process of the steel strips in continuous annealing and galvanizing lines. Cooling in continuous annealing and galvanizing lines is of great metallurgical interest. Insufficient cooling capacity can result in inadequate steel grades. Cooling by impinging gas jets over the steel surface is first investigated. The heat transfer rates of this process are limited on one side by the blowing device power consumption and on the other by the occurring non stationary phenomena for high impingement velocities. On one side, the blowing device configuration and blown gas properties are analyzed in order to increase the cooling rates while keeping the power consumption at its lowest. The study is undertaken throughout literature, experimental measurements, and numerical results. An optimized configuration is defined. On the other, a numerical model is developed to simulate the fluid-structure interaction that generates the detrimental oscillations of the strip. A configuration of oblique jet impingement is compared to normal impingement. It was proven to confer more stability. However, the maximum cooling rates reached by gas convection are insufficient regarding the cooling rates to obtain special steel grades. A more efficient technique based on boiling heat transfer is investigated. Due to phase change that occurs in boiling heat transfer, high heat fluxes are dissipated for small flow velocities. In order to sidestep the oxidation problems encountered with water, another liquid coolant is chosen, Pentane. For homogenous cooling patterns and savings in flow requirements, spray nozzles are used to impinge Pentane over the hot surface. An experimental bench is then set-up to characterize the cooling rates of a pentane spray for high surface temperature, i. E. Film boiling regime. The effect of the spray hydrodynamic parameters on the heat transfer process is analyzed and a correlation is developed. T he correlation predicts the evacuated heat flux from the hot surface as a function of the surface temperature and spray hydrodynamic parameters. The developed correlation is implemented in a simulation model in order to predict the cooling rate of a Pentane spray cooling section. The latter is then compared to gas jet cooling section for the same terms of reference. Aside from yielding higher cooling rates, Pentane spray cooling results in savings in power consumption
45

Multon, Stéphane. "Évaluation expérimentale et théorique des effets mécaniques de l'alcali-réaction sur des structures modèles". Marne-la-Vallée, 2003. http://www.theses.fr/2003MARN0181.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'importance du nombre d'ouvrages atteints d'alcali-réaction en France a conduit le Laboratoire Central des Ponts et Chaussées (LCPC) et Electricité de France (EDF) à développer une vaste étude expérimentale afin de calibrer et valider les méthodologies de re-calcul d'ouvrages atteints et pouvoir répondre aux questions concernant la pérennité, la sécurité et l'aptitude au service des structures dégradées par cette pathologie. L'étude de la bibliographie concernant le développement de cette réaction chimique dans les bétons et ses effets sur les structures, a conduit à définir un programme ambitieux pour mesurer précisément le développement de l'alcali-réaction dans six structures modèles, en caractérisant notamment l'effet de deux paramètres majeurs : les apports d'eau et les contraintes. A l'occasion de ce programme, trois moyens de mesures innovants nécessaires aux suivis hydrique et mécanique de ces structures ont été conçus et qualifiés : -un banc de pesage, afin de mesurer les variations de masse globale de poutres de 900 kg avec une précision de 10 g, -un banc de gammadensimétrie mobile, pour déterminer des profils de variation relative de masse dans leur hauteur, -des extensomètres à corde vibrante sans raideur, de différentes bases de mesure, pour mesurer leurs déformations locales et globales. Un nombre important de mesures "classiques" a également été réalisé, tant sur les poutres modèles que sur des éprouvettes. Cette étude a permis de constituer une banque de données importante, utilisable par de nombreux acteurs du Génie Civil puisqu'elle concerne les déformations de structures endommagées par l'alcali-réaction mais également les transports hydriques dans des structures de béton et les déformations de structures en bétons non atteints d'alcali-réaction. Ce suivi a apporté de nouveaux enseignements directement utilisables pour l'expertise et l'évaluation de la dégradation des ouvrages atteints concernant : -l'évolution des caractéristiques mécaniques d'un béton réactif représentatif de celui d'ouvrages d'art français, -la méthodologie de l'essai d'expansion résiduelle, -les effets d'un gradient d'humidité sur le comportement de structures en béton, -les effets d'apports d'eau tardifs sur le comportement d'ouvrages atteints, -l'influence de l'état de contraintes sur l'amplitude et la cinétique des expansions dues à l'alcali-réaction, que ces contraintes mécaniques soient dues au fonctionnement de l'ouvrage, à la présence d'armatures, à des conditions hydriques variables, -et finalement, l'impact de cette pathologie sur la résistance mécanique des structures atteintes
A large scale experimental program has been carried out at the Laboratoire Central des Ponts et Chaussées (LCPC), with Electricité de France (EDF) as a partner, in order to validate methodologies of mechanical reassessment of real structures damaged by Alkali-Silica Reaction (ASR) and thus answer to the needs of owners of civil engineering structures (bridges, dams, pavements). The final aim is to improve calculation tools in order to determine the evolution of ASR affected structures. Major features of this study were to point out the water driving effect and the compressive stresses consequences on swellings due to ASR. Thus, the hydro-chemo-mechanical behaviour of six instrumented laboratory structures has been monitored during a two years experimentation. Three specific devices have been designed to achieve the numerous measurements, in order to evaluate water movements in concrete and structural behaviours of the six structures : -the weighing device allows to measure the mass variations of the 900 kg beams, with a 10 g accuracy, -the gammadensitometry equipment is used to determine the relative mass variations along the height of the beams, -specific stiffness vibrating wire sensors achieve deformation measurements in the beams. Other current or improved techniques have been also used in order to complement the characterisation of the behaviour of the beams, and to quantify chemo-mechanical data related to the two concrete mixtures during two years. This laboratory experimental survey has collected numerous results to document both moisture and chemo-mechanical deformations, which builds a useful data bank in order to validate models. At last, measurements have increased knowledge useful for expert evaluation of ASR-affected structures about : -mechanical properties evolution of concrete mixture damaged by ASR, -methodology of residual expansion tests, -effects of moisture gradient in ASR-damaged structures, -consequences of late water supply on ASR progress in structures already damaged, -range and time-evolution of ASR swellings under specific stress states, due to mechanical loads, reinforcement or various environmental conditions, and, at last, the effect of this chemical reaction on the mechanical strength of damaged structures
46

Di, Benedetto Hervé. "Modélisation du comportement des géomatériaux : application aux enrobés bitumineux et aux bitumes". Grenoble 1, 1987. http://www.theses.fr/1987GRE10096.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Developpement d'un modele rheologique tenant compte de la viscosite et de la temperature, dans le cadre de la mecanique des milieux continus. Etude experimentale par un appareil triaxial de revolution et un appareil original de torsion compression, confinement d'eprouvette creuse, pour un enrobe et un bitume. Calibration du modele et comparaisons theorie-experience sur chemins de sollicitation homogenes
47

Dascalu, Daniel. "Méthodes probabilistes pour la modélisation de la maintenance préventive". Compiègne, 2002. http://www.theses.fr/2002COMP1386.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse représente une contribution dans les domaines de fiabilité et de maintenance de systèmes techniques, en particulier dans le domaine de maintenance préventive. Choisir une politique de maintenance pour une installation complexe représente une tâche difficile, avec un effet considérable sur la qualité et le coût de fonctionnement des installations larges, sur les conditions environnementales aussi. Ce manuscrit aide le décideur à faire le choix d’une politique de maintenance, de mise en œuvre la méthodologie et de calculer la performance de système. La thèse contient six chapitres. Le chapitre 1 présente l’histoire de la maintenance et les définitions principales, une classification des politiques de maintenance et les facteurs de décision. Le chapitre 2 présente les méthodes de maintenance les plus importantes et les modèles mathématiques. Le chapitre 3 présente les politiques de maintenance classiques pour les systèmes complexes et l’algorithme nécessaire pour la mise en œuvre en utilisant la théorie de processus stochastiques semi-Markov. Le chapitre 4 présente une politique de maintenance nouvelle, plus réaliste. L’aspect innovant de cet algorithme est le fait qu’il tienne compte des aspects pratiques des actions de maintenance. Le chapitre 5 présente une méthode complètement nouvelle, qui permet de quantifier les actions de maintenance. Le principal avantage est qu’il n’utilise aucune hypothèse irréaliste pour obtenir des résultats concrets pour la performance du système. En addition, l’algorithme permet de calculer l’efficience d’une méthode de maintenance donnée ou de comparer différentes méthodes de maintenance sur la même base. Finalement, le chapitre 5 de Conclusion présente l’importance de la maintenance préventive pour le fonctionnement des installations techniques, les avantages qui résultent en utilisant des procédures automatiques de maintenance et les directions nouvelles dans le domaine de modélisation de la maintenance.
48

Nomine, Jean-Philippe. "Etude d'outils de simulation du comportement de robots". Paris 6, 1991. http://www.theses.fr/1991PA066596.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail est une contribution à l'étude du comportement des robots par la simulation. Nous proposons des outils pour le test de composants logiciels contribuant à faire d'un robot une machine qui agit et perçoit dans un environnement. Différentes représentations du robot et de son environnement sont articulées:―des composants d'émulation du robot fonctionnellement constitué de dispositifs et de composants logiciels pour l'action et la perception; le robot est alors vu comme acteur d'un scénario;―un noyau de simulation qui gère le déroulement d'un scénario dans un décor virtuel, en répondant aux requêtes d'action et de perception émulées. Le noyau de simulation utilise des représentations de l'environnement, de la partie matérielle du robot et de lois physiques régissant leurs évolutions et leurs interactions. Des maquettes de tels outils sont appliquées à l'étude de composants logiciels pour deux applications robotiques: un interpréteur pour l'exécution de tâches de découpe laser par un robot à cinq axes, et un planificateur réactif de missions d'un engin mobile. Nous spécifions ensuite des outils plus généraux, développés en langage Ada. Une version simplifiée est appliquée l'émulation/simulation d'un robot mobile doté d'un composant logiciel de navigation réflexe.
49

Gabella-Latreille, Céline. "Le modele quinquin-fret : un modele de simulation a l'horizon 2015 des flux nationaux de transport de marchandises". Lyon 2, 1997. http://www.theses.fr/1997LYO22024.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le modele quinquin fret constitue un outil d'aide a la decision. Il permet d'evaluer exante les consequences a long terme des mesures de politique des transports envisageables par les pouvoirs publics ou relevant de la strategie commerciale de la sncf. Le potentiel transportable national des modes routiers, ferroviaires et fluviaux peut ainsi etre simule a l'horizon de long terme selon diverses hypotheses liees a la croissance industrielle et aux parametres de competivite inter-nodale
The quinquin fret model is an instrument helping the decision making. It allows is evaluate ex-ante the long term effects of transport policies measures expected by public authorities as to the sncf. The national ton kilometre obtained by road, transport, rail transport or inland navigation can be simulated at a long term toking into account different asseptions related to industrial growth and to modal split factors
50

Bourgeois, Timothée. "Effets des perturbations anthropiques sur la biogéochimie dans l'océan côtier à l'échelle globale". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV015.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'océan côtier subit la convergence de nombreuses perturbations anthropiques, avec le changement climatique en première ligne. Le réchauffement, l'acidification de l'océan, l'eutrophisation et la désoxygénation se combinent en menaçant les écosystèmes côtiers et les activités humaines associées. Malheureusement, la très forte hétérogénéité spatiale et temporelle de l'océan côtier limite la compréhension des processus biogéochimiques impliqués et leurs réponses face aux perturbations anthropiques. Les bases de données actuelles d'observations côtières sont encore insuffisantes et les modèles biogéochimiques océaniques globaux ont longtemps été inadaptés à l'étude de l'océan côtier global. En effet, la résolution spatiale de ces modèles était trop grossière pour résoudre de manière pertinente les processus de petites échelles. L'augmentation de la puissance de calcul des supercalculateurs permet l'utilisation de grilles de modèle plus fines adaptées à l'étude de l'océan côtier. Dans cette thèse, nous proposons d'étudier l'évolution au cours des dernières décennies de la biogéochimie de l'océan côtier à l'échelle globale à l'aide du modèle couplé physique-biogéochimie NEMO-PISCES. Après une évaluation de la représentation globale de la biogéochimie côtière et du cycle du carbone côtier dans notre modèle océanique, nous estimons le rôle actuel de l'océan côtier dans l'absorption océanique de carbone anthropique et nous étudions l'impact de la perturbation anthropique des apports fluviaux sur la biogéochimie côtière. En utilisant 3 grilles de résolutions spatiales différentes (200 km, 50 km et 25 km), il a été estimé que l'utilisation de la grille de 50 km représente le meilleur compromis entre les trois résolutions testées et que le passage à 25 km ne montre pas d'améliorations significatives des champs biogéochimiques côtiers évalués. Après cette première évaluation, le puits de carbone anthropique de l'océan côtier a été estimé pour la première fois à partir d'un modèle 3D global. L'océan côtier absorberait ainsi seulement 4,5 % du carbone anthropique absorbé par l'océan global pour la période 1993-2012 alors qu'il représente 7,5 % de la surface océanique globale. L'absorption côtière est réduite par l'export limité du carbone anthropique vers l'océan ouvert ne permettant pas de réduire la concentration moyenne de carbone anthropique des eaux côtières au niveau de celle de la couche de mélange de l'océan ouvert. Enfin, les effets de la perturbation anthropique des apports fluviaux sur la biogéochimie côtière ont été jugés limités quant intégrés à l'échelle côtière globale. Cependant, ces perturbations sont très contrastées régionalement. La mer du Nord présente des variations biogéochimiques mineures du fait de la tendance locale modérée appliquée aux apports fluviaux en nutriments, comparée à la mer de Chine de l'Est où la forte augmentation des apports fluviaux provoque d'importants phénomènes de désoxygénation et d'acidification
The coastal ocean suffers from the convergence of multiple anthropogenic stressors with climate change at the forefront. Combined stresses from global warming, ocean acidification, eutrophication and deoxygenation threaten coastal ecosystems and thus their services that humans rely on. Unfortunately, the coastal ocean's large spatiotemporal heterogeneity limits our understanding of the biogeochemical processes involved and their responses to anthropogenic perturbations. The current database of coastal observations remains insufficient, and global biogeochemical ocean models have long been inadequate to the study of the global coastal ocean. Indeed, the spatial resolution of these models has been too coarse to resolve key small-scale coastal processes. However, continual improvements in computational resources now allow global simulations to be made with sufficiently high model resolution that begins to be suitable for coastal ocean studies. In this thesis, we propose to study the evolution of the coastal ocean biogeochemistry at the global scale over recent decades using higher resolution versions of the global physical-biogeochemical model NEMO-PISCES. After evaluating of the global representation of the coastal biogeochemistry in this ocean model, we estimate the current role of the coastal ocean in the ocean uptake of anthropogenic carbon and we study the impact of the anthropogenically driven changes in riverine inputs on the coastal biogeochemistry. From simulations made at 3 different spatial resolutions (200 km, 50 km, 25 km), we esteem that the 50-km model grid offers the best compromise between quality of results and computational cost. The upgrade to 25 km does not appear to provide significant improvement in model skill of simulating coastal biogeochemical fields. After evaluating the model, we provide an estimate of the coastal-ocean sink of anthropogenic carbon, the first study to do so with a global 3-D model. In our simulation, the coastal zone absorbs only 4.5% of the anthropogenic carbon taken up by the global ocean during 1993-2012, less than the 7.5% proportion of coastal-to-global-ocean surface areas. Coastal uptake is weakened due to a bottleneck in offshore transport, which is inadequate to reduce the mean anthropogenic carbon concentration of coastal waters to the average level found in the open-ocean mixed layer. Finally, the anthropogenic perturbation in riverine delivery of nutrients to the ocean has limited impact on the coastal carbon cycle when integrated across all coastal regions, but locally it can induce sharp biogeochemical contrasts. For example, the North Sea shows minor biogeochemical changes following the moderate local trend in nutrient riverine inputs, which is in dramatic contrast to the East China Sea where extensive deoxygenation and acidification are driven by sharp increases in riverine nutrient inputs

Vai alla bibliografia