To see the other types of publications on this topic, follow the link: Simulation numérique Monte-Carlo.

Dissertations / Theses on the topic 'Simulation numérique Monte-Carlo'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Simulation numérique Monte-Carlo.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Fakhereddine, Rana. "Méthodes de Monte Carlo stratifiées pour l'intégration numérique et la simulation numériques." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM047/document.

Full text
Abstract:
Les méthodes de Monte Carlo (MC) sont des méthodes numériques qui utilisent des nombres aléatoires pour résoudre avec des ordinateurs des problèmes des sciences appliquées et des techniques. On estime une quantité par des évaluations répétées utilisant N valeurs et l'erreur de la méthode est approchée par la variance de l'estimateur. Le présent travail analyse des méthodes de réduction de la variance et examine leur efficacité pour l'intégration numérique et la résolution d'équations différentielles et intégrales. Nous présentons d'abord les méthodes MC stratifiées et les méthodes d'échantillonnage par hypercube latin (LHS : Latin Hypercube Sampling). Parmi les méthodes de stratification, nous privilégions la méthode simple (MCS) : l'hypercube unité Is := [0; 1)s est divisé en N sous-cubes d'égale mesure, et un point aléatoire est choisi dans chacun des sous-cubes. Nous analysons la variance de ces méthodes pour le problème de la quadrature numérique. Nous étudions particulièrment le cas de l'estimation de la mesure d'un sous-ensemble de Is. La variance de la méthode MCS peut être majorée par O(1=N1+1=s). Les résultats d'expériences numériques en dimensions 2,3 et 4 montrent que les majorations obtenues sont précises. Nous proposons ensuite une méthode hybride entre MCS et LHS, qui possède les propriétés de ces deux techniques, avec un point aléatoire dans chaque sous-cube et les projections des points sur chacun des axes de coordonnées également réparties de manière régulière : une projection dans chacun des N sousintervalles qui divisent I := [0; 1) uniformément. Cette technique est appelée Stratification Sudoku (SS). Dans le même cadre d'analyse que précédemment, nous montrons que la variance de la méthode SS est majorée par O(1=N1+1=s) ; des expériences numériques en dimensions 2,3 et 4 valident les majorations démontrées. Nous présentons ensuite une approche de la méthode de marche aléatoire utilisant les techniques de réduction de variance précédentes. Nous proposons un algorithme de résolution de l'équation de diffusion, avec un coefficient de diffusion constant ou non-constant en espace. On utilise des particules échantillonnées suivant la distribution initiale, qui effectuent un déplacement gaussien à chaque pas de temps. On ordonne les particules suivant leur position à chaque étape et on remplace les nombres aléatoires qui permettent de calculer les déplacements par les points stratifiés utilisés précédemment. On évalue l'amélioration apportée par cette technique sur des exemples numériques Nous utilisons finalement une approche analogue pour la résolution numérique de l'équation de coagulation, qui modélise l'évolution de la taille de particules pouvant s'agglomérer. Les particules sont d'abord échantillonnées suivant la distribution initiale des tailles. On choisit un pas de temps et, à chaque étape et pour chaque particule, on choisit au hasard un partenaire de coalescence et un nombre aléatoire qui décide de cette coalescence. Si l'on classe les particules suivant leur taille à chaque pas de temps et si l'on remplace les nombres aléatoires par des points stratifiés, on observe une réduction de variance par rapport à l'algorithme MC usuel
Monte Carlo (MC) methods are numerical methods using random numbers to solve on computers problems from applied sciences and techniques. One estimates a quantity by repeated evaluations using N values ; the error of the method is approximated through the variance of the estimator. In the present work, we analyze variance reduction methods and we test their efficiency for numerical integration and for solving differential or integral equations. First, we present stratified MC methods and Latin Hypercube Sampling (LHS) technique. Among stratification strategies, we focus on the simple approach (MCS) : the unit hypercube Is := [0; 1)s is divided into N subcubes having the same measure, and one random point is chosen in each subcube. We analyze the variance of the method for the problem of numerical quadrature. The case of the evaluation of the measure of a subset of Is is particularly detailed. The variance of the MCS method may be bounded by O(1=N1+1=s). The results of numerical experiments in dimensions 2,3, and 4 show that the upper bounds are tight. We next propose an hybrid method between MCS and LHS, that has properties of both approaches, with one random point in each subcube and such that the projections of the points on each coordinate axis are also evenly distributed : one projection in each of the N subintervals that uniformly divide the unit interval I := [0; 1). We call this technique Sudoku Sampling (SS). Conducting the same analysis as before, we show that the variance of the SS method is bounded by O(1=N1+1=s) ; the order of the bound is validated through the results of numerical experiments in dimensions 2,3, and 4. Next, we present an approach of the random walk method using the variance reduction techniques previously analyzed. We propose an algorithm for solving the diffusion equation with a constant or spatially-varying diffusion coefficient. One uses particles, that are sampled from the initial distribution ; they are subject to a Gaussian move in each time step. The particles are renumbered according to their positions in every step and the random numbers which give the displacements are replaced by the stratified points used above. The improvement brought by this technique is evaluated in numerical experiments. An analogous approach is finally used for numerically solving the coagulation equation ; this equation models the evolution of the sizes of particles that may agglomerate. The particles are first sampled from the initial size distribution. A time step is fixed and, in every step and for each particle, a coalescence partner is chosen and a random number decides if coalescence occurs. If the particles are ordered in every time step by increasing sizes an if the random numbers are replaced by statified points, a variance reduction is observed, when compared to the results of usual MC algorithm
APA, Harvard, Vancouver, ISO, and other styles
2

Coulibaly, Ibrahim. "Contributions à l'analyse numérique des méthodes quasi-Monte Carlo." Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00004933.

Full text
Abstract:
Les méthodes de type quasi-Monte Carlo sont des versions déterministes des méthodes de Monte Carlo. Les nombres aléatoires sont remplacés par des nombres déterministes qui forment des ensembles ou des suites à faible discrepance, ayant une meilleure distribution uniforme. L'erreur d'une méthode quasi-Monte Carlo dépend de la discrepance de la suite utilisée, la discrepance étant une mesure de la déviation par rapport à la distribution uniforme. Dans un premier temps nous nous intéressons à la résolution par des méthodes quasi-Monte Carlo d'équations différentielles pour lesquelles il y a peu de régularité en temps. Ces méthodes consistent à formuler le problème avec un terme intégral pour effectuer ensuite une quadrature quasi-Monte Carlo. Ensuite des méthodes particulaires quasi-Monte Carlo sont proposées pour résoudre les équations cinétiques suivantes : l'équation de Boltzmann linéaire et le modèle de Kac. Enfin, nous nous intéressons à la résolution de l'équation de la diffusion à l'aide de méthodes particulaires utilisant des marches quasi-aléatoires. Ces méthodes comportent trois étapes : un schéma d'Euler en temps, une approximation particulaire et une quadrature quasi-Monte Carlo à l'aide de réseaux-$(0,m,s)$. A chaque pas de temps les particules sont réparties par paquets dans le cas des problèmes multi-dimensionnels ou triées si le problème est uni-dimensionnel. Ceci permet de démontrer la convergence. Les tests numériques montrent pour les méthodes de type quasi-Monte Carlo de meilleurs résultats que ceux fournis par les méthodes de type Monte Carlo.
APA, Harvard, Vancouver, ISO, and other styles
3

Tarhini, Ali. "Analyse numérique des méthodes quasi-Monte Carlo appliquées aux modèles d'agglomération." Chambéry, 2008. http://www.theses.fr/2008CHAMS015.

Full text
Abstract:
Les méthodes de Monte Carlo (MC) sont des méthodes statistiques basées sur l'utilisation répétée de nombres aléatoires. Les méthodes quasi-Monte Carlo (QMC) sont des versions déterministes des méthodes de Monte Carlo. Les suites aléatoires sont remplacées par des suites à discrépance faible, qui ont une meilleure répartition uniforme dans le cube unite s- dimensionnel. Nous utilisons une classe particulière de suites à discrépance faible : les suites-(t,s). Dans ce travail, nous developpons et analysons des méthodes particulaires Monte Carlo et quasi-Monte Carlo pour les phénomènes d'agglomeration. Nous nous intéressons en particulier à la simulation numérique de l'équation de coagulation discrète (équation de Smoluchowski), de l'équation de coagulation continue, de l'équation de coagulation- fragmentation continue et de l'équation générale de la dynamique (EGD) des aérosols. Pour toutes ces méthodes particulaires, on écrit l'équation vérifiée par la distribution de masse et on approche celle-ci par une somme de n mesures de Dirac ; les mesures sont pondérées dans le cas de la simulation de l'EGD. Le schema en temps est un schema d'Euler explicite. Pour la simulation de la coagulation et de la fragmentation, l'évolution des masses des particules est déterminée par des tirages de nombres aléatoires (méthode MC) ou par des quadratures quasi-Monte Carlo (méthode QMC). Pour assurer la convergence de la méthode QMC, on ordonne les particules par taille croissante à chaque pas de temps. Dans le cas de la résolution de l'EGD, on utilise une méthode à pas fractionnaire : la simulation de la coagulation se fait comme précédemment, les autres phénomènes (condensation. évaporation, déposition) sont pris en compte par une méthode particulaire déterministe de résolution d'une équation aux dérivées partielles hyperbolique. Nous démontrons la convergence du schema particulaire QMC de résolution numérique de l'équation de coagulation et de coagulation-fragmentation, quand le nombre n des particules tend vers l'infini. Tous les essais numériques montrent que les solutions calculées par les nouveaux algorithmes QMC convergent vers les solutions exactes et fournissent de meilleurs résultats que ceux obtenus par les méthodes de Monte Carlo correspondantes
Monte Carlo (MC) methods are probabilistic methods based on the use of random numbers in repeated experiments. Quasi-Monte Carlo (QMC) methods are deterministic versions of Monte Carlo methods. Random sequences are replaced by low discrepancy sequences. These sequences ha ve a better uniform repartition in the s-dimensional unit cube. We use a special class of low discrepany sequences called (t,s)-sequences. In this work, we develop and analyze Monte Carlo and quasi-Monte Carlo particle methods for agglomeration phenomena. We are interested, in particular, in the numerical simulation of the discrete coagulation equations (the Smoluchowski equation), the continuous coagulation equation, the continuous coagulation-fragmentation equation and the general dynamics equation (GDE) for aerosols. In all these particle methods, we write the equation verified by the mass distribution density and we approach this density by a sum of n Dirac measures ; these measures are weighted when simulating the GDE equation. We use an explicit Euler disretiza tion scheme in time. For the simulation of coagulation and coagulation-fragmentation, the numerical particles evolves by using random numbers (for MC simulations) or by quasi-Monte Carlo quadratures. To insure the convergence of the numerical scheme, we reorder the numerical particles by their increasing mass at each time step. In the case of the GDE equation, we use a fractional step iteration scheme : coagulation is simulated as previously, other phenomena (like condensation, evaporation and deposition) are integrated by using a deterministic particle method for solving hyperbolic partial differential equation. We prove the convergence of the QMC numerical scheme in the case of the coagulation equation and the coagulation-fragmentation equation, when the number n of numerical particles goes to infinity. All our numerical tests show that the numerical solutions calculated by QMC algorithms converges to the exact solutions and gives better results than those obtained by the corresponding Monte Carlo strategies
APA, Harvard, Vancouver, ISO, and other styles
4

Thauvoye, Christophe. "Simulation numérique d'écoulements turbulents réactifs par une méthode hybride à fonction densité de probabilité transportée." Poitiers, 2005. http://www.theses.fr/2005POIT2276.

Full text
Abstract:
Ce travail s'inscrit dans le cadre des études sur la simulation numérique des écoulements turbulents réactifs. Il a pour objet l'étude d'une méthode hybride basée sur l'utilisation conjointe d'une méthode lagrangienne à Fonction Densité de Probabilité (PDF) transportée et d'une méthode eulérienne de résolution des équations moyennées (RANS). La première partie est consacrée à la description des méthodes RANS et de l'approche à PDF transportée. Cette dernière est particulièrement détaillée : cela permet de mettre en avant les avantages et les inconvénients de cette approche. Dans ce contexte, on insiste sur les aspects liés à la modélisation et à la résolution de l'équation de transport de la PDF. Sa résolution s'appuie couramment sur des simulations numériques de type Monte-Carlo. On montre également comment la nature statistique des méthodes de Monte-Carlo induit des difficultés numériques qui ont conduit à l'élaboration de méthodes hybrides associant méthode RANS et approche à PDF transportée. Dans la seconde partie de cette étude, les aspects théoriques et numériques des méthodes hybrides sont alors détaillés en particulier le modèle PEUL+ développé à l'ONERA. Une nouvelle procédure de couplage de type instationnaire est proposée. Elle améliore la stabilité et la précision du modèle par rapport à la procédure de couplage stationnaire. Elle est ensuite testée et validée sur deux configurations : tout d'abord sur une flamme non prémélangée méthane-air stabilisée par une flamme pilote puis sur une flamme de prémélange dans un élargissement brusque symétrique
This work concerns the field of numerical simulation of turbulent reactive flows. The aim of this work is to study a hybrid method based on the use of a lagrangian transported Probability Density Function (PDF) method coupled with a eulerian method which solves the Reynolds Averaged Navier-Stokes equations (R. A. N. S). The first part is devoted to the description of the RANS and the transported PDF methods. The latter is more precisely detailed : it allows to highlight both advantages and drawbacks of the two approaches. In this context, we will develop all the aspects related to the modelling and resolution of the transported joint PDF equation. Its resolution generally uses a Monte-Carlo numerical simulation. We also show how the statistical nature of Monte-Carlo methods induces numerical difficulties, which led to the development of hybrid methods associating RANS method with a transported PDF approach. In the second part of this study, theoretical and numerical aspects of the hybrid methods are detailed, and more precisely the PEUL+ model developed at ONERA. A new – instationary – way of coupling is proposed. It improves the stability and precision of the model in comparison with the stationary way of coupling. It is then tested and validated on two configurations : a methane-air nonpremixed flame stabilised by a piloted flame ; and a premixed flame in a sudden symmetric plane expansion
APA, Harvard, Vancouver, ISO, and other styles
5

Xiao, Yi-Jun. "Contribution aux méthodes arithmétiques pour la simulation accélérée." Marne-la-vallée, ENPC, 1990. http://www.theses.fr/1990ENPC9031.

Full text
Abstract:
Cette thèse porte sur les irrégularités de distribution de suites à une ou plusieurs dimensions et sur leurs applications a l'intégration numérique. Elle comprend trois parties. La première partie est consacrée aux suites unidimensionnelles: estimations de la diaphonie de la suite de van der corput à partir de l'étude des sommes exponentielles et étude des suites (n). La deuxième partie porte sur quelques suites classiques en dimension plus grande que une (suites de Fame, suites de Halton). La troisième partie, consacrée aux applications à l'intégration contient de nombreux résultats numériques, permettant de comparer l'efficacité de suites
APA, Harvard, Vancouver, ISO, and other styles
6

Mateu, armengol Jan. "Étude numérique des effets du couplage du rayonnement thermique aux jets turbulents libres de vapeur d'eau." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC052/document.

Full text
Abstract:
Le rayonnement thermique joue un rôle important dans un large éventail d'applications de génie thermique comprenant des écoulements turbulents. La motivation principale de cette thèse est le besoin croissant de précision et fiabilité dans les simulations numériques appliqué à ce domaine.Cette thèse s’intéresse tout particulièrement à la compréhension physique de l’impact du rayonnement thermique sur la dynamique des fluides et le transfert thermique, ainsi que de l’influence des fluctuations turbulentes sur le transfert radiatif dans les écoulements à couche de cisaillement.L'objectif de cette thèse est de fournir des données haute-fidélités de jets libres turbulents couplés au rayonnement thermique afin de développer et de valider des modèles turbulents d’écoulements à couche de cisaillement prenant en compte les interactions de couplage. À cette fin, les jets libres turbulents sont décrits par des simulations numériques directes (DNS) couplées à une méthode de Monte-Carlo réciproque pour résoudre l'équation de transfert radiatif. La dépendance spectrale des propriétés radiatives est prise en compte avec la méthode Correlated-k (ck). L'étude numérique est réalisée avec la plus grande fidélité pour être aussi représentative que possible d'un jet réel dans un milieu participatif. La simulation est optimisée en termes de temps de calcul en tirant parti d'une méthode d'accélération appelée Acoustic Speed Reduction et en injectant de la turbulence artificielle pour améliorer les conditions d'entrée.Deux simulations directes de jets chauffés couplés au rayonnement thermique sont réalisées. D'une part, un jet chauffé avec un rayonnement modéré a été simulé et l’analyse de ses données DNS couplées a permis de dériver une nouvelle loi d’échelle pour la décroissance du profil de température. Cette mise à l'échelle rend compte des effets de la densité modifiée due à un rayonnement modéré. De plus, cela permet de distinguer si le rayonnement thermique modifie ou non la nature des mécanismes de transfert thermique dans la région développée du jet. D'autre part, un jet libre fortement chauffé a été calculé afin de quantifier les effets du rayonnement sur les champs de température et de vitesse moyens ainsi que sur les moments de second ordre.Outre les données DNS couplées, un solver RANS pour les écoulements à densité variable couplé au rayonnement thermique a été développé au cours de cette thèse. L'objectif était de quantifier directement la précision des modèles turbulents existants et d'identifier les paramètres clés pour une modélisation plus poussée des interactions de couplage
Radiation plays an important role in a broad range of thermal engineering applications comprising turbulent flows. The growing need for accurate and reliable numerical simulations to support the design stages of such applications is the main motivation of this thesis.Of special interest in this work are the free-shear flows and the fundamental understanding of how radiation can modify their fluid dynamics and heat trans- port as well as how their turbulence fluctuations can alter radiative transfer. The goal of this thesis is to provide high-fidelity data of turbulent free jets coupled with thermal radiation in order to develop and validate free-shear turbulent models accounting for coupling interactions. To this end, turbulent free jets are described by direct numerical simulations (DNS) coupled to a reciprocal Monte- Carlo method to solve the radiative transfer equation. The spectral dependency of the radiative properties is accounted for with an accurate Correlated-k (ck) method. The numerical study is carried out with state-of-the-art fidelity to be as representative as possible of an actual jet in a participating medium. The simulation is optimized in terms of processing time taking advantage of an acceleration method called Acoustic Speed Reduction and by injecting artificial turbulence to enhance inlet boundaries.Two direct simulations of heated jets coupled with thermal radiation are carried out. On the one hand, a heated jet with moderate radiation is simulated. The analysis of its high-fidelity coupled DNS data has allow to derive a new scaling law for the decay of the temperature profile. This scaling accounts for the effects of modified density due to moderate radiation. Moreover, it allows for distinguishing whether thermal radiation modifies the nature of heat transfer mechanisms in the jet developed region or not. On the other hand, a strongly heated free jet is computed in order to quantify the effects of radiation on mean temperature and velocity fields as well as on second order moments.Besides the coupled DNS data, a RANS solver for variable-density flows coupled with thermal radiation has been implemented during the course of this thesis. The goal is to directly quantify the accuracy of the existing turbulent models, and to identify key parameters for further modeling of coupling interactions
APA, Harvard, Vancouver, ISO, and other styles
7

Sénégas, Julien. "Méthode de Monte Carlo en vision stéréoscopique : Application à l'étude de modèles numériques de terrain." Paris, ENMP, 2002. https://pastel.archives-ouvertes.fr/tel-00005637.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Wang, Ye. "Ecoulement dans une pompe à vide turbomoléculaire : modélisation et analyse par voie numérique." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENI062/document.

Full text
Abstract:
La thèse est consacrée à la modélisation et à l'analyse par voie numérique de l'écoulement dans une pompe à vide turbomoléculaire hybride, combinant une succession d'étages de type rotor et stator et un Holweck. Une approche de type Test Particle Monte Carlo 3D a été développée pour des configurations de pompes industrielles (géométries complexes d'aubes, gestion des étages rotor et stator) dans un souci d'optimisation des coûts de simulation. L'outil numérique développé a été validé pour des configurations académiques et industrielles, en s'appuyant notamment sur des résultats expérimentaux obtenus grâce au banc d'essai de l'entreprise aVP. L'apport de l'approche TPMC3D par rapport aux méthodes de design disponibles en début de thèse a été clairement démontré pour le régime moléculaire libre. Quelques préconisations de design ont également pu être formulées en utilisant le code développé. Le potentiel d'une approche de type Direct Simulation Monte Carlo, prenant en compte les interactions entre molécules du gaz, a également été établi en 2D pour le régime de transition
The thesis is devoted to the modeling and the numerical analysis of the flow in a turbomolecular vacuum pump of hybrid type, that is combining a succession of rotor and stator stages with an Holweck. A 3D Test Particle Monte Carlo approach has been developed for simulating industrial pump configurations (complex blade geometries, management of rotor and stator stages), with attention paid to the optimization of the computational cost. The numerical tool developed in the thesis has been validated for academic and industrial test cases, relying in particular on reference experimental results obtained on the test rig of the aVP company. The prediction improvement brought by the TPMC 3D approach with respect to the design tools available at the start of the thesis has been clearly demonstrated for the free molecular flow regime. Some design recommendations have also been formulated using the developed solver. The potential of a Direct Simulation Monte Carlo approach, taking into account the interactions between gas molecules, has also been established in 2D for the transition regime
APA, Harvard, Vancouver, ISO, and other styles
9

Ung, Philippe. "Simulation numérique du transport sédimentaire : aspects déterministes et stochastiques." Thesis, Orléans, 2016. http://www.theses.fr/2016ORLE2019/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l'étude d'un modèle de transport de sédiments en nous plaçant sous deux angles d'approche différents. L'un concerne la modélisation numérique du problème et propose une méthode de résolution numérique basée sur un solveur de Riemann approché pour le système de Saint-Venant-Exner qui reste un des systèmes les plus répandus pour traiter le transport sédimentaire par charriage. Ce dernier repose sur un couplage du modèle hydraulique de Saint-Venant et du modèle morphodynamique d'Exner. Le point essentiel de la méthode proposée se situe au niveau du traitement du couplage de ce système. En effet, il existe deux stratégies; la première consiste à découpler la résolution de la partie fluide de la partie solide et les faire interagir à des instants donnés alors que la seconde considère une résolution couplée du système en mettant à jour conjointement les grandeurs hydrauliques et solides aux mêmes instants. Se posera alors la question du choix de la stratégie de résolution pour laquelle nous apporterons des éléments de réponses en comparant les deux approches. L'autre se concentre sur la mise en place d'une méthodologie pour l'étude des incertitudes liées au même modèle. Pour ce faire, nous proposons une formulation stochastique du système de Saint-Venant-Exner et nous cherchons à caractériser la variabilité des sorties par rapport aux paramètres d'entrée naturellement aléatoires. Cette première étude révélera la nécessité de revenir à un système de Saint-Venant avec un fond bruité pour étudier la sensibilité des grandeurs hydrauliques par rapport aux perturbations topographiques
In this thesis, we are interested on the study of a sediment transport model through two different approaches. One of them concerns the numerical modelling of the problem and proposes a numerical problem-solving method based on an approximate Riemann solver for the Saint-Venant-Exner system which is one of the most common model to deal with sedimentary bed-load transport. This last one is based on a coupling between the hydraulic model of Saint-Venant and the morphodynamic model of Exner. The key point of the proposed method is the treatment of the coupling issue. Indeed, there exists two strategies; the first one consists on decoupling the resolution of the fluid part from the solid part and making them interact at fixed times whereas the second one considers a coupled approach to solve the system by jointly updating the hydraulic and solid quantities at same times. We then raise the issue of the choice of the strategy for which we suggest answers by comparing both approaches. The other one focuses on the development of a methodology to study the uncertainties related to the model previously mentioned. To this end, we propose a stochastic formulation of the Saint-Venant-Exner system and we look for characterizing the variabilities of the outputs in relation to the naturally random input parameters. This first study reveals the need for a return to the Saint-Venant system with a perturbed bed to understand the sensitivity of the hydraulic quantities on the topographical perturbations
APA, Harvard, Vancouver, ISO, and other styles
10

Thiam, Cheik Oumar. "Dosimétrie en radiothérapie et curiethérapie par simulation Monte-Carlo GATE sur grille informatique." Clermont-Ferrand 2, 2007. http://www.theses.fr/2007CLF21771.

Full text
Abstract:
Les traitements de radiothérapie nécessitent la délivrance d'une dose précise au niveau de la tumeur et une bonne connaissance de la dose dans les zones avoisinantes. Ce calcul, habituellement réalisé par les TPS, exige des outils précis et rapides. La plate-forme de simulation Monte-Carlo GATE, basée sur le code GEANT4, offre un outil performant pour les applications de la médecine nucléaire mais aussi des fonctionnalités permettant de faire des calculs dosimétriques de façon fiable et rapide. Dans cette thèse, deux études ont été menées en parallèle : la validation de la plate-forme GATE pour la modélisation de sources d'électrons et de photons de basse énergie et l'exploitation optimisée des infrastructures de grille informatique pour réduire les temps de calculs des simulations. GATE a été validé pour le calcul de points kernels de dose d'électrons mono-énergétiques et comparé avec les résultats d'autres études Monte-Carlo. Une étude détaillée a été faite sur la gestion du dépôt d'énergie au cours du transport des électrons dans GEANT4. Nous nous sommes intéressés aussi à la validation de GATE concernant le dépôt de dose de photons de très basse énergie (inférieure 35 keV). Pour cela, trois modèles de sources radioactives utilisées en curiethérapie et contenant de l'iode 125 (modèle 2301 de Best Medical International , Symmetra de UroMed/ Bebig et 6711 d'Amersham) ont été simulés. Plusieurs caractéristiques dosimétriques ont été étudiées selon les recommandations du groupe de travail n°43 de l'AAPM (American Association of Physicists in Medecine). Les résultats obtenus montrent une bonne concordance entre GATE et les études prises comme référence et recommandées par l'AAPM. L'utilisation de simulations Monte-Carlo dans les applications médicales pour une meilleure définition de la dose déposée dans un volume tumoral, nécessite des temps de calculs longs. Afin de réduire ces temps, nous avons exploité l'infrastructure de la grille EGEE sur laquelle nos simulations sont distribuées en utilisant des techniques novatrices pour la prise en compte de l'état de la grille de calcul. Les temps nécessaires pour la simulation d'une radiothérapie utilisant des électrons ont été réduits jusqu'à un facteur de 30. Une plate-forme web basée sur le portail GENIUS a été développée pour rendre accessible de façon simple toutes les modalités de soumission et de gestion des simulations ainsi que la gestion de données médicales (informations sur les patients, images CT, IRM. . . ) sur les ressources de la grille. L'objectif final visé est de faire de GATE un outil fiable et utilisé en clinique pour des planifications de traitements de radiothérapie avec des temps de calculs acceptables (pas plus de 12 heures de calcul)
APA, Harvard, Vancouver, ISO, and other styles
11

Fischer, Bernd. "Modélisation d'interfaces par simulations numériques : des polymères en solutions à la troposphère." Thesis, Besançon, 2012. http://indexation.univ-fcomte.fr/nuxeo/site/esupversions/e7097b7d-070a-46b8-8034-1b1d5d455974.

Full text
Abstract:
Ce travail a pour objectif de montrer la capacité des simulations numériques à modéliser les phénomènes aux interfaces solides et liquides. Dans le travail sur les interfaces solides, la méthode GCMC a été utilisée pour simuler l'isotherme d'adsorption de !'acétaldéhyde sur la glace dans les conditions de la haute troposphère, puis l'adsorption de composés organiques bi-fonctionnalisés sur la glace a été caractérisée par dynamique moléculaire avec pour objectif d'interpréter des résl1ltats expérimentaux de la littérature. Une partie de ce travail a été consacrée à la circulation du diagramme de phase (p,T) d'aérosols organiques (acide oxalique et malonique) clans les conditions troposphériques afin d'étudier la capacité de ces aérosols à jouer le rôle de noyaux de condensation pour les particules de glace. Le travail sur les interfaces liquides a concerné tout d'abord l'adsorption compétitive de polymères et de smfactants à la surface de l'eau. Il s'appuie sur une description très précise, par simulation, de la structure et de la dynamique de la surface des systèmes considérés. La deuxième partie des travaux sur les interfaces liquides s'est intéressée à la caractérisation du transfert d'ions à travers une interface liquide/liquide par le biais du calcul des variations de l'énergie libre du système au cours du transfc1i. Afin d'obtenir une description très rigoureuse des détails des processus mis enjeu, une méthode spécifique a été développée dans cette thèse pour calculer le profil d'énergie libre en tenant compte directement du caractère très dynamique de l'interface
This work aims to demonstrate the ability of numerical simulations to mode] solid · and liquid interfaces. In the work on the solid interfaces, the GCMC method was used to sin:rnlatc the ads011Jtion isotherrn of acetaldehyde on ice under the conditions of the ·upper tropospherc and the molecular dynamics method was usecl to characterize the adsorption of difünctionalized organic compounds on ice, aiming at interpreting experimental results. Part of this work was devotcd to the simulation of the phase diagrarn (p, T) of organic aerosols (oxalic acid and malonic) in tropospberic conditions to study the ability of aerosols to act as condensation nuclei for icc particlcs. The work: on liquid interfaces concerned firstly the competitive adsorption of polymcrs and surfactants at the water surface. It is based on a very precise desc1iption, by mnncrical simulation, of the structure émd dynamics cif the surface of the considered systems. The second pari of the work on liquid interfaces bas focused on the characterization of ion transfer across a liquid/liquid interface through the calculations of the free energy variations of the system during the transfo·. To obtain a rigorous desc1iptio11 of the details of the corresponding processes, a specific method was developed in this thesis to calculate the free energy profile while taking into account tbe dynamics of the interface
APA, Harvard, Vancouver, ISO, and other styles
12

Dutour, Julien. "Simulation numérique et caractérisation de matériaux poreux." Versailles-St Quentin en Yvelines, 2006. http://www.theses.fr/2006VERS0027.

Full text
Abstract:
Ce mémoire traite trois aspects différents, liés à la simulation et à la résolution des structures à partir des données de diffraction des rayons X par la poudre:- Le premier aspect de ma thèse vise à trouver de nouvelles solutions pour résoudre des structures complexes pour lesquelles une méthode ne peut pas fournir la solution quand un monocristal n'est pas disponible. Tirant profit de l'expérience du groupe dans la cristallographie des poudres, la RMN du solide et la simulation numérique, nous avons décidé de conjuguer ces trois approches complémentaires pour obtenir des solutions. - La deuxième partie présente l'étude énergique des germanates poreux hypothétiques, qui semblent être de bons candidats pour les applications des solides poreux (catalyse, stockage ou séparation de gaz). - Le troisième point traite de l'extension de la méthode AASBU aux structures hybrides. Nous avons dû "coller" ces briques de toutes les manières possibles pour fournir non seulement les structures connues, mais également des structures nouvelles virtuelles (ou pas encore découvertes). Pour deux nouvelles structures, nous avons décidé d'associer des liens organiques avec des unités trimériques inorganiques rares de trois octaèdres liés par un mu3-O, dont les conditions d'existence chimique sont établies par le groupe du laboratoire. Couplé à des acides trimésiques (MIL-100) ou téréphtaliques (MIL-101), ce trimère donne deux poudres vertes. L'indexation des modèles mène à la symétrie cubique (Fd-3m) et aux paramètres de maille (a = 72A pour MIL-100 et 89A pour MIL-101, correspondant à des volumes de maille sans précédent de 380. 000 et de 706,000A3)
This PhD concerned three different aspects, related both to simulation and resolution of structures from X-ray powder data:- The first aspect of my thesis aims at finding new solutions for solving complex structures for which a single method is unable to provide the solution when a single crystal is not available. Taking advantage of the expertise of the group in powder crystallography, solid state NMR and computer simulation, we decided to conjugate these three complementary approaches for trying to reach a solution. - The second part present the energetic studies of hypothetic porous germanates, which seem to be good candidates for the applications of porous solids (catalysis, gas storage or separation). - The third point concerned the extension of the AASBU to hybrid structures. The concept of SBU applies both to the inorganic and organic moieties. We had to find the proper ways for ‘sticking’ these bricks together in all the possible ways for providing not only the known structures, but also new virtual (or not yet discovered) ones. For two new structures, we decided to focus on the association of organic linkers with the rare inorganic trimeric units of three octahedra linked by a mu3-O, the chemical conditions of existence of which being established by the chemistry group of the laboratory. Coupled with either trimesic (MIL-100) or terephtalic (MIL-101) acids, this trimer gives two green powders. The indexation of the patterns lead to cubic symmetries (Fd-3m) and huge cell parameters (a = 72A for MIL-100 and 89A for MIL-101, corresponding to the unprecedented cell volumes of 380,000 and 706,000A3)
APA, Harvard, Vancouver, ISO, and other styles
13

Degrelle, Deborah. "Caractérisation numérique de la technique de spectrométrie gamma par simulation Monte-Carlo. Application à la datation d'échantillons envrionnementaux." Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCD004/document.

Full text
Abstract:
Caractérisation numérique de la technique de spectrométrie gamma par simulation Monte-Carlo : Application à la datation d'échantillons environnementaux.Résumé :Afin d'optimiser la détermination de l'activité d'échantillons environnementaux, l'étalonnage en efficacité de la chaîne spectrométrique se doit d'être de bonne qualité. Le travail de cette thèse consiste à rassembler les problématiques principales : les phénomènes d'auto-absorption et de coïncidence. Ces effets sont traités par métrologie et simulation Monte-Carlo (MCNP6), impliquant la bonne modélisation préalable de nos détecteurs. Le problème d'auto-absorption est dominant lorsque le standard utilisé pour l'étalonnage en efficacité a des caractéristiques physico-chimiques différentes des échantillons. Un étalonnage numérique semble plus approprié et nous l'appliquons à une archive sédimentaire du lac de Longemer (France). Nous proposons une méthode nouvelle se basant sur une mesure expérimentale ajustée numériquement afin de déterminer le coefficient d'atténuation massique des échantillons. Il est alors possible de remonter à une composition chimique fictive qui permettra d'utiliser la simulation Monte-Carlo pour réaliser l'étalonnage. Ainsi, à 59,54 keV la correction de l'auto-absorption peut atteindre 24 %. Les phénomènes de coïncidence peuvent également être corrigés par simulation. Le logiciel ETNA permet cette correction mais ne permet pas la modélisation d'un détecteur puits. Dans le but de corriger l'efficacité de notre détecteur puits, possédant une géométrie propice aux coïncidences, nous utilisons le transfert de rendement qui lui est adaptable pour n'importe quelle géométrie. Les résultats par cette méthode sont validés par MCNP6 et Génie 2000 sur les énergies principales du 214Bi
In order to improve the determination of environmental samples activity, the detector efficiency calibration must be reliable. These studies deal with the main issues in gamma-ray spectrometry: the self-absorption and the true coincidence summing effects (TCS). These phenomena are studied by metrology and Monte-Carlo simulation (MCNP6) that imply the faithful of our detector models in relation to the experimental device. The self-absorption problem is the main one when the used standard for efficiency calibration has not the same physical and chemical characteristics than samples. A numerical calibration seems to be more suitable and we apply it for Longemer lake archives (France). A new method is proposed where an experimental measurement is processed through numerical simulations to determine the mass attenuation coefficient of the samples. It makes it possible to define a virtual chemical composition to use Monte-Carlo simulation. Then the numerical calibration at 59.54 keV gives a 24% self-absorption correction. The TCS problems can also be corrected by simulation. The ETNA software can determine this correction but it doesn’t make the well type detector model possible, with a geometry conducive to TCS effects. With the aim of correcting the efficiency of our well detector, the efficiency transfer, which can be adjusted to any device, is used. The results with this method are validated by MCNP6 and Genie 2000 software on the main lines of 214Bi
APA, Harvard, Vancouver, ISO, and other styles
14

Reyhanian, Mashhadi Mehrnaz. "Simulation numérique par la méthode Monte Carlo (DSMC) et modélisation analytique d'un mélange gazeux dans un micro canal." Paris 6, 2011. http://www.theses.fr/2011PA066396.

Full text
Abstract:
Ce travail porte sur des simulations numériques par la méthode DSMC (Direct Simulation Monte Carlo) de l'écoulement raréfié d'un mélange de deux gaz entrant, soit séparément, soit déjà mélangés, dans un micro canal. Dans le cas de deux gaz déjà mélangés, les paramètres permettant de retrouver les valeurs d'initialisation sont étudiés. En tenant compte de ces résultats pour l'étude de l'écoulement de deux gaz séparés et leur mélange, des facteurs influant sur la longueur de mélange sont analysés. On a tenté de diminuer cette longueur en étudiant les effets de quelques paramètres géométriques, comme ajouter deux bosses de manière symétrique dans le canal, ou des conditions aux limites d'initialisation, comme diminuer la vitesse d'entrée. Les résultats des simulations DSMC pour le gaz mélangé sont comparés avec des résultats théoriques connus dans deux cas : avec des bosses et sans bosses. On obtient un bon accord entre les résultats théoriques et ceux des simulations. Enfin, une étude analytique à partir des équations de Navier-Stokes avec les conditions aux limites du glissement à la paroi et les termes du couplage du modèle BGK pour le mélange, est faite pour modéliser un mélange binaire gazeux isotherme dans un micro canal. Le système asymptotique obtenu pour les pressions et les vitesses de chaque espèce dans le mélange, est analysé numériquement avec MATLAB. Pour finir, pour un problème identique, les résultats asymptotiques sont comparés avec ceux de la simulation DSMC pour les pressions
APA, Harvard, Vancouver, ISO, and other styles
15

Veiller, Laurent. "Etude de multicouches fer/terbium : simulation numérique Monte Carlo de propriétés magnétiques et analyse structurale par sonde atomique." Rouen, 1998. http://www.theses.fr/1998ROUES051.

Full text
Abstract:
Les multicouches magnétiques fer/terbium (Fe/Tb) présentent une forte potentialité pour la réalisation de supports d'enregistrement magnéto-optique à haute densité. L'objectif principal de ce travail est de modéliser, par simulation numérique, les propriétés magnétiques de multicouches amorphes Fe/Tb. La méthode de simulation retenue est la méthode Monte Carlo de recuit simule basée sur la minimisation de l'énergie libre à chaque température. Le modèle consiste en une bicouche de structure cubique simple avec des conditions aux limites périodiques. Chaque sommet est occupé par un spin d’Heisenberg (Fe ou Tb). L'interface comprend un nombre variable de plans alliés du type Fe 1 0 0 xTb x. Les interactions d'échange Fe-Fe et Tb-Tb sont ferromagnétiques et le couplage Fe-Tb est antiferromagnétique. Ces interactions qui dépendent de la concentration x ont été étalonnées par simulations Monte Carlo à partir de données expérimentales sur les alliages Fe 1 0 0 xTb x. Un bon accord avec des résultats expérimentaux (variation des températures de transition et de compensation en fonction de l'épaisseur des couches, variation thermique de l'aimantation de chacun des sous-réseaux) a été obtenu dans le cas d'interfaces diffuses sur quatre plans atomiques, d'un moment de terbium réduit à 6 B et d'une interaction d'échange Fe-Fe renforcée au voisinage des interfaces. Les effets de la compétition entre les anisotropies magnétocristalline et de forme, abordées en terme d'anisotropie ion-simple, peuvent conduire à des structures magnétiques non colinéaires. Parallèlement aux simulations numériques, il a été possible d'élaborer, par pulvérisation cathodique, des multicouches Fe/Tb déposées sur un substrat en forme pointe. Ces échantillons ont été analysés par sonde atomique pour déterminer des profils de concentration en profondeur et mettre en évidence une forte modulation de composition au niveau des interfaces des multicouches.
APA, Harvard, Vancouver, ISO, and other styles
16

Ferré, Giménez Ricardo. "Etude de nanoparticules magnétiques par simulation numérique." Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10224.

Full text
Abstract:
Nous avons etudie par simulation numerique les proprietes magnetiques d'une petite particule magnetique aussi bien que les proprietes d'un ensemble de telles particules. Dans la premiere partie de ce travail, un modele de petites particules est developpe. Ce modele, base sur les equations micromagnetiques, tient compte des interactions d'echange et dipolaire entre les moments magnetiques dans la particule aussi bien que de l'anisotropie magnetocristalline. Ce modele nous a permis d'etudier les configurations d'aimantation a l'equilibre pour des petites particules magnetiques. Nous avons aussi etudie plus en detail le retournement d'aimantation d'une particule isolee de ferrite de baryum d eforme aplatie. La deuxieme partie de ce travail est dediee a la modelisation d'un ensemble de petites particules en interaction dipolaire. Nous avons mis en evidence l'effet cruciale de la concentration de particules sur les proprietes magnetiques d'un tel agregat. Nous montrons que l'effet de l'augmentation de la concentration combine avec l'anisotropie de l'interaction dipolaire conduit a l'apparition d'une valeur maximale du champ coercitif pour les concentrations intermediaires. Nous avons aussi considere un terme d'anisotropie magnetique qui a comme effet la reduction de la portee des interactions dipolaires. La derniere partie de ce travail est dediee a une etude en temperature (monte carlo) de ces systemes de particules. Une transition de gel dynamique est observee comme a resultat de l'evaluation du parametre d'ordre d'edwards anderson pour notre modele ainsi que nombreux etats metastables sont possibles a basse temperature. Ces signatures, neanmoins, ne nous permettent pas d'affirmer l'existence d'une transition du type verre de spins
APA, Harvard, Vancouver, ISO, and other styles
17

Bonomi, Ernesto. "Simulation numérique et mécanique statistique : extension et étude de quelques problèmes d'ingénierie." Paris 11, 1985. http://www.theses.fr/1985PA112322.

Full text
Abstract:
Le contenu de ce travail, rassemblé en une série d’articles –publiés, ou en cours de publication- touche aussi bien à la physique, aux télécommunications qu’à l’optimisation combinatoire. Les idées utilisées s’articulent autour de deux disciplines : la simulation numérique et la mécanique statistique des systèmes, aussi bien physiques que d’ingénierie. Nous entendons par système, un ensemble d’éléments en interaction entre eux et avec l’environnement qui les entoure. Le point de vue adopté est celui du modèle om le problème est ramené à un niveau tel, qu’une analyse mathématique puisse être envisagée, ou tout au moins formulée. Il s’est agi pour nous d’analyser l’ordre statistique qui prend place dans un espace des configurations dans lequel les interactions font évoluer les différents éléments. Le cadre de départ a été microscopique et l’utilisation d’une description complète, imposée jusque dans les plus petits détails du système, nous a amenés tout naturellement à définir des procédures opératoires dans le but de générer, à travers un code de simulation, toutes les configurations admissibles du système étudié. Il faut signaler que les contraintes de temps et de mémoire du calculateur nous ont forcés à chercher les représentations les plus adaptées. Cette analyse poussée du comportement du système et de sa meilleure représentation dans les organes du calculateur a souvent débouché sur des résultats analytiques nouveaux.
APA, Harvard, Vancouver, ISO, and other styles
18

Ameur, Djilali. "Modélisation analytique et simulation numérique par la méthode de Monte-Carlo d'un écoulement de gaz dans des micro-canaux." Paris 6, 2008. http://www.theses.fr/2008PA066102.

Full text
Abstract:
L’objectif de la thèse est de modéliser l’écoulement d’un gaz (azote) dans des micro-filtres. La région du filtrage est une membrane qui contient des orifices, en fait des micro-canaux, dont le diamètre est de quelques micromètres. Au voisinage de chaque orifice, l’écoulement du gaz supposé normal à la membrane, est en régime de raréfaction dit de ‘transition’, intermédiaire entre le régime continu relevant des équations de Navier-Stokes et le régime moléculaire libre où les molécules du gaz évoluent sans interactions entre elles. Deux approches sont utilisées pour analyser l’écoulement dans un micro-canal. La première, théorique, est basée sur une analyse adimensionnelle des équations de Navier-Stokes avec des conditions de glissement à la paroi. La seconde, numérique, est statistique et est basée sur une simulation de Monte Carlo (DSMC). Une étude paramétrique sur différentes géométries de micro-canaux est faite dans le cas d’un écoulement isotherme. Le comportement d’écoulement gazeux à travers un micro-canal est ensuite étudié en appliquant un gradient de température entre son entrée et sa sortie. Cette analyse permet de mettre en évidence le phénomène de transpiration thermique. En s’appuyant sur les résultats numériques, un modèle analytique est proposé. L’effet du coefficient d’accommodation à la paroi sur l’écoulement est aussi étudié. En fin, les effets de compressibilité sont étudiés dans un micro-canal, puis les relations liant le débit et les gradients de pression. Une simulation numérique d’écoulement au travers d’une série de micro-canaux est aussi présentée
APA, Harvard, Vancouver, ISO, and other styles
19

Thierry, Olivier. "Rétrodiffusion de la lumière par un milieu particulaire dense : étude expérimentale et simulation numérique par la technique de Monte Carlo." Rouen, 1992. http://www.theses.fr/1992ROUE5042.

Full text
Abstract:
Les phénomènes optiques qui interviennent lorsqu'un milieu particulaire est éclairé sont analysés : soit la diffusion simple, multiple, dépendante ; la rétrodiffusion cohérente et la localisation forte. Des diagrammes de caractérisation sont construits pour prévoir l'existence de la diffusion dépendante ou de la rétrodiffusion cohérente au sein d'un milieu diffusif, en fonction de ses paramètres-diamètre et concentration particulaires. Un montage expérimental performant est mis au point pour mesurer angulairement l'intensité rétrodiffusée, cohérente ou non. Un code de calcul, utilisant la méthode de Monte Carlo, est développé pour simuler l'expérience. Celui-ci modélise : le faisceau incident collimate gaussien, l'influence des parois de la cuve contenant le milieu diffusif, la diffusion multiple de la lumière par les particules du milieu, la détection angulaire de l'intensité rétrodiffusée. La confrontation des profils angulaires simulés et expérimentaux montre un bon accord pour les latex de diamètre 0,5 m de fraction volumique Vf comprise entre 0,1% et 1,92% et les latex de diamètre 2 m de fraction volumique Vf comprise entre 1% et 9,57 %; pour les gels de diamètre 59 m de fraction volumique comprise entre 0,2% et 1% et pour les gels de diamètre 92 m de fraction volumique Vf entre 0,2% et 1%. La mesure de la largeur angulaire du pic de rétrodiffusion cohérente pour deux longueurs d'onde permet le diagnostic optique de milieux denses tant sur la valeur du diamètre (entre 0,1 et 5 m) que de la concentration en particules
APA, Harvard, Vancouver, ISO, and other styles
20

Krepysheva, Natalia. "Transport anormal de traceurs passifs en milieux poreux hétérogènes : équations fractionnaires, simulation numérique et conditions aux limites." Avignon, 2005. http://www.theses.fr/2005AVIG0502.

Full text
Abstract:
Dans de nombreux milieux poreux désordonnés, la dispersion de soluté n'évolue pas en accord avec la loi de Fick. Cette dernière prévoit l'évolution d'un panache de traceur à partir de données initiales modélisant, en particulier, une injection localisée. Alors, la concentration est une Gaussienne dont l'écart type est proportionnel à la racine carrée du temps. Des données expérimentales obtenues dans des aquifères ont mis en évidence des comportements qualitativement différents, remplaçant les Gaussiennes par des lois stables de Lévy. Celles-ci sont aussi des fonctions décroissantes, mais leur comportement asymptotique est celui d'une puissance, et en général leur second moment ne converge pas. Or les densités des lois stables de Lévy sont les solutions fondamentales d'une vaste classe d'équations aux dérivées partielles. Il s'agit des équations fractionnaires en espace, obtenues à partir de l'équation de la chaleur en remplaçant le Laplacien par une dérivée d'ordre non entier. D'autre part, ces équations régissent l'évolution de la concentration d'une population de marcheurs aléatoires effectuant des vols de Lévy : ces derniers généralisent le mouvement Brownien, avec, pour la densité des longueurs des sauts, une loi stable de Lévy. Ces point sont détaillés dans la thèse. Les principaux résultats concernent la dispersion dans un milieu semi-infini au sein duquel, tant que les particules de traceur n'approchent pas la frontière, la dispersion est décrite par des vols de Lévy, à petite échelle. On montre qu'avec une paroi reflexive, il est nécessaire de modifier le noyau de la dérivée fractionnaire présente dans l'équation régissant l'évolution de la concentration des marcheurs. Ce résultat théorique est illustré par une simulation de type Monte Carlo de cette évolution. On compare avec la simulation numérique de l'équation fractionnaire en milieu semi-infini
In a number of disordered porous, solute spreading does not obey Fick's law. The latter describes the evolution of a plume of tracer. When initial data represent a local impulse, the concentration is a Gaussian variance is proportional to time. Experimental data obtained in aquifers have put into evidence qualitatively different behaviors, replacing Gaussians by stable Lévy densities, which also are non increasing functions. But in the large values asymptotics, they behave algebraically, and in general the second moment does not converge. Moreover, stable Lévy densities are the fundamental solutions of a wide class of partial differetial equations, which are space-fractional equations. They resemble heat equation, with the Laplacean being replaced by a derivative of non-integer order. They also rule the evolution of the concentration of a cloud of random walkers performing Lévy flights, wich are more general than Brownian motion, with the jump length density being a stable Lévy law. All these point are detailed in the thesis. The main results concern the spreading of matter in a semi-infinite medium where the motion of tracer particles is described by Lévy flights (on the small scale) except when they meet the boundary. With a reflexive wall, it is necessary to modify the kernel of the fractional derivative on the right hand-side of the equation ruling the evolution of the concentration of walkers. The theoretical result is illustrated by a Monte Carlo simulation, and compared with the numerical discretization of the fractional equation in a semi-infinite medium
APA, Harvard, Vancouver, ISO, and other styles
21

Poncet, Romain. "Méthodes numériques pour la simulation d'équations aux dérivées partielles stochastiques non-linéaires en condensation de Bose-Einstein." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLX069/document.

Full text
Abstract:
Cette thèse porte sur l'étude de méthodes numériques pour l'analyse de deux modèles stochastiques apparaissant dans le contexte de la condensation de Bose-Einstein. Ceux-ci constituent deux généralisations de l'équation de Gross-Pitaevskii. Cette équation aux dérivées partielles déterministe modélise la dynamique de la fonction d'onde d'un condensat de Bose-Einstein piégé par un potentiel extérieur confinant.Le premier modèle étudié permet de modéliser les fluctuations de l'intensité du potentiel confinant et prend la forme d'une équation aux dérivées partielles stochastiques. Celles-ci conduisent en pratique à un échauffement du condensat, et parfois mêmeà son effondrement. Nous proposons dans un premier chapitre la construction d'un schéma numérique pour la résolution de ce modèle. Il est fondé sur une discrétisation spectrale en espace, et une discrétisation temporelle de type Crank-Nicolson. Nous démontrons que le schéma proposé converge fortement en probabilité à l'ordre au moins 1 en temps, et nous présentons des simulations numériques illustrant ce résultat. Le deuxième chapitre est consacré à l'étude théorique et numérique de la dynamique d'une solution stationnaire (pour l'équation déterministe) de type vortex. Nous étudions l'influence des perturbations aléatoires du potentiel sur la solution, et montrons que la solution perturbée garde les symétries de la solution stationnaire pour des temps au moins de l'ordre du carré de l'inverse de l'intensité des fluctuations. Ces résultats sont illustrés par des simulations numériques exploitant une méthode de Monte-Carlo adaptée à la simulation d'événements rares.Le deuxième modèle permet de modéliser les effets de la température sur la dynamique d'un condensat. Lorsque celle-ci n'est pas nulle, la condensation n'est pas complète et le condensat interagit avec les particules non condensées. Ces interactions sont d'un grand intérêt pour comprendre la dynamique de transition de phase et analyser les phénomènes de brisure de symétrie associés, comme la formation spontanée de vortex. Nous nous sommes intéressés dans les chapitres 3 et 4 à des questions relatives à la simulation de la distribution des solutions de cette équation en temps long. Le troisième chapitre est consacré à la construction d'une méthode d’échantillonnage sans biais pour des mesures connues à une constante multiplicative près. C'est une méthode de Monte Carlo par chaînes de Markov qui a la particularité de permettre un échantillonnage non-réversible basé sur une équation de type Langevin sur-amortie. Elle constitue une extension de Metropolis-Adjusted Langevin Algorithm (MALA). Le quatrième chapitre est quant à lui consacré à l'étude numérique de dynamiques métastables liées à la nucléation de vortex dans des condensats en rotation. Un intégrateur numérique pour la dynamique étudiée est proposé, ainsi qu'une méthode de Monte-Carlo adaptée à la simulation d'événements rares correspondant aux changements de configurations métastables. Cette dernière est basée sur l'algorithme Adaptive Multilevel Splitting (AMS)
This thesis is devoted to the numerical study of two stochastic models arising in Bose-Einstein condensation physics. They constitute two generalisations of the Gross-Pitaevskii Equation. This deterministic partial differential equation model the wave function dynamics of a Bose-Einstein condensate trapped in an external confining potential. The first chapter contains a simple presentation of the Bose-Einstein condensation phenomenon and of the experimental methods used to construct such systems.The first model considered enables to model the fluctuations of the confining potential intensity, and takes the form of a stochastic partial differential equation. In practice, these fluctuations lead to heating of the condensate and possibly to its collapse. In the second chapter we propose to build a numerical scheme to solve this model. It is based on a spectral space discretisation and a Crank-Nicolson discretisation in space. We show that the proposed scheme converges strongly at order at least one in probability. We also present numerical simulations to illustrate this result. The third chapter is devoted to the numerical and theoretical study of the dynamics of a stationary solution (for the deterministic equation) of vortex type. We study the influence of random disturbances of the confining potential on the solution. We show that the disturbed solution conserves the symmetries of the stationary solution for times up to at least the square of the inverse of the fluctuations intensity. These results are illustrated with numerical simulations based on a Monte-Carlo method suited to rare events estimation.The second model can be used to model the effects of the temperature on the dynamics of a Bose-Einstein condensate. In the case of finite temperature, the Bose-Einstein condensation is not complete and the condensate interacts with the non-condensed particles. These interactions are interesting to understand the dynamics of the phase transition and analyse the phenomena of symmetry breaking associated, like the spontaneous nucleation of vortices We have studied in the fourth and the fifth chapters some questions linked to the long time simulation of this model solutions. The fourth chapter is devoted to the construction of an unbiased sampling method of measures known up to a multiplicative constant. The distinctive feature of this Markov-Chain Monte-Carlo algorithm is that it enables to perform an unbiased non-reversible sampling based on an overdamped Langevin equation. It constitutes a generalization of the Metropolis-Adjusted Langevin Algorithm (MALA). The fifth chapter is devoted to the numerical study of metastable dynamics linked to the nucleation of vortices in rotating Bose-Einstein condensates. A numerical integrator and a suited Monte-Carlo methods for the simulation of metastable dynamics are proposed. This Monte-Carlo method is based on the Adaptive Multilevel Splitting (AMS) algorithm
APA, Harvard, Vancouver, ISO, and other styles
22

Lebrère, Alexandre. "Construction d'un code de simulation numérique utilisant la méthode de Monte-Carlo pour le transfert radiatif d'une couche de plasma magnétisé turbulent." Orléans, 2004. http://www.theses.fr/2004ORLE2007.

Full text
Abstract:
Ce travail présente un essai de simulation numérique par une méthode de Monte-carlo de propagation d'onde électromagnétique dans un milieu aléatoire inhomogène et anisotrope. La théorie du transfert radiatif est présentée, ainsi que l'application des méthodes de Monte-Carlo aux équations de transport avec polarisation. Les différents éléments de modélisation sont ensuite présentés, dans le cadre d'un modèle simplifié d'ionosphère terrestre. La simulation de la propagation dans l'ionosphère et la diffusion des ondes par la turbulence sont ensuite considérés. Plusieurs situations restreintes permettent de donner des éléments de validation de la méthode : la cas d'une atmosphère de Rayleigh et celui d'une diffusion aux petits angles dans un milieu gaussien ont été considérés. Enfin, des résultats de simulation sont présentés, donnant des informations sur la statistique des angles de réception et la forme du signal diffusé reçu, ainsi que sur l'influence de la turbulence.
APA, Harvard, Vancouver, ISO, and other styles
23

Chung, Salomon. "Effet d'un champ électrique sur la structure et la dynamique de suspensions colloïdales confinées : étude numérique par simulation." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1059/document.

Full text
Abstract:
Le travail présenté dans ce mémoire s'inscrit dans le cadre des études théoriques dedispersions colloïdales, ou suspensions de particules dont la taille varie du nanomètre aumicromètre. Dans ces milieux, les interactions entre les particules peuvent être moduléesen jouant par exemple sur leur composition superficielle, de même qu'il est possible demodifier l'environnement des colloïdes comme le solvant, le confinement du mélange et/ouéventuellement un champ extérieur pour influer sur leurs propriétés thermodynamiques.La modélisation-simulation permet alors de tester sur ordinateurcertains jeux de paramètres pouvant produire le phénomène souhaité,avant son éventuelle réalisation expérimentale.Ce travail se concentre sur cette étape préliminaire en considérant un mélange desphères dures dipolaires et apolaires, placé dans milieu confiné etsoumis à un champ électrique (magnétique pour des ferrocolloïdes).Dans une première étape, nous nous intéressons aux états d'équilibres du mélange,en étudiant par simulations Monte-Carlo un mélange symétrique en composition,non-additif et confiné entre deux murs éloignés.En comparant les résultats pour différentes densités et directions du champ extérieur,nous retrouvons certaines propriétés déjà observées pour des systèmes similaires.Nous commençons par la situation de référence sans champ où à faible densité,le mélange est monophasique et l'espèce dipolaire fuit les murs.L'augmentation de la densité favorise alors la séparation de phase et dans la phase richeen dipôles, l'espèce dipolaire mouille les murs.L'application d'un champ perpendiculaire aux murs favorise la stabilité du mélange malgrésa densité élevée et la non-additivité entre les deux espèces.En faisant croître ce champ, nous observons une structuration de l'espèce dipolaire,notamment près des murs ainsi que la formation de <> de dipôles dansla direction du champ.Enfin un champ parallèle aux murs provoque la démixtion du mélange dèsla plus faible densité considérée. Les dipôles fuient à nouveau les murs etnous observons de longues chaînes intriquées de dipôles.Dans une seconde étape, nous nous intéressons à la dynamique d'un mélange asymétrique encomposition et soumis à un champ. Nous combinons dans cette étudedes simulations Monte-Carlo et de dynamique moléculaire (Langevin).Le mélange est placé dans une boîte présentant un goulot d'étranglement afinde simuler un pore ouvert en contact avec un réservoir de particules,à travers une interface explicite. Le champ, perpendiculaire aux murs, sera appliquéau niveau du goulot d'étranglement afin d'y attirer les dipôles.Nous considérons d'abord un mélange peu dense afin que le cycle remplissage / vidagedu milieu confiné soit réversible. Dans le but d'accélérer ces cycles,l'intensité du champ est progressivement augmentée.Le remplissage en dipôles est effectivement plus rapide mais sa composition satureprématurément.Nous lançons ensuite une série de cycles avec des coefficients de frottement deLangevin croissants mais relativement petits afin de limiterla durée des simulations. Nous notons alors que les temps de remplissage oude vidage du pore varient linéairement en fonction du coefficient de frottementce qui nous permet d'estimer par extrapolation la durée d'un cycle pour les colloïdes.En jouant sur la non-additivité et la densité,nous parvenons à rendre les cycles irréversibles : selon l'application envisagée,l’irréversibilité pourra s'avérer utile ou devra être évitée.Nous terminons ce chapitre en estimant la variation de la durée des cycles avecla taille des colloïdes. Un modèle d'interaction entre colloïdes constitués pardes centres répulsifs en loi de puissance, uniformément répartis dans une sphèrenous permet de prévoir, moyennant des hypothèses sur les lois d'échelle,la variation des durées de remplissage ou de vidage pour des tailles allantde petits colloïdes aux dimensions quasi-moléculaires
The work presented in this dissertation is in the framework of the theoretical study ofcolloidal dispersions, i.e. suspensions of particles whose size varies from nanometers tomicrometers. In such a medium, the interactions between particles can be tuned through their surfacecomposition for instance. One may also modify the environment of the colloids:a specific solvent can be combined with confinement of the mixture andan external can field applied on it in order to tune its thermodynamic properties.Once a model of a physical system is defined, computer simulation can be used to explorea range of parameters to check if the sought phenomenon occurs, before carrying outany real experiment. This work focuses on this preliminary step: our model consists ofa mixture of dipolar and apolar hard spheres in a confined medium and subjected to anelectric field (or a magnetic one for ferrocolloids).In a first step, we use Monte Carlo simulation to study equilibrium states ofa binary mixture confined between distant walls,with symmetric composition of the two species having non additive interactions.By comparing the results of different densities and field directions,we recover some properties already observed for similar systems.In the reference state where the field is turned off, the mixture at low density is stableand we notice that the dipoles stay away from the walls.A denser mixture separates into two phases and in the dipoles rich one,the dipolar particles now wet the walls.When the mixture is subjected to a field perpendicular to the walls,it remains stable in spite of its high density and non additivity between unlike particles.Increasing the field induces a structuring of the dipolar component near the wallsand we observe column shaped clusters of dipoles along the direction of the field.Finally, the application of a field parallel to the walls separates the mixture,even at the lowest density we chose. Dipoles stay away from the walls and we observeentangled dipoles chains.In a second step we explore the dynamics of a mixture with asymmetric composition andsubjected to a field. We combine Monte Carlo and molecular dynamic (Langevin) simulationsin this study. The mixture is confined in a box with a bottleneck channel in order tosimulate an open pore exchanging particles with a reservoir through an explicit interface.The field which is perpendicular to the walls is applied in the bottleneck regionto attract dipoles there.We first consider a low density mixture such that the filling / emptying cycleof the pore is reversible.The intensity of the field is then increased to speed up the cycles.As expected, the dipoles fill the pore faster then. However their composition saturatesunder the maximum value found for a lower field.A series of cycles was performed with increasing Langevin damping coefficients but stilllow enough to reduced the computation time.We then notice that the filling or emptying duration is a linear function ofthe damping coefficient. The duration of a cycle for colloids is then obtained fromextrapolation.Combining non additivity and high enough density, we are able to make an irreversible cycle:depending on the application sought for, this irreversibility can be useful ormust be avoided.This chapter ends with the assessment of the duration of a cycle with respect tothe size of colloids. We use an interaction model between colloidal particles wherea colloid is uniformly made of repulsive centers following a power law.With some scaling law hypotheses, the duration of a filling or an emptying is estimated forsmall colloids down to nearly molecular dimensions
APA, Harvard, Vancouver, ISO, and other styles
24

Joly, Julie. "Simulation de l'interaction entre les ions du plasma et l'onde à fréquence cyclotronique ionique avec les codes EVE et SPOT." Electronic Thesis or Diss., Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0423.

Full text
Abstract:
La fusion thermonucléaire est l'énergie propre des étoiles et la solution la plus favorable à la transition énergétique. Le principe de la fusion est de rassembler des noyaux légers dégageant ainsi une grande énergie (cinq fois plus que la réaction de fission utilisée dans les centrales nucléaire à ce jour). La réaction de fusion se produit naturellement dans les étoiles comme le Soleil c'est pourquoi il faut imiter les conditions de température et de densité du Soleil sur terre. Pour cela on utilise une machine ressemblant à un donuts appelé Tokamak. Mon travail dans ce domaine a consisté à améliorer les méthodes de modélisation des chauffages de ces Tokamaks dans le but d'augmenter les réactions de fusion en créant un workflow combinant plusieurs codes appelé modélisation auto-cohérente
Thermonuclear fusion is the clean energy of the stars and the most favourable solution tothe energy transition. The principle of fusion is to gather light nuclei that release a high level ofenergy (five times more than the fission reaction used in nuclear power plants to date). The fusionreaction occurs naturally in stars like the Sun, so it is important to imitate the temperature anddensity conditions of the Sun on Earth. For this purpose we use a machine similar to a donutcalled Tokamak. My work in this field has consisted in improving the modelling methods of theheating systems of these Tokamaks in order to increase the fusion reactions by creating a workflowcombining several codes called self-coherent modelling
APA, Harvard, Vancouver, ISO, and other styles
25

Bourdon, Alex. "Étude de l'environnement induit de la navette : exploitation des données en vol EOIM-III et comparaison à une modélisation numérique." Toulouse, ENSAE, 1998. http://www.theses.fr/1998ESAE0007.

Full text
Abstract:
L'expérience EOIM-III avait pour onjectif premier de donner une mesure quantitative des taux de réactivité de plusieurs matériaux exposés à un flux d'oxygène atomique arrivant à 8 km/s. Au moyen d'un spectromètre de masse à quadripôle, posé sur un support rotatif, et d'un carrousel à cinq secteurs, recouverts chacun d'un matériau différent et pouvant être surmontés d'un déflecteur, des mesures du flux direct et diffusé d'oxygène atomique ainsi que la caractérisation des atmosphères naturelle et induite furent réalisées. Le dépouillement des données a montré que la grande majorité des espèces détectées par le spectromètre sont issues de la rétrodiffusion par collisions avec l'atmosphère ambiante de particules provenant du dégazage, de l'érosion des surfaces de la navette et du fonctionnement des moteurs Verniers. Les résultats obtenus avec le déflecteur installé au dessus de l'échantillon observé ont montré que les mécanismes de rebond jouent un rôle dans l'environnement local de la soute de chargement. Nous avons alors décidé de développer un modèle de représentation des milieux externe et interne de la navette. Notre simulation par la méthode Monte-Carlo du transport des particules à l'extérieur de la navette a permis de représenter les augmentations de densité près de certaines surfaces et de déterminer avec une assez bonne précision les flux de retour des particules dégazées et issues du jet d'un moteur Vernier. Par l'introduction de modèles empiriques de rebond et d'érosion nous avons simulé l'érosion de l'échantillon de Kapton et modélisé l'évolution de l'environnement local de la soute. Les comparaisons avec les résultats expérimentaux sont concluants et tendent à favoriser une forte accomodation sur les parois de la soute et sur le déflecteur ainsi qu'un faible taux de réactivité du Kapton pour des atomes d'oxygène de faible énergie.
APA, Harvard, Vancouver, ISO, and other styles
26

Louvin, Henri. "Development of an adaptive variance reduction technique for Monte Carlo particle transport." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS351/document.

Full text
Abstract:
L’algorithme Adaptive Multilevel Splitting (AMS) a récemment fait son apparition dans la littérature de mathématiques appliquées, en tant que méthode de réduction de variance pour la simulation Monte Carlo de chaı̂nes de Markov. Ce travail de thèse se propose d’implémenter cette méthode de réduction de variance adaptative dans le code Monte-Carlo de transport de particules TRIPOLI-4,dédié entre autres aux études de radioprotection et d’instrumentation nucléaire. Caractérisées par de fortes atténuations des rayonnements dans la matière, ces études entrent dans la problématique du traitement d’évènements rares. Outre son implémentation inédite dans ce domaine d’application, deux nouvelles fonctionnalités ont été développées pour l’AMS, testées puis validées. La première est une procédure d’encaissement au vol permettant d’optimiser plusieurs scores en une seule simulation AMS. La seconde est une extension de l’AMS aux processus branchants, courants dans les simulations de radioprotection, par exemple lors du transport couplé de neutrons et des photons induits par ces derniers. L’efficacité et la robustesse de l’AMS dans ce nouveau cadre applicatif ont été démontrées dans des configurations physiquement très sévères (atténuations du flux de particules de plus de 10 ordres de grandeur), mettant ainsi en évidence les avantages prometteurs de l’AMS par rapport aux méthodes de réduction de variance existantes
The Adaptive Multilevel Splitting algorithm (AMS) has recently been introduced to the field of applied mathematics as a variance reduction scheme for Monte Carlo Markov chains simulation. This Ph.D. work intends to implement this adaptative variance reduction method in the particle transport Monte Carlo code TRIPOLI-4, dedicated among others to radiation shielding and nuclear instrumentation studies. Those studies are characterized by strong radiation attenuation in matter, so that they fall within the scope of rare events analysis. In addition to its unprecedented implementation in the field of particle transport, two new features were developed for the AMS. The first is an on-the-fly scoring procedure, designed to optimize the estimation of multiple scores in a single AMS simulation. The second is an extension of the AMS to branching processes, which are common in radiation shielding simulations. For example, in coupled neutron-photon simulations, the neutrons have to be transported alongside the photons they produce. The efficiency and robustness of AMS in this new framework have been demonstrated in physically challenging configurations (particle flux attenuations larger than 10 orders of magnitude), which highlights the promising advantages of the AMS algorithm over existing variance reduction techniques
APA, Harvard, Vancouver, ISO, and other styles
27

Turbatte, Jean-Christophe. "Étude par simulation numérique du dommage d'irradiation dans les alliages fer - cuivre." Lille 1, 1997. http://www.theses.fr/1997LIL10243.

Full text
Abstract:
Les aciers de cuve des reacteurs nucleaires se fragilisent sous l'effet de l'irradiation neutronique. Afin de comprendre l'origine du phenomene de nombreuses etudes experimentales ont ete menees pour caracteriser le dommage d'irradiation dans ces aciers. Quatre defauts ont ainsi ete identifies : des amas de defauts ponctuels, des complexes cuivre-lacunes, des atmospheres d'atomes de cuivre et des precipites tres riches en cuivre. Les travaux experimentaux n'ont cependant pas permis de caracteriser la structure de ces defauts et de comprendre les mecanismes a l'origine de leur formation. Afin d'apporter des elements de reponses sur ces points, nous avons entrepris un travail de simulation numerique (dynamique moleculaire et monte carlo). Les simulations ont ete effectuees dans du fer pur et des alliages binaires de type fer-cuivre. A cette fin, nous avons notamment adapte un potentiel interatomique utilise pour decrire le fer pur et construit un potentiel capable de reproduire les interactions entre les atomes de cuivre et fer. Le travail effectue a notamment permis de confirmer l'existence des quatre types de defauts pris en compte, de caracteriser leur structure et de cerner les conditions favorisant leur formation : - les amas d'atomes de solute contiennent une quantite importante de lacunes et se forment dans le cur des cascades de deplacements produites par des pka ayant une energie superieure a 15kev. - les precipites riches en cuivre n'apparaissent que dans des alliages ayant une teneur en cuivre superieure a environ 0,1%. Leur formation resulte d'un phenomene de precipitation acceleree par l'irradiation. - les complexes cuivre-lacunes peuvent etre decrits comme etant un amas de quatre lacunes accroche a un atome de cuivre. - une partie des amas de defauts ponctuels se forment dans le cur des cascades de deplacements. Les autres resultent de l'agglomeration par diffusion des defauts libres.
APA, Harvard, Vancouver, ISO, and other styles
28

Himoudi, Abdelilah. "Simulation numérique de la cinétique des ions dans les gaz rares faiblement ionisés : détermination des données de base." Toulouse 3, 1993. http://www.theses.fr/1993TOU30171.

Full text
Abstract:
Ce travail est consacre a l'etude du transport des ions et a la determination des donnees de bases des ions necessaires a la modelisation des decharges electriques. Un rappel bibliographique est d'abord effectue sur les methodes de determination theoriques et experimentales des parametres de transport et des sections efficaces des ions afin de montrer les lacunes et les limitations concernant la precision et les intervalles d'energie ou de champ electrique reduit e/n. Puis, les equations cinetiques, permettant la simulation des experiences de mesure des parametres de transport des ions, sont decrites en insistant sur la difficulte specifique a l'operateur de collision ion-atome. Ensuite, un algorithme monte carlo s'affranchissant de cette difficulte et considerant correctement la cinematique de la collision a ete developpe pour etudier le transport des ions dans leurs gaz parents, non parents et dans les melanges de gaz. Une etude bibliographique sur les donnees de base des ions a montre la necessite de completer ou de determiner, a l'aide d'une methode de deconvolution des parametres de transport, les sections efficaces de collision ion-atome des ions dans les gaz rares surtout aux faibles valeurs de l'energie relative ou les mesures sont quasi inexistantes. Apres avoir analyse et montre la non-validite des lois macroscopiques habituelles (loi de blanc ou relation de viehland et mason,. . . ), l'ensemble des sections efficaces ainsi obtenues a permis de determiner, a l'aide de la methode de monte carlo, les parametres de transport pour un large intervalle de champs e/n (jusqu'a 10 000 td) des ions (h#+, he#+, ne#+, ar#+, xe#+) dans les gaz rares et leurs melanges (he-xe, ar-ne)
APA, Harvard, Vancouver, ISO, and other styles
29

Paillet, Adrien. "Étude par simulation Monte Carlo de l'imagerie TEP corps entier ultra rapide dans un contexte clinique réaliste." Electronic Thesis or Diss., université Paris-Saclay, 2024. https://theses.hal.science/tel-04885374.

Full text
Abstract:
La Tomographie par Émission de Positons (TEP) est une modalité d'imagerie fonctionnelle pour le diagnostic et le suivi thérapeutique en oncologie. L'amélioration de la qualité d'image, en termes de contraste et de résolutions, reste donc un objectif prioritaire. Cela pourrait être atteint par l'augmentation de la sensibilité des imageurs avec par exemple des systèmes corps entier ou l'amélioration de la résolution temporelle (CTR pour Coincidence Time Resolution) afin d'augmenter le rapport signal sur bruit dans l'image reconstruite. Cependant, le développement de tels systèmes est coûteux, long et parfois même technologiquement non réalisable à ce jour, d'où l'importance des simulations Monte Carlo pour faire avancer ces travaux et tester numériquement des pistes et hypothèses d'amélioration.Dans cette thèse, nous avons réalisé une simulation numérique réaliste pour un scanner corps entier avec un champ de vue axial d'un mètre et un CTR de 100 ps et moins. Notons, qu'actuellement, le meilleur CTR atteint avec un TEP à usage clinique dépasse les 200 ps, tandis que les CTR inférieurs à 100 ps n'ont été obtenus que sur bancs de tests. L'objectif de ce travail est donc d'étudier avec des simulations les effets d'un couplage entre l'augmentation du champ de vue axial des caméras TEP et l'augmentation des performances du CTR dans un contexte clinique en oncologie. Les simulations sont réalisées à l'aide de la plateforme GATE et de Geant4.La première partie de cette thèse consiste à simuler et valider la caméra TEP/IRM clinique SIGNA de General Electric. Elle a un champ de vue axial de 25 cm et un CTR de 390 ps. Le modèle est validé en suivant le protocole NEMA par des données expérimentales sur la sensibilité, la résolution spatiale, le CTR, les taux de comptage des coïncidences et des indices quantitatifs dans le niveau de contraste des images reconstruites.La suite des travaux généralise le modèle TEP SIGNA de 25 cm à un champ de vue axial corps entier d'1 m. Un fantôme anthropomorphique XCAT est utilisé pour simuler un examen clinique au ¹⁸F-FDG en oncologie. Quatre tumeurs hétérogènes sont intégrées au modèle : trois dans le foie (deux hyperactives et une hypoactive) et une dans le poumon. Différentes hypothèses sont testées sur des CTR (390 ps et 100 ps), les durées d'acquisition (300 s pour la durée standard, 180 s et 60 s), et les diminutions de la quantité de traceur injecté (dose standard divisée par 10 et par 100). Des analyses qualitatives et quantitatives, en comparaison avec l'état de l'art du TEP SIGNA GE, sont réalisées pour évaluer les performances. Les résultats montrent que le CTR de 100 ps donne les meilleurs résultats en termes de contraste d'image et de fidélité à la réalité. De plus, la qualité d'image avec le CTR 100 ps et une dose/10 reste visuellement interprétable, ce qui est particulièrement encourageant pour la réduction des doses injectées dans le domaine des applications cliniques en TEP.L'étude prospective explore l'intérêt d'un CTR inférieur à 100 ps. Ce travail s'intéresse à un compromis entre l'épaisseur du cristal (donc la sensibilité) et la résolution temporelle (impactée par le temps de propagation du photon dans le cristal du détecteur). Une étude est menée sur deux épaisseurs de cristaux (5 mm et 11 mm) et donc deux CTR (respectivement 25 ps et 50 ps).Les résultats indiquent qu'avec la technologie actuelle, il est préférable de maintenir un CTR légèrement plus élevé (100 ps) plutôt que de viser des CTR inférieurs à 100 ps avec des cristaux de taille réduite, car la perte de sensibilité n'est pas compensée par l'amélioration de CTR dans les images cliniques.Pour améliorer la qualité d'image, il est donc essentiel de continuer à travailler sur la réduction du CTR tout en augmentant la sensibilité intrinsèque de détection. Une autre approche pourrait être d'intégrer la mesure de la profondeur d'interaction, afin de réduire son influence sur la résolution temporelle
Positron Emission Tomography (PET) is a functional imaging modality for diagnosis and therapeutic follow-up in oncology. Improving image quality, in terms of contrast and resolution, therefore remains a priority objective. This could be achieved by increasing the sensitivity of imagers with Total-body systems, for example, or by improving the Coincidence Time Resolution (CTR) to increase the signal-to-noise ratio in the reconstructed image. However, developing such systems is costly, time-consuming, and sometimes even technologically unfeasible to date, hence the importance of Monte Carlo simulations in advancing this work and numerically testing avenues and hypotheses for improvement.In this thesis, we have conducted a realistic numerical simulation for a whole-body scanner with a one-meter axial field of view and a CTR of 100 ps and less. It should be noted that the best CTR achieved with a PET scanner for clinical use currently exceeds 200 ps, while CTRs below 100 ps have only been obtained on test benches. Therefore, this work aims to use simulations to study the coupling effects between increasing the axial field of view of PET cameras and increasing CTR performance in a clinical oncology context. Simulations are carried out using the GATE platform and Geant4.The first part of this thesis consists of simulating and validating General Electric's SIGNA clinical PET/MRI camera. It has an axial field of view of 25 cm and a CTR of 390 ps. The model is validated following the NEMA protocol with experimental data on sensitivity, spatial resolution, CTR, coincidence count rates and quantitative indices in the contrast level of reconstructed images.Further work generalizes the 25 cm SIGNA PET model to a 1 m whole-body axial field of view. An anthropomorphic XCAT phantom is used to simulate a ¹⁸F-FDG clinical examination in oncology. Four heterogeneous tumours are integrated into the model: three in the liver (two hyperactive and one hypoactive) and one in the lung. Different hypotheses are tested on CTRs (390 ps and 100 ps), acquisition times (300 s for standard duration, 180 s and 60 s), and decreases in the quantity of tracer injected (standard dose divided by 10 and by 100). Qualitative and quantitative analyses, compared with the state-of-the-art SIGNA GE PET scanner, are carried out to assess performance. The results show that the 100 ps CTR gives the best results regarding image contrast and fidelity to reality. Moreover, image quality with CTR 100 ps and a dose/10 remains visually interpretable, which is particularly encouraging for reducing injected doses in clinical PET applications.The prospective study explores the benefits of a CTR of less than 100 ps. This work focuses on a compromise between crystal thickness and, therefore, sensitivity and temporal resolution (impacted by the photon propagation time in the detector crystal). A study was carried out on two crystal thicknesses (5 mm and 11 mm) and, therefore, two CTRs (25 ps and 50 ps, respectively).The results indicate that with current technology, it is preferable to maintain a slightly higher CTR (100 ps) rather than aiming for CTRs below 100 ps with smaller crystals, as the loss of sensitivity is not compensated by the CTR improvement in clinical images.To improve image quality, it is, therefore, essential to continue working on reducing CTR while increasing intrinsic detection sensitivity. Another approach could be integrating the measurement of interaction depth to reduce its influence on temporal resolution
APA, Harvard, Vancouver, ISO, and other styles
30

Fongang, Bernard. "Etude par simulation numérique des propriétés structurales et magnétiques des systèmes ioniques nanostructurés : description des joints de grains." Le Mans, 2009. http://cyberdoc.univ-lemans.fr/theses/2009/2009LEMA1015.pdf.

Full text
Abstract:
Cette thèse a pour objet la compréhension de la structure des joints de grains (JDG) du fluorure ferrique (FeF3). Ce composé présente deux avantages : c’est un matériau chimiquement simple (deux types d’atomes) et il présente un polymorphisme avec trois phases cristallines, des formes «amorphes» et des formes nanostructurées, présentant toutes des architectures composées d’empilements d’unités octaédriques FeF6. Les différentes phases du FeF3 ont été intensivement étudiées au cours des dernières décennies. Les derniers résultats expérimentaux concernent les poudres nanostructurées de FeF3 obtenues par broyage mécanique. Ils montrent qu’à l’échelle nanométrique la variété nanostructurée de FeF3 est composée de deux régions : le grain cristallin et le joint de grain (dont l’épaisseur est dépendante de l’énergie de broyage et du temps de broyage haute énergie). Au cours de ce travail, nous avons étudié les propriétés structurales et magnétiques d’un système modèle composé d’une interface grain /joint de grain /grain par simulation numérique de type Monte-Carlo/Metropolis. La construction des boîtes de simulation, dont les tailles sont comprises entre 6 et 10 nm, est basée sur les cellules de Voronoï dans lesquelles on fait croître des cristaux à partir de centres fixes suivant des directions données de manière à créer une interface entre cristallites désorientés. Différentes désorientations cristallographiques des deux grains ont été étudiées. La simulation consiste en un réchauffement sélectif de l’interface puis d’une relaxation de l’ensemble par un schéma de recuit simulé. Afin d’optimiser le calcul et de s’affranchir des conditions aux limites périodiques, nous avons utilisé une technique consistant à choisir préférentiellement les atomes à relaxer selon une probabilité dépendante de leur distance à l’interface. De plus, cette technique permet de conserver une structure cristalline loin de l’interface. Les résultats obtenus nous permettent de conclure, d’après l’évolution de l’angle de superéchange et de la distance Fe-F en fonction de la distance à l’interface, que la structure obtenue est constituée de deux zones : une première zone parfaitement cristalline et une seconde zone constituée de quelques couches octaédriques assez désordonnée. L’interface qui reste constituée d’octaèdres joints par les sommets voit apparaître une fraction importante de cycles impairs d’atomes de fer et, compte tenu de la nature antiferromagnétique des interactions dans ce composé, laisse supposer qu’elle aura un caractère magnétiquement frustré. Nous avons, dans un deuxième temps, étudié le magnétisme de ces systèmes. Les résultats obtenus montrent que l’état magnétique d’équilibre est constitué de deux zones antiferromagnétiques séparées par une interface abrupte couplant perpendiculairement les deux zones, et ce, quelque soit la configuration de désorientation des cristallites de départ
This thesis aims at understanding the structure of grains boundaries (GB) observed in the nanostructured form of ferric fluoride (FeF3). The FeF3 system has two advantages : it is a chemically simple material (two types of atoms) and presents a polymorphism with three crystalline phases, "amorphous" forms and nanostructured forms, all having architectures composed of corner-sharing octahedra FeF6. The different phases of FeF3 have been intensively studied in recent decades. The latest experimental results obtained in our laboratory concern nanostructured FeF3 powders obtained by mechanical milling. They show that the nanoscale variety of FeF3 is composed of two parts : the crystalline grain and grain boundary (the thickness of which is dependent on the energy and duration of milling high energy). In this work, we studied the structural and magnetic properties of a model system composed of an interface in between two grains by numerical simulation with the Monte-Carlo/Metropolis method. The construction of the simulation boxes the sizes of which are ranged from 6 and 10 nm, is based on Voronoï cells in which crystals grow starting from fixed centers following given directions in order to create an interface between disoriented crystallites. Different crystallographic disorientations of the two grains were studied. The simulation consists of a selective heating at the interface followed by a relaxation of the whole system using a simulated annealing scheme. To optimize the calculation and to overcome the periodic boundary condition problem, we used a scheme to preferentially select atoms to be relaxed according to a probability dependent on their distance to the interface. Moreover, this scheme helps us to maintain a crystalline system far from the interface. The obtained results allow us to conclude from the evolution of superexchange angle and the Fe-F distance according to the distance to the interface, that the structure obtained is composed of two areas : one area crystal and a second zone consisting of several layers with distorted octahedra. The interface, which still composed of corner-sharing octahedra FeF6, contains a significant fraction of odd cycles of iron atoms and, given the antiferromagnetic nature of interactions in this compound, behaves as magnetically frustrated. In a second time we have, studied the magnetism of these systems. The results show that the magnetic equilibrium state is made up of two zones separated by an antiferromagnetic steep interface coupling the two perpendicular zones, and this, whatever the disorientation of initial crystallites
APA, Harvard, Vancouver, ISO, and other styles
31

Stoltz, Gabriel. "Simulation moléculaire : Problèmes dynamiques et hors d'équilibre." Habilitation à diriger des recherches, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00709965.

Full text
Abstract:
L'objectif de la simulation moléculaire est de comprendre et prédire les propriétés macroscopiques des matériaux à partir de leur description à l'échelle microscopique. Ce mémoire présente quelques contributions à ce sujet, pour des modèles de la physique statistique et de la physique quantique. Mes travaux en physique statistique numérique peuvent être classés en deux catégories : le calcul de propriétés d'équilibre, l'accent étant porté sur le calcul de différences d'énergie libre (chapitre 2), et l'étude de dynamiques hors d'équilibre en régime permanent pour le calcul de propriétés de transport (chapitre 3). Dans les deux cas, les méthodes numériques reposent sur des dynamiques hors d'équilibre ou nonlinéaires, la distinction entre ces classes de méthodes provenant du fait que l'état invariant du système est soit un état d'équilibre (éventuellement, à une correction près) ou un état hors d'équilibre. Le chapitre 4 présente quelques résultats pour des dynamiques quantiques : fictives, comme pour la transition adiabatique d'états dégénérés ; ou authentiques, comme pour l'évolution en temps des défauts locaux dans les cristaux.
APA, Harvard, Vancouver, ISO, and other styles
32

Vo, Thi Thu Huong. "Etude du comportement thermique d'un matériau multicouches lacunaires et contribution à la modélisation et la simulation numérique des dépôts à structure colonnaire." Orléans, 2007. http://www.theses.fr/2007ORLE2011.

Full text
Abstract:
Ce travail est motivé par un problème technologique (et économique) pour l'amélioration des écrans à tube cathodique et plus précisément du masque qui est une grille dont les trous permettent de diriger le faisceau électronique vers photophores situés sur la dalle de verre: l'écran. L'apport d'énergie des électrons qui se déposent sur le masque entraîne son échauffement et du coup sa déformation nuisant à la qualité de l'image. La solution que nous avons étudiée consiste à déposer des couches minces de matériaux choisis, entre autres, pour leurs propriétés thermiques. Cette thèse comporte deux parties. La première consiste à modéliser l'échauffement du masque soumis au balayage électronique et vérifier si les solutions proposées permettent de réduire les gradients thermiques. En s'appuyant sur un calcul d'homogénéisation, nous avons proposé une formulation du comportement thermique de matériau sans couches minces prenant en compte la présence des trous sur le masque. Ensuite, nous avons étudié le problème d'évolution bidimensionnel obtenu en intégrant sur l'épaisseur du masque. A l'issu du travail précédent, une étude de l'influence de la présence des couches de différents matériaux sur la propagation latérale de la chaleur a été menée. L’objectif de la seconde partie est la mise au point des modèles mathématiques du processus de dépôt des couches minces de matériaux sur le masque. Notre approche comprend deux types de modélisation: les modèles discrets et les modèles continus. Les modèles discrets sont basés sur des méthodes de type Monte Carlo. Les modèles continus sont décrits par des équations aux dérivées partielles stochastiques dont les solutions fournissent la hauteur du dépôt en fonction du temps et de la position. Parmi les modèles continus existants, nous avons choisi d'axer notre étude sur les modèles incluant un effet d’ombrage car ils sont à même de reproduire les structures colonnaires observées expérimentalement. L’étude de l’influence des différents termes intervenant dans les 2 modèles (MC et EDP) nous a permis de proposer un nouveau modèle continu dont les solutions sont proches de celles obtenues par les méthodes de Monte Carlo. Cette étude a été menée aussi bien en 1+1D qu’en 2+1D.
APA, Harvard, Vancouver, ISO, and other styles
33

Yao, Min. "Computed radiography system modeling, simulation and optimization." Thesis, Lyon, INSA, 2014. http://www.theses.fr/2014ISAL0128/document.

Full text
Abstract:
Depuis plus d’un siècle, la radiographie sur film est utilisée pour le contrôle non destructif (CND) de pièces industrielles. Avec l’introduction de méthodes numériques dans le domaine médical, la communauté du CND industriel a commencé à considérer également les techniques numériques alternatives au film. La radiographie numérique (en anglais Computed radiography -CR) utilisant les écrans photostimulables (en anglais imaging plate -IP) est une voie intéressante à la fois du point de vue coût et facilité d’implémentation. Le détecteur (IP) utilisé se rapproche du film car il est flexible et réutilisable. L’exposition de l’IP aux rayons X génère une image latente qui est ensuite lue et numérisée grâce à un système de balayage optique par laser. A basse énergie, les performances du système CR sont bonnes ce qui explique son utilisation importante dans le domaine médical. A haute énergie par contre, les performances du système CR se dégradent à la fois à cause de la mauvaise absorption de l’IP mais également de la présence de rayonnement diffusé par la pièce qui, étant d’énergie plus faible, est préférentiellement absorbée par l’IP. Les normes internationales préconisent l’utilisation d’écrans métalliques pour améliorer la réponse des systèmes CR à haute énergie. Néanmoins, la nature et l’épaisseur de ces écrans n’est pas clairement définie et la gamme des configurations possibles est large. La simulation est un outil utile pour prévoir les performances d’une expérience et déterminer les meilleures conditions opératoires. Les méthodes Monte Carlo sont communément admises comme étant les plus précises pour simuler les phénomènes de transport de rayonnement, et ainsi comprendre les phénomènes physiques en jeu. Cependant, le caractère probabiliste de ces méthodes implique des temps de calcul importants, voire prohibitifs pour des géométries complexes. Les méthodes déterministes au contraire, peuvent prendre en compte des géométries complexes avec des temps de calcul raisonnables, mais l’estimation du rayonnement diffusé est plus difficile. Dans ce travail de thèse, nous avons tout d’abord mené une étude de simulation Monte Carlo afin de comprendre le fonctionnement des IP avec écrans métalliques à haute énergie pour le contrôle de pièces de forte épaisseur. Nous avons notamment suivi le trajet des photons X mais également des électrons. Quelques comparaisons expérimentales ont pu être menées à l’ESRF (European Synchrotron Radiation Facility). Puis nous avons proposé une approche de simulation hybride, qui combine l'utilisation de codes déterministe et Monte Carlo pour simuler l'imagerie d'objets de forme complexe. Cette approche prend en compte la dégradation introduite par la diffusion des rayons X et la fluorescence dans l'IP ainsi que la diffusion des photons optiques dans l'IP. Les résultats de différentes configurations de simulation ont été comparés
For over a century, film-based radiography has been used as a nondestructive testing technique for industrial inspections. With the advent of digital techniques in the medical domain, the NDT community is also considering alternative digital techniques. Computed Radiography (CR) is a cost-efficient and easy-to-implement replacement technique because it uses equipment very similar to film radiography. This technology uses flexible and reusable imaging plates (IP) as a detector to generate a latent image during x-ray exposure. With an optical scanning system, the latent image can be readout and digitized resulting in a direct digital image. CR is widely used in the medical field since it provides good performance at low energies. For industrial inspection, CR application is limited by its poor response to high energy radiation and the presence of scattering phenomena. To completely replace film radiography by such a system, its performance still needs to be improved by either finding more appropriate IPs or by optimizing operating conditions. Guidelines have been addressed in international standards to ensure a good image quality supplied by CR system, where metallic screens are recommended for the case of using high energy sources. However, the type and thickness of such a screen are not clearly defined and a large panel of possible configurations does exist. Simulation is a very useful tool to predict experimental outcomes and determine the optimal operating conditions. The Monte Carlo (MC) methods are widely accepted as the most accurate method to simulate radiation transport problems. It can give insight about physical phenomena, but due to its random nature, a large amount of computational time is required, especially for simulations involving complex geometries. Deterministic methods, on the other hand, can handle easily complex geometry, and are quite efficient. However, the estimation of scattering effects is more difficult with deterministic methods. In this thesis work, we have started with a Monte Carlo simulation study in order to investigate the physical phenomena involved in IP and in metallic screens at high energies. In particular we have studied separately the behavior of X-ray photons and electrons. Some experimental comparisons have been carried out at the European Synchrotron Radiation Facility. Then, we have proposed a hybrid simulation approach, combining the use of deterministic and Monte Carlo code, for simulating the imaging of complex shapes objects. This approach takes into account degradation introduced by X-ray scattering and fluorescence inside IP, as well as optical photons scattering during readout process. Different simulation configurations have been compared
APA, Harvard, Vancouver, ISO, and other styles
34

Cherradi, el Fadili Ibrahim. "Simulation numérique directe d'écoulements gazeux par la méthode de Monte-Carlo : application à l'étude de mélanges gazeux entre le régime continu et le régime moléculaire libre." Paris 11, 1987. http://www.theses.fr/1987PA112401.

Full text
Abstract:
L'objet de cette thèse est de mettre au point un code de simulation qui permet d'étudier des écoulements de gaz raréfiés en régime de raréfaction dit de "transition", intermédiaire entre le régime continu (relevant de la mécanique des milieux continus) et le régime moléculaire libre (relevant d’une approche mathématique relativement simple). La méthode de simulation numérique utilisée est la méthode directe de Monte Carlo. Elle consiste à suivre par le calcul des milliers de "molécules simulées " ; chacune d'elles étant représentative d'un nombre beaucoup plus grand de "molécules réelles". Le gaz simulé peut être: un mélange de différents types de molécules (monoatomiques, diatomiques ou polyatomiques) en différentes proportions. La modélisation du processus de collisions intermoléculaires représente le "noyau" de la simulation : elle est basée sur les trois points essentiels suivants : - le respect de la fréquence de collision se faisant par l'utilisation de la méthode du compteur de temps de collision. - le traitement des collision avec l'hypothèse des "molécules-sphères rigides" de section fixe ou bien variable avec la vitesse relative des molécules collisionnelles. - le modèle des échanges entre énergie de translation et énergie interne des paires collisionnelles de molécules. Le bon fonctionnement et l'efficacité de l'outil numérique ainsi obtenu sont illustrés par l'étude de l'écoulement de Couette plan. En effet, les résultats des simulations ont été comparés d'une manière satisfaisante aux résultats théoriques aussi bien dans le cas d'un gaz pur que dans le cas d'un mélange. En s'éloignant progressivement du régime continu vers le régime moléculaire libre, le comportement du coefficient de viscosité a été étudié pour un gaz unique et pour un mélange. Enfin pour un mélange binaire proche du régime continu, la variation du coefficient de viscosité en fonction de la concentration relative des gaz est étudiée.
APA, Harvard, Vancouver, ISO, and other styles
35

Chen, Linghong. "Etude par simulation numérique de l'influence de la diffusion multiple sur le rayonnement de milieux discrets émissifs." Rouen, 2005. http://www.theses.fr/2005ROUES027.

Full text
Abstract:
Ce travail de recherche a pour objectif une meilleure compréhension du transfert radiatif dans les milieux en combustion, en présence d'émission, d'absorption et de diffusion multiple. Il est axé sur les effets de la diffusion multiple dans les milieux discrets émissifs. Un modèle 3D de Monte-Carlo est développé, validé puis appliqué aux milieux non optiquement fins. Une simulation numérique de la thermométrie " deux couleurs ", fondée sur la fluorescence induite par laser (LIF) est présentée pour des sprays polydispersés. L'influence de plusieurs paramètres sur le spectre d'émission du spray a été testée. L'augmentation de la concentration de gouttes conduit à un phénomène connu de " décalage vers le rouge ", qui a été quantifié. L'approche statistique est ensuite appliquée aux particules de suie dans les flammes dans le cadre de l'Incandescence Induite par Laser (LII). Les origines de plusieurs biais de mesure sont soulignées
The focus of this research is to better understand the radiative heat transfer in combustion media with simultaneous absorption, multiple scattering, and emission. The work is mainly devoted to multiple scattering effects in participating media. A 3D Monte-Carlo model is developed, validated, then applied to non-optically thin media. A numerical simulation of “two-color” thermometry based on laser induced fluorescence (LIF) is presented for polydisperse sprays. The influence of several parameters on the spray emission spectrum is tested. Increasing droplets concentrations leads us to a known “red-shift” phenomenon, which is quantified. Then, the statistical approach is applied to soot particles in flames in the frame of the LII technique (Laser Induced Incandescence). Some diagnostics bias origins are emphasized
APA, Harvard, Vancouver, ISO, and other styles
36

Zhou, Kedi. "Une nouvelle méthode pour l'indice de réfraction d'échantillons à l'échelle du microlitre sous conditions sévères : Étude expérimentale et numérique." Thesis, Pau, 2020. http://www.theses.fr/2020PAUU3030.

Full text
Abstract:
Parmi les paramètres des fluides, l’indice de réfraction (IR) occupe une place de choix en raison des applications dans les industries chimiques, agro-alimentaires ou petrolières. Nous décrivons une nouvelle méthode de détermination à l'échelle du microlitre de l’IR d’échantillons sous conditions chimiques, de thermiques ou de pression sévères, par la mesure de l'ellipticité d'une caustique optique réfléchie à la paroi interne de micro-capillaires utilisés comme cellules porte-échantillon sous le microscope de transmission. La méthode est simple, bon marché et peut rendre l'IR avec une précision de Dn ≈0.005 a des pressions de dizaines de Mpa et des températures de l'azote liquide à des centaines de degrés Celsius. La méthode est développée et validée à l'aide de simulations de lancer de rayons Monte Carlo. En dérivatif de l'étude, nous montrons que les arcs clairs et sombres observés sur des émulsions entre polariseurs croisés peuvent être un artefact, sans rapport avec la croix de Malte attendue pour de supposées phases crystal-liquide biréfringent
Refractive index (RI) is an essential parameter of transparent fluids, used to characterize purity, concentration and other parameters, with wide application in chemical, food, and petroleum processing. This work describes a new method for measuring the RI of microlitre samples under harsh temperatures, pressures or chemical conditions, by measuring the elliptical polarization of a characteristic optical cusp reflected off the inner wall of a micro-capillary sample cell under the transmission microscope. The method is simple, cheap and capable of yielding an error of RI Dn ≈0.005 at pressures of tens of Mpa and temperatures from liquid nitrogen to 100’s of °C. The method is developed and validated with the help of Monte Carlo ray tracing simulations. A secondary finding is that a pattern of bright and dark arcs observed in emulsions under crossed polarizers may be an artifact, unrelated to the Maltese cross expected with supposed birefringent liquid crystal phases
APA, Harvard, Vancouver, ISO, and other styles
37

Le, Corre Benjamin. "Thermoformage du verre - Développement numérique d'un modèle thermomécanique." Phd thesis, Université de Lorraine, 2014. http://tel.archives-ouvertes.fr/tel-00975511.

Full text
Abstract:
Ce travail de thèse est dédié à la modélisation du thermoformage du verre. Le procédé consiste à déformer une plaque de verre sous l'effet de son propre poids. Posée sur un support et placée dans un four, la température de la pièce augmente et sa viscosité diminue, ce qui permet d'obtenir la forme désirée. Les simulations numériques, qui se basent sur un modèle thermomécanique, doivent permettre de mieux comprendre l'influence, sur le produit final, des différents paramètres d'essai, comme le chargement thermique, la géométrie et le matériau du moule ou encore la forme initiale de la pièce. Pour ce faire, le logiciel commercial Abaqus®, qui utilise une méthode de résolution des calculs par éléments finis, prend en charge les aspects mécaniques et conductifs. En revanche, comme le verre est un milieu semi-transparent, la modélisation du transfert radiatif est complexe et nécessite le développement d'un code se basant sur une méthode de Monte Carlo dite réciproque. La méthode a été validée en deux dimensions sur des cas-tests de la littérature scientifique. Le code a ensuite été implémenté dans le logiciel Abaqus® afin de réaliser des simulations de thermoformage sur moule et en suspension. Le verre est considéré comme un matériau élasto-visco-plastique obéissant à un modèle de Maxwell simple et la thermodépendance de la viscosité est prise en compte par une loi WLF. Une attention particulière a été accordée au modèle radiatif. Différentes hypothèses, issues de la littérature scientifique, sont testées afin de vérifier leur validité dans notre cas d'étude.
APA, Harvard, Vancouver, ISO, and other styles
38

Marcos, Grégory. "Simulation numérique par méthode Monte Carlo de la gravure du silicium en plasma fluoré : étude du rôle de l'oxygène dans la passivation : comparaison avec des résultats expétimentaux." Orléans, 2002. http://www.theses.fr/2002ORLE2063.

Full text
Abstract:
Le projet de cette thèse porte sur l'étude de la gravure sèche de tranchées fines et profondes dans du silicium. Ce type de procédé est utilisé dans la fabrication des dispositifs de puissance. Le protocole expérimental s'appuie sur un procédé plasma cryogénique au cours duquel une décharge radiofréquence de SF6/O2 est initiée dans un réacteur ICP. A partir des résultats fournis par l'étude empirique, le travail de recherche a consisté en l'élaboration d'un modèle de gravure basé sur la méthode Monte Carlo. Ce simulateur est composé d'un module calculant les fonctions de distribution du flux d'ions incident. Il intègre leur trajectoire dans la gaine plasma en considérant les processus de collisions élastiques et à transfert de charge. Suivant les conditions initiales du procédé, il fournit donc des données cinétiques d'entrée au module de déplacement du substrat. Le modèle de gravure décrit les principaux mécanismes de surface produits par les espèces réactives (atomes de fluor et d'oxygène, dont le flux est supposé isotrope) et le bombardement ionique. Il introduit l'adsorption/désorption, la gravure chimique spontanée, la pulvérisation préférentielle, la réflexion isotrope ou spéculaire des particules, le redépôt des produits de gravure et la croissance de la couche de passivation. Utilisé comme outil d'analyse et de recherche prédictive, ce modèle a permis de montrer l'incidence de certains paramètres dans la croissance de défauts de gravure. Ainsi, la réflexion des ions sur les flancs inclinés du masque constitue l'une des causes de formation du bowing (sur-gravure latérale). L'intensité de l'undercut (gravure sous masque) dépend étroitement des propriétés du flux de neutres et de sa réactivité avec le substrat. Par comparaison avec l'expérience, il apparaît que le redépôt, responsable de la rugosité et du rétrécissement des motifs, est peu important. Enfin, le simulateur révèle une forte corrélation entre le régime de passivation et les cinétiques de gravure.
APA, Harvard, Vancouver, ISO, and other styles
39

Liu, Xin. "Numerical modeling and simulation of selective laser sintering in polymer powder bed." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI012/document.

Full text
Abstract:
La fabrication additive est l’un des secteurs industriels les plus en développent ces dernières années. L’une de ces technologies de fabrication les plus prometteuses est la fusion laser sélective (SLS), et relève d’un intérêt croissant aussi bien industriel qu’académique. Néanmoins, beaucoup de phénomène mis en jeu par ce procédé demeure non encore bien compris, entravant ainsi son développement pour la production de pièces de bonne qualité pour des applications industrielles. L’objectif de cette thèse est de développer un cadre de simulation numérique permettant la simulation du procédé SLS pour des poudres de polymère afin de comprendre les multiples et complexes phénomènes physiques qui se produise lors du frittage laser et d’étudier l’influence des paramètres du procédé sur la qualité du produit final. Contrairement aux approches classiques de modélisation numérique, basées sur la définition de matériaux homogène équivalents pour la résolution des équations de bilan, nous proposons une simulation globale du procédé du frittage laser de poudres, en utilisant la méthode des Eléments Discrets (DEM). Cela consiste en un couplage entre quatre sous-modèles : transferts radiatif dans le milieu granulaire semi-transparent, conduction thermique dans les milieux discrets, coalescence puis densification. Le modèle de transferts par rayonnement concerne l’interaction du faisceau laser avec le lit de poudre. Plusieurs phénomènes sont ainsi pris en compte, notamment la réflexion, la transmission, l’absorption et la réfraction. De plus, une méthode de Monte-Carlo couplée à la méthode du Lancer de rayons est développée afin d’étudier l’influence de la réfraction sur la distribution de l’énergie du laser dans le lit de poudre. Le modèle de conduction dans des milieux discrets décrit la diffusion thermique inter-particules. Finalement, le modèle de frittage décrit les cinétiques de coalescence et de diffusion de l’air dans le polymère et densification du milieu. Cela permet de décrire les cinétiques de fusion des grains, dont l’énergie de surface et la diffusons de l’air sont les deux moteurs principaux. Le couplage entre les différents modèles nous a permis de proposer un modèle numérique global, validé grâce à des comparaisons à des résultats de simulations théoriques et expérimentales, trouvés dans la littérature. Une analyse paramétrique est alors proposée pour la validation du modèle et l’étude du procédé. L’influence de différents paramètres aussi bien du procédé que du matériau sur le champ de température, la densité relative du matériau sa structure, etc , est ainsi investiguée. Les résultats montrent une bonne précision dans la modélisation des différents phénomènes complexes inhérents à ce procédé, et ce travail constitue un potentiel réel pour la modélisation et l’optimisation des procédés de fabrication additive par matériaux granulaires
Many industrial and academic interests concerning the additive manufacturing processes are developed in the last decades. As one of the most promising technique of additive manufacturing, the Selective Laser Sintering (SLS) has been valued by both industry and academic. However, it remains that several phenomena are still not well understood in order to properly model the process and propose quality improvement of parts made. The goal of this Ph.D. project is to develop a framework of numerical simulation in order to model the SLS process in polymer powder bed, meanwhile understanding multiple physical phenomena occurring during the process and studying the influence of process parameters on the quality of final product. In contrast to traditional approach, based on the equivalent homogeneous material in numerical modeling of partial differential equations derived from conservation laws, we propose a global model to simulate powder-based additive manufacturing by using the Discrete Element method (DEM). It consists in a coupling between four different physical models: radiative heat transfer, discrete heat conduction, sintering and granular dynamics models. Firstly, the submodel of radiative heat transfer concerns the interaction between the laser beam and powder bed. Several phenomena are considered, including the reflection, transmission, absorption and scattering. Besides, a modified Monte Carlo ray-tracing method is developed in order to study the influence of scattering on the distribution of the deposited laser energy inside the powder bed Furthermore, the submodel of discrete heat conduction describes the inter-particles heat diffusion. Moreover, the sintering submodel concerns the phenomena of coalescence and air diffusion. It describes the melting kinetics of grains, driven by surface tension and the release of entrapped gases inside powder bed. Finally, the granular dynamics submodel concerns the motions and contacts between particles when depositing a new layer of powders. The coupling between these submodels leads to propose a global numerical framework, validated by comparing the results to both simulated and experimental ones from literatures. A parametric study is then proposed for model validation and process analysis. The Influence of different material and process parameters on the evolution of temperature, relative density and materials structure and characteristics are investigated. The results exhibit accurate modeling of the complex phenomena occurring during the SLS process, and the work constitute a great potential in modeling and optimization of additive processes
APA, Harvard, Vancouver, ISO, and other styles
40

Arnoult, Mickaël. "Contribution à l’étude des dynamiques moléculaires associées aux cinétiques de relaxation sous contrainte dans les polymères semi-critallins : Etude expérimentale et simulation numérique." Rouen, 2007. http://www.theses.fr/2007ROUES039.

Full text
Abstract:
Ce travail est une contribution à l’étude de la transition vitreuse et de la relaxation structurale des verres. L’ensemble du travail suit deux axes: une étude expérimentale concernant un polymère linéaire (PLLA) avec différents taux de cristallinité et la simulation numérique qui utilise le modèle du Bond Fluctuating Length (BFL) en simulation Monte Carlo. Dans un premier temps, il a été montré que la présence d’une phase cristalline au sein du PLLA change peu la mobilité moléculaire de la phase amorphe. Néanmoins, pour des taux intermédiaires, cette phase cristalline peut conduire à une séparation de la phase amorphe en deux phases distinctes, l’une éloignée de l’influence cristalline et une seconde plus proche des cristaux qui interagit avec eux ayant, présentant ainsi une mobilité moléculaire plus réduite. Dans un second temps, il a été montré qu’il était possible de simuler la transition vitreuse en choisissant deux potentiels d’interaction : le Lennard-Jones (inter-moléculaire) et le potentiel de Liaison (intra-moléculaire). Cependant, le choix du poids relatif d’un potentiel par rapport à l’autre est prépondérant dans l’obtention du résultat. Des traitements isothermes à des températures inférieures à celles du liquide ont mis en évidence deux phénomènes : à basses températures est observée la relaxation d’un liquide figé tandis que pour des températures juste en dessous du liquide est observée une mise en ordre du système au cours du temps de recuit
This work is a contribution to the study of the glass transition and of the relaxation phenomenon in glasses. This study is divided into two axis: a/ an experimental study on a linear polymer (PLLA) with different crystallinity degrees and b/ a Monte Carlo computer simulation using the Bond Fluctuating Length (BFL) model. In the first part, the presence of a crystalline phase in PLLA has been shown to have a weak influence on the amorphous phase molecular mobility. However, for intermediate degrees, this crystalline phase can lead to an amorphous phase separation: one phase far and free from the crystal influence, a second phase, closer to the crystals, interacting with the latters and so presenting a lower molecular mobility. In the second part of the work, the glass transition has been simulated using two interaction potentials: a Lennard-Jones (inter-molecular) and a Bond Length (intra-molecular). However, the choice of the ration between this two potential is of a great importance in regard of the result obtained. Isothermal treatments at temperature lower than the ones of the liquid has enlightened two phenomena: at low temperatures is observed the relaxation of a frozen liquid as at temperatures just under the liquid state, an ordering appears during the annealing time
APA, Harvard, Vancouver, ISO, and other styles
41

Ledue, Denis. "Simulation de structures magnétiques dans des réseaux quasipériodiques bidimensionnels." Rouen, 1991. http://www.theses.fr/1991ROUE5038.

Full text
Abstract:
La détermination des structures magnétiques stables à ok dans des réseaux quasipériodiques 2D d'ordre cinq dans l'hypothèse du modèle classique de spins XY sans anisotropie locale est effectuée au moyen de simulations numériques. La méthode de simulation choisie, après divers tests comparatifs, est une méthode de Monte Carlo de recuit simulé basée sur la minimisation de l'énergie magnétique à chaque température. L'étude de la transition de phase dans le cas où toutes les intégrales d'échange sont positives et identiques conduit à une loi de variation linéaire de la température de transition avec le nombre moyen de voisins en interaction. Le réseau quasipériodique se comporte alors comme un réseau périodique moyen. L'étude de systèmes frustrés a montré l'existence d'un domaine de stabilité à ok des structures antiferromagnétiques. Ces structures deviennent cantées lorsque l'importance des conflits locaux entre interactions contradictoires augmente. L'ordre magnétique observé dans ces structures est attribué à l'ordre translationnel quasipériodique du réseau. Il est à noter que la température de transition de ces systèmes ne dépend plus de l'interaction entre premiers voisins lorsque celle-ci est grande devant les autres. Par contre, des interactions antiferromagnétiques aux trois premières distances entraînent la disparition des directions privilégiées et semblent conduire à des structures dont l'ordre magnétique est complexe. Le seuil de percolation ferromagnétique du réseau de Penrose infini est déterminé par simulations numériques utilisant la méthode des étiquettes multiples. Le résultat est en accord avec la valeur attendue pour un réseau périodique moyen lorsque la distance d'interaction est supérieure ou égale à la longueur des côtés des losanges
APA, Harvard, Vancouver, ISO, and other styles
42

Vo, Thi Thu Huong. "ETUDE DU COMPORTEMENT THERMIQUE D'UN MATERIAU MULTICOUCHES LACUNAIRES ET CONTRIBUTION A LA MODELISATION ET LA SIMULATION NUMERIQUE DES DEPOTS A STRUCTURE COLONNAIRE." Phd thesis, Université d'Orléans, 2007. http://tel.archives-ouvertes.fr/tel-00340855.

Full text
Abstract:
Ce travail est motivé par un problème technologique (et économique) pour l'amélioration des écrans à tube cathodique et plus précisément du masque qui est une grille dont les trous permettent de diriger le faisceau électronique vers photophores situés sur la dalle de verre :
l'écran. L'apport d'énergie des électrons qui se déposent sur le masque entraîne son échauffement et du coup sa déformation nuisant à la qualité de l'image. La solution que nous avons
étudiée consiste à déposer des couches minces de matériaux choisis, entre autres, pour leurs propriétés thermiques. Cette thèse comporte deux parties :

- La première consiste à modéliser l'échauffement du masque soumis au balayage électronique et vérifier si les solutions proposées permettent de réduire les gradients thermiques. En s'appuyant sur un calcul d'homogénéisation, nous avons proposé une formulation du comportement thermique de matériau sans couches minces prenant en compte la présence des trous sur le masque. Ensuite, nous avons étudié le problème d'évolution bidimensionnel obtenu en intégrant sur l'épaisseur du masque. A l'issu du travail précédent, une étude de l'influence de la présence des couches de différents matériaux sur la propagation latérale de la chaleur a été menée.

- L'objectif de la seconde partie est la mise au point des modèles mathématiques du processus de dépôt des couches minces de matériaux sur le masque. Notre approche comprend deux types de modélisation : les modèles discrets et les modèles continus. Les modèles discrets sont basés sur des méthodes de type Monte Carlo. Les modèles continus sont décrits par des équations aux dérivées partielles stochastiques dont les solutions fournissent la hauteur du
dépôt en fonction du temps et de la position. Parmi les modèles continus existants, nous avons choisi d'axer notre étude sur les modèles incluant un effet d'ombrage car ils sont à même de
reproduire les structures colonnaires observées expérimentalement. L'étude de l'influence des différents termes intervenant dans les 2 modèles (MC et EDP) nous a permis de proposer un nouveau modèle continu dont les solutions sont proches de celles obtenues par les méthodes de Monte Carlo. Cette étude a été menée aussi bien en 1+1D qu'en 2+1D.
APA, Harvard, Vancouver, ISO, and other styles
43

Charles, Frédérique. "Modélisation mathématique et étude numérique d'un aérosol dans un gaz raréfié. Application à la simulation du transport de particules de poussière en cas d'accident de perte de vide dans ITER." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2009. http://tel.archives-ouvertes.fr/tel-00463639.

Full text
Abstract:
Dans ce travail, nous nous intéressons à des modèles cinétiques décrivant un aérosol constitué de particules solides dans un gaz raréfié. Ces modèles sont constitués d'un couplage de deux Équations aux Dérivées Partielles décrivant l'évolution spatio-temporelle des distributions en molécules de gaz et en particules de poussière. Le modèle présenté dans la première partie de ce travail est constitué d'un couplage de deux équations de type Boltzmann, dans lequel l'interaction entre les molécules de gaz et les particules de poussière est décrite par deux opérateurs de collision. Nous proposons deux modélisations de ces opérateurs. Dans la première, les collisions entre particules et molécules sont supposées élastiques. Dans la seconde, nous modélisons ces collisions par un mécanisme inélastique de réflexion diffuse sur la surface des particules. Nous établissons alors des opérateurs de collision d'expressions non classiques. D'un point de vue mathématique, nous montrons que le couplage homogène en espace muni des opérateurs de collision élastiques possède des solutions faibles préservant la masse et l'énergie, et vérifiant une inégalité d'entropie. Nous proposons ensuite une mise en oeuvre numérique du modèle dit de réflexion diffuse, basé sur un code de type Direct Simulation Monte Carlo. Celle-ci met en évidence un coût de simulation de l'opérateur particules-molécules trop élevé lorsque les particules ont un rayon trop grand. Nous introduisons alors dans la deuxième partie de ce travail un modèle constitué d'un couplage (par l'intermédiaire d'une force de traînée) entre une équation de Vlasov et une équation de Boltzmann. Pour cela, nous effectuons un adimensionnement du premier système, suivi d'un développement asymptotique de l'opérateur de collision particules-molécules adimensionné en fonction du rapport de masse entre une molécule et une particule de poussière. Nous justifions ensuite rigoureusement ce développement asymptotique dans le cas homogène en espace et pour le modèle de collisions élastiques en prouvant que les solutions du couplage Boltzmann/Boltzmann convergent faiblement vers des solutions du couplage asymptotique Vlasov/Boltzmann. Nous établissons pour cela une nouvelle variante de l'inégalité de Povzner, adaptée au cas de particules de masses très différentes. Par ailleurs, nous comparons numériquement les systèmes Boltzmann/Boltzmann et Vlasov/Boltzmann pour le modèle dit de réflexion diffuse. La mise en oeuvre numérique du système Vlasov/Boltzmann est réalisée par couplage entre une méthode de type Particle-In-Cell et une méthode Monte-Carlo. Enfin, nous présentons l'application de ces modèles à la simulation numérique de la mobilisation et du transport de particules de poussière au début d'un accident de perte de vide, dans le cadre d'étude de sûreté pour le réacteur ITER
APA, Harvard, Vancouver, ISO, and other styles
44

Oukfif, Samira. "Modélisation numérique du transport de masse et de la filtration dans les milieux poreux saturés." Le Havre, 2010. http://www.theses.fr/2010LEHA0007.

Full text
Abstract:
L’objectif principal de ce travail est le développement d’un modèle numérique qui permet de simuler le transport de masse dans les milieux poreux homogènes et hétérogènes. Cet outil numérique sera à terme un moyen de prédiction de la progression d’une pollution dans un sol et d’évaluation des risques de contamination des nappes phréatiques. Le modèle est basé sur l’équation de convection-dispersion avec une cinétique de dépôt/relargage de premier ordre. La résolution de cette équation en 1D et 2D est basée sur une méthode Lagrangienne, appelée méthode particulaire, qui utilise la technique de vitesse de dispersion. Les conditions aux limites (entrée du domaine) sont traitées avec une technique de particules images. La variation de porosité dans le milieu poreux due à la rétention et au détachement des particules est évaluée à partir de la relation de Kozeny-Carman. L’étude de sensibilité du modèle, effectuée dans différentes configurations lorsque les solutions analytiques sont fournies, montre une précision suffisante pour un choix adéquat de paramètres numériques. La validation du code de calcul est obtenue par l’ajustement d’essais de traçage en colonnes de laboratoire dans des conditions d’écoulement à débit constant ou à charge constante. Dans ce dernier cas, un couplage entre l’équation de transport et celle de l’écoulement (Equation de Darcy) est réalisé. La résolution de l’équation de l’écoulement est effectuée à l’aide d’un schéma numérique en différences finies sur une grille fixe. L’équation de transport est d’abord résolue pour calculer la concentration sur les particules, puis à l’aide d’un schéma séquentiel non itératif, on résout l’équation de l’écoulement pour évaluer la charge hydraulique et la vitesse sur les nœuds de la grille. Les échanges entre la grille et les particules sont assurés au moyen de fonctions d’interpolation. La simulation d’essais en injection instantanée ou continue a montré un bon ajustement entre les courbes de restitution calculées et mesurées, et notamment les essais où le dépôt et le relargage agissent simultanément. Les profils de porosité obtenus le long de la colonne, montrent une diminution de la porosité à l’entrée de la colonne, et qui est plus marquée dans le cas d’un écoulement à charge constante. Le modèle numérique est adapté à la simulation de l’érosion (suffusion) d’un sol en considérant uniquement le relargage, et l’ajustement d’essais d’érosion totale au laboratoire a montré un bon accord. Afin de simuler le transport de soluté dissous dans deux milieux homogène et hétérogène supposé infinis, la cinétique de dépôt/relargage est remplacée par un partage non linéaire de Freundlich. Pour tenir compte des hétérogénéités du champ de perméabilité aléatoire qui engendre des vitesses d’écoulement préférentielles, plusieurs simulations dite monte Carlo sont réalisées et montrent que la vitesse de dispersion offre une alternative intéressante (convergence plus rapide). Les résultats obtenus sont en accord avec les résultats de la littérature. Cette étude numérique a permis la mise en œuvre de la méthode particulaire pour simuler le transport, dépôt et relargage dans un milieu poreux fini. Néanmoins, le modèle de dépôt /relargage de premier ordre adopté peut être amélioré afin de prendre en compte le couplage entre les deux processus et notamment le seuil de détachement des particules
This work aims is devoted to the development of numerical model in order to simulate the mass transport in homogeneous and heterogeneous porous media. So to guarantee security, a reliable numerical model will be used at long term to predict the progression of pollution in a ground. The model is based on the convection-dispersion equation coupled with a deposition release kinetic. The transport equation in 1D and 2D is resolved by means of a Lagrangian method, called particle method which uses a dispersion velocity technique. The boundary conditions are interpreted with a technique of a ghost particle. Due to the retention and detachment of the particle, the Kozeny-Carman relation is employed to evaluate the porosity variation in the porous media. The sensitivity study of the model is performed by considering a various configurations when analytical solutions are provided and shows a sufficient precision for adequate numerical parameters. The numerical model validation is obtained by fitting the tracer laboratory column under the constant flow or constant flow head conditions. Under the constant flow head, a coupling between the transport equation and flow equation (Darcy’s low) are performed by resolving flow equation using a numerical model of the finite differences on a fixed grid. The coupling between the flow problem and the transport problem is realized with using a non iterative sequential scheme. The exchanges between the grid and the particles are ensured by means of interpolation function. A good fitting is obtained from the numerical results and experiment data measured in the term of breakthrough curves, in particular when the deposition and release kinetic were considered. The constant flow head shows an important reduction of the porosity profiles at the entry of the laboratory column. Then, the numerical model is used to simulate the erosion (suffusion) of a ground by considering only release, and the fitting of the laboratory column showed a good agreement. An interesting alternative to particle tracking random walk random is studied in order to simulate the transport of sorbing solutes in homogeneous and heterogeneous infinite media. The deposition release kinetic is replaced by a nonlinear Freundlich sorption is considered. A stochastic approach which consists in generating many simulations for which flow and transport problems are resolved. The final results are obtained by means of an average on all numerical simulations performed called Monte Carlo approach. The results obtained are in agreement with those presented in the literature. In order to simulate transport, deposition and release in a finite porous media, the numerical model presented in this study allowed the implementation of the particle method. Nevertheless, the model studied of the deposition and release kinetic can be improved in order to take account the coupling between the two processes and in particular the threshold of detachment of the particles
APA, Harvard, Vancouver, ISO, and other styles
45

Lopes-Biancarelli, Aurélie. "Modélisation de diagrammes de phase de nanoalliages : application aux systèmes à tendance à l'ordre." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4111/document.

Full text
Abstract:
On appelle nanoalliages les nanoparticules d'alliages, leur composition chimique et leur taille en modifient les propriétés physico-chimiques. La relation entre structure et propriétés est intéressante pour la différence existant entre les propriétés du volume et celles du nanoalliage. Comme les alliages volumiques, caractérisés par un diagramme de phase en température et concentration, les nanoalliages sont étudiés pour déterminer un diagramme de phase en fonction de la concentration, la température, la taille et la forme. Les nanoparticules de CoPt ont un intérêt pour le développement du stockage magnétique à haute densité nécessitant une forte anisotropie magnétique telle qu'existant dans la phase volumique L10. L'expérience a montré que pour des nanoparticules de CoPt de 2-3nm la phase L10 existe. Des études théoriques, tenant compte des relaxations du réseau, ont confirmé l'existence d'agrégat de type polyèdre de Wulff présentant un tel ordre sur un réseau cfc.Nous proposons une étude théorique de l'alliage CoPt, utilisant un modèle énergétique simple, le modèle d'Ising en liaisons fortes, reproduisant l'ordre en volume et les trois moteurs de la ségrégation de surface (effets d'alliage, de surface et de relaxation atomique). Les analyses statistiques conduites à partir de simulations Monte Carlo dans les ensembles canonique et semi-grand canonique caractérisent un diagramme de phase de volume et de nanoalliage. Dans l'ensemble semi-grand canonique on s'intéresse à la synergie entre l'ordre au coeur et la ségrégation de surface du système CoPt. L'ordre à courte et longue distance a été caractérisé au cœur de l'agrégat et nous en avons étudié la frustration
Nano-alloys are commonly the name given to nano-particles of alloys. The size and chemical composition of nano-alloys affect physical and chemical properties. Relation between structure and properties is interesting for the difference of bulk and nano-alloys properties. As bulk alloys which are characterised by phase diagram (in concentration and temperature), nano-alloys can be studie to determine a phase diagram in function of concentration, temperature, size and shape. CoPt nano-particles are interesting for the development of ultra-high density magnetic memories which require strong magnetic anisotropy as it exists in the L10 bulk phase. It has been shown experimentally the CoPt nano-alloys order with the L10 structure exist for the small size (2-3nm). Theoretical studies, using model taking into account the lattice's relaxations have confirmed the ordering of the fcc nano-particles with a Wulff polyhedron (WP) shape. We propose a theoretical study focus on CoPt WP, use a simple energetic model the Tight Binding Ising Model which reproduce the bulk ordering and the three driving surface segregation force (alloying, surface and atomic relaxation effect). Statistical analysis are conducted using a Monte Carlo simulation in the canonical and semi-grand canonical ensemble to characterize a phase diagram for bulk and nano-particles. In the semi-grand canonical ensemble we are interested on the synergy or competition between cluster core ordering and surface segregation of CoPt system. We characterised the order (short and long distance) at the core of the cluster and we studied frustration of the ordering
APA, Harvard, Vancouver, ISO, and other styles
46

Marchand, Estelle. "Analyse de sensibilité déterministe pour la simulation numérique du transfert de contaminants." Phd thesis, Université Paris Dauphine - Paris IX, 2007. http://tel.archives-ouvertes.fr/tel-00271632.

Full text
Abstract:
Les questions de sûreté et d'incertitudes sont au centre des études de faisabilité pour un site de stockage souterrain de déchets nucléaires, en particulier l'évaluation des incertitudes sur les indicateurs de sûreté qui sont dues aux incertitudes sur les propriétés du sous-sol et des contaminants. L'approche globale par les méthodes probabilistes de type Monte Carlo fournit de bons résultats, mais elle demande un grand nombre de simulations. La méthode déterministe étudiée ici est complémentaire. Reposant sur la décomposition en valeurs singulières de la dérivée du modèle, elle ne donne qu'une information locale, mais elle est beaucoup moins coûteuse en temps de calcul. Le modèle d'écoulement suit la loi de Darcy et le transport des radionucléides autour du site de stockage est modélisé par une équation de diffusion-convection linéaire. Différentiation à la main et différentiation automatique sont comparées sur ces modèles en mode direct et en mode adjoint. Une étude comparée des deux approches probabiliste et déterministe pour l'analyse de la sensibilité des flux de contaminants aux exutoires par rapport aux variations des paramètres d'entrée est menée sur des données réalistes fournies par l'ANDRA. Des outils génériques d'analyse de sensibilité et de couplage de code sont développés en langage Caml. Ils permettent à l'utilisateur de ces plates-formes génériques de ne fournir que la partie spécifique de l'application dans le langage de son choix. Une étude sur les écoulements diphasiques eau/air partiellement saturés en hydrogéologie porte sur les limitations des approximations de Richards et de la formulation en pression globale issue du domaine pétrolier.
APA, Harvard, Vancouver, ISO, and other styles
47

Kervella, Marine. "Contribution à la modélisation et à la simulation numérique de la spectroscopie optique des tissus biologiques : application à l'imagerie moléculaire de fluorescence résolue en temps." Phd thesis, Université d'Angers, 2008. http://tel.archives-ouvertes.fr/tel-00433858.

Full text
Abstract:
Le diagnostic des tumeurs à un stade précoce est une clé indispensable à la lutte contre le cancer. Les techniques de détection se sont donc développées, notamment dans le domaine de l'optique biomédicale. Ce travail de thèse s'inscrit dans ce domaine d'étude. Nous proposons dans ce manuscrit une description et une comparaison des modèles statistique et déterministe mis en oeuvre pour simuler la propagation de la lumière dans les tissus biologiques par les méthodes de Monte Carlo, Monte Carlo hybride et les éléments finis avec intégration du processus de fluorescence exogène. La performance de la méthode des éléments finis a permis d'étudier la sensibilité des signaux de fluorescence résolus en temps en analysant l'influence de différents paramètres structurels et informels. Enfin , deux techniques de reconstruction d'images des tissus analysés sont implémentées. Pour ce faire, les méthodes d'inversion proposées ( Gauss Newton et méthode gradients conjugués ) sont non linéaires et font appel à des processus itératifs cherchant à optimiser les résultats obtenus par les simulations résolues par la méthode des éléments finis. Une adaptation stratégique et automatique du maillage est réalisée et intégrée dans le modèle d'inversion non linéaire. Une confrontation des deux méthodes est effectuée pour différents cas d'étude. Nous considérons tout d'abord un domain dans lequel est inséré une unique source fluorescente. Puis, le milieu biologique est simulé avec deux objets fluorescents. Nous étudions l'influence sur les images reconstruites de la distance entre les deux tumeurs ainsi que l'effet de la présence de fluorescence résiduelle au sein des tissus biologiques environnants.
APA, Harvard, Vancouver, ISO, and other styles
48

Revel, Adrien. "Modélisation des plasmas magnétisés. Application à l'injection de neutres pour ITER et au magnétron en régime impulsionnel haute puissance." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112083/document.

Full text
Abstract:
Un plasma est défini comme un gaz partiellement ou totalement ionisé. Bien que très présent dans l'univers visible, les plasmas naturels sont rares sur Terre. Cependant, ils représentent un intérêt majeur pour les industries et les instituts de recherche (traitement de surface, propulsion spatiale). Toutefois, la compréhension du comportement d'un plasma est complexe et fait appel à de nombreux domaines de la physique. De plus, ces plasmas peuvent être magnétisé i.e. lorsqu'un champ magnétique extérieur ou induit influence significativement la trajectoire des particules : r/L<1 où r est le rayon de Larmor et L la longueur caractéristique du système. Ce travail de thèse s'intéresse à la modélisation du comportement du plasma présent dans deux dispositifs : l'accélérateur de l'Injecteur de Neutres (IdN) rapides d'ITER et le magnétron en régime DC ou HiPIMS. La réalisation de la fusion nucléaire sur Terre fait actuellement l'objet de nombreuses recherche dans le monde. Du fait de l'énergie nécessaire au franchissement de la barrière de répulsion coulombienne, le plasma doit être confiné. Dans le cas d'ITER, le confinement est réalisé par de puissant champ magnétique. Cependant, pour atteindre les conditions nécessaires aux réactions de fusion, notamment en température, un injecteur de particules neutres à haute énergie (1MeV) est nécessaire. L'accélération de ces particules est une phase critique dans la création du faisceau de neutres et elle représente un défi technologique qui fait l'objet d'une étude dans ce travail de thèse. Le magnétron est un procédé industriel permettant la réalisation de couches minces par pulvérisation cathodique. Les ions créés par un plasma de décharge arrachent les atomes de la cathode qui se déposent sur l'anode. Le champ magnétique créé par des aimants permanents piège les électrons à proximité de la cathode augmentant l'efficacité du dispositif. Le comportement du plasma magnétron est ainsi étudié en régime continu ou pulsé ainsi que l'apparition de structures auto-organisées en rotation autour de l'axe du magnétron dans certaines conditions. Afin d'étudier ces dispositifs, plusieurs programmes de simulation numérique ont été développés. La méthode Paticle-In-Cell a été choisie car elle permet de prendre en compte la charge d'espace des particules de manière auto-cohérente. Diverses techniques (technique de collision nulle, Monte Carlo Collision, a posteriori Monte Carlo) et améliorations (maillage non uniforme, projections de charges au troisième ordre) ont été développées et implémentées. De plus, une méthode originale, Pseudo 3D, permettant un traitement à trois dimension du magnétron a été utilisées avec succès. Enfin, ces programmes ont été parallélisés afin de réduire le temps de calcul
A plasma is defined as a partially or completely ionized gas. Even though, they are very present in the visible universe, natural plasmas are rare on Earth. However, they are a major interest for industries and research institutes (surface treatment, spatial propulsion). Nevertheless, the understanding of plasma behavior is complicated because of the numerous physical fields involved. Moreover, theses plasmas can be magnetized, i.e., a magnetic field, external or induced, affects significantly the particle trajectories: r/L<1 where r is the Larmor radius and L the typical length of the system. This thesis is focused on the plasma modeling in two device: the accelerator of the ITER's neutral beam injector (NBI) and the magnetron in DC or HiPIMS regime. The feasibility of nuclear fusion on Earth is subject of numerous research around the world. Because of the energy necessary to get over the Coulomb barrier, the plasma must be confined. For ITER, the confinement is achieved by intense magnetic fields. However, to reach the required conditions of nuclear fusion reactions, especially in temperature, a high energy (1MeV) neutral beam injector is needed. The particle acceleration is a critical part in the creation of the neutral beam and it represents a technical challenge which is studied in this thesis work. The magnetron is an industrial process for creating thin film by physical sputtering. The ions created by a plasma discharge tear the atoms out of the cathode which are then deposited on the anode. The magnetic field created by permanent magnets trap the electrons near the cathode improving the process efficiency. The plasma behavior inside the magnetron is studied in direct and pulsed current as well as the appearance of self-organized structures in rotation around the magnetron axis. To study these devices, several program of numerical simulation have been developed. The Particle-In-Cell methode has been chosen because it takes into account, self-consistently, the space charge of the particules. Several techniques (null collision technique, Monte Carlo Collision, a posteriori Monte Carlo) and improvement (Non uniform mesh, third order charge projection) have been developed and implemented. Moreover, an original method, Pseudo 3D, allowing a three dimensional study of the magnetron, has been used with success. Finally, these programs have been parallelized to reduce the computation time
APA, Harvard, Vancouver, ISO, and other styles
49

Sacquin-Mora, Sophie. "Fluides nanoconfinés dans des systèmes de basse symétrie : Simulations et théorie." Phd thesis, Université Paris Sud - Paris XI, 2003. http://tel.archives-ouvertes.fr/tel-00008790.

Full text
Abstract:
Les propriétés thermodynamiques et mécaniques des fluides confinés à l'échelle sub-microscopique diffèrent profondément de celles du liquide macroscopique. Dans le cadre de la simulation numérique, les études actuelles sur les fluides confinés concernent pour la plupart des cas de haute symétrie où le grand potentiel du système est aisément accessible. Cette limitation restreint grandement le champ des systèmes complexes étudiés théoriquement, alors même que les progrès réalisés dans le domaine des microtechnologies permettent la préparation d'une grande variété de substrats confinants présentant une structure nanométrique. Dans cette thèse nous avons donc développé une méthode de calcul du grand potentiel par intégration thermodynamique applicable aux cas de basse symétrie. Un travail de simulation de Monte Carlo dans l'ensemble Grand Canonique sur un fluide simple confiné dans deux systèmes modèles (où les substrats portent une structure chimique ou géométrique) associé à cette méthode nous a permis de réaliser une étude approfondie du comportement de phase du fluide dans ces systèmes, notamment en identifiant les différentes morphologies que le fluide peut adopter ainsi que leur domaine de stabilité thermodynamique. Nous avons aussi étudié pour la première fois les effets de la torsion sur un fluide confiné. On s'est penché tout particulièrement sur le comportement de phase des morphologies pont (que l'on voit apparaître lors du confinement par des substrats nanostructurés), et sur leur rhéologie lors de la torsion.
APA, Harvard, Vancouver, ISO, and other styles
50

Leclerc, Willy. "Une approche numérique fiable et automatisée de l'estimation des propriétés élastiques des microstructures complexes : application aux composites renforcés en fibres courtes." Caen, 2013. http://www.theses.fr/2013CAEN2034.

Full text
Abstract:
Ce travail de thèse a pour sujet la mise en place d'une approche de simulation à la fois rapide, automatisée et fiable permettant d'appréhender le problème de l'évaluation des propriétés homogénéisées de microstructures complexes. Nous désignons sous le terme "microstructure complexe", un matériau inhomogène composé d'hétérogénéités en contact dont le réseau ne peut être simplement décrit d'une point de vue géométrique. Un tel type de milieu mène en effet à différentes difficultés techniques qui apparaissent lors de la construction d'un volume élémentaire représentatif et du maillage éléments finis correspondant. Nous proposons un concept appelé "modèle d'approximation géométrique d'ordre n" afin de contourner ces inconvénients et réduire le temps de calcul. Celui-ci se base sur des stratégies à la fois efficaces et fiables d'approximation par grille des microstructures. La validité et les résultats sont discutés dans le cadre de fibres aléatoires et de l'élasticité linéaire en 2D et 3D. Des propriétés effectives sont estimées à l'aide de l'homogénéisation double-échelle et d'un processus d'échantillonnage qui consiste à tirer aléatoirement des motifs représentatifs. Les effets de morphologie et de percolation sont également traités. La connexion entre le renforcement mécanique et le seuil de percolation est étudiée dans le cadre de différentes configurations matérielles. Finalement, des méthodes de décomposition de domaine sont mises en place et utilisées dans le cadre de calculs parallélisés lesquels sont nécessaires afin de mieux appréhender une étude en 3D. Ces-dernières sont adaptées à une estimation efficace des propriétés via la stratégie du noeud supplémentaire
This thesis deals with setting up a fast, automated and reliable approach for evaluating homogenized properties in the framework of complex microstructures. In the present work, a "complex microstructure" refers to an inhomogeneous materiel for which heterogeneities are in contact and lead to a network which can not easily described from a geometric point of view. Such a kind of medium leads to different technical difficulties which arise when building both a representative volume element and the corresponding finite element mesh. A concept called "model with an n-order approximate geometry" is proposed to circumvent the drawbacks and reduce the computation cost. This one is based on efficient and highly reliable strategies for the grid approximation of microstructures. Validity and results are discussed in the context of random fibres and linear elasticity for 2D and 3D networks. Effective properties are estimated with the help of the double-scale homogenization and a sampling process which consists of a random draw of representative patterns. Morphological and percolation effects are also considered. The connection between mechanical reinforcement and low percolation threshold is investigated for several material configurations. Eventually, domain decomposition methods aredevelopped and used in the framework of a parallel computing which is required for properly apprehending 3D calculations. These ones are conveniently adapted for efficiently estimating homogenized properties with the help of the additional node strategy
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography