To see the other types of publications on this topic, follow the link: Monte-Carlo numerical simulation.

Dissertations / Theses on the topic 'Monte-Carlo numerical simulation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Monte-Carlo numerical simulation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Lloyd, Jennifer A. "Numerical methods for Monte Carlo device simulation." Thesis, Massachusetts Institute of Technology, 1992. http://hdl.handle.net/1721.1/12766.

Full text
Abstract:
Thesis (M.S.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 1992.
Includes bibliographical references (leaves 51-53).
by Jennifer Anne Lloyd.
M.S.
APA, Harvard, Vancouver, ISO, and other styles
2

Furrer, Marc. "Numerical Accuracy of Least Squares Monte Carlo." St. Gallen, 2008. http://www.biblio.unisg.ch/org/biblio/edoc.nsf/wwwDisplayIdentifier/01650217002/$FILE/01650217002.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Srinivasan, Raghuram. "Monte Carlo Alternate Approaches to Statistical Performance Estimation in VLSI Circuits." University of Cincinnati / OhioLINK, 2014. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1396531763.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Peter, Felix. "A quantitative comparison of numerical option pricing techniques." St. Gallen, 2008. http://www.biblio.unisg.ch/org/biblio/edoc.nsf/wwwDisplayIdentifier/01592823001/$FILE/01592823001.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Creffield, Charles Edward. "The application of numerical techniques to models of strongly correlated electrons." Thesis, King's College London (University of London), 1997. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.266066.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Fakhereddine, Rana. "Méthodes de Monte Carlo stratifiées pour l'intégration numérique et la simulation numériques." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM047/document.

Full text
Abstract:
Les méthodes de Monte Carlo (MC) sont des méthodes numériques qui utilisent des nombres aléatoires pour résoudre avec des ordinateurs des problèmes des sciences appliquées et des techniques. On estime une quantité par des évaluations répétées utilisant N valeurs et l'erreur de la méthode est approchée par la variance de l'estimateur. Le présent travail analyse des méthodes de réduction de la variance et examine leur efficacité pour l'intégration numérique et la résolution d'équations différentielles et intégrales. Nous présentons d'abord les méthodes MC stratifiées et les méthodes d'échantillonnage par hypercube latin (LHS : Latin Hypercube Sampling). Parmi les méthodes de stratification, nous privilégions la méthode simple (MCS) : l'hypercube unité Is := [0; 1)s est divisé en N sous-cubes d'égale mesure, et un point aléatoire est choisi dans chacun des sous-cubes. Nous analysons la variance de ces méthodes pour le problème de la quadrature numérique. Nous étudions particulièrment le cas de l'estimation de la mesure d'un sous-ensemble de Is. La variance de la méthode MCS peut être majorée par O(1=N1+1=s). Les résultats d'expériences numériques en dimensions 2,3 et 4 montrent que les majorations obtenues sont précises. Nous proposons ensuite une méthode hybride entre MCS et LHS, qui possède les propriétés de ces deux techniques, avec un point aléatoire dans chaque sous-cube et les projections des points sur chacun des axes de coordonnées également réparties de manière régulière : une projection dans chacun des N sousintervalles qui divisent I := [0; 1) uniformément. Cette technique est appelée Stratification Sudoku (SS). Dans le même cadre d'analyse que précédemment, nous montrons que la variance de la méthode SS est majorée par O(1=N1+1=s) ; des expériences numériques en dimensions 2,3 et 4 valident les majorations démontrées. Nous présentons ensuite une approche de la méthode de marche aléatoire utilisant les techniques de réduction de variance précédentes. Nous proposons un algorithme de résolution de l'équation de diffusion, avec un coefficient de diffusion constant ou non-constant en espace. On utilise des particules échantillonnées suivant la distribution initiale, qui effectuent un déplacement gaussien à chaque pas de temps. On ordonne les particules suivant leur position à chaque étape et on remplace les nombres aléatoires qui permettent de calculer les déplacements par les points stratifiés utilisés précédemment. On évalue l'amélioration apportée par cette technique sur des exemples numériques Nous utilisons finalement une approche analogue pour la résolution numérique de l'équation de coagulation, qui modélise l'évolution de la taille de particules pouvant s'agglomérer. Les particules sont d'abord échantillonnées suivant la distribution initiale des tailles. On choisit un pas de temps et, à chaque étape et pour chaque particule, on choisit au hasard un partenaire de coalescence et un nombre aléatoire qui décide de cette coalescence. Si l'on classe les particules suivant leur taille à chaque pas de temps et si l'on remplace les nombres aléatoires par des points stratifiés, on observe une réduction de variance par rapport à l'algorithme MC usuel
Monte Carlo (MC) methods are numerical methods using random numbers to solve on computers problems from applied sciences and techniques. One estimates a quantity by repeated evaluations using N values ; the error of the method is approximated through the variance of the estimator. In the present work, we analyze variance reduction methods and we test their efficiency for numerical integration and for solving differential or integral equations. First, we present stratified MC methods and Latin Hypercube Sampling (LHS) technique. Among stratification strategies, we focus on the simple approach (MCS) : the unit hypercube Is := [0; 1)s is divided into N subcubes having the same measure, and one random point is chosen in each subcube. We analyze the variance of the method for the problem of numerical quadrature. The case of the evaluation of the measure of a subset of Is is particularly detailed. The variance of the MCS method may be bounded by O(1=N1+1=s). The results of numerical experiments in dimensions 2,3, and 4 show that the upper bounds are tight. We next propose an hybrid method between MCS and LHS, that has properties of both approaches, with one random point in each subcube and such that the projections of the points on each coordinate axis are also evenly distributed : one projection in each of the N subintervals that uniformly divide the unit interval I := [0; 1). We call this technique Sudoku Sampling (SS). Conducting the same analysis as before, we show that the variance of the SS method is bounded by O(1=N1+1=s) ; the order of the bound is validated through the results of numerical experiments in dimensions 2,3, and 4. Next, we present an approach of the random walk method using the variance reduction techniques previously analyzed. We propose an algorithm for solving the diffusion equation with a constant or spatially-varying diffusion coefficient. One uses particles, that are sampled from the initial distribution ; they are subject to a Gaussian move in each time step. The particles are renumbered according to their positions in every step and the random numbers which give the displacements are replaced by the stratified points used above. The improvement brought by this technique is evaluated in numerical experiments. An analogous approach is finally used for numerically solving the coagulation equation ; this equation models the evolution of the sizes of particles that may agglomerate. The particles are first sampled from the initial size distribution. A time step is fixed and, in every step and for each particle, a coalescence partner is chosen and a random number decides if coalescence occurs. If the particles are ordered in every time step by increasing sizes an if the random numbers are replaced by statified points, a variance reduction is observed, when compared to the results of usual MC algorithm
APA, Harvard, Vancouver, ISO, and other styles
7

Haber, René. "Numerical methods for density of states calculations." [S.l. : s.n.], 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Zhang, Yan. "Weakly first-order phase transitions : [epsilon] expansion vs. numerical simulation /." Thesis, Connect to this title online; UW restricted, 1997. http://hdl.handle.net/1773/9715.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Nghiem, Thi Thu Trang. "Numerical study of electro-thermal effects in silicon devices." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00827633.

Full text
Abstract:
The ultra-short gate (LG < 20 nm) CMOS components (Complementary Metal-Oxide-Semiconductor) face thermal limitations due to significant local heating induced by phonon emission by hot carriers in active regions of reduced size. This phenomenon, called self-heating effect, is identified as one of the most critical for the continuous increase in the integration density of circuits. This is especially crucial in SOI technology (silicon on insulator), where the presence of the buried insulator hinders the dissipation of heat.At the nanoscale, the theoretical study of these heating phenomena, which cannot be led using the macroscopic models (heat diffusion coefficient), requires a detailed microscopic description of heat transfers that are locally non-equilibrium. It is therefore appropriate to model, not only the electron transport and the phonon generation, but also the phonon transport and the phonon-phonon and electron-phonon interactions. The formalism of the Boltzmann transport equation (BTE) is very suitable to study this problem. In fact, it is widely used for years to study the transport of charged particles in semiconductor components. This formalism is much less standard to study the transport of phonons. One of the problems of this work concerns the coupling of the phonon BTE with the electron transport.In this context, wse have developed an algorithm to calculate the transport of phonons by the direct solution of the phonon BTE. This algorithm of phonon transport was coupled with the electron transport simulated by the simulator "MONACO" based on a statistical (Monte Carlo) solution of the BTE. Finally, this new electro-thermal simulator was used to study the self-heating effects in nano-transistors. The main interest of this work is to provide an analysis of electro-thermal transport beyond a macroscopic approach (Fourier formalism for thermal transport and the drift-diffusion approach for electric current, respectively). Indeed, it provides access to the distributions of phonons in the device for each phonon mode. In particular, the simulator provides a better understanding of the hot electron effects at the hot spots and of the electron relaxation in the access.
APA, Harvard, Vancouver, ISO, and other styles
10

Burgos, Sylvestre Jean-Baptiste Louis. "The computation of Greeks with multilevel Monte Carlo." Thesis, University of Oxford, 2014. http://ora.ox.ac.uk/objects/uuid:6453a93b-9daf-4bfe-8c77-9cd6802f77dd.

Full text
Abstract:
In mathematical finance, the sensitivities of option prices to various market parameters, also known as the “Greeks”, reflect the exposure to different sources of risk. Computing these is essential to predict the impact of market moves on portfolios and to hedge them adequately. This is commonly done using Monte Carlo simulations. However, obtaining accurate estimates of the Greeks can be computationally costly. Multilevel Monte Carlo offers complexity improvements over standard Monte Carlo techniques. However the idea has never been used for the computation of Greeks. In this work we answer the following questions: can multilevel Monte Carlo be useful in this setting? If so, how can we construct efficient estimators? Finally, what computational savings can we expect from these new estimators? We develop multilevel Monte Carlo estimators for the Greeks of a range of options: European options with Lipschitz payoffs (e.g. call options), European options with discontinuous payoffs (e.g. digital options), Asian options, barrier options and lookback options. Special care is taken to construct efficient estimators for non-smooth and exotic payoffs. We obtain numerical results that demonstrate the computational benefits of our algorithms. We discuss the issues of convergence of pathwise sensitivities estimators. We show rigorously that the differentiation of common discretisation schemes for Ito processes does result in satisfactory estimators of the the exact solutions’ sensitivities. We also prove that pathwise sensitivities estimators can be used under some regularity conditions to compute the Greeks of options whose underlying asset’s price is modelled as an Ito process. We present several important results on the moments of the solutions of stochastic differential equations and their discretisations as well as the principles of the so-called “extreme path analysis”. We use these to develop a rigorous analysis of the complexity of the multilevel Monte Carlo Greeks estimators constructed earlier. The resulting complexity bounds appear to be sharp and prove that our multilevel algorithms are more efficient than those derived from standard Monte Carlo.
APA, Harvard, Vancouver, ISO, and other styles
11

Mateu, armengol Jan. "Étude numérique des effets du couplage du rayonnement thermique aux jets turbulents libres de vapeur d'eau." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC052/document.

Full text
Abstract:
Le rayonnement thermique joue un rôle important dans un large éventail d'applications de génie thermique comprenant des écoulements turbulents. La motivation principale de cette thèse est le besoin croissant de précision et fiabilité dans les simulations numériques appliqué à ce domaine.Cette thèse s’intéresse tout particulièrement à la compréhension physique de l’impact du rayonnement thermique sur la dynamique des fluides et le transfert thermique, ainsi que de l’influence des fluctuations turbulentes sur le transfert radiatif dans les écoulements à couche de cisaillement.L'objectif de cette thèse est de fournir des données haute-fidélités de jets libres turbulents couplés au rayonnement thermique afin de développer et de valider des modèles turbulents d’écoulements à couche de cisaillement prenant en compte les interactions de couplage. À cette fin, les jets libres turbulents sont décrits par des simulations numériques directes (DNS) couplées à une méthode de Monte-Carlo réciproque pour résoudre l'équation de transfert radiatif. La dépendance spectrale des propriétés radiatives est prise en compte avec la méthode Correlated-k (ck). L'étude numérique est réalisée avec la plus grande fidélité pour être aussi représentative que possible d'un jet réel dans un milieu participatif. La simulation est optimisée en termes de temps de calcul en tirant parti d'une méthode d'accélération appelée Acoustic Speed Reduction et en injectant de la turbulence artificielle pour améliorer les conditions d'entrée.Deux simulations directes de jets chauffés couplés au rayonnement thermique sont réalisées. D'une part, un jet chauffé avec un rayonnement modéré a été simulé et l’analyse de ses données DNS couplées a permis de dériver une nouvelle loi d’échelle pour la décroissance du profil de température. Cette mise à l'échelle rend compte des effets de la densité modifiée due à un rayonnement modéré. De plus, cela permet de distinguer si le rayonnement thermique modifie ou non la nature des mécanismes de transfert thermique dans la région développée du jet. D'autre part, un jet libre fortement chauffé a été calculé afin de quantifier les effets du rayonnement sur les champs de température et de vitesse moyens ainsi que sur les moments de second ordre.Outre les données DNS couplées, un solver RANS pour les écoulements à densité variable couplé au rayonnement thermique a été développé au cours de cette thèse. L'objectif était de quantifier directement la précision des modèles turbulents existants et d'identifier les paramètres clés pour une modélisation plus poussée des interactions de couplage
Radiation plays an important role in a broad range of thermal engineering applications comprising turbulent flows. The growing need for accurate and reliable numerical simulations to support the design stages of such applications is the main motivation of this thesis.Of special interest in this work are the free-shear flows and the fundamental understanding of how radiation can modify their fluid dynamics and heat trans- port as well as how their turbulence fluctuations can alter radiative transfer. The goal of this thesis is to provide high-fidelity data of turbulent free jets coupled with thermal radiation in order to develop and validate free-shear turbulent models accounting for coupling interactions. To this end, turbulent free jets are described by direct numerical simulations (DNS) coupled to a reciprocal Monte- Carlo method to solve the radiative transfer equation. The spectral dependency of the radiative properties is accounted for with an accurate Correlated-k (ck) method. The numerical study is carried out with state-of-the-art fidelity to be as representative as possible of an actual jet in a participating medium. The simulation is optimized in terms of processing time taking advantage of an acceleration method called Acoustic Speed Reduction and by injecting artificial turbulence to enhance inlet boundaries.Two direct simulations of heated jets coupled with thermal radiation are carried out. On the one hand, a heated jet with moderate radiation is simulated. The analysis of its high-fidelity coupled DNS data has allow to derive a new scaling law for the decay of the temperature profile. This scaling accounts for the effects of modified density due to moderate radiation. Moreover, it allows for distinguishing whether thermal radiation modifies the nature of heat transfer mechanisms in the jet developed region or not. On the other hand, a strongly heated free jet is computed in order to quantify the effects of radiation on mean temperature and velocity fields as well as on second order moments.Besides the coupled DNS data, a RANS solver for variable-density flows coupled with thermal radiation has been implemented during the course of this thesis. The goal is to directly quantify the accuracy of the existing turbulent models, and to identify key parameters for further modeling of coupling interactions
APA, Harvard, Vancouver, ISO, and other styles
12

Yamaguchi, Hiroyuki. "Simulation study of energetic particle physics in perturbed helical plasmas." 京都大学 (Kyoto University), 2016. http://hdl.handle.net/2433/215531.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Nanson, III Richard A. "Navier/Stokes/Direct Simulation Monte Carlo Modeling of Small Cold Gas Thruster Nozzle and Plume Flows." Digital WPI, 2002. https://digitalcommons.wpi.edu/etd-theses/254.

Full text
Abstract:
This study involves the modeling of small cold-gas (N2) thrusters nozzle and plume flows, their interactions with spacecraft surfaces and the induced pressure environment. These small cold-gas thrusters were used for pitch, yaw and roll control and were mounted on the bottom of the conical Environmental Monitor Payload (EMP) suborbital spacecraft. The pitch and yaw thrusters had 0.906 mm throat diameter and 4.826 mm exit diameter, while the roll thrusters had 1.6 mm throat diameter and 5.882 mm exit diameter. During thruster firing, at altitudes between 670 km and 1200 km, pressure measurements exhibited non-periodic pulses (Gatsonis et al., 1999). The pressure sensor was located inside the EMP and was connected to it's sidewall with a 0.1-m long, 0.022-m diameter tube and the pressure pulses appeared instantaneously with the firings for thrusters without a direct line-of-sight with the sensor entrance. Preliminary analysis showed that the plume of these small EMP thrusters undergoes transition from continuous to rarefied. Therefore, nozzle and plume simulations are performed using a combination of Navier-Stokes and Direct Simulation Monte Carlo codes. This study presents first a validation of the Navier-Stokes code Rampant used for the continuous EMP nozzle and plume simulations. The first Rampant validation example involves a two-dimensional axisymetric freejet expansion and is used to demonstrate the use of Bird's breakdown parameter. Results are compared favorably with those of Bird (1980) obtained through the method of characteristics. The second validation example involves three-dimensional plume simulations of a NASA thruster. This nitrogen nozzle has a throat diameter of 3.18 mm, an exit diameter of 31.8 mm, half-angle of 20 degrees, stagnation temperature of 699 K, stagnation pressure of 6,400 Pa. Simulation results are compared favorably with previous Navier-Stokes and Direct Simulation Monte Carlo numerical work. The third validation example involves three-dimensional simulations of Rothe's (1970) nozzle that has a throat diameter of 2.5 mm, an exit diameter of 20.3 mm, half-angle of 20 degrees, operating at stagnation temperature of 300 K and pressure of 1975 Pa. Numerical results also compared favorably to experimental data. The combined Navier-Stokes/DSMC approach and the EMP simulation results are presented and discussed. The continuous part of the EMP nozzle and plume flow is modeled using the three-dimensional Navier-Stokes Rampant code. The Navier-Stokes domain includes the geometry of the nozzle and the EMP base until transition of the continuous flow established by Bird's breakdown parameter. The rarefied part of the plume flow is modeled using the Direct Simulation Monte Carlo code DAC. Flowfield data obtained inside the breakdown surface from the Navier-Stokes simulation are used as inputs to the DSMC simulations. The DSMC domain includes the input surface and the EMP spacecraft geometry. The combined Navier-Stokes/DSMC simulations show the complex structure of the plume flow as it expands over the EMP surfaces. Plume reflection and backflow are demonstrated. The study also summarizes findings presented by Gatsonis et al. (2000), where the DSMC predictions at the entrance of the pressure sensor are used as inputs to a semi-analytical model to predict the pressure inside the sensor. It is shown that the pressure predictions for the pitch/yaw thrusters are close to the measurements. The plume of a pitch or yaw thruster reaches the pressure sensor after expanding on the EMP base. The pressure predicted for the roll thruster is larger that the measured. This is attributed to the uncertainty in the roll thruster location on the EMP base resulting, in the simulation, in a component of direct flow to the sensor.
APA, Harvard, Vancouver, ISO, and other styles
14

Fischer, Bernd. "Modélisation d'interfaces par simulations numériques : des polymères en solutions à la troposphère." Thesis, Besançon, 2012. http://indexation.univ-fcomte.fr/nuxeo/site/esupversions/e7097b7d-070a-46b8-8034-1b1d5d455974.

Full text
Abstract:
Ce travail a pour objectif de montrer la capacité des simulations numériques à modéliser les phénomènes aux interfaces solides et liquides. Dans le travail sur les interfaces solides, la méthode GCMC a été utilisée pour simuler l'isotherme d'adsorption de !'acétaldéhyde sur la glace dans les conditions de la haute troposphère, puis l'adsorption de composés organiques bi-fonctionnalisés sur la glace a été caractérisée par dynamique moléculaire avec pour objectif d'interpréter des résl1ltats expérimentaux de la littérature. Une partie de ce travail a été consacrée à la circulation du diagramme de phase (p,T) d'aérosols organiques (acide oxalique et malonique) clans les conditions troposphériques afin d'étudier la capacité de ces aérosols à jouer le rôle de noyaux de condensation pour les particules de glace. Le travail sur les interfaces liquides a concerné tout d'abord l'adsorption compétitive de polymères et de smfactants à la surface de l'eau. Il s'appuie sur une description très précise, par simulation, de la structure et de la dynamique de la surface des systèmes considérés. La deuxième partie des travaux sur les interfaces liquides s'est intéressée à la caractérisation du transfert d'ions à travers une interface liquide/liquide par le biais du calcul des variations de l'énergie libre du système au cours du transfc1i. Afin d'obtenir une description très rigoureuse des détails des processus mis enjeu, une méthode spécifique a été développée dans cette thèse pour calculer le profil d'énergie libre en tenant compte directement du caractère très dynamique de l'interface
This work aims to demonstrate the ability of numerical simulations to mode] solid · and liquid interfaces. In the work on the solid interfaces, the GCMC method was used to sin:rnlatc the ads011Jtion isotherrn of acetaldehyde on ice under the conditions of the ·upper tropospherc and the molecular dynamics method was usecl to characterize the adsorption of difünctionalized organic compounds on ice, aiming at interpreting experimental results. Part of this work was devotcd to the simulation of the phase diagrarn (p, T) of organic aerosols (oxalic acid and malonic) in tropospberic conditions to study the ability of aerosols to act as condensation nuclei for icc particlcs. The work: on liquid interfaces concerned firstly the competitive adsorption of polymcrs and surfactants at the water surface. It is based on a very precise desc1iption, by mnncrical simulation, of the structure émd dynamics cif the surface of the considered systems. The second pari of the work on liquid interfaces bas focused on the characterization of ion transfer across a liquid/liquid interface through the calculations of the free energy variations of the system during the transfo·. To obtain a rigorous desc1iptio11 of the details of the corresponding processes, a specific method was developed in this thesis to calculate the free energy profile while taking into account tbe dynamics of the interface
APA, Harvard, Vancouver, ISO, and other styles
15

Liu, Xin. "Numerical modeling and simulation of selective laser sintering in polymer powder bed." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI012/document.

Full text
Abstract:
La fabrication additive est l’un des secteurs industriels les plus en développent ces dernières années. L’une de ces technologies de fabrication les plus prometteuses est la fusion laser sélective (SLS), et relève d’un intérêt croissant aussi bien industriel qu’académique. Néanmoins, beaucoup de phénomène mis en jeu par ce procédé demeure non encore bien compris, entravant ainsi son développement pour la production de pièces de bonne qualité pour des applications industrielles. L’objectif de cette thèse est de développer un cadre de simulation numérique permettant la simulation du procédé SLS pour des poudres de polymère afin de comprendre les multiples et complexes phénomènes physiques qui se produise lors du frittage laser et d’étudier l’influence des paramètres du procédé sur la qualité du produit final. Contrairement aux approches classiques de modélisation numérique, basées sur la définition de matériaux homogène équivalents pour la résolution des équations de bilan, nous proposons une simulation globale du procédé du frittage laser de poudres, en utilisant la méthode des Eléments Discrets (DEM). Cela consiste en un couplage entre quatre sous-modèles : transferts radiatif dans le milieu granulaire semi-transparent, conduction thermique dans les milieux discrets, coalescence puis densification. Le modèle de transferts par rayonnement concerne l’interaction du faisceau laser avec le lit de poudre. Plusieurs phénomènes sont ainsi pris en compte, notamment la réflexion, la transmission, l’absorption et la réfraction. De plus, une méthode de Monte-Carlo couplée à la méthode du Lancer de rayons est développée afin d’étudier l’influence de la réfraction sur la distribution de l’énergie du laser dans le lit de poudre. Le modèle de conduction dans des milieux discrets décrit la diffusion thermique inter-particules. Finalement, le modèle de frittage décrit les cinétiques de coalescence et de diffusion de l’air dans le polymère et densification du milieu. Cela permet de décrire les cinétiques de fusion des grains, dont l’énergie de surface et la diffusons de l’air sont les deux moteurs principaux. Le couplage entre les différents modèles nous a permis de proposer un modèle numérique global, validé grâce à des comparaisons à des résultats de simulations théoriques et expérimentales, trouvés dans la littérature. Une analyse paramétrique est alors proposée pour la validation du modèle et l’étude du procédé. L’influence de différents paramètres aussi bien du procédé que du matériau sur le champ de température, la densité relative du matériau sa structure, etc , est ainsi investiguée. Les résultats montrent une bonne précision dans la modélisation des différents phénomènes complexes inhérents à ce procédé, et ce travail constitue un potentiel réel pour la modélisation et l’optimisation des procédés de fabrication additive par matériaux granulaires
Many industrial and academic interests concerning the additive manufacturing processes are developed in the last decades. As one of the most promising technique of additive manufacturing, the Selective Laser Sintering (SLS) has been valued by both industry and academic. However, it remains that several phenomena are still not well understood in order to properly model the process and propose quality improvement of parts made. The goal of this Ph.D. project is to develop a framework of numerical simulation in order to model the SLS process in polymer powder bed, meanwhile understanding multiple physical phenomena occurring during the process and studying the influence of process parameters on the quality of final product. In contrast to traditional approach, based on the equivalent homogeneous material in numerical modeling of partial differential equations derived from conservation laws, we propose a global model to simulate powder-based additive manufacturing by using the Discrete Element method (DEM). It consists in a coupling between four different physical models: radiative heat transfer, discrete heat conduction, sintering and granular dynamics models. Firstly, the submodel of radiative heat transfer concerns the interaction between the laser beam and powder bed. Several phenomena are considered, including the reflection, transmission, absorption and scattering. Besides, a modified Monte Carlo ray-tracing method is developed in order to study the influence of scattering on the distribution of the deposited laser energy inside the powder bed Furthermore, the submodel of discrete heat conduction describes the inter-particles heat diffusion. Moreover, the sintering submodel concerns the phenomena of coalescence and air diffusion. It describes the melting kinetics of grains, driven by surface tension and the release of entrapped gases inside powder bed. Finally, the granular dynamics submodel concerns the motions and contacts between particles when depositing a new layer of powders. The coupling between these submodels leads to propose a global numerical framework, validated by comparing the results to both simulated and experimental ones from literatures. A parametric study is then proposed for model validation and process analysis. The Influence of different material and process parameters on the evolution of temperature, relative density and materials structure and characteristics are investigated. The results exhibit accurate modeling of the complex phenomena occurring during the SLS process, and the work constitute a great potential in modeling and optimization of additive processes
APA, Harvard, Vancouver, ISO, and other styles
16

Joly, Julie. "Simulation de l'interaction entre les ions du plasma et l'onde à fréquence cyclotronique ionique avec les codes EVE et SPOT." Electronic Thesis or Diss., Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0423.

Full text
Abstract:
La fusion thermonucléaire est l'énergie propre des étoiles et la solution la plus favorable à la transition énergétique. Le principe de la fusion est de rassembler des noyaux légers dégageant ainsi une grande énergie (cinq fois plus que la réaction de fission utilisée dans les centrales nucléaire à ce jour). La réaction de fusion se produit naturellement dans les étoiles comme le Soleil c'est pourquoi il faut imiter les conditions de température et de densité du Soleil sur terre. Pour cela on utilise une machine ressemblant à un donuts appelé Tokamak. Mon travail dans ce domaine a consisté à améliorer les méthodes de modélisation des chauffages de ces Tokamaks dans le but d'augmenter les réactions de fusion en créant un workflow combinant plusieurs codes appelé modélisation auto-cohérente
Thermonuclear fusion is the clean energy of the stars and the most favourable solution tothe energy transition. The principle of fusion is to gather light nuclei that release a high level ofenergy (five times more than the fission reaction used in nuclear power plants to date). The fusionreaction occurs naturally in stars like the Sun, so it is important to imitate the temperature anddensity conditions of the Sun on Earth. For this purpose we use a machine similar to a donutcalled Tokamak. My work in this field has consisted in improving the modelling methods of theheating systems of these Tokamaks in order to increase the fusion reactions by creating a workflowcombining several codes called self-coherent modelling
APA, Harvard, Vancouver, ISO, and other styles
17

De, Ponte Candice Natasha. "Pricing barrier options with numerical methods / Candice Natasha de Ponte." Thesis, North-West University, 2013. http://hdl.handle.net/10394/8672.

Full text
Abstract:
Barrier options are becoming more popular, mainly due to the reduced cost to hold a barrier option when compared to holding a standard call/put options, but exotic options are difficult to price since the payoff functions depend on the whole path of the underlying process, rather than on its value at a specific time instant. It is a path dependent option, which implies that the payoff depends on the path followed by the price of the underlying asset, meaning that barrier options prices are especially sensitive to volatility. For basic exchange traded options, analytical prices, based on the Black-Scholes formula, can be computed. These prices are influenced by supply and demand. There is not always an analytical solution for an exotic option. Hence it is advantageous to have methods that efficiently provide accurate numerical solutions. This study gives a literature overview and compares implementation of some available numerical methods applied to barrier options. The three numerical methods that will be adapted and compared for the pricing of barrier options are: • Binomial Tree Methods • Monte-Carlo Methods • Finite Difference Methods
Thesis (MSc (Applied Mathematics))--North-West University, Potchefstroom Campus, 2013
APA, Harvard, Vancouver, ISO, and other styles
18

Paillet, Adrien. "Étude par simulation Monte Carlo de l'imagerie TEP corps entier ultra rapide dans un contexte clinique réaliste." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPAST157.

Full text
Abstract:
La Tomographie par Émission de Positons (TEP) est une modalité d'imagerie fonctionnelle pour le diagnostic et le suivi thérapeutique en oncologie. L'amélioration de la qualité d'image, en termes de contraste et de résolutions, reste donc un objectif prioritaire. Cela pourrait être atteint par l'augmentation de la sensibilité des imageurs avec par exemple des systèmes corps entier ou l'amélioration de la résolution temporelle (CTR pour Coincidence Time Resolution) afin d'augmenter le rapport signal sur bruit dans l'image reconstruite. Cependant, le développement de tels systèmes est coûteux, long et parfois même technologiquement non réalisable à ce jour, d'où l'importance des simulations Monte Carlo pour faire avancer ces travaux et tester numériquement des pistes et hypothèses d'amélioration.Dans cette thèse, nous avons réalisé une simulation numérique réaliste pour un scanner corps entier avec un champ de vue axial d'un mètre et un CTR de 100 ps et moins. Notons, qu'actuellement, le meilleur CTR atteint avec un TEP à usage clinique dépasse les 200 ps, tandis que les CTR inférieurs à 100 ps n'ont été obtenus que sur bancs de tests. L'objectif de ce travail est donc d'étudier avec des simulations les effets d'un couplage entre l'augmentation du champ de vue axial des caméras TEP et l'augmentation des performances du CTR dans un contexte clinique en oncologie. Les simulations sont réalisées à l'aide de la plateforme GATE et de Geant4.La première partie de cette thèse consiste à simuler et valider la caméra TEP/IRM clinique SIGNA de General Electric. Elle a un champ de vue axial de 25 cm et un CTR de 390 ps. Le modèle est validé en suivant le protocole NEMA par des données expérimentales sur la sensibilité, la résolution spatiale, le CTR, les taux de comptage des coïncidences et des indices quantitatifs dans le niveau de contraste des images reconstruites.La suite des travaux généralise le modèle TEP SIGNA de 25 cm à un champ de vue axial corps entier d'1 m. Un fantôme anthropomorphique XCAT est utilisé pour simuler un examen clinique au ¹⁸F-FDG en oncologie. Quatre tumeurs hétérogènes sont intégrées au modèle : trois dans le foie (deux hyperactives et une hypoactive) et une dans le poumon. Différentes hypothèses sont testées sur des CTR (390 ps et 100 ps), les durées d'acquisition (300 s pour la durée standard, 180 s et 60 s), et les diminutions de la quantité de traceur injecté (dose standard divisée par 10 et par 100). Des analyses qualitatives et quantitatives, en comparaison avec l'état de l'art du TEP SIGNA GE, sont réalisées pour évaluer les performances. Les résultats montrent que le CTR de 100 ps donne les meilleurs résultats en termes de contraste d'image et de fidélité à la réalité. De plus, la qualité d'image avec le CTR 100 ps et une dose/10 reste visuellement interprétable, ce qui est particulièrement encourageant pour la réduction des doses injectées dans le domaine des applications cliniques en TEP.L'étude prospective explore l'intérêt d'un CTR inférieur à 100 ps. Ce travail s'intéresse à un compromis entre l'épaisseur du cristal (donc la sensibilité) et la résolution temporelle (impactée par le temps de propagation du photon dans le cristal du détecteur). Une étude est menée sur deux épaisseurs de cristaux (5 mm et 11 mm) et donc deux CTR (respectivement 25 ps et 50 ps).Les résultats indiquent qu'avec la technologie actuelle, il est préférable de maintenir un CTR légèrement plus élevé (100 ps) plutôt que de viser des CTR inférieurs à 100 ps avec des cristaux de taille réduite, car la perte de sensibilité n'est pas compensée par l'amélioration de CTR dans les images cliniques.Pour améliorer la qualité d'image, il est donc essentiel de continuer à travailler sur la réduction du CTR tout en augmentant la sensibilité intrinsèque de détection. Une autre approche pourrait être d'intégrer la mesure de la profondeur d'interaction, afin de réduire son influence sur la résolution temporelle
Positron Emission Tomography (PET) is a functional imaging modality for diagnosis and therapeutic follow-up in oncology. Improving image quality, in terms of contrast and resolution, therefore remains a priority objective. This could be achieved by increasing the sensitivity of imagers with Total-body systems, for example, or by improving the Coincidence Time Resolution (CTR) to increase the signal-to-noise ratio in the reconstructed image. However, developing such systems is costly, time-consuming, and sometimes even technologically unfeasible to date, hence the importance of Monte Carlo simulations in advancing this work and numerically testing avenues and hypotheses for improvement.In this thesis, we have conducted a realistic numerical simulation for a whole-body scanner with a one-meter axial field of view and a CTR of 100 ps and less. It should be noted that the best CTR achieved with a PET scanner for clinical use currently exceeds 200 ps, while CTRs below 100 ps have only been obtained on test benches. Therefore, this work aims to use simulations to study the coupling effects between increasing the axial field of view of PET cameras and increasing CTR performance in a clinical oncology context. Simulations are carried out using the GATE platform and Geant4.The first part of this thesis consists of simulating and validating General Electric's SIGNA clinical PET/MRI camera. It has an axial field of view of 25 cm and a CTR of 390 ps. The model is validated following the NEMA protocol with experimental data on sensitivity, spatial resolution, CTR, coincidence count rates and quantitative indices in the contrast level of reconstructed images.Further work generalizes the 25 cm SIGNA PET model to a 1 m whole-body axial field of view. An anthropomorphic XCAT phantom is used to simulate a ¹⁸F-FDG clinical examination in oncology. Four heterogeneous tumours are integrated into the model: three in the liver (two hyperactive and one hypoactive) and one in the lung. Different hypotheses are tested on CTRs (390 ps and 100 ps), acquisition times (300 s for standard duration, 180 s and 60 s), and decreases in the quantity of tracer injected (standard dose divided by 10 and by 100). Qualitative and quantitative analyses, compared with the state-of-the-art SIGNA GE PET scanner, are carried out to assess performance. The results show that the 100 ps CTR gives the best results regarding image contrast and fidelity to reality. Moreover, image quality with CTR 100 ps and a dose/10 remains visually interpretable, which is particularly encouraging for reducing injected doses in clinical PET applications.The prospective study explores the benefits of a CTR of less than 100 ps. This work focuses on a compromise between crystal thickness and, therefore, sensitivity and temporal resolution (impacted by the photon propagation time in the detector crystal). A study was carried out on two crystal thicknesses (5 mm and 11 mm) and, therefore, two CTRs (25 ps and 50 ps, respectively).The results indicate that with current technology, it is preferable to maintain a slightly higher CTR (100 ps) rather than aiming for CTRs below 100 ps with smaller crystals, as the loss of sensitivity is not compensated by the CTR improvement in clinical images.To improve image quality, it is, therefore, essential to continue working on reducing CTR while increasing intrinsic detection sensitivity. Another approach could be integrating the measurement of interaction depth to reduce its influence on temporal resolution
APA, Harvard, Vancouver, ISO, and other styles
19

Haber, René. "Numerical methods for density of states calculations." Master's thesis, Universitätsbibliothek Chemnitz, 2008. http://nbn-resolving.de/urn:nbn:de:bsz:ch1-200801991.

Full text
Abstract:
The parQ method, up to now only capable of calculating the density of states in the canonical ensemble, is extended to the grand canonical ensemble and compared to the Wang-Landau algorithm, a local-update flat-histogram method. Both algorithms have been implemented so that the performance and the respective benefits with increasing simulation time can be determined and compared.
APA, Harvard, Vancouver, ISO, and other styles
20

Coulibaly, Ibrahim. "Contributions à l'analyse numérique des méthodes quasi-Monte Carlo." Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00004933.

Full text
Abstract:
Les méthodes de type quasi-Monte Carlo sont des versions déterministes des méthodes de Monte Carlo. Les nombres aléatoires sont remplacés par des nombres déterministes qui forment des ensembles ou des suites à faible discrepance, ayant une meilleure distribution uniforme. L'erreur d'une méthode quasi-Monte Carlo dépend de la discrepance de la suite utilisée, la discrepance étant une mesure de la déviation par rapport à la distribution uniforme. Dans un premier temps nous nous intéressons à la résolution par des méthodes quasi-Monte Carlo d'équations différentielles pour lesquelles il y a peu de régularité en temps. Ces méthodes consistent à formuler le problème avec un terme intégral pour effectuer ensuite une quadrature quasi-Monte Carlo. Ensuite des méthodes particulaires quasi-Monte Carlo sont proposées pour résoudre les équations cinétiques suivantes : l'équation de Boltzmann linéaire et le modèle de Kac. Enfin, nous nous intéressons à la résolution de l'équation de la diffusion à l'aide de méthodes particulaires utilisant des marches quasi-aléatoires. Ces méthodes comportent trois étapes : un schéma d'Euler en temps, une approximation particulaire et une quadrature quasi-Monte Carlo à l'aide de réseaux-$(0,m,s)$. A chaque pas de temps les particules sont réparties par paquets dans le cas des problèmes multi-dimensionnels ou triées si le problème est uni-dimensionnel. Ceci permet de démontrer la convergence. Les tests numériques montrent pour les méthodes de type quasi-Monte Carlo de meilleurs résultats que ceux fournis par les méthodes de type Monte Carlo.
APA, Harvard, Vancouver, ISO, and other styles
21

Åberg, K. Magnus. "Variance Reduction in Analytical Chemistry : New Numerical Methods in Chemometrics and Molecular Simulation." Doctoral thesis, Stockholm University, Department of Analytical Chemistry, 2004. http://urn.kb.se/resolve?urn=urn:nbn:se:su:diva-283.

Full text
Abstract:

This thesis is based on five papers addressing variance reduction in different ways. The papers have in common that they all present new numerical methods.

Paper I investigates quantitative structure-retention relationships from an image processing perspective, using an artificial neural network to preprocess three-dimensional structural descriptions of the studied steroid molecules.

Paper II presents a new method for computing free energies. Free energy is the quantity that determines chemical equilibria and partition coefficients. The proposed method may be used for estimating, e.g., chromatographic retention without performing experiments.

Two papers (III and IV) deal with correcting deviations from bilinearity by so-called peak alignment. Bilinearity is a theoretical assumption about the distribution of instrumental data that is often violated by measured data. Deviations from bilinearity lead to increased variance, both in the data and in inferences from the data, unless invariance to the deviations is built into the model, e.g., by the use of the method proposed in paper III and extended in paper IV.

Paper V addresses a generic problem in classification; namely, how to measure the goodness of different data representations, so that the best classifier may be constructed.

Variance reduction is one of the pillars on which analytical chemistry rests. This thesis considers two aspects on variance reduction: before and after experiments are performed. Before experimenting, theoretical predictions of experimental outcomes may be used to direct which experiments to perform, and how to perform them (papers I and II). After experiments are performed, the variance of inferences from the measured data are affected by the method of data analysis (papers III-V).

APA, Harvard, Vancouver, ISO, and other styles
22

Masters, Nathan Daniel. "Efficient Numerical Techniques for Multiscale Modeling of Thermally Driven Gas Flows with Application to Thermal Sensing Atomic Force Microscopy." Diss., Georgia Institute of Technology, 2006. http://hdl.handle.net/1853/11574.

Full text
Abstract:
The modeling of Micro- and NanoElectroMechanical Systems (MEMS and NEMS) requires new computational techniques that can deal efficiently with geometric complexity and scale dependent effects that may arise. Reduced feature sizes increase the coupling of physical phenomena and noncontinuum behavior, often requiring models based on molecular descriptions and/or first principles. Furthermore, noncontinuum effects are often localized to small regions of (relatively) large systemsprecluding the global application of microscale models due to computational expense. Multiscale modeling couples efficient continuum solvers with detailed microscale models to providing accurate and efficient models of complete systems. This thesis presents the development of multiscale modeling techniques for nonequilibrium microscale gas phase phenomena, especially thermally driven microflows. Much of this focuses on improving the ability of the Information Preserving DSMC (IP-DSMC) to model thermally driven flows. The IP-DSMC is a recent technique that seeks to accelerate the solution of direct simulation Monte Carlo (DSMC) simulations by preserving and transporting certain macroscopic quantities within each simulation molecules. The primary contribution of this work is the development of the Octant Splitting IP-DSMC (OSIP-DSMC) which recovers previously unavailable information from the preserved quantities and the microscopic velocities. The OSIP-DSMC can efficiently simulate flow fields induced by nonequilibrium systems, including phenomena such as thermal transpiration. The OSIP-DSMC provides an efficient method to explore rarefied gas transport phenomena which may lead to a greater understanding of these phenomena and new concepts for how these may be utilized in practical engineering systems. Multiscale modeling is demonstrated utilizing the OSIP-DSMC and a 2D BEM solver for the continuum (heat transfer) model coupled with a modified Alternating Schwarz coupling scheme. An interesting application for this modeling technique is Thermal Sensing Atomic Force Microscopy (TSAFM). TSAFM relies on gas phase heat transfer between heated cantilever probes and the scanned surface to determine the scan height, and thus the surface topography. Accurate models of the heat transfer phenomena are required to correctly interpret scan data. This thesis presents results demonstrating the effect of subcontinuum heat transfer on TSAFM operation and explores the mechanical effects of the Knudsen Force on the heated cantilevers.
APA, Harvard, Vancouver, ISO, and other styles
23

Thomas, Nicolas. "Stochastic numerical methods for Piecewise Deterministic Markov Processes : applications in Neuroscience." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS385.

Full text
Abstract:
Dans cette thèse, motivés par des applications en Neuroscience, nous étudions des méthodes efficaces de type Monte Carlo (MC) et Multilevel Monte Carlo (MLMC) basées sur le thinning pour des processus (de Markov) déterministe par morceaux (PDMP ou PDP) que l'on appliquent à des modèles à conductance. D'une part, lorsque la trajectoire déterministe du PDMP est connue explicitement nous aboutissons à une simulation exacte. D'autre part, lorsque la trajectoire déterministe du PDMP n'est pas explicite, nous établissons des estimées d'erreurs forte et un développement de l'erreur faible pour le schéma numérique que nous introduisons. La méthode de thinning est fondamentale dans cette thèse. Outre le fait que cette méthode est intuitive, nous l'utilisons à la fois numériquement (pour simuler les trajectoires de PDMP/PDP) et théoriquement (pour construire les instants de saut et établir des estimées d'erreurs pour les PDMP/PDP)
In this thesis, motivated by applications in Neuroscience, we study efficient Monte Carlo (MC) and Multilevel Monte Carlo (MLMC) methods based on the thinning for piecewise deterministic (Markov) processes (PDMP or PDP) that we apply to stochastic conductance-based models. On the one hand, when the deterministic motion of the PDMP is explicitly known we end up with an exact simulation. On the other hand, when the deterministic motion is not explicit, we establish strong estimates and a weak error expansion for the numerical scheme that we introduce. The thinning method is fundamental in this thesis. Beside the fact that it is intuitive, we use it both numerically (to simulate trajectories of PDMP/PDP) and theoretically (to construct the jump times and establish error estimates for PDMP/PDP)
APA, Harvard, Vancouver, ISO, and other styles
24

Stoltz, Gabriel. "Simulation moléculaire : Problèmes dynamiques et hors d'équilibre." Habilitation à diriger des recherches, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00709965.

Full text
Abstract:
L'objectif de la simulation moléculaire est de comprendre et prédire les propriétés macroscopiques des matériaux à partir de leur description à l'échelle microscopique. Ce mémoire présente quelques contributions à ce sujet, pour des modèles de la physique statistique et de la physique quantique. Mes travaux en physique statistique numérique peuvent être classés en deux catégories : le calcul de propriétés d'équilibre, l'accent étant porté sur le calcul de différences d'énergie libre (chapitre 2), et l'étude de dynamiques hors d'équilibre en régime permanent pour le calcul de propriétés de transport (chapitre 3). Dans les deux cas, les méthodes numériques reposent sur des dynamiques hors d'équilibre ou nonlinéaires, la distinction entre ces classes de méthodes provenant du fait que l'état invariant du système est soit un état d'équilibre (éventuellement, à une correction près) ou un état hors d'équilibre. Le chapitre 4 présente quelques résultats pour des dynamiques quantiques : fictives, comme pour la transition adiabatique d'états dégénérés ; ou authentiques, comme pour l'évolution en temps des défauts locaux dans les cristaux.
APA, Harvard, Vancouver, ISO, and other styles
25

Poncet, Romain. "Méthodes numériques pour la simulation d'équations aux dérivées partielles stochastiques non-linéaires en condensation de Bose-Einstein." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLX069/document.

Full text
Abstract:
Cette thèse porte sur l'étude de méthodes numériques pour l'analyse de deux modèles stochastiques apparaissant dans le contexte de la condensation de Bose-Einstein. Ceux-ci constituent deux généralisations de l'équation de Gross-Pitaevskii. Cette équation aux dérivées partielles déterministe modélise la dynamique de la fonction d'onde d'un condensat de Bose-Einstein piégé par un potentiel extérieur confinant.Le premier modèle étudié permet de modéliser les fluctuations de l'intensité du potentiel confinant et prend la forme d'une équation aux dérivées partielles stochastiques. Celles-ci conduisent en pratique à un échauffement du condensat, et parfois mêmeà son effondrement. Nous proposons dans un premier chapitre la construction d'un schéma numérique pour la résolution de ce modèle. Il est fondé sur une discrétisation spectrale en espace, et une discrétisation temporelle de type Crank-Nicolson. Nous démontrons que le schéma proposé converge fortement en probabilité à l'ordre au moins 1 en temps, et nous présentons des simulations numériques illustrant ce résultat. Le deuxième chapitre est consacré à l'étude théorique et numérique de la dynamique d'une solution stationnaire (pour l'équation déterministe) de type vortex. Nous étudions l'influence des perturbations aléatoires du potentiel sur la solution, et montrons que la solution perturbée garde les symétries de la solution stationnaire pour des temps au moins de l'ordre du carré de l'inverse de l'intensité des fluctuations. Ces résultats sont illustrés par des simulations numériques exploitant une méthode de Monte-Carlo adaptée à la simulation d'événements rares.Le deuxième modèle permet de modéliser les effets de la température sur la dynamique d'un condensat. Lorsque celle-ci n'est pas nulle, la condensation n'est pas complète et le condensat interagit avec les particules non condensées. Ces interactions sont d'un grand intérêt pour comprendre la dynamique de transition de phase et analyser les phénomènes de brisure de symétrie associés, comme la formation spontanée de vortex. Nous nous sommes intéressés dans les chapitres 3 et 4 à des questions relatives à la simulation de la distribution des solutions de cette équation en temps long. Le troisième chapitre est consacré à la construction d'une méthode d’échantillonnage sans biais pour des mesures connues à une constante multiplicative près. C'est une méthode de Monte Carlo par chaînes de Markov qui a la particularité de permettre un échantillonnage non-réversible basé sur une équation de type Langevin sur-amortie. Elle constitue une extension de Metropolis-Adjusted Langevin Algorithm (MALA). Le quatrième chapitre est quant à lui consacré à l'étude numérique de dynamiques métastables liées à la nucléation de vortex dans des condensats en rotation. Un intégrateur numérique pour la dynamique étudiée est proposé, ainsi qu'une méthode de Monte-Carlo adaptée à la simulation d'événements rares correspondant aux changements de configurations métastables. Cette dernière est basée sur l'algorithme Adaptive Multilevel Splitting (AMS)
This thesis is devoted to the numerical study of two stochastic models arising in Bose-Einstein condensation physics. They constitute two generalisations of the Gross-Pitaevskii Equation. This deterministic partial differential equation model the wave function dynamics of a Bose-Einstein condensate trapped in an external confining potential. The first chapter contains a simple presentation of the Bose-Einstein condensation phenomenon and of the experimental methods used to construct such systems.The first model considered enables to model the fluctuations of the confining potential intensity, and takes the form of a stochastic partial differential equation. In practice, these fluctuations lead to heating of the condensate and possibly to its collapse. In the second chapter we propose to build a numerical scheme to solve this model. It is based on a spectral space discretisation and a Crank-Nicolson discretisation in space. We show that the proposed scheme converges strongly at order at least one in probability. We also present numerical simulations to illustrate this result. The third chapter is devoted to the numerical and theoretical study of the dynamics of a stationary solution (for the deterministic equation) of vortex type. We study the influence of random disturbances of the confining potential on the solution. We show that the disturbed solution conserves the symmetries of the stationary solution for times up to at least the square of the inverse of the fluctuations intensity. These results are illustrated with numerical simulations based on a Monte-Carlo method suited to rare events estimation.The second model can be used to model the effects of the temperature on the dynamics of a Bose-Einstein condensate. In the case of finite temperature, the Bose-Einstein condensation is not complete and the condensate interacts with the non-condensed particles. These interactions are interesting to understand the dynamics of the phase transition and analyse the phenomena of symmetry breaking associated, like the spontaneous nucleation of vortices We have studied in the fourth and the fifth chapters some questions linked to the long time simulation of this model solutions. The fourth chapter is devoted to the construction of an unbiased sampling method of measures known up to a multiplicative constant. The distinctive feature of this Markov-Chain Monte-Carlo algorithm is that it enables to perform an unbiased non-reversible sampling based on an overdamped Langevin equation. It constitutes a generalization of the Metropolis-Adjusted Langevin Algorithm (MALA). The fifth chapter is devoted to the numerical study of metastable dynamics linked to the nucleation of vortices in rotating Bose-Einstein condensates. A numerical integrator and a suited Monte-Carlo methods for the simulation of metastable dynamics are proposed. This Monte-Carlo method is based on the Adaptive Multilevel Splitting (AMS) algorithm
APA, Harvard, Vancouver, ISO, and other styles
26

Turkedjiev, Plamen. "Numerical methods for backward stochastic differential equations of quadratic and locally Lipschitz type." Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2013. http://dx.doi.org/10.18452/16784.

Full text
Abstract:
Der Fokus dieser Dissertation liegt darauf, effiziente numerische Methode für ungekoppelte lokal Lipschitz-stetige und quadratische stochastische Vorwärts-Rückwärtsdifferenzialgleichungen (BSDE) mit Endbedingungen von schwacher Regularität zu entwickeln. Obwohl BSDE viele Anwendungen in der Theorie der Finanzmathematik, der stochastischen Kontrolle und der partiellen Differenzialgleichungen haben, gibt es bisher nur wenige numerische Methoden. Drei neue auf Monte-Carlo- Simulationen basierende Algorithmen werden entwickelt. Die in der zeitdiskreten Approximation zu lösenden bedingten Erwartungen werden mittels der Methode der kleinsten Quadrate näherungsweise berechnet. Ein Vorteil dieser Algorithmen ist, dass sie als Eingabe nur Simulationen eines Vorwärtsprozesses X und der Brownschen Bewegung benötigen. Da sie auf modellfreien Abschätzungen aufbauen, benötigen die hier vorgestellten Verfahren nur sehr schwache Bedingungen an den Prozess X. Daher können sie auf sehr allgemeinen Wahrscheinlichkeitsräumen angewendet werden. Für die drei numerischen Algorithmen werden explizite maximale Fehlerabschätzungen berechnet. Die Algorithmen werden dann auf Basis dieser maximalen Fehler kalibriert und die Komplexität der Algorithmen wird berechnet. Mithilfe einer zeitlich lokalen Abschneidung des Treibers der BSDE werden quadratische BSDE auf lokal Lipschitz-stetige BSDE zurückgeführt. Es wird gezeigt, dass die Komplexität der Algorithmen im lokal Lipschitz-stetigen Fall vergleichbar zu ihrer Komplexität im global Lipschitz-stetigen Fall ist. Es wird auch gezeigt, dass der Vergleich mit bereits für Lipschitz-stetige BSDE existierenden Methoden für die hier vorgestellten Algorithmen positiv ausfällt.
The focus of the thesis is to develop efficient numerical schemes for quadratic and locally Lipschitz decoupled forward-backward stochastic differential equations (BSDEs). The terminal conditions satisfy weak regularity conditions. Although BSDEs have valuable applications in the theory of financial mathematics, stochastic control and partial differential equations, few efficient numerical schemes are available. Three algorithms based on Monte Carlo simulation are developed. Starting from a discrete time scheme, least-square regression is used to approximate conditional expectation. One benefit of these schemes is that they require as an input only the simulations of an explanatory process X and a Brownian motion W. Due to the use of distribution-free tools, one requires only very weak conditions on the explanatory process X, meaning that these methods can be applied to very general probability spaces. Explicit upper bounds for the error are obtained. The algorithms are then calibrated systematically based on the upper bounds of the error and the complexity is computed. Using a time-local truncation of the BSDE driver, the quadratic BSDE is reduced to a locally Lipschitz BSDE, and it is shown that the complexity of the algorithms for the locally Lipschitz BSDE is the same as that of the algorithm of a uniformly Lipschitz BSDE. It is also shown that these algorithms are competitive compared to other available algorithms for uniformly Lipschitz BSDEs.
APA, Harvard, Vancouver, ISO, and other styles
27

Bykov, A. (Alexander). "Experimental investigation and numerical simulation of laser light propagation in strongly scattering media with structural and dynamic inhomogeneities." Doctoral thesis, University of Oulu, 2010. http://urn.fi/urn:isbn:9789514261558.

Full text
Abstract:
Abstract Light scattering diagnostics of turbid media containing both structural and dynamic inhomogeneities is currently of significant importance. One of the important directions in modern light scattering diagnostics is the development of methods for probing biological media with visible- and near-infrared radiation allowing for visualization of the biotissue structure. Optical methods for studying the biotissue structure and characterization of its optical properties are very promising and have been rapidly developing during the past decade. The present work is aimed at improving and discovering new potentials of currently existing methods of laser diagnostics of biological tissues containing both structural and dynamic inhomogeneities. In particular, the feasibilities of spatially resolved reflectometry and time-of-flight techniques for the problem of noninvasive determination of glucose level in human blood and tissues were examined both numerically and experimentally. The relative sensitivities of these methods to changes in glucose level were estimated. Time-of-flight technique was found to be more sensitive. The possibilities of Doppler optical coherence tomography for imaging of dynamic inhomogeneities with high resolution were considered. This technique was applied for the first time for the imaging of complex autowave cellular motility and cytoplasm shuttle flow in the slime mold Physarum polycephalum. The effect of multiple scattering on the accuracy of the measured flow velocity profiles for the case of single flow and for the case of the flow embedded into the static medium with strong scattering was studied. It was shown that this effect causes significant distortion to the measured flow velocity profiles and it is necessary to take this into account while making quantitative measurements of flow velocities.
APA, Harvard, Vancouver, ISO, and other styles
28

Fougere, N., K. Altwegg, J. J. Berthelier, A. Bieler, D. Bockelée-Morvan, U. Calmonte, F. Capaccioni, et al. "Three-dimensional direct simulation Monte-Carlo modeling of the coma of comet 67P/Churyumov-Gerasimenko observed by the VIRTIS and ROSINA instruments on board Rosetta." EDP SCIENCES S A, 2016. http://hdl.handle.net/10150/614711.

Full text
Abstract:
Context. Since its rendezvous with comet 67P/Churyumov-Gerasimenko (67P), the Rosetta spacecraft has provided invaluable information contributing to our understanding of the cometary environment. On board, the VIRTIS and ROSINA instruments can both measure gas parameters in the rarefied cometary atmosphere, the so-called coma, and provide complementary results with remote sensing and in situ measurement techniques, respectively. The data from both ROSINA and VIRTIS instruments suggest that the source regions of H2O and CO2 are not uniformly distributed over the surface of the nucleus even after accounting for the changing solar illumination of the irregularly shaped rotating nucleus. The source regions of H2O and CO2 are also relatively different from one another. Aims. The use of a combination of a formal numerical data inversion method with a fully kinetic coma model is a way to correlate and interpret the information provided by these two instruments to fully understand the volatile environment and activity of comet 67P. Methods. In this work, the nonuniformity of the outgassing activity at the surface of the nucleus is described by spherical harmonics and constrained by ROSINA-DFMS data. This activity distribution is coupled with the local illumination to describe the inner boundary conditions of a 3D direct simulation Monte-Carlo (DSMC) approach using the Adaptive Mesh Particle Simulator (AMPS) code applied to the H2O and CO2 coma of comet 67P. Results. We obtain activity distribution of H2O and CO2 showing a dominant source of H2O in the Hapi region, while more CO2 is produced in the southern hemisphere. The resulting model outputs are analyzed and compared with VIRTIS-M/-H and ROSINADFMS measurements, showing much better agreement between model and data than a simpler model assuming a uniform surface activity. The evolution of the H2O and CO2 production rates with heliocentric distance are derived accurately from the coma model showing agreement between the observations from the different instruments and ground-based observations. Conclusions. We derive the activity distributions for H2O and CO2 at the surface of the nucleus described in spherical harmonics, which we couple to the local solar illumination to constitute the boundary conditions of our coma model. The model presented reproduces the coma observations made by the ROSINA and VIRTIS instruments on board the Rosetta spacecraft showing our understanding of the physics of 67P’s coma. This model can be used for further data analyses, such as dust modeling, in a future work.
APA, Harvard, Vancouver, ISO, and other styles
29

Sprungk, Björn. "Numerical Methods for Bayesian Inference in Hilbert Spaces." Doctoral thesis, Universitätsbibliothek Chemnitz, 2018. http://nbn-resolving.de/urn:nbn:de:bsz:ch1-qucosa-226748.

Full text
Abstract:
Bayesian inference occurs when prior knowledge about uncertain parameters in mathematical models is merged with new observational data related to the model outcome. In this thesis we focus on models given by partial differential equations where the uncertain parameters are coefficient functions belonging to infinite dimensional function spaces. The result of the Bayesian inference is then a well-defined posterior probability measure on a function space describing the updated knowledge about the uncertain coefficient. For decision making and post-processing it is often required to sample or integrate wit resprect to the posterior measure. This calls for sampling or numerical methods which are suitable for infinite dimensional spaces. In this work we focus on Kalman filter techniques based on ensembles or polynomial chaos expansions as well as Markov chain Monte Carlo methods. We analyze the Kalman filters by proving convergence and discussing their applicability in the context of Bayesian inference. Moreover, we develop and study an improved dimension-independent Metropolis-Hastings algorithm. Here, we show geometric ergodicity of the new method by a spectral gap approach using a novel comparison result for spectral gaps. Besides that, we observe and further analyze the robustness of the proposed algorithm with respect to decreasing observational noise. This robustness is another desirable property of numerical methods for Bayesian inference. The work concludes with the application of the discussed methods to a real-world groundwater flow problem illustrating, in particular, the Bayesian approach for uncertainty quantification in practice
Bayessche Inferenz besteht daraus, vorhandenes a-priori Wissen über unsichere Parameter in mathematischen Modellen mit neuen Beobachtungen messbarer Modellgrößen zusammenzuführen. In dieser Dissertation beschäftigen wir uns mit Modellen, die durch partielle Differentialgleichungen beschrieben sind. Die unbekannten Parameter sind dabei Koeffizientenfunktionen, die aus einem unendlich dimensionalen Funktionenraum kommen. Das Resultat der Bayesschen Inferenz ist dann eine wohldefinierte a-posteriori Wahrscheinlichkeitsverteilung auf diesem Funktionenraum, welche das aktualisierte Wissen über den unsicheren Koeffizienten beschreibt. Für Entscheidungsverfahren oder Postprocessing ist es oft notwendig die a-posteriori Verteilung zu simulieren oder bzgl. dieser zu integrieren. Dies verlangt nach numerischen Verfahren, welche sich zur Simulation in unendlich dimensionalen Räumen eignen. In dieser Arbeit betrachten wir Kalmanfiltertechniken, die auf Ensembles oder polynomiellen Chaosentwicklungen basieren, sowie Markowketten-Monte-Carlo-Methoden. Wir analysieren die erwähnte Kalmanfilter, indem wir deren Konvergenz zeigen und ihre Anwendbarkeit im Kontext Bayesscher Inferenz diskutieren. Weiterhin entwickeln und studieren wir einen verbesserten dimensionsunabhängigen Metropolis-Hastings-Algorithmus. Hierbei weisen wir geometrische Ergodizität mit Hilfe eines neuen Resultates zum Vergleich der Spektrallücken von Markowketten nach. Zusätzlich beobachten und analysieren wir die Robustheit der neuen Methode bzgl. eines fallenden Beobachtungsfehlers. Diese Robustheit ist eine weitere wünschenswerte Eigenschaft numerischer Methoden für Bayessche Inferenz. Den Abschluss der Arbeit bildet die Anwendung der diskutierten Methoden auf ein reales Grundwasserproblem, was insbesondere den Bayesschen Zugang zur Unsicherheitsquantifizierung in der Praxis illustriert
APA, Harvard, Vancouver, ISO, and other styles
30

McNally, Douglas M. II. "A NEW ALGORITHM FOR THE TIME EVOLUTION OF QUANTUM TRAJECTORY SIMULATIONS AND PHYSICALLY MOTIVATED ERROR MODELS IN 1D QUANTUM CELLULAR AUTOMATA." Miami University / OhioLINK, 2014. http://rave.ohiolink.edu/etdc/view?acc_num=miami1407344625.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Kondov, Ivan Stelyianov. "Numerical studies of electron transfer in systems with dissipation." Doctoral thesis, [S.l. : s.n.], 2003. http://deposit.ddb.de/cgi-bin/dokserv?idn=968782280.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Mohammadhosseini, Ali. "A search for optimal structure of carbon-based porous adsorbents for hydrogen storage : numerical modeling approach." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4736.

Full text
Abstract:
Le but principal de cette étude était la recherche de structures optimales de charbons activés capables d"atteindre l'objectif de stockage d'hydrogène fixé par le département de l"énergie américain (DOE) pour les applications mobiles en utilisant l"adsorption physique à la température ambiante et aux pressions en-dessous de120 bars. L'hydrogène est destiné à être stocké dans une cuve rempliée d"adsorbants et doit être utilisé dans les véhicules alimentés principalement par des piles à combustible. Les adsorbants à base de carbone connus ont une capacité de stockage faible. Par conséquent, dans ce travail, j'ai défini les paramètres responsables de l'insuffisance de capacité de stockage de ces matériaux. Une attention particulière a été accordée à la géométrie locale des pores des adsorbants. J'ai étudié la structure locale des pores des adsorbants à base de carbone et je présente le principe de la conception d"architectures tridimensionnelles de nouvelles structures de carbone ainsi que la capacité d'adsorption de l'hydrogène par ces structures, lesquelles constituent une classe prometteuse de matériaux pour le stockage d'hydrogène et qui n'ont pas été étudiées jusqu'ici. Hormis la maximisation de la densité de l'hydrogène absorbée par cette famille de structures, mon but était de caractériser l'adsorption dans cette nouvelle catégorie d'adsorbants. Cela permet d"apporter des informations quant à la méthodologie à utiliser pour ajuster les propriétés physiques de ces matériaux afin d'optimiser leurs propriétés de stockage. Les résultats obtenus semblent montrer que cet objectif est atteint et confirment que mon approche constitue une bonne base pour de futures recherches
The main goal of research presented in this thesis has been a search for optimal carbon-based porous structure capable to achieve the hydrogen storage capacity defined by US Department of Energy (DOE) for mobile applications at room temperature by adsorption at medium-level pressures below 120 bars. The hydrogen is assumed to be stored in a tank filled with adsorbents to be used in transport application, mainly fuel-cell driven vehicles. The known carbon-based adsorbents have low storage capacity. Therefore in this work, I have defined the basic parameters which are responsible for the capacity deficiency of such materials. Special attention has been paid to local pore geometry of adsorbents. I have investigated the pore local structure of carbon-based adsorbents and I present the basis of design and hydrogen adsorption capacity in three-dimensional architecture of new carbon frameworks, a promising class of potential hydrogen storage materials that have not been studied so far. Apart from maximizing the density of hydrogen taken up by this family of structures, I have aimed at characterization of this new category of adsorbents. This is hoped to lead to a guidance how their physical properties can be designed, or `tuned', to optimize their storage properties, and the obtained results seem to achieve this aim and thus provide a good basis for future research
APA, Harvard, Vancouver, ISO, and other styles
33

Polikarpov, Alexey. "Numerical simulation of rarefied gas flows based on the kinetic approach." Thesis, Aix-Marseille 1, 2011. http://www.theses.fr/2011AIX10088.

Full text
Abstract:
Ce travail de thèse porte sur le développement de la méthode des vitesses discrètes pour la résolution numérique de équations cinétiques modèles, BGK, S modèle et ES modèle, qui représentent les différentes approximations de l’équation de Boltzmann
This work is devoted to the development of the numerical resolution of the kinetic model equations such as BGK, S-model, ES-model by the discrete velocity method. The different approximations of the Boltzmann equation are presented
APA, Harvard, Vancouver, ISO, and other styles
34

Revel, Adrien. "Modélisation des plasmas magnétisés. Application à l'injection de neutres pour ITER et au magnétron en régime impulsionnel haute puissance." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112083/document.

Full text
Abstract:
Un plasma est défini comme un gaz partiellement ou totalement ionisé. Bien que très présent dans l'univers visible, les plasmas naturels sont rares sur Terre. Cependant, ils représentent un intérêt majeur pour les industries et les instituts de recherche (traitement de surface, propulsion spatiale). Toutefois, la compréhension du comportement d'un plasma est complexe et fait appel à de nombreux domaines de la physique. De plus, ces plasmas peuvent être magnétisé i.e. lorsqu'un champ magnétique extérieur ou induit influence significativement la trajectoire des particules : r/L<1 où r est le rayon de Larmor et L la longueur caractéristique du système. Ce travail de thèse s'intéresse à la modélisation du comportement du plasma présent dans deux dispositifs : l'accélérateur de l'Injecteur de Neutres (IdN) rapides d'ITER et le magnétron en régime DC ou HiPIMS. La réalisation de la fusion nucléaire sur Terre fait actuellement l'objet de nombreuses recherche dans le monde. Du fait de l'énergie nécessaire au franchissement de la barrière de répulsion coulombienne, le plasma doit être confiné. Dans le cas d'ITER, le confinement est réalisé par de puissant champ magnétique. Cependant, pour atteindre les conditions nécessaires aux réactions de fusion, notamment en température, un injecteur de particules neutres à haute énergie (1MeV) est nécessaire. L'accélération de ces particules est une phase critique dans la création du faisceau de neutres et elle représente un défi technologique qui fait l'objet d'une étude dans ce travail de thèse. Le magnétron est un procédé industriel permettant la réalisation de couches minces par pulvérisation cathodique. Les ions créés par un plasma de décharge arrachent les atomes de la cathode qui se déposent sur l'anode. Le champ magnétique créé par des aimants permanents piège les électrons à proximité de la cathode augmentant l'efficacité du dispositif. Le comportement du plasma magnétron est ainsi étudié en régime continu ou pulsé ainsi que l'apparition de structures auto-organisées en rotation autour de l'axe du magnétron dans certaines conditions. Afin d'étudier ces dispositifs, plusieurs programmes de simulation numérique ont été développés. La méthode Paticle-In-Cell a été choisie car elle permet de prendre en compte la charge d'espace des particules de manière auto-cohérente. Diverses techniques (technique de collision nulle, Monte Carlo Collision, a posteriori Monte Carlo) et améliorations (maillage non uniforme, projections de charges au troisième ordre) ont été développées et implémentées. De plus, une méthode originale, Pseudo 3D, permettant un traitement à trois dimension du magnétron a été utilisées avec succès. Enfin, ces programmes ont été parallélisés afin de réduire le temps de calcul
A plasma is defined as a partially or completely ionized gas. Even though, they are very present in the visible universe, natural plasmas are rare on Earth. However, they are a major interest for industries and research institutes (surface treatment, spatial propulsion). Nevertheless, the understanding of plasma behavior is complicated because of the numerous physical fields involved. Moreover, theses plasmas can be magnetized, i.e., a magnetic field, external or induced, affects significantly the particle trajectories: r/L<1 where r is the Larmor radius and L the typical length of the system. This thesis is focused on the plasma modeling in two device: the accelerator of the ITER's neutral beam injector (NBI) and the magnetron in DC or HiPIMS regime. The feasibility of nuclear fusion on Earth is subject of numerous research around the world. Because of the energy necessary to get over the Coulomb barrier, the plasma must be confined. For ITER, the confinement is achieved by intense magnetic fields. However, to reach the required conditions of nuclear fusion reactions, especially in temperature, a high energy (1MeV) neutral beam injector is needed. The particle acceleration is a critical part in the creation of the neutral beam and it represents a technical challenge which is studied in this thesis work. The magnetron is an industrial process for creating thin film by physical sputtering. The ions created by a plasma discharge tear the atoms out of the cathode which are then deposited on the anode. The magnetic field created by permanent magnets trap the electrons near the cathode improving the process efficiency. The plasma behavior inside the magnetron is studied in direct and pulsed current as well as the appearance of self-organized structures in rotation around the magnetron axis. To study these devices, several program of numerical simulation have been developed. The Particle-In-Cell methode has been chosen because it takes into account, self-consistently, the space charge of the particules. Several techniques (null collision technique, Monte Carlo Collision, a posteriori Monte Carlo) and improvement (Non uniform mesh, third order charge projection) have been developed and implemented. Moreover, an original method, Pseudo 3D, allowing a three dimensional study of the magnetron, has been used with success. Finally, these programs have been parallelized to reduce the computation time
APA, Harvard, Vancouver, ISO, and other styles
35

Sprungk, Björn. "Numerical Methods for Bayesian Inference in Hilbert Spaces." Doctoral thesis, Technische Universität Chemnitz, 2017. https://monarch.qucosa.de/id/qucosa%3A20754.

Full text
Abstract:
Bayesian inference occurs when prior knowledge about uncertain parameters in mathematical models is merged with new observational data related to the model outcome. In this thesis we focus on models given by partial differential equations where the uncertain parameters are coefficient functions belonging to infinite dimensional function spaces. The result of the Bayesian inference is then a well-defined posterior probability measure on a function space describing the updated knowledge about the uncertain coefficient. For decision making and post-processing it is often required to sample or integrate wit resprect to the posterior measure. This calls for sampling or numerical methods which are suitable for infinite dimensional spaces. In this work we focus on Kalman filter techniques based on ensembles or polynomial chaos expansions as well as Markov chain Monte Carlo methods. We analyze the Kalman filters by proving convergence and discussing their applicability in the context of Bayesian inference. Moreover, we develop and study an improved dimension-independent Metropolis-Hastings algorithm. Here, we show geometric ergodicity of the new method by a spectral gap approach using a novel comparison result for spectral gaps. Besides that, we observe and further analyze the robustness of the proposed algorithm with respect to decreasing observational noise. This robustness is another desirable property of numerical methods for Bayesian inference. The work concludes with the application of the discussed methods to a real-world groundwater flow problem illustrating, in particular, the Bayesian approach for uncertainty quantification in practice.
Bayessche Inferenz besteht daraus, vorhandenes a-priori Wissen über unsichere Parameter in mathematischen Modellen mit neuen Beobachtungen messbarer Modellgrößen zusammenzuführen. In dieser Dissertation beschäftigen wir uns mit Modellen, die durch partielle Differentialgleichungen beschrieben sind. Die unbekannten Parameter sind dabei Koeffizientenfunktionen, die aus einem unendlich dimensionalen Funktionenraum kommen. Das Resultat der Bayesschen Inferenz ist dann eine wohldefinierte a-posteriori Wahrscheinlichkeitsverteilung auf diesem Funktionenraum, welche das aktualisierte Wissen über den unsicheren Koeffizienten beschreibt. Für Entscheidungsverfahren oder Postprocessing ist es oft notwendig die a-posteriori Verteilung zu simulieren oder bzgl. dieser zu integrieren. Dies verlangt nach numerischen Verfahren, welche sich zur Simulation in unendlich dimensionalen Räumen eignen. In dieser Arbeit betrachten wir Kalmanfiltertechniken, die auf Ensembles oder polynomiellen Chaosentwicklungen basieren, sowie Markowketten-Monte-Carlo-Methoden. Wir analysieren die erwähnte Kalmanfilter, indem wir deren Konvergenz zeigen und ihre Anwendbarkeit im Kontext Bayesscher Inferenz diskutieren. Weiterhin entwickeln und studieren wir einen verbesserten dimensionsunabhängigen Metropolis-Hastings-Algorithmus. Hierbei weisen wir geometrische Ergodizität mit Hilfe eines neuen Resultates zum Vergleich der Spektrallücken von Markowketten nach. Zusätzlich beobachten und analysieren wir die Robustheit der neuen Methode bzgl. eines fallenden Beobachtungsfehlers. Diese Robustheit ist eine weitere wünschenswerte Eigenschaft numerischer Methoden für Bayessche Inferenz. Den Abschluss der Arbeit bildet die Anwendung der diskutierten Methoden auf ein reales Grundwasserproblem, was insbesondere den Bayesschen Zugang zur Unsicherheitsquantifizierung in der Praxis illustriert.
APA, Harvard, Vancouver, ISO, and other styles
36

Ferré, Giménez Ricardo. "Etude de nanoparticules magnétiques par simulation numérique." Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10224.

Full text
Abstract:
Nous avons etudie par simulation numerique les proprietes magnetiques d'une petite particule magnetique aussi bien que les proprietes d'un ensemble de telles particules. Dans la premiere partie de ce travail, un modele de petites particules est developpe. Ce modele, base sur les equations micromagnetiques, tient compte des interactions d'echange et dipolaire entre les moments magnetiques dans la particule aussi bien que de l'anisotropie magnetocristalline. Ce modele nous a permis d'etudier les configurations d'aimantation a l'equilibre pour des petites particules magnetiques. Nous avons aussi etudie plus en detail le retournement d'aimantation d'une particule isolee de ferrite de baryum d eforme aplatie. La deuxieme partie de ce travail est dediee a la modelisation d'un ensemble de petites particules en interaction dipolaire. Nous avons mis en evidence l'effet cruciale de la concentration de particules sur les proprietes magnetiques d'un tel agregat. Nous montrons que l'effet de l'augmentation de la concentration combine avec l'anisotropie de l'interaction dipolaire conduit a l'apparition d'une valeur maximale du champ coercitif pour les concentrations intermediaires. Nous avons aussi considere un terme d'anisotropie magnetique qui a comme effet la reduction de la portee des interactions dipolaires. La derniere partie de ce travail est dediee a une etude en temperature (monte carlo) de ces systemes de particules. Une transition de gel dynamique est observee comme a resultat de l'evaluation du parametre d'ordre d'edwards anderson pour notre modele ainsi que nombreux etats metastables sont possibles a basse temperature. Ces signatures, neanmoins, ne nous permettent pas d'affirmer l'existence d'une transition du type verre de spins
APA, Harvard, Vancouver, ISO, and other styles
37

Wysoczanski, Dariusz. "Diffusion multiple de la lumière : application à l'orientation de fibres dans des matériaux composites." Rouen, 1996. http://www.theses.fr/1996ROUES044.

Full text
Abstract:
Ce mémoire décrit, tant sur le plan de la simulation que sur le mode expérimental, une méthode optique de détermination de l'orientation des fibres contenues dans un matériau composite. La théorie de base de la diffusion simple et multiple de la lumière par un cylindre et un ensemble de cylindres ainsi que les résultats de simulation numérique sont présentés. Les résultats de mesures expérimentaux sont obtenus avec un prototype d'acquisition et de traitement des images de diffusion de la lumière.
APA, Harvard, Vancouver, ISO, and other styles
38

Ghazisaeidi, Amirhossein. "Advanced Numerical Techniques for Design and Optimization of Optical Links Employing Nonlinear Semiconductor Optical Amplifiers." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/27541/27541.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Fruchard, Nicolas. "L'allumage dans les moteurs à essence. Une modélisation et des applications." Rouen, 1995. http://www.theses.fr/1995ROUES053.

Full text
Abstract:
Ce travail présente un modèle d'allumage d'un milieu turbulent dans lequel le carburant et l'air sont préalablement parfaitement mélangés. Les conditions initiales retenues sont proches de celles rencontrées dans les moteurs à allumage commandé. Le temps caractéristique de la turbulence et la durée de l'allumage ainsi que l'échelle de la turbulence et l'espace entre les électrodes sont sensiblement du même ordre de grandeur. Il y aura alors de fortes interactions entre la turbulence, la chimie et l'apport d'énergie. Elles seront étudiées par une approche basée sur les fonctions de densité de probabilité (PDF). L'équation d'évolution de la PDF des variables thermochimiques, concentration et enthalpie, est résolue par une méthode de Monte-Carlo. Tout d'abord quelques rappels généraux sur l'allumage et la formation de la flamme, l'aérothermochimie et l'approche fonction de densité de probabilité sont exposés. Le mémoire présente ensuite un modèle d'allumage et son comportement vis-à-vis des variations de turbulence, de conditions thermodynamiques initiales et d'énergie fournie au mélange. Un couplage de ce modèle à un code de calcul utilisé pour les simulations de l'aérodynamique interne et de la combustion dans les moteurs à allumage commandé constitue un des buts de ce travail. Il est donc exposé, ainsi qu'une première application dans une bombe à volume constant dans laquelle règne une turbulence homogène et isotrope. Les applications à un monocylindre nécessitent tout d'abord des données expérimentales complémentaires, telles que des mesures de turbulence au voisinage de la bougie et des mesures d'énergie d'allumage. Une fois ces mesures réalisées, des calculs complets sur plusieurs points de fonctionnement du moteur sont exposés.
APA, Harvard, Vancouver, ISO, and other styles
40

Lundberg, Johan. "On the Search for High-Energy Neutrinos : Analysis of data from AMANDA-II." Doctoral thesis, Uppsala University, Department of Physics and Astronomy, 2008. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-8906.

Full text
Abstract:

A search for a diffuse flux of cosmic neutrinos with energies in excess of 1014 eV was performed using two years of AMANDA-II data, collected in 2003 and 2004. A 20% evenly distributed sub-sample of experimental data was used to verify the detector description and the analysis cuts. A very good agreement between this 20% sample and the background simulations was observed. The analysis was optimised for discovery, to a relatively low price in limit setting power. The background estimate for the livetime of the examined 80% sample is 0.035 ± 68% events with an additional 41% systematical uncertainty.

The total neutrino flux needed for a 5σ discovery to be made with 50% probability was estimated to 3.4 ∙ 10-7 E-2 GeV s-1 sr-1 cm-2 equally distributed over the three flavours, taking statistical and systematic uncertainties in the background expectation and the signal efficiency into account. No experimental events survived the final discriminator cut. Hence, no ultra-high energy neutrino candidates were found in the examined sample. A 90% upper limit is placed on the total ultra-high energy neutrino flux at 2.8 ∙ 10-7 E-2 GeV s-1 sr-1 cm-2, taking both systematical and statistical uncertainties into account. The energy range in which 90% of the simulated E-2 signal is contained is 2.94 ∙ 1014 eV to 1.54 ∙ 1018 eV (central interval), assuming an equal distribution over the neutrino flavours at the Earth. The final acceptance is distributed as 48% electron neutrinos, 27% muon neutrinos, and 25% tau neutrinos.

A set of models for the production of neutrinos in active galactic nuclei that predict spectra deviating from E-2 was excluded.

APA, Harvard, Vancouver, ISO, and other styles
41

Wyant, Timothy Joseph. "Numerical study of error propagation in Monte Carlo depletion simulations." Thesis, Georgia Institute of Technology, 2012. http://hdl.handle.net/1853/44809.

Full text
Abstract:
Improving computer technology and the desire to more accurately model the heterogeneity of the nuclear reactor environment have made the use of Monte Carlo depletion codes more attractive in recent years, and feasible (if not practical) even for 3-D depletion simulation. However, in this case statistical uncertainty is combined with error propagating through the calculation from previous steps. In an effort to understand this error propagation, four test problems were developed to test error propagation in the fuel assembly and core domains. Three test cases modeled and tracked individual fuel pins in four 17x17 PWR fuel assemblies. A fourth problem modeled a well-characterized 330MWe nuclear reactor core. By changing the code's initial random number seed, the data produced by a series of 19 replica runs of each test case was used to investigate the true and apparent variance in k-eff, pin powers, and number densities of several isotopes. While this study does not intend to develop a predictive model for error propagation, it is hoped that its results can help to identify some common regularities in the behavior of uncertainty in several key parameters.
APA, Harvard, Vancouver, ISO, and other styles
42

Pit, Fabienne. "Modélisation du mélange pour la simulation d'écoulements réactifs turbulents : essais de modèles eulériens lagrangiens." Rouen, 1993. http://www.theses.fr/1993ROUE5020.

Full text
Abstract:
Ce travail porte sur la modélisation et la simulation d'écoulements réactifs turbulents à chimie non infiniment rapide par une fonction densité de probabilité conjointe. La résolution de l'équation d'évolution temporelle de la PDF conjointe analytiquement ou numériquement est très complexe. En fait, le problème est simplifié en intégrant cette équation dans l'espace des vitesses. On obtient ainsi une approche hybride probabiliste eulérienne lagrangienne. Une méthode de Monte-Carlo est utilisée ensuite, pour simuler cette équation. Dans cette équation, le phénomène de mélange a petite échelle doit être représenté par un modèle. La comparaison d'un nouveau modèle de mélange avec des modèles classiques d'échange avec la moyenne a été faite dans le cas d'une couche de mélange thermique et dans le cas d'une couche de mélange réactive. Les résultats des calculs sont encourageants. La possibilité de l'appliquer à des configurations industrielles complexes 2D axisymétrique (le bluff-body) et 3D (chambre de combustion dextre) est démontrée
APA, Harvard, Vancouver, ISO, and other styles
43

Sayed, Fatima. "Hollow Magnetic Nanoparticles : experimental and numerical studies." Thesis, Le Mans, 2016. http://www.theses.fr/2016LEMA1021/document.

Full text
Abstract:
Cette thèse concerne l'étude des propriétés structurales et magnétiques de nanoparticules magnétiques creuses (HMNPs), coquille et coquille/coquille. Les effets de surface sont exaltés de par la présence des surfaces interne et externe. L'étude expérimentale de HMNPs basée sur des mesures magnétiques et de spectrométrie Mössbauer du 57Fe a montré une structure magnétique complexe. Les HMNPs ayant une épaisseur ultrafine présentent une structure magnétique décrite par 2 sous-réseaux spero-magnétiques opposés, en plus de la présence d’un champ d'échange bias significatif. L'effet de la taille et de l'épaisseur des HMNPs a été également étudié. Les spectres Mössbauer obtenus sous champ magnétique montrent que la structure magnétique est fortement corrélée au rapport surface/volume. Ces résultats expérimentaux ont été confirmés par simulation Monte Carlo. Après optimisation du modèle, l’approche numérique montre d’abord que l'anisotropie de surface Ks gouverne le comportement magnétique des HMNPs et ensuite que la valeur critique de Ks nécessaire pour obtenir une configuration radiale (spike) diminue lorsque la taille des HMNPs augmente. L'étude numérique menée pour différentes tailles et épaisseurs de coquille, a permis de suivre leurs effets sur la structure magnétique des HMNPs. Par ailleurs, l'étude expéri-mentale menée sur des HMNPs shell/shell, montre que le désordre des spins et le champ d'échange bias deviennent plus importants lorsque les HMNPs sont recouvertes d’une coquille antiferromagnétique (NiO). De ces résultats, on peut déduire l'effet du désordre des spins sur les phénomènes d'échange bias dans un tel système
This thesis concerns the study of structural and magnetic properties of hollow magnetic nanoparticles (HMNPs), shell and shell/shell. These HMNPs present enhanced surface effects resulting from the presence of both inner and outer surface layers. The experimental investigation combining magne-tic measurements and 57Fe Mössbauer spectrometry of such HMNPs has revealed a complex spin magnetic structure. Small HMNPs with ultrathin thickness show highly disordered magnetic structure and the corresponding in-field hyperfine structure can be described by means of 2 speromagnetic antiferromagnetically coupled, in addition to the significant exchange bias phenomenon. The in-field Mössbauer study of the effect of size and thickness of HMNPs shows that the spin disorder is strongly correlated to the surface to volume ratio. Those experimental magnetic behaviors were confirmed using Monte Carlo simulation. Indeed, after improving the numeric model, it is concluded that surface anisotropy Ks has a dominant role in the magnetic behavior of HMNPs and the value of critical Ks necessary to obtain radial (spike) configuration decreases as the size of HMNPs increases, keeping the same thickness. The numeric study for different sizes and shell thicknesses allows the effect of these parameters on the spin structure of HMNPs to be followed. Then, the experi-mental study extended to shell/shell HMNPs indicates that the spin disorder is enhanced in HMNPs with antiferromagnetic shell (NiO) in addition to larger exchange bias field. From those results, one can try to deduce the effect of spin disorder on the exchange bias phenomena in such system
APA, Harvard, Vancouver, ISO, and other styles
44

Ma, Ping-nang, and 馬秉能. "Numerical exact simulations of actual-size bosonic optical lattice systems." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2009. http://hdl.handle.net/10722/210318.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Ma, Ping-nang. "Numerical exact simulations of actual-size bosonic optical lattice systems." Click to view the E-thesis via HKUTO, 2009. http://sunzi.lib.hku.hk/hkuto/record/B42841197.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Heiderich, Anne. "Diffusion multiple en milieu non linéaire ou anisotrope." Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10200.

Full text
Abstract:
Cette these est composee de trois parties: 1) une etude analytique de la retrodiffusion coherente de la lumiere en milieu desordonne et faiblement non lineaire: en utilisant une equation auto-consistante du type bethe-salpeter pour l'intensite moyenne, nous calculons le cone de retrodiffusion en milieu non lineaire. Le domaine de validite de la theorie est obtenu et discute. De plus, nous calculons le cone de retrodiffusion pour une couche mince non lineaire immergee dans un milieu lineaire. 2) une etude analytique du champ moyen dans des cristaux liquides en phase nematique orientee en presence des fluctuations thermiques de l'orientation des molecules (la solution de l'equation de dyson): l'operateur de masse en fonction du vecteur d'onde est calcule d'abord dans une approximation scalaire, puis pour un champ vectoriel. (seule sa partie imaginaire en fonction de la direction etait connue. ) l'influence des fluctuations a longue portee est discutee. Puis nous obtenons les lois de dispersion renormalisees, la longueur de diffusion, la fonction spectrale et le champ moyen. 3) une simulation numerique de type monte carlo de l'intensite moyenne dans ces materiaux (la solution de l'equation de bethe-salpeter): nous avons ecrit un code de simulation numerique de type monte carlo, afin d'etudier le transfert radiatif dans les nematiques. Celui-ci nous permet de simuler la polarisation de la lumiere en regime de diffusion multiple, le coefficient de transmission, le cone de retrodiffusion spacialement anisotrope, la distribution des temps de vol et le tenseur du coefficient de diffusion. Les resultats sont discutes et en partie compares avec un calcul analytique realise par van tiggelen
APA, Harvard, Vancouver, ISO, and other styles
47

David, Sylvain. "Capacités des réacteurs hybrides au plomb pour la production d'énergie et l'incinération avec multirecyclage des combustibles : évolution des paramètres physiques : radiotoxicités induites." Université Joseph Fourier (Grenoble), 1999. http://www.theses.fr/1999GRE10042.

Full text
Abstract:
Le concept des reacteurs sous-critiques pilotes par accelerateur (reacteurs hybrides), relance au debut des annees 90 par c. Rubbia et c. D. Bowman, permet d'ouvrir des voies nouvelles quant a la gestion des dechets nucleaires, qu'il s'agisse des dechets actuels ou de la production d'energie plus propre basee sur l'utilisation du cycle du thorium. Dans un premier temps, ce travail concerne l'etude des caracteristiques de la multiplication neutronique dans un cur de reacteur sous-critique et met en evidence les differences fondamentales existant avec les systemes critiques et les avantages qui en decoulent. Cette etude est liee aux series de mesures realisees a cadarache (experiences muse) dont les premiers resultats sont presentes. La sous-criticite d'un reacteur hybride rend ce systeme tres flexible, et permet d'envisager differentes utilisations, comme la production d'energie ou l'incineration de dechets. La deuxieme partie de ce travail concerne donc l'etude par simulation monte carlo, des capacites des systemes hybrides a spectre rapide et refroidis au plomb, a produire de l'energie en utilisant differents cycles de combustible (uranium et thorium), tout en assurant la regeneration de la matiere fissile et le maintien de la reactivite sans intervention exterieure. Nous envisageons differents types de multirecyclage du combustible. Les resultats permettent de quantifier les avantages lies a l'utilisation de la filiere thorium, en terme de reduction de radiotoxicite notamment. L'etude des phases transitoires necessaires pour aboutir a cette filiere a partir des combustibles actuels (plutonium issu des reacteurs thermiques et uranium enrichi) propose une gestion efficace des actinides produits par les reacteurs actuels en tant que matiere fissile d'appoint. Enfin, l'incineration des actinides en fin de cycle (scenario d'arret de la filiere) est envisagee et permet de decrire les avantages des systemes hybrides refroidis au plomb pour la reduction de la radiotoxicite d'un inventaire en fin de cycle.
APA, Harvard, Vancouver, ISO, and other styles
48

Calvat, Pascal. "Mesure des observables de polarisation dans la photoproduction des mésons pseudoscalaires à GRAAL : préparation des programmes d'analyse et premiers résultats expérimentaux." Grenoble 1, 1997. http://www.theses.fr/1997GRE10005.

Full text
Abstract:
L'experience de physique nucleaire graal installee a grenoble aupres du synchroton europeen (esrf) produit, par retrodiffusion compton, un faisceau de gammas polarises lineairement ou circulairement. Les caracteristiques d'un tel faisceau rendent possible l'etude des reactions de photoproduction de mesons pseudoscalaires (pion, eta, kaon) dont certains aspects theoriques sont explicites dans le cadre de cette these. Une description precise des programmes d'analyse permet de comprendre le traitement complet des informations depuis l'acquisition des donnees jusqu'a la presentation des resultats preliminaires sur l'asymetrie du faisceau pour les reactions de photoproduction du pion et du eta dans le domaine d'energie situe entre 700 et 1100 mev. Des methodes d'extraction des observables de polarisation de la reaction de photoproduction d'un kaon, associe a un lambda, ont ete mises au point a partir de la simulation monte-carlo. La reproduction precise des trois observables de simple de polarisation ainsi que des quatre observables de double polarisations faisceau-recul, pour un ensemble de donnees simulees correspondant a 100000 reactions de photoproduction du kaon, montre que ces quantites peuvent etre mesurees dans l'experience graal
APA, Harvard, Vancouver, ISO, and other styles
49

Storey, Marianne. "Effect of disorder on the melting phase transition." Thesis, Imperial College London, 1999. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.322000.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Finke, Justin David. "Monte Carlo/Fokker-Planck simulations of Accretion Phenomena and Optical Spectra of BL Lacertae Objects." Ohio University / OhioLINK, 2007. http://rave.ohiolink.edu/etdc/view?acc_num=ohiou1181833339.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography