Dissertations / Theses on the topic 'Monte Carlo propagation'

To see the other types of publications on this topic, follow the link: Monte Carlo propagation.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Monte Carlo propagation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Wyant, Timothy Joseph. "Numerical study of error propagation in Monte Carlo depletion simulations." Thesis, Georgia Institute of Technology, 2012. http://hdl.handle.net/1853/44809.

Full text
Abstract:
Improving computer technology and the desire to more accurately model the heterogeneity of the nuclear reactor environment have made the use of Monte Carlo depletion codes more attractive in recent years, and feasible (if not practical) even for 3-D depletion simulation. However, in this case statistical uncertainty is combined with error propagating through the calculation from previous steps. In an effort to understand this error propagation, four test problems were developed to test error propagation in the fuel assembly and core domains. Three test cases modeled and tracked individual fuel pins in four 17x17 PWR fuel assemblies. A fourth problem modeled a well-characterized 330MWe nuclear reactor core. By changing the code's initial random number seed, the data produced by a series of 19 replica runs of each test case was used to investigate the true and apparent variance in k-eff, pin powers, and number densities of several isotopes. While this study does not intend to develop a predictive model for error propagation, it is hoped that its results can help to identify some common regularities in the behavior of uncertainty in several key parameters.
APA, Harvard, Vancouver, ISO, and other styles
2

Al-Barwani, Hamdi. "Propagation of fronts with gradient and curvature dependent velocities." Thesis, Loughborough University, 1996. https://dspace.lboro.ac.uk/2134/10341.

Full text
Abstract:
The thesis considers and examines methods of surface propagation, where the normal velocity of the surface depends on the local curvature and the gradient of the surface. Such fronts occur in many different physical situations from the growth of crystals to the spreading of flames. A number of different methods are considered to find solutions to these physical problems. First the motion is modelled by partial differential equations and numerical methods are developed for solving these equations. The numerical methods involve characteristic, finite differences and transformation of the equations. Stability of the solutions is also briefly considered. Secondly the fronts are modelled by using a cellular approach which subdivides space into regions of small cells. The fronts are assumed to propagate through the region according to stochastic rules. Monte-Carlo simulations are carried out using this approach. Results of the simulations are carried out in two-dimensions and three-dimensions for a number of interesting physical examples.
APA, Harvard, Vancouver, ISO, and other styles
3

Tinet, Eric. "Mise au point de méthodes de Monte Carlo performantes pour la simulation de la propagation des faisceaux lasers dans les milieux diffusants homogènes ou inhomomgènes : application à des problèmes liés aux méthodes de diagnostic biomedical." Paris 13, 1992. http://www.theses.fr/1992PA132032.

Full text
Abstract:
La propagation de la lumière dans les milieux diffusants est d'un grand intérêt dans de nombreux domaines tels que l'optique de l'atmosphère et des océans, les télécommunications, la biologie et la médecine. Cette propagation peut être mathématiquement décrite par l'équation du transport radiatif. Cependant, il n'existe pas de solution génerale à cette équation. Des solutions analytiques exactes ont été proposées pour des cas très particuliers et des méthodes approchées ont été construites dans d'autres cas. D'autre part, des méthodes numériques, les simulations de Monte Carlo, permettent d'apporter des solutions rigoureuses à l'équation du transport. Leur principal avantage réside dans leur possibilité de prendre en compte toute géometrie concernant la source et les detecteurs, ou encore les propriétés optiques du materiau diffusant. Cependant, à cause de leur aspect aleatoire, les simulations de Monte Carlo peuvent souffrir de plusieurs inconvenients: le temps de calcul s'allonge avec le degré de précision exigé, une grande quantité d'information intermédiaire calculée à chaque étape de la simulation n'est plus accessible à la fin du calcul, et le stockage des distributions d'energie finales demande des capacités de mémoire importantes. Notre travail présente une analyse détaillée de l'ensemble de ces problèmes. Dans une première partie nous rappelons les grandes lignes des solutions analytiques ou approchées de l'équation de transport radiatif et nous indiquons quelles sont leurs limites. Dans un deuxième temps nous exposons les diverses simulations de Monte Carlo que nous avons utilisées. En particulier nous avons mis au point un modèle tout à fait nouveau utilisant une simulation de Monte Carlo semi-analytique: dans ce modèle, l'incidence de chaque pas de la simulation est evaluée globalement et analytiquement de telle sorte que le nombre de pas necessaires est extremement réduit. De plus l'information générée à chaque pas est stockée et peut etre réutilisée a posteriori pour calculer toute grandeur utile liée au problème étudié sans avoir à faire la simulation. Ces simulations de Monte Carlo nous servent ensuite à préciser de façon fine les domaines de validité des méthodes de résolution analytiques exactes ou approchées de l'équation de transport radiatif. Enfin nous nous appliquons à montrer que nous disposons désormais d'un outil capable d'analyser avec précision des situations expérimentales rencontrées dans la mise au point de méthodes de diagnostic de milieux diffusants: fluorescence induite par laser, spectroscopie de réflectance résolue dans l'espace ou dans le temps. . .
APA, Harvard, Vancouver, ISO, and other styles
4

Prat, Jérome. "Mesure des propriétés optiques de milieux diffusants stratifiés par l'analyse de la rétrodiffusion d'impulsions infrarouges sub-picosecondes." Paris 13, 2002. http://www.theses.fr/2002PA132012.

Full text
Abstract:
Cette thèse dont l'objectif est de développer une nouvelle méthode de diagnostic médical, repose sur l'étude fondamentale de la propagation de la lumière dans un milieu diffusant connu (problème direct) et sur la mise au point de méthodes permettant d'extraire l'information contenue dans la lumière qui a traversé un milieu inconnu (problème inverse). Nous avons développé un nouveau modèle analytique permettant d'accélérer le calcul du problème direct dans la procédure d'optimisation utilisée dans le problème inverse pour simuler les résultats expérimentaux. Cette méthode a été validée avec des simulations numériques de Monte Carlo portant sur des milieux stratifiés. Les résultats obtenus sont très satisfaisants. Parallèlement à cette étude théorique, nous avons mis en oeuvre des expériences sur des milieux artificiels réalisés au laboratoire : des impulsions laser (100 fs) sont envoyées sur des milieux stratifiés se rapprochant des milieux biologiques et une caméra à balayage de fente permet de suivre l'évolution temporelle du signal rétrodiffusé. Ce détecteur s'est cependant révélé comme étant un instrument difficile à utiliser pour ce type d'applications : sa synchronisation et sa calibration sont délicates. De plus sa dynamique n'est pas très grande. Malgré tout, nous sommes parvenus à obtenir des résultats corrects sur des milieux semi-infinis ainsi que sur des milieux à deux couches. En conclusion, nous avons démontré que l'étude du comportement spatio-temporel de la lumière rétrodiffusée par des milieux diffusants stratifiés permettait d'extraire des paramètres importants pour le diagnostic médical tels que l'épaisseur des couches, les coefficients d'absorption ou /et de diffusion. Une méthode expérimentale plus souple et plus prometteuse, devra cependant être substituée à celle que nous avons étudiée. Le "balayage de cohérence" récemment mis en oeuvre au laboratoire apportera peut être une solution à ce problème.
APA, Harvard, Vancouver, ISO, and other styles
5

Bruns, Morgan Chase. "Propagation of Imprecise Probabilities through Black Box Models." Thesis, Georgia Institute of Technology, 2006. http://hdl.handle.net/1853/10553.

Full text
Abstract:
From the decision-based design perspective, decision making is the critical element of the design process. All practical decision making occurs under some degree of uncertainty. Subjective expected utility theory is a well-established method for decision making under uncertainty; however, it assumes that the DM can express his or her beliefs as precise probability distributions. For many reasons, both practical and theoretical, it can be beneficial to relax this assumption of precision. One possible means for avoiding this assumption is the use of imprecise probabilities. Imprecise probabilities are more expressive of uncertainty than precise probabilities, but they are also more computationally cumbersome. Probability Bounds Analysis (PBA) is a compromise between the expressivity of imprecise probabilities and the computational ease of modeling beliefs with precise probabilities. In order for PBA to be implemented in engineering design, it is necessary to develop appropriate computational methods for propagating probability boxes (p-boxes) through black box engineering models. This thesis examines the range of applicability of current methods for p-box propagation and proposes three alternative methods. These methods are applied towards the solution of three successively complex numerical examples.
APA, Harvard, Vancouver, ISO, and other styles
6

Briton, Jean-Philippe. "Simulations numériques de la diffusion multiple de la lumière par une méthode de Monte-Carlo et applications." Rouen, 1989. http://www.theses.fr/1989ROUES040.

Full text
Abstract:
Ce mémoire décrit une approche de la diffusion multiple de la lumière à l'aide d'une méthode de Monte-Carlo. Après une description générale de la diffusion de la lumière et des méthodes de Monte-Carlo, les caractéristiques de la modélisation élaborée sont données. Le code de calcul réalisé est validé par rapport à la théorie développée par Van de Hulst et par rapport aux expériences publiées par Bruscaglioni et al. La validité du code assurée, il a permis d'étudier le modèle à 4-flux qui est un modèle simplifié pour la diffusion multiple. Ces travaux permettent d'avoir un mode d'emploi de ce modèle. Enfin, le chapitre 6 décrit une application du code aux problèmes de visibilité routière
APA, Harvard, Vancouver, ISO, and other styles
7

Rousseau, Marie. "Propagation d'incertitudes et analyse de sensibilité pour la modélisation de l'infiltration et de l'érosion." Phd thesis, Université Paris-Est, 2012. http://pastel.archives-ouvertes.fr/pastel-00788360.

Full text
Abstract:
Nous étudions la propagation et la quantification d'incertitudes paramétriques au travers de modèles hydrologiques pour la simulation des processus d'infiltration et d'érosion en présence de pluie et/ou de ruissellement. Les paramètres incertains sont décrits dans un cadre probabiliste comme des variables aléatoires indépendantes dont la fonction de densité de probabilité est connue. Cette modélisation probabiliste s'appuie sur une revue bibliographique permettant de cerner les plages de variations des paramètres. L'analyse statistique se fait par échantillonage Monte Carlo et par développements en polynômes de chaos. Nos travaux ont pour but de quantifier les incertitudes sur les principales sorties du modèle et de hiérarchiser l'influence des paramètres d'entrée sur la variabilité de ces sorties par une analyse de sensibilité globale. La première application concerne les effets de la variabilité et de la spatialisation de la conductivité hydraulique à saturation du sol dans le modèle d'infiltration de Green--Ampt pour diverses échelles spatiales et temporelles. Notre principale conclusion concerne l'importance de l'état de saturation du sol. La deuxième application porte sur le modèle d'érosion de Hairsine--Rose. Une des conclusions est que les interactions paramétriques sont peu significatives dans le modèle de détachement par la pluie mais s'avèrent importantes dans le modèle de détachement par le ruissellement
APA, Harvard, Vancouver, ISO, and other styles
8

Nezvanov, Aleksandr. "Particularités de l'interaction et de la propagation de neutrons à basse énergie dans des milieux nano-dispersés (l'exemple de la nano-poudre de diamant)." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAY069/document.

Full text
Abstract:
Le but de cette étude est de développer un modèle quantitatif pour l’interaction et la propagation des neutrons de faible énergie dans les milieux nanodispersés (en utilisant la nanopoudre de diamant comme exemple), qui prend en compte l’influence de la densité moyenne nanodispersée sur les processus de la propagation et la diffusion des neutrons à basse énergie, et les informations sur la structure d'une nanopoudre de diamant.L'urgence du problème à résoudre est due au manque d'informations sur la complétude des concepts des systèmes étudiés, sur les mécanismes d'interaction des neutrons de basse énergie avec les matériaux nanostructurés, sur les caractéristiques des propriétés de la structure des nanodispersés. médias, sur l'évolution des systèmes nanodispersés sous l'influence des rayonnements. Le développement du modèle quantitatif proposé est nécessaire pour l'évaluation qualitative et l'interprétation de diverses données expérimentales. L’élaboration d’un modèle quantitatif et de méthodes de calcul quantitatif de l’interaction et de la propagation des neutrons de faible énergie dans les milieux nanodispersés permettra d’interpréter des données expérimentales indépendantes dans le cadre de concepts unifiés et de réduire considérablement la quantité de paramètres empiriques. interprétation quantitative des résultats expérimentaux.L'auteur recommande d'utiliser le modèle quantitatif proposé et l'ensemble de programmes informatiques conçus pour les estimations qualitatives et quantitatives et l'interprétation de divers résultats expérimentaux, ainsi que pour des calculs quantitatifs préliminaires au stade de la planification de l'expérience.La thèse consiste en une introduction, quatre chapitres, une bibliographie et des conclusions.Le premier chapitre présente les résultats de la recherche sur le niveau de développement technique mondial actuel des nanotechnologies nucléaires. Il est à noter qu’à l’heure actuelle, les nanotechnologies nucléaires sont au stade de la recherche universitaire fondamentale et exploratoire, principalement axée sur l’extraction et l’accumulation de nouvelles connaissances.Le deuxième chapitre propose un modèle pour la propagation des neutrons à faible énergie dans un milieu nanodispersé. Une expression est obtenue pour l'équation de transfert de neutrons dans la forme de diffusion, c'est-à-dire l'équation de type Boltzmann. Les conditions aux limites sont analysées et établies pour l'équation du transfert de neutrons dans l'approximation de diffusion, en tenant compte des processus cohérents et incohérents d'interaction des neutrons avec le matériau. La méthode variationnelle permet une solution analytique de l'équation de transfert pour la fonction de distribution des neutrons dans l'approximation de la diffusion des neutrons aux petits angles par les nanoparticules dans la poudre. Les données expérimentales permettent de développer un modèle de nanopoudre de diamant à utiliser dans les calculs.Le troisième chapitre décrit la conception d'un algorithme de simulation numérique du transfert de neutrons dans une nanopoudre de diamant. Les calculs de modèle de la section efficace pour la diffusion élastique cohérente des neutrons par les nanoparticules sphériques sont effectués: 1) calculs quantiques précis par la méthode de la fonction de phase; 2) calculs dans l'approximation de Born. À titre de référence, nous décrivons brièvement des méthodes standard pour simuler des valeurs aléatoires d'angles de diffusion et des transformations de systèmes de coordonnées dans une méthode de Monte Carlo par ordinateur pour simuler la propagation des neutrons en nanopoudre.Le quatrième chapitre présente les résultats des calculs numériques effectués après le modèle quantitatif suggéré. Les résultats des calculs numériques sont analysés et comparés avec des données expérimentales. La comparaison montre un accord satisfaisant de calculs avec les données d'expériences indépendantes
The aim of the present study is to develop a quantitative model for the interaction and propagation of low-energy neutrons in nanodispersed media (using the diamond nanopowder as an example), which takes into account the influence of the nanodispersed medium density on the processes of propagation and scattering of low-energy neutrons, and the information about the structure of a diamond nanopowder.The urgency of the problem being solved is due to the lack of information about the completeness of the concepts of the systems under study, about the mechanisms of interaction of low energy neutrons with nanostructured materials, about the features of the properties of the structure of nanodispersed media, about the evolution of nanodispersed systems under the influence of radiation. The development of the proposed quantitative model is necessary for qualitative evaluation and interpretation of various experimental data. The development of a quantitative model and methods for the quantitative calculation of the interaction and propagation of low-energy neutrons in nanodispersed media will allow to interpret independent experimental data within the frames of unified concepts, and will significantly reduce the amount of empirical parameters in the quantitative interpretation of experimental results.The author recommends using the proposed quantitative model and the designed set of computer programs for qualitative and quantitative estimates and interpretation of various experimental results, and for preliminary quantitative calculations at the stage of experiment planning.The thesis consists of an introduction, four chapters, a bibliography and conclusions.The first chapter presents the results of the research into the level of current global technical development of nuclear nanotechnologies. It is noted that at present, the nuclear nanotechnologies are at the stage of fundamental and exploratory academic research, predominantly focused on the extraction and accumulation of new knowledge.The second chapter suggests a model for the propagation of low-energy neutrons in a nanodispersed medium. An expression is obtained for the neutron transfer equation in the diffusion form, i.e. Boltzmann type equation. The boundary conditions are analyzed and established for the neutron transfer equation in the diffusion approximation, accounting for coherent and incoherent processes of neutron interaction with the material. The variational method enables an analytical solution of the transfer equation for the neutron distribution function in the approximation of small angle neutron scattering by nanoparticles in the powder. The experimental data allows to develop a model of diamond nanopowder, which is to be used in calculations.The third chapter describes the design of an algorithm for numerical simulation of neutron transfer in a diamond nanopowder. Model calculations of the cross section for elastic coherent scattering of neutrons by spherical nanoparticles are carried out: 1) precise quantum-mechanical calculations by the phase-function method; 2) calculations in the Born approximation. For reference, we briefly describe standard methods for simulating random values of scattering angles and transformations of coordinate systems in computer Monte Carlo method simulation of neutron propagation in nanopowder.The fourth chapter presents the results of numerical calculations carried out after the suggested quantitative model. The results of numerical calculations are analyzed and compared with experimental data. The comparison shows a satisfactory agreement of calculations with the data of independent experiments
APA, Harvard, Vancouver, ISO, and other styles
9

ARBEY, RAZATOVO MARIE-EMMA. "Filiere cmos 0,1 m sur substrat soi : etude du temps de propagation de l'inverseur par simulation particulaire monte carlo." Paris 11, 1998. http://www.theses.fr/1998PA112341.

Full text
Abstract:
Ce memoire est consacre a l'etude du temps de propagation t#d d'un inverseur cmos 0,1 m sur substrat soi et a sa mise en equation sous forme d'une expression analytique simple. Habituellement, des modeles analytiques sont developpes pour decrire le comportement dynamique d'un circuit en technologie cmos et ainsi exprimer t#d en fonction des parametres electriques du circuit. Les expressions ainsi mises au point pour l'inverseur cmos ont ete generalement validees dans le cas de grilles longues, a partir de simulateurs electriques. Dans notre etude de transistors submicroniques, nous nous sommes affranchis des modeles en utilisant un simulateur physique base sur la methode particulaire monte carlo pour decrire le transport des porteurs. Un tel simulateur nous permet de tenir compte de phenomenes transitoires ainsi que des effets de canal court et de survitesse qui ne sont plus negligeables dans un transistor de faible longueur de grille. Le premier chapitre rappelle les principales caracteristiques electriques d'une famille logique et le fonctionnement du mosfet en vue d'une utilisation en logique cmos. Le deuxieme chapitre commence par une description des phenomenes perturbant ou limitant le fonctionnement des mosfet lorsqu'on en reduit les dimensions. Cela nous permet d'introduire l'interet potentiel des architectures soi pour les futures generations cmos. Dans une deuxieme partie, les resultats de simulations monte carlo soulignent l'interet d'une architecture a source et drain sureleves pour ameliorer le comportement d'ensemble du mosfet. C'est dans le troisieme chapitre qu'est etudie l'inverseur cmos/soi, a l'aide de simulations monte carlo. Cette etude consiste a etablir une expression phenomenologique simple permettant de predire son temps de propagation, sous forme de combinaison lineaire des constantes de temps du circuit. Nous etudions d'abord la reponse a un echelon de tension d'entree puis le cas plus general et plus realiste de la reponse a une rampe.
APA, Harvard, Vancouver, ISO, and other styles
10

Lavigne, Claire. "Étude théorique et expérimentale de la propagation du rayonnement UV dans la basse atmosphère." Rouen, 2001. http://www.theses.fr/2001ROUES042.

Full text
Abstract:
Dans l'atmosphère, les sources ponctuelles sont entourées d'un halo dû à la diffusion par les particules et les molécules. Sous certaines conditions météorologiques, le champ de luminance provenant de ce halo peut devenir une part non négligeable du signal détecté par un instrument grand champ. Il apparaît donc nécessaire de le caractériser correctement. Dans ce cadre, nous avons développé un code de calcul basé sur une méthode Monte Carlo, permettant de modéliser la propagation du rayonnement UV issu d'une source ponctuelle. Une étude bibliographique sur les propriétés optiques et les statistiques de concentration des différentes espèces absorbant et diffusant dans le domaine spectral considéré a également été menée. Elle a permis de définir les données d'entrée du code. La validation du modèle mis au point a été effectuée par comparaison avec des expériences. En raison de la faiblesse des signaux à détecter, la technique de comptage de photons s'est avérée être la mieux adaptée. Afin de préparer la campagne de mesures de validation, un travail de caractérisation approfondi en laboratoire a été entrepris sur des photomultiplicateurs et un imageur à comptage de photons. Finalement, les résultats issus des expériences réalisées en extérieur et ceux provenant du code Monte Carlo ont été comparés et un très bon accord entre ces différentes données a pu être observé.
APA, Harvard, Vancouver, ISO, and other styles
11

Maughan, Nichole Millward. "Simulation of 810 nm Light Propagation Through the Human Finger for Non-Invasive Blood Analysis." BYU ScholarsArchive, 2013. https://scholarsarchive.byu.edu/etd/3707.

Full text
Abstract:
Non-invasive blood analysis devices that can measure characteristics less prominent than the oxygenation of hemoglobin are of interest in the medical community. An important step in creating these devices is to model the interaction of photons with human tissue in increasingly greater physiological detail. We have modeled, using a Monte Carlo technique, the interaction of photons through epidermis, blood and water arranged both in layers and in a homogeneous mixture. We confirm the expected linear relation between photon attenuation and material volumetric percentage in our two-layer models. We discovered that this relationship becomes non-linear in the homogeneously mixed models where volumetric percentage must be replaced with interaction volume percentage. These nonlinearities become significant when the values of the interaction coefficient, µt, differ by an order of magnitude or more and could prove crucial in accurately reading oxygenation or other constituents in the blood and also in modeling radiation delivered to a patient in photodynamic therapy.
APA, Harvard, Vancouver, ISO, and other styles
12

Sahlberg, Arne. "Ensemble for Deterministic Sampling with positive weights : Uncertainty quantification with deterministically chosen samples." Thesis, Uppsala universitet, Tillämpad kärnfysik, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-297314.

Full text
Abstract:
Knowing the uncertainty of a calculated result is always important, but especially so when performing calculations for safety analysis. A traditional way of propagating the uncertainty of input parameters is Monte Carlo (MC) methods. A quicker alternative to MC, especially useful when computations are heavy, is Deterministic Sampling (DS). DS works by hand-picking a small set of samples, rather than randomizing a large set as in MC methods. The samples and its corresponding weights are chosen to represent the uncertainty one wants to propagate by encoding the first few statistical moments of the parameters' distributions. Finding a suitable ensemble for DS in not easy, however. Given a large enough set of samples, one can always calculate weights to encode the first couple of moments, but there is good reason to want an ensemble with only positive weights. How to choose the ensemble for DS so that all weights are positive is the problem investigated in this project. Several methods for generating such ensembles have been derived, and an algorithm for calculating weights while forcing them to be positive has been found. The methods and generated ensembles have been tested for use in uncertainty propagation in many different cases and the ensemble sizes have been compared. In general, encoding two or four moments in an ensemble seems to be enough to get a good result for the propagated mean value and standard deviation. Regarding size, the most favorable case is when the parameters are independent and have symmetrical distributions. In short, DS can work as a quicker alternative to MC methods in uncertainty propagation as well as in other applications.
APA, Harvard, Vancouver, ISO, and other styles
13

Florent, Jean-Jacques. "Contribution à l'étude du mode SQS : développement d'un prototype de chambre à localisation : mécanisme de propagation du streamer." Paris 11, 1989. http://www.theses.fr/1989PA112295.

Full text
Abstract:
Ce travail est une contribution à l'étude des détecteurs gazeux fonctionnant en mode "Self-Quenching Streamer" (SQS). La première partie présente la réalisation d'un prototype développé pour la localisation des particules légères derrière un spectromètre, et les résultats obtenus. Le prototype est une chambre multifils à lecture cathodique, fonctionnant avec un mélange Argon-Ethane. La distribution des charges induites sur les cathodes est étudiée. Nous montrons que dans un domaine de tension la réponse du détecteur varie suffisamment lentement pour qu'une efficacité de 100% puisse être atteinte avec des particules de Z = 1 ou 2. La résolution spatiale intrinsèque est compatible avec 200p. M. Les facteurs déterminant la qualité de la linéarité différentielle sont évalués. La deuxième partie du travail est consacrée à la discussion des mécanismes de propagation du streamer. Plusieurs programmes de calcul numériques ont été développés à cet effet:- Un programme de Monte-Carlo simulant l'évolution d'une population d'électrons dans un champ constant ou lors d'une avalanche, intégrant les phénomènes de collision dans le plasma. - Un programme de modélisation tenant compte du champ des charges produites au sein de la décharge. Les paramètres sont tirés d'observations expérimentales ou calculés par la simulation. La simulation permet l'interprétation des ordres de grandeur très différents de vitesse de dérive observés selon la nature des mélanges gazeux, et l'estimation des taux de production des photons UV dans l'avalanche primaire. La modélisation de la décharge permet de proposer un critère régissant la transition vers le mode. La description dynamique de l'évolution du streamer pendant les premières 20ns, explique plusieurs phénomènes caractéristiques. Un modèle microscopique de propagation du streamer est proposé
This work is a study of the Self-Quenching Streamer mode in gaseous detectors. The set-up of a prototype devoted to the localization of light particles in the focal plane of a spectrometer and the experimental results are presented in the first part. The prototype is a cathode read-out multiwire chamber with an Argon-Ethane mixture. The cathode charge distribution is studied. We confirm that the SQS mode is not saturated, but for an adequate choice of the high voltage, we find that the dynamics of the pulses is sufficiently limited to allow 100% efficiency with Z = 1 or 2 particles. The intrinsic spatial resolution is about 200 micrometers. We evaluate the factors contributing to the differential linearity. In the second part, we discuss the streamer propagation mechanisms. Several numeric computation programs were written for this purpose, the most important being:- A Monte-Carlo program simulates the evolution of an electron population in a constant field or during an avalanche taking into account the collisions inside the plasma. - A program is based on a phenomenological model describing the space charge field which governs the streamer propagation starting with experimental or calculated parameters. The first allows the interpretation of the very large dependence of drift velocities on the composition of the gas mixture, and an estimation of the production rates of UV photons in the primary avalanche. With the second we propose a criterion for the transition to SQS mode. A dynamical description of the behavior of the streamer during the first twenty nanoseconds explains some of the experimental observations. A microscopie mode for the streamer propagation is proposed
APA, Harvard, Vancouver, ISO, and other styles
14

Bendenia, Mohamed. "Étude de la propagation des ondes électromagnétiques, millimétriques et sub-millimétriques, dans un milieu turbulent et conditions de réception." Toulouse, ENSAE, 1990. http://www.theses.fr/1990ESAE0009.

Full text
Abstract:
Dans le domaine de la propagation des ondes électromagnétiques en milieu turbulent les méthodes analytiques existantes ne s'appliquent pas, d'un point de vue théorique, aux ondes submillimétriques et millimétriques. Par une simulation de Monté Carlo basée sur la théorie du transfert du rayonnement, les résultats obtenus, pour une onde plane, afférents à la dépolarisation, la rétrodiffusion et la fonction de cohérence permettent d'une part d'étendre la validité de ces méthodes analytiques aux ondes submillimétriques et millimétriques et d'autre part de dégager des conditions optimales de réception.
APA, Harvard, Vancouver, ISO, and other styles
15

Varet, Suzanne. "Développement de méthodes statistiques pour la prédiction d'un gabarit de signature infrarouge." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00511385.

Full text
Abstract:
Dans le but de fournir un outil pour le dimensionnement de capteurs optroniques, nous souhaitons estimer la probabilité que, pour un scénario fixé, la signature infrarouge (SIR) d'un aéronef dans son environnement soit inférieure à un certain seuil. Cette estimation se ramène à l'estimation de l'intégrale d'une fonction h en grande dimension, dont la forme n'est pas précisément connue. La solution envisagée consiste à utiliser la méthode quasi-Monte Carlo (QMC). Toutefois, la précision de cet estimateur se dégrade lorsque la dimension augmente. L'objectif de la thèse est de développer une méthode pour réduire la dimension qui soit adaptée aux caractéristiques des variables d'entrée du code de calcul de SIR, puis d'utiliser l'information obtenue lors de la réduction de dimension pour améliorer la qualité de l'estimateur QMC. Les approches usuelles de réduction de dimension nécessitent des hypothèses qui sont irréalistes dans le cas de la SIR. Nous avons donc proposé une nouvelle méthode, dont les hypothèses de validité sont moins contraignantes. Après avoir réduit la dimension, il est possible d'appliquer la méthode QMC en fixant les variables non influentes à une valeur quelconque. Cependant, les suites de points utilisées dans le cadre de la méthode QMC, quoique bien réparties dans l'espace, présentent des irrégularités de répartition sur les projections. Nous avons donc adapté la discrépance L2*-pondérée de manière à pouvoir juger l'adéquation d'une suite à la fonction d'intérêt h. Par la suite nous avons mis au point un algorithme visant à construire une suite de points optimisant au mieux ce critère, dans le but de minimiser l'erreur d'intégration.
APA, Harvard, Vancouver, ISO, and other styles
16

Brizard, Matthieu. "Développement et étude d'un viscosimètre absolu à chute de bille." Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00009440.

Full text
Abstract:
L'augmentation de l'incertitude tout au long de l'échelle de viscosité étant le principal inconvénient de la viscosimétrie capillaire, un viscosimètre absolu à chute de bille a été développé, qui permet de couvrir une large gamme de viscosité tout en gardant une faible incertitude. La mesure de viscosité repose alors sur la mesure de la vitesse limite de chute de la bille. Un banc expérimental a été développé afin d'atteindre une incertitude relative de l'ordre de 10-3. Il permet d'observer la trajectoire de la bille à l'intérieur d'un tube cylindrique rempli du liquide étudié et d'obtenir l'évolution de la vitesse. La caractérisation métrologique de ce banc expérimental est présentée en utilisant tout d'abord la loi de propagation des incertitudes et ensuite la simulation numérique de Monte-Carlo. Enfin, les mesures de viscosité et les incertitudes obtenues avec le viscosimètre à chute de bille sont confrontées à celles obtenues avec un viscosimètre capillaire.
APA, Harvard, Vancouver, ISO, and other styles
17

Alhassan, Erwin. "Nuclear data uncertainty quantification and data assimilation for a lead-cooled fast reactor : Using integral experiments for improved accuracy." Doctoral thesis, Uppsala universitet, Tillämpad kärnfysik, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-265502.

Full text
Abstract:
For the successful deployment of advanced nuclear systems and optimization of current reactor designs, high quality nuclear data are required. Before nuclear data can be used in applications they must first be evaluated, tested and validated against a set of integral experiments, and then converted into formats usable for applications. The evaluation process in the past was usually done by using differential experimental data which was then complemented with nuclear model calculations. This trend is fast changing due to the increase in computational power and tremendous improvements in nuclear reaction models over the last decade. Since these models have uncertain inputs, they are normally calibrated using experimental data. However, these experiments are themselves not exact. Therefore, the calculated quantities of model codes such as cross sections and angular distributions contain uncertainties. Since nuclear data are used in reactor transport codes as input for simulations, the output of transport codes contain uncertainties due to these data as well. Quantifying these uncertainties is important for setting safety margins; for providing confidence in the interpretation of results; and for deciding where additional efforts are needed to reduce these uncertainties. Also, regulatory bodies are now moving away from conservative evaluations to best estimate calculations that are accompanied by uncertainty evaluations. In this work, the Total Monte Carlo (TMC) method was applied to study the impact of nuclear data uncertainties from basic physics to macroscopic reactor parameters for the European Lead Cooled Training Reactor (ELECTRA). As part of the work, nuclear data uncertainties of actinides in the fuel, lead isotopes within the coolant, and some structural materials have been investigated. In the case of the lead coolant it was observed that the uncertainty in the keff and the coolant void worth (except in the case of 204Pb), were large, with the most significant contribution coming from 208Pb. New 208Pb and 206Pb random nuclear data libraries with realistic central values have been produced as part of this work. Also, a correlation based sensitivity method was used in this work, to determine parameter - cross section correlations for different isotopes and energy groups. Furthermore, an accept/reject method and a method of assigning file weights based on the likelihood function are proposed for uncertainty reduction using criticality benchmark experiments within the TMC method. It was observed from the study that a significant reduction in nuclear data uncertainty was obtained for some isotopes for ELECTRA after incorporating integral benchmark information. As a further objective of this thesis, a method for selecting benchmark for code validation for specific reactor applications was developed and applied to the ELECTRA reactor. Finally, a method for combining differential experiments and integral benchmark data for nuclear data adjustments is proposed and applied for the adjustment of neutron induced 208Pb nuclear data in the fast energy region.
APA, Harvard, Vancouver, ISO, and other styles
18

Climaco, de Melo Lara. "La Propagation des erreurs dans les modèles de croissance forestière dans un contexte de prévision à l'échelle régional." Thesis, Paris, AgroParisTech, 2018. http://www.theses.fr/2018AGPT0006.

Full text
Abstract:
Les modèles de croissance forestière à l’échelle de l’arbre fournissent des prévisions de la dynamique des forêts et permettent donc d’orienter la prise de décision. Malgré cette importance, les incertitudes qui sont associées à leurs prévisions sont rarement évaluées. Comprendre les sources de ces incertitudes et en estimer l’impact sont essentiels au moment où les prévisions à grande échelle gagnent en popularité. Cette thèse de doctorat traite de l’estimation des incertitudes des prévisions de la croissance à une échelle régionale. Les effets de perturbations à large échelle sont aussi traitées. Le modèle de croissance ARTEMIS-2009, qui s’applique aux principaux types forestiers du Québec, Canada, a été utilisé comme étude de cas. Un estimateur hybride de type bootstrap a été utilisé pour estimer les variances provenant du modèle et de l’échantillonnage. La variance totale des prévisions a aussi été décomposée afin de déterminer quel sous-modèle induisait la plus grande part de variabilité dans les prévisions. Ensuite, une approche d’analyse de durée de vie a été utilisée pour élaborer un modèle d’occurrence de récolte qui tienne compte de variables de placetteset de variables régionales. Ce modèle de récolte a été intégré à ARTEMIS de façon à pouvoir tenir en compte de l’effet de la récolte combinée aux épidémies de tordeuse des bourgeons de l’épinette (TBE). Après cela, la contribution des perturbations en termes d’incertitudes a été prise en considération dans les simulations. Les résultats ont révélé que l’échantillonnage représentait la plus grande partie de la variance des prévisions à court terme. Dans les prévisions à long terme, la contribution du modèle s’est révélée aussi importante que celle de l’échantillonnage. La décomposition de la variance par sous-modèle a indiqué que le sous-modèle de mortalité était celui qui induisait la plus grande variabilité dans les projections. Lorsque les perturbations ont été prises en compte dans les projections, l’incertitude associée aux prévisions augmentait fortement. En particulier, la TBE s’est révélée être la principale source d’incertitude devançant les activités de récolte et l’échantillonnage.En conclusion, notre recommandation est de concentrer les efforts pour réduirel’incertitude sur l’échantillonnage dans les prévisions à court terme, et sur le sous-modèle de mortalité et sur l’occurrence de la TBE dans les prévisions à moyen et àlong terme
In forestry, tree-level growth models provide predictions of forest dynamics andthereby, they support decision-making. Although they are widely used, the uncertainty of their predictions is rarely assessed. Understanding the sources of uncertainty and estimating their impact is an essential step forward in a period where large-scale forecasts are becoming more popular. This thesis addresses the issue of uncertainty estimation in regional growth forecasts. The effects of large-scale disturbances were also studied.The growth model ARTEMIS-2009, which applies to most forest types in Quebec,Canada, was taken as a case study. A bootstrap hybrid estimator was used toestimate the model- and the sampling-related variances. The total variance wasthen decomposed to determine which model component induced the greatest shareof variance in the forecasts. Then, the survival analysis approach was used to develop a harvest model based on plot and regional variables. This model was integrated into ARTEMIS so that harvesting combined with spruce budworm (SBW) outbreaks were accounted in the simulations. Then, their contributions in terms of uncertainty were estimated. The results revealed that the sampling accounted for most of the variance in short-term forecasts. In long-term forecasts, the model contribution turned out to be as important as that of the sampling. The variance decomposition per model component indicated that the mortality sub-model induced the highest variability in the forecasts. A great deal of uncertainty was induced by the natural disturbances when they were accounted for in the projections. In particular, SBW showed to be the most important source of uncertainty compared to harvest activities and sampling. In the light of these results, our recommendations are that the effort to reduce uncertainty should focus on the sampling in short-term forecasts, and on the mortality sub-model and SBW occurrence in mid- and long-term forecasts
APA, Harvard, Vancouver, ISO, and other styles
19

Bykov, A. (Alexander). "Experimental investigation and numerical simulation of laser light propagation in strongly scattering media with structural and dynamic inhomogeneities." Doctoral thesis, University of Oulu, 2010. http://urn.fi/urn:isbn:9789514261558.

Full text
Abstract:
Abstract Light scattering diagnostics of turbid media containing both structural and dynamic inhomogeneities is currently of significant importance. One of the important directions in modern light scattering diagnostics is the development of methods for probing biological media with visible- and near-infrared radiation allowing for visualization of the biotissue structure. Optical methods for studying the biotissue structure and characterization of its optical properties are very promising and have been rapidly developing during the past decade. The present work is aimed at improving and discovering new potentials of currently existing methods of laser diagnostics of biological tissues containing both structural and dynamic inhomogeneities. In particular, the feasibilities of spatially resolved reflectometry and time-of-flight techniques for the problem of noninvasive determination of glucose level in human blood and tissues were examined both numerically and experimentally. The relative sensitivities of these methods to changes in glucose level were estimated. Time-of-flight technique was found to be more sensitive. The possibilities of Doppler optical coherence tomography for imaging of dynamic inhomogeneities with high resolution were considered. This technique was applied for the first time for the imaging of complex autowave cellular motility and cytoplasm shuttle flow in the slime mold Physarum polycephalum. The effect of multiple scattering on the accuracy of the measured flow velocity profiles for the case of single flow and for the case of the flow embedded into the static medium with strong scattering was studied. It was shown that this effect causes significant distortion to the measured flow velocity profiles and it is necessary to take this into account while making quantitative measurements of flow velocities.
APA, Harvard, Vancouver, ISO, and other styles
20

Magnin, Vincent. "Contribution à l'étude et à l'optimisation de composants optoélectroniques." Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/50376-1998-327.PDF.

Full text
Abstract:
Dans cette these, nous presentons des outils de modelisation destines a l'etude des composants optoelectroniques et des methodes d'optimisation permettant d'en tirer encore plus de profit. Afin de modeliser differents composants optoelectroniques sur inp, nous avons mis au point un logiciel fonde sur la methode des faisceaux propages (bpm) afin d'etudier la propagation et l'absorption de la lumiere, et un modele hydrodynamique afin de modeliser leur comportement electronique. Nous avons realise une recherche bibliographique pour regrouper les donnees materiaux necessaires. Le premier composant que nous avons etudie et optimise est un phototransistor a heterojonction inp/ingaas pour les applications hyperfrequences. Nous avons expose son fonctionnement et montre ses possibilites et limites. Sa structure optique de type guide d'onde peut etre amelioree par l'ajout d'une couche de quaternaire. On peut envisager la realisation de phototransistors a double heterojonction pour les applications de puissance. Nous avons ensuite etudie des photodiodes pin-guide a tres fort coefficient de couplage et grande tolerance d'alignement. Differentes solutions ont ete envisagees. Nous avons montre l'interet des structures lentillees, comportant plusieurs couches de confinement d'indices optiques progressifs, et etudie leurs performances optiques et electriques. Pour optimiser ces structures, nous avons mis au point un algorithme monte carlo couple a une bpm-2d, qui permet de tester des milliers de structures aleatoires. Enfin, nous avons realise un algorithme genetique couple a une bpm-2d et avons montre son interet pour l'optimisation de composants optoelectroniques avec de nombreux parametres et des objectifs multiples. Ce type d'algorithme est fonde sur la theorie de l'evolution de darwin. Nous l'avons applique a l'optimisation de commutateurs optique a reflexion interne totale et de commutateurs cascade.
APA, Harvard, Vancouver, ISO, and other styles
21

Drissi, Mohamed. "Un modèle de propagation de feux de végétation à grande échelle." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4704.

Full text
Abstract:
Le présent travail est consacré au développement et à la validation d'un modèle hybride de propagation d'un incendie de végétation à grande échelle prenant en compte les hétérogénéités locales liées à la végétation, à la topographie du terrain et aux conditions météorologiques. Dans un premier temps, on présente différentes méthodes permettant de générer un réseau amorphe, représentatif d'une distribution réaliste de la végétation. Le modèle hybride est un modèle de réseau où les phénomènes qui se produisent à l'échelle macroscopique sont traités de façon déterministe, comme le préchauffage du site végétal provenant du rayonnement de la flamme et des braises et de la convection par les gaz chauds, mais aussi son refroidissement radiatif et son inflammation pilotée. Le rayonnement thermique provenant de la flamme est calculé en combinant le modèle de flamme solide à la méthode de Monte Carlo et en considérant son atténuation par la couche d'air atmosphérique entre la flamme et la végétation réceptive. Le modèle est ensuite appliqué à des configurations simples de propagation sur un terrain plat ou incliné, en présence ou non d'un vent constant. Les résultats obtenus sont en bon accord avec les données de la littérature. Une étude de sensibilité a été également menée permettant d'identifier les paramètres les plus influents du modèle, en termes de vitesse de propagation du feu, et de les hiérarchiser. La phase de validation a portée sur l'analyse comparative des contours de feux calculés par le modèle avec ceux mesurés lors d'un brûlage dirigé réalisé en Australie et d'un feu réel qui a lieu en Corse en 2009, montrant un très bon accord en termes de vitesse de propagation
The present work is devoted to the development of a hybrid model for predicting the rate of spread of wildland fires at a large scale, taking into account the local heterogeneities related to vegetation, topography, and meteorological conditions. Some methods for generating amorphous network, representative of real vegetation landscapes, are proposed. Mechanisms of heat transfer from the flame front to the virgin fuel are modeled: radiative preheating from the flame and embers, convective preheating from hot gases, radiative heat losses and piloted ignition of the receptive vegetation item. Flame radiation is calculated by combining the solid flame model with the Monte Carlo method and by taking into account its attenuation by the atmospheric layer between the flame and the receptive vegetation. The model is applied to simple configurations where the fire spreads on a flat or inclined terrain, with or without a constant wind. Model results are in good agreement with literature data. A sensitivity study is conducted to identify the most influential parameters of the model. Eventually, the model is validated by comparing predicted fire patterns with those obtained from a prescribed burning in Australia and from a historical fire that occurred in Corsica in 2009, showing a very good agreement in terms of fire patterns, rate of spread, and burned area
APA, Harvard, Vancouver, ISO, and other styles
22

Boripatkosol, Siriwan. "Contribution à l'étalonnage d'une machine à mesurer de très haute précision : mesure de rectitude et de planéité à un niveau d'incertitudes nanométriques." Phd thesis, Paris, ENSAM, 2010. http://pastel.archives-ouvertes.fr/pastel-00527789.

Full text
Abstract:
L'objet de ce travail est de proposer une étude métrologique visant à la maîtrise d'incertitudes de l'ordre de ±10 nanomètres sur une rectitude de longueur 300mm mesurée avec un pas constant. Une extension permet d'appliquer cette méthode au cas de la planéité. Le plan ainsi étalonné est destiné à constituer la référence verticale d'une table croisée de haute exactitude développée par le Laboratoire National de Métrologie et d'Essais. Une instrumentation basée sur une matrice carrée de 16 capteurs capacitifs distants de 20mm et une paire de niveaux électroniques a été développée. Les acquisitions sont réalisées avec un pas égal à la distance entre les capteurs. La redondance des mesures permet de séparer les défauts de mise en position du porte-capteur, les écarts de forme de l'élément à étalonner et les inconnues correspondantes à la connaissance des positions relatives des capteurs. La méthodologie proposée correspond à un processus dit de mesure par propagation. L'utilisation de l'hypothèse des petits déplacements conduit à la résolution d'un système linéaire surdéterminé. Nous montrons que le choix des unités des mesures provenant soit des indications des capteurs exprimées en unité de longueur soit des niveaux exprimés en unité d'angle a l'effet d'une pondération. C'est pourquoi nous mettons en œuvre une résolution au sens des moindres carrés pondérés. Nous étudions particulièrement les solutions dites extrêmes selon que les incertitudes des capteurs sont négligeables devant celles des niveaux ou réciproquement. Nous réalisons une étude métrologique du processus de mesure incluant la phase d'étalonnage sur la base d'un raccordement à un laser interférométrique. Nous simulons les incertitudes par une méthode de Monte-Carlo. Nous en déduisons deux méthodes conduisant à proposer une pondération optimale du système. Nous montrons une reproductibilité sur 10 acquisitions contenue dans une bande de ±5 nanomètres par rapport à la moyenne des profils mesurés.
APA, Harvard, Vancouver, ISO, and other styles
23

Lacombe, Céline. "Propagation des ondes élastiques dans la lithosphère hétérogène : modélisations et applications." Phd thesis, Grenoble 1, 2001. http://tel.archives-ouvertes.fr/tel-00759982.

Full text
Abstract:
Cette thèse a pour but d'évaluer l'hétérogénéité crustale et de comprendre son effet sur la propagation des ondes sismiques. Nous étudions l'énergie de la coda de sismograrnrnes courte période. Pour cela, nous simulons la propagation des ondes en milieu hétérogène en résolvant l'équation de transfert radiatif (ETR) par des méthodes Monte Carlo, La première partie de cette thèse est effectuée dans l'approximation acoustique. Nous résolvons l'ETR dans un milieu composé d'un guide d'ondes hétérogène (la croûte) et d'un demi espace transparent (le manteau). Ces simulations sont comparées aux observations de la coda de séismes régionaux français, Cette étude nous permet de définir un modèle simple pouvant expliquer l'atténuation des ondes Lg directes et de leur coda en temps et en distance. Nous montrons qu 'en France l'atténuation produite par les diffracteurs est de l'ordre de l'absorption anélastique, Dans un deuxième temps, nous étudions la possibilité d'imager un contraste latéral d 'hétérogénéité dans les volcans, Avec des simulations numériques, des analyses de données et des expériences en laboratoire, nous montrons qu'un contraste latéral d'hétérogénéité influence fortement la répartition spatio-temporelle de l'énergie de la coda. La seconde partie est consacrée à la diffusion multiple des ondes élastiques dans un milieu stratifié composé d'un guide d'onde hétérogène d'épaisseur H (croûte) et d'un demi espace homogène (manteau).Une étude de coda-Q montre que la fuite vers le manteau est gouvernée par le libre parcours moyen de transport. L , et cela même si L > > H . Nous montrons également que les valeurs de coda-Q obtenues sont, pour un L donné, identiques à celles mesurées en acoustique. Enfin, nous étudions le phénomène d'équipartition (stabilisation du rapport entre l'énergie des ondes S et P) . Nous montrons que la valeur de stabllisation du rapport dépend de l'anisotropie de scattering et de L.
APA, Harvard, Vancouver, ISO, and other styles
24

Messerly, Richard Alma. "How a Systematic Approach to Uncertainty Quantification Renders Molecular Simulation a Quantitative Tool in Predicting the Critical Constants for Large n-Alkanes." BYU ScholarsArchive, 2016. https://scholarsarchive.byu.edu/etd/6598.

Full text
Abstract:
Accurate thermophysical property data are crucial for designing efficient chemical processes. For this reason, the Design Institute for Physical Properties (DIPPR 801) provides evaluated experimental data and prediction of various thermophysical properties. The critical temperature (Tc), critical density (ρc), critical pressure (Pc), critical compressibility factor (Zc), and normal boiling point (Tb) are important constants to check for thermodynamic consistency and to estimate other properties. The n-alkane family is of primary interest because it is generally assumed that other families of compounds behave similarly to the n-alkane family with increasing chain-length. Unfortunately, due to thermal decomposition, experimental measurements of Tc, ρc, and Pc for large n-alkanes are scarce and potentially unreliable. For this reason, molecular simulation is an attractive alternative for estimating the critical constants. However, molecular simulation has often been viewed as a tool that is limited to providing qualitative insight. One key reason for this perceived weakness is the difficulty in quantifying the uncertainty of the simulation results. This research focuses on a systematic top-down approach to quantifying the uncertainty in Gibbs Ensemble Monte Carlo (GEMC) simulations for large n-alkanes. We implemented four different methods in order to obtain quantitatively reliable molecular simulation results. First, we followed a rigorous statistical analysis to assign the uncertainty of the critical constants when obtained from GEMC. Second, we developed an improved method for predicting Pc with the standard force field models in the literature. Third, we implemented an experimental design to reduce the uncertainty associated with Tc, ρc, Pc, and Zc. Finally, we quantified the uncertainty associated with the Lennard-Jones 12-6 potential parameters. This research demonstrates how uncertainty quantification renders molecular simulation a quantitative tool for thermophysical property evaluation. Specifically, by quantifying and reducing the uncertainty associated with molecular simulation results, we were able to discern between different experimental data sets and prediction models for the critical constants. In this regard, our results enabled the development of improved prediction models for Tc, ρc, Pc, and Zc for large n-alkanes. In addition, we developed a new Tb prediction model in order to ensure thermodynamic consistency between Tc, Pc, and Tb.
APA, Harvard, Vancouver, ISO, and other styles
25

Mossberg, Eva. "Some numerical and analytical methods for equations of wave propagation and kinetic theory." Doctoral thesis, Karlstad : Fakulty of Technology and Science, Mathematics, Karlstads universitet, 2008. http://urn.kb.se/resolve?urn=urn:nbn:se:kau:diva-1848.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Ung, Philippe. "Simulation numérique du transport sédimentaire : aspects déterministes et stochastiques." Thesis, Orléans, 2016. http://www.theses.fr/2016ORLE2019/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l'étude d'un modèle de transport de sédiments en nous plaçant sous deux angles d'approche différents. L'un concerne la modélisation numérique du problème et propose une méthode de résolution numérique basée sur un solveur de Riemann approché pour le système de Saint-Venant-Exner qui reste un des systèmes les plus répandus pour traiter le transport sédimentaire par charriage. Ce dernier repose sur un couplage du modèle hydraulique de Saint-Venant et du modèle morphodynamique d'Exner. Le point essentiel de la méthode proposée se situe au niveau du traitement du couplage de ce système. En effet, il existe deux stratégies; la première consiste à découpler la résolution de la partie fluide de la partie solide et les faire interagir à des instants donnés alors que la seconde considère une résolution couplée du système en mettant à jour conjointement les grandeurs hydrauliques et solides aux mêmes instants. Se posera alors la question du choix de la stratégie de résolution pour laquelle nous apporterons des éléments de réponses en comparant les deux approches. L'autre se concentre sur la mise en place d'une méthodologie pour l'étude des incertitudes liées au même modèle. Pour ce faire, nous proposons une formulation stochastique du système de Saint-Venant-Exner et nous cherchons à caractériser la variabilité des sorties par rapport aux paramètres d'entrée naturellement aléatoires. Cette première étude révélera la nécessité de revenir à un système de Saint-Venant avec un fond bruité pour étudier la sensibilité des grandeurs hydrauliques par rapport aux perturbations topographiques
In this thesis, we are interested on the study of a sediment transport model through two different approaches. One of them concerns the numerical modelling of the problem and proposes a numerical problem-solving method based on an approximate Riemann solver for the Saint-Venant-Exner system which is one of the most common model to deal with sedimentary bed-load transport. This last one is based on a coupling between the hydraulic model of Saint-Venant and the morphodynamic model of Exner. The key point of the proposed method is the treatment of the coupling issue. Indeed, there exists two strategies; the first one consists on decoupling the resolution of the fluid part from the solid part and making them interact at fixed times whereas the second one considers a coupled approach to solve the system by jointly updating the hydraulic and solid quantities at same times. We then raise the issue of the choice of the strategy for which we suggest answers by comparing both approaches. The other one focuses on the development of a methodology to study the uncertainties related to the model previously mentioned. To this end, we propose a stochastic formulation of the Saint-Venant-Exner system and we look for characterizing the variabilities of the outputs in relation to the naturally random input parameters. This first study reveals the need for a return to the Saint-Venant system with a perturbed bed to understand the sensitivity of the hydraulic quantities on the topographical perturbations
APA, Harvard, Vancouver, ISO, and other styles
27

Boutahar, Jaouad. "Méthodes de réduction et de propagation d'incertitudes : application à un mùodèle de Chimie-Transport pour la modélisation et la stimulation des impacts." Marne-la-vallée, ENPC, 2004. https://pastel.archives-ouvertes.fr/tel-00007557.

Full text
Abstract:
Dans une modélisation intégrée des impacts, l'objectif est de tester plusieurs scénarios d'entrées de modèle et/ ou d'identifier l'effet de l'incertitude des entrées sur les sorties de modèle. Dans les deux cas, un grand nombre de simulations de modèle sont nécessaires. Cela reste bien évidemment infaisable avec un modèle de Chimie-Transport à cause du temps CPU demandé. Pour surmonter cette difficulté, deux approches ont été étudiées dans cette thèse. La première consiste à construire un modèle réduit. Deux techniques ont été utilisées : la première est la méthode POD (Proper Orthogonal Decomposition) liée au comportement statistique du système. La seconde méthode est une méthode efficace de prétabulation fondée sur la troncature d'un développement multivariables de la relation Entrées/ sorties associé au modèle. La seconde est relative à la réduction du nombre de simulations demandé par la méthode Monte-Carlo classique de propagation d'incertitude. La technique utilisée ici est basée sur une représentation d'une sortie de modèle incertaine comme un développement de polynômes orthonormaux de variables d'entrées. Un autre point clé dans la modélisation intégrée d'impacts est de développer des stratégies de réduction des émissions en calculant des matrices de transfert sur plusieurs années de simulation. Une méthode efficace de calcul de ces matrices a été ainsi développée, notamment en définissant des scénarios "chimiquement" représentatifs. L'ensemble de ces méthodes a été appliqué au modèle POLAIR3D, modèle de Chimie-Transport développé dans le cadre de cette thèse
APA, Harvard, Vancouver, ISO, and other styles
28

Tian, Jingduo. "Quantitative performance evaluation of autonomous visual navigation." Thesis, University of Manchester, 2017. https://www.research.manchester.ac.uk/portal/en/theses/quantitative-performance-evaluation-of-autonomous-visual-navigation(be6349b5-3b38-4ac5-aba2-fc64597fd98a).html.

Full text
Abstract:
Autonomous visual navigation algorithms for ground mobile robotic systems working in unstructured environments have been extensively studied for decades. Among these work, algorithm performance evaluations between different design configurations mainly involve the use of benchmark datasets with a limited number of real-world trails. Such evaluations, however, have difficulties to provide sufficient statistical power for performance quantification. In addition, they are unable to independently assess the algorithm robustness to individual realistic uncertainty sources, including the environment variations and processing errors. This research presents a quantitative approach to performance and robustness evaluation and optimisation of autonomous visual navigation algorithms, using large scale Monte-Carlo analyses. The Monte-Carlo analyses are supported by a simulation environment designed to represent a real-world level of visual information, using the perturbations from realistic visual uncertainties and processing errors. With the proposed evaluation method, a stereo vision based autonomous visual navigation algorithm is designed and iteratively optimised. This algorithm encodes edge-based 3D patterns into a topological map, and use them for the subsequent global localisation and navigation. An evaluation on the performance perturbations from individual uncertainty sources indicates that the stereo match error produces significant limitation for the current system design. Therefore, an optimisation approach is proposed to mitigate such an error. This maximises the Fisher information available in stereo image pairs by manipulating the stereo geometry. Moreover, the simulation environment is further updated in association with the algorithm design, which include the quantitative modelling and simulation of localisation error to the subsequent navigation behaviour. During a long-term Monte-Carlo evaluation and optimisation, the algorithm performance has been significantly improved. Simulation experiments demonstrate that the navigation of a 3-DoF robotic system is achieved in an unstructured environment, while possessing sufficient robustness to realistic visual uncertainty sources and systematic processing errors.
APA, Harvard, Vancouver, ISO, and other styles
29

Czerwinski, Marek. "Modélisation de la turbidité spectrale d'un milieu multidiffusif et son application au problème inverse." Rouen, 1998. http://www.theses.fr/1998ROUES067.

Full text
Abstract:
Cet ouvrage est dédié à la prédiction de la lumière transmise à travers un nuage dense, en prenant compte d'une géométrie 3-D complexe. Une nouvelle méthode de calcul, dite méthode hybride, est introduite. Cette méthode allie la précision et la souplesse des prédictions Monte Carlo à la vitesse de calcul des approches 4-flux. Le couplage de cette approche dans un schéma d'inversion est abordé. Il est montré alors que des mesures peuvent être réalisées dans des situations (nuage, source, détecteur) ou la loi de Beer-Lambert n'est pas vérifiée.
APA, Harvard, Vancouver, ISO, and other styles
30

Kébir, Hocine. "Approches déterministe et probabiliste de la prévision de la durée de vie de structures aéronautiques à l'aide de la méthode des équations intégrales duales." Compiègne, 1998. http://www.theses.fr/1998COMP1157.

Full text
Abstract:
Ce travail de recherche est consacré à l'élaboration d'un outil numérique fondé sur la méthode des équations intégrales duales et dédié à la prévision de la durée de vie des structures aéronautiques. Le logiciel développé permet, entre autres, la simulation du phénomène de multi-fissuration, observé notamment dans les assemblages boulonnés. Cette tâche est décomposée en cinq étapes : la première étape est consacrée à la présentation de la formulation de la méthode des équations intégrales directes, en déplacements et en tensions, et à sa mise en oeuvre numérique. La modélisation des fissures en modes mixtes est ensuite abordée en utilisant un élément original qui a permis la reproduction exacte des champs singuliers en fond de fissures. La troisième étape porte sur la simulation de la propagation de fissures et l'estimation de la durée de vie des structures ; la prévision des trajets de propagation fait intervenir les facteurs d'intensité de contraintes dans un critère prévoyant la direction. Ainsi l'accroissement de la fissure est appliqué selon cette direction. La modélisation des assemblages boulonnés multi-fissures est ensuite développée après avoir présenté au préalable le traitement numérique du contact en 2D par la méthode des équations intégrales. La simulation complète du phénomène de multi-fissuration sur des éléments structuraux est entreprise dans la cinquième partie. Une approche probabiliste fondée sur la méthode stochastique de Monte-Carlo est décrite pour tenir compte des dispersions liées aux matériaux. Après avoir défini un grand nombre de scénarios aléatoires possibles, on simule l'évolution de la structure pour chaque scénario, pour enfin avoir une estimation statistique des résultats. Une comparaison des résultats numériques à des résultats expérimentaux obtenus au laboratoire central d'AEROSPATIALE de Suresnes a permis de valider chaque étape du développement du logiciel. Ces travaux ont conduit à la réalisation d'un logiciel parfaitement opérationnel nommé PRF2D. Il est exploité industriellement par l'AEROSPATIALE.
APA, Harvard, Vancouver, ISO, and other styles
31

Hauseux, Paul. "Propagation d’incertitudes paramétriques dans les modèles numériques en mécanique non linéaire : applications à des problèmes d’excavation." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10116/document.

Full text
Abstract:
Le stockage des déchets radioactifs dans des formations géologiques profondes nécessite d'excaver de la roche en grande profondeur pour accueillir les différentes installations. L'argilite du Callovo-Oxfordian a été choisie comme une potentielle formation hôte grâce à sa capacité de rétention et ses propriétés hydromécaniques. L'objectif de la thèse est d'étudier numériquement la fissuration induite lors du creusement des galeries souterraines à -490 m de profondeur. Un modèle Éléments Finis 3D (méthode E-FEM) est développé pour représenter la fissuration. Plusieurs critères sont proposés pour caractériser les fissures avec une ouverture en mode I ou un glissement en mode II. L'influence de l'anisotropie des propriétés de l'argilite et du champ de contrainte in situ sur les réseaux de fractures et la convergence des galeries est principalement étudiée. L'origine géologique de l'argilite, la complexité de sa microstructure et les grandes dimensions des galeries amènent à des incertitudes sur les propriétés hydromécaniques de ce matériau. La prise en compte des variabilités spatiales des paramètres mécaniques de la roche se fait au travers de champs aléatoires corrélés. Des Méthodes Éléments Finis probabilistes avec des formulations de Galerkin (méthodes d’intégration stochastique indirecte) sont ensuite développées avec une approche non intrusive pour propager ces incertitudes pour des systèmes linéaires et non linéaires (avec et sans fissuration). Ces méthodes sont ensuite appliquées à des problèmes d’excavation pour propager les incertitudes paramétriques associées au comportement de l'argilite. Les résultats sont comparés par rapport à ceux obtenus par des méthodes d’intégration stochastique directe (famille des méthodes dites de Monte-Carlo)
A 3D numerical modelling using the Enhanced Finite Element Method (E-FEM) is developped to address induced fracture networks around drifts after an excavation in Callovo-Oxfordian claystone (COx). A transversely isotropic behaviour is considered for the host rock and two failure criteria are proposed and implemented to characterize shear and tensile fractures: an anisotropic/isotropic Mohr Coulomb criterion with sliding (mode II) and an anisotropic principal strain criterion with mode I opening. Numerical simulations of underground excavations are presented and the results are discussed compared to in situ observations. The influence of the anisotropy of rock properties and in situ stress field on the induced fractures and the convergence of drifts are also studied. The geological origin of the COx as well as the large size of drifts lead to a large uncertainty related to hydro-mechanical properties of this material. Stochastic problems for linear and non linear systems are more and more of interest because it is an important issue to quantify uncertainties when parameters (loading, material properties) are modelled by correlated random fields. Despite a slow convergence, Monte Carlo methods are the most often used to solve these problems thanks to its easy implementation (non intrusive computation). Probabilistic Finite Element methods like Galerkin formulations which produce a coupled system are often viewed as intrusive. Here, we want to show that is possible to compute them in a non intrusive way and with the same accuracy as Monte Carlo methods which are considered as a reference. These methods are applied to take into account and to propagate parametric uncertainties related to claystone's behavior. 3D Numerical results are presented and discussed concerning the induced fracture networks around drifts and the anisotropic convergence of walls
APA, Harvard, Vancouver, ISO, and other styles
32

Wang, Xiaofeng. "Computational technology for damage and failure analysis of quasi-brittle materials." Thesis, University of Manchester, 2015. https://www.research.manchester.ac.uk/portal/en/theses/computational-technology-for-damage-and-failure-analysis-of-quasibrittle-materials(a7c91eb6-5058-4e73-95de-b2f3efd645d2).html.

Full text
Abstract:
The thesis presents the development and validation of novel computational technology for modelling and analysis of damage and failure in quasi-brittle materials. The technology is demonstrated mostly on concrete, which is the most widely used quasi-brittle material exhibiting non-linear behaviour. Original algorithms and procedures for generating two-dimensional (2D) and three-dimensional (3D) heterogeneous material samples are developed, in which the mesoscale features of concrete, such as shape, size, volume fraction and spatial distribution of inclusions and pores/voids are randomised. Firstly, zero-thickness cohesive interface elements with softening traction-separation relations are pre-inserted within solid element meshes to simulate complex crack initiation and propagation. Monte Carlo simulations (MCS) of 2D and 3D uniaxial tension tests are carried out to investigate the effects of key mesoscale features on the fracture patterns and load-carrying capacities. Size effect in 2D concrete is then investigated by finite element analyses of meso-structural models of specimens with increasing sizes. Secondly, a 3D meso-structural damage-plasticity model for damage and failure analysis of concrete is developed and applied in tension and compression. A new scheme for identifying interfacial transition zones (ITZs) in concrete is presented, whereby ITZs are modelled by very thin layers of solid finite elements with damage-plasticity constitutive relations. Finally, a new coupled method named non-matching scaled boundary finite element-finite element coupled method is proposed to simulate crack propagation problems based on the linear elastic fracture mechanics. It combines the advantage of the scaled boundary finite element method in modelling crack propagation and also preserves the flexibility of the finite element method in re-meshing. The efficiency and effectiveness of the developed computational technology is demonstrated by simulations of crack initiation and propagation problems.
APA, Harvard, Vancouver, ISO, and other styles
33

Moffitt, Blake Almy. "A methodology for the validated design space exploration of fuel cell powered unmanned aerial vehicles." Diss., Georgia Institute of Technology, 2010. http://hdl.handle.net/1853/33877.

Full text
Abstract:
Unmanned Aerial Vehicles (UAVs) are the most dynamic growth sector of the aerospace industry today. The need to provide persistent intelligence, surveillance, and reconnaissance for military operations is driving the planned acquisition of over 5,000 UAVs over the next five years. The most pressing need is for quiet, small UAVs with endurance beyond what is capable with advanced batteries or small internal combustion propulsion systems. Fuel cell systems demonstrate high efficiency, high specific energy, low noise, low temperature operation, modularity, and rapid refuelability making them a promising enabler of the small, quiet, and persistent UAVs that military planners are seeking. Despite the perceived benefits, the actual near-term performance of fuel cell powered UAVs is unknown. Until the auto industry began spending billions of dollars in research, fuel cell systems were too heavy for useful flight applications. However, the last decade has seen rapid development with fuel cell gravimetric and volumetric power density nearly doubling every 2-3 years. As a result, a few design studies and demonstrator aircraft have appeared, but overall the design methodology and vehicles are still in their infancy. The design of fuel cell aircraft poses many challenges. Fuel cells differ fundamentally from combustion based propulsion in how they generate power and interact with other aircraft subsystems. As a result, traditional multidisciplinary analysis (MDA) codes are inappropriate. Building new MDAs is difficult since fuel cells are rapidly changing in design, and various competitive architectures exist for balance of plant, hydrogen storage, and all electric aircraft subsystems. In addition, fuel cell design and performance data is closely protected which makes validation difficult and uncertainty significant. Finally, low specific power and high volumes compared to traditional combustion based propulsion result in more highly constrained design spaces that are problematic for design space exploration. To begin addressing the current gaps in fuel cell aircraft development, a methodology has been developed to explore and characterize the near-term performance of fuel cell powered UAVs. The first step of the methodology is the development of a valid MDA. This is accomplished by using propagated uncertainty estimates to guide the decomposition of a MDA into key contributing analyses (CAs) that can be individually refined and validated to increase the overall accuracy of the MDA. To assist in MDA development, a flexible framework for simultaneously solving the CAs is specified. This enables the MDA to be easily adapted to changes in technology and the changes in data that occur throughout a design process. Various CAs that model a polymer electrolyte membrane fuel cell (PEMFC) UAV are developed, validated, and shown to be in agreement with hardware-in-the-loop simulations of a fully developed fuel cell propulsion system. After creating a valid MDA, the final step of the methodology is the synthesis of the MDA with an uncertainty propagation analysis, an optimization routine, and a chance constrained problem formulation. This synthesis allows an efficient calculation of the probabilistic constraint boundaries and Pareto frontiers that will govern the design space and influence design decisions relating to optimization and uncertainty mitigation. A key element of the methodology is uncertainty propagation. The methodology uses Systems Sensitivity Analysis (SSA) to estimate the uncertainty of key performance metrics due to uncertainties in design variables and uncertainties in the accuracy of the CAs. A summary of SSA is provided and key rules for properly decomposing a MDA for use with SSA are provided. Verification of SSA uncertainty estimates via Monte Carlo simulations is provided for both an example problem as well as a detailed MDA of a fuel cell UAV. Implementation of the methodology was performed on a small fuel cell UAV designed to carry a 2.2 kg payload with 24 hours of endurance. Uncertainty distributions for both design variables and the CAs were estimated based on experimental results and were found to dominate the design space. To reduce uncertainty and test the flexibility of the MDA framework, CAs were replaced with either empirical, or semi-empirical relationships during the optimization process. The final design was validated via a hardware-in-the loop simulation. Finally, the fuel cell UAV probabilistic design space was studied. A graphical representation of the design space was generated and the optima due to deterministic and probabilistic constraints were identified. The methodology was used to identify Pareto frontiers of the design space which were shown on contour plots of the design space. Unanticipated discontinuities of the Pareto fronts were observed as different constraints became active providing useful information on which to base design and development decisions.
APA, Harvard, Vancouver, ISO, and other styles
34

Putze, Antje. "Phénoménologie et détection du rayonnement cosmique nucléaire." Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00433301.

Full text
Abstract:
Un siècle après la découverte du rayonnement cosmique – un flux de particules énergétiques chargées qui bombarde les couches supérieures de l'atmosphère terrestre –, beaucoup de questions restent encore ouvertes sur son origine, sa nature et son transport. La mesure précise du flux des ions du rayonnement cosmique a pour objectif d'étudier les processus d'accélération et de propagation. En particulier la mesure des rapports secondaire sur primaire permet de contraindre très efficacement les modèles de propagation car elle est directement liée au grammage vu par les particules durant leur transport. La connaissance et la caractérisation des processus liés à la propagation permet de reconstruire le spectre source du rayonnement cosmique et donc de contraindre les processus d'accélération, mais aussi de tester l'existence dans le rayonnement cosmique de contributions exotiques comme l'annihilation de particules de matière noire. Cette thèse traite deux aspects de la physique du rayonnement cosmique: la phénoménologie et la détection. Concernant l'aspect phénoménologique, le travail présenté consiste à évaluer et à étudier les contraintes que les mesures actuelles permettent d'apporter sur les modèles de propagation du rayonnement dans la Galaxie à l'aide d'un Monte Carlo par chaînes de Markov. L'aspect expérimental de ce travail porte sur la participation à la construction, la validation et l'analyse des données du sous-détecteur CherCam – un imageur Cherenkov mesurant la charge des ions du rayonnement cosmique pour l'expérience CREAM –, dont les résultats préliminaires sont présentés.
APA, Harvard, Vancouver, ISO, and other styles
35

Boutahar, Jaouad. "Méthodes de réduction et de propagation d'incertitudes : application à un modèle de chimie-transport pour la modélisation et la simulation des impacts." Phd thesis, Ecole des Ponts ParisTech, 2004. http://tel.archives-ouvertes.fr/tel-00007557.

Full text
Abstract:
Dans une modélisation intégrée des impacts, l'objectif est de tester plusieurs scénarios d'entrées de modèle et/ ou d'identifier l'effet de l'incertitude des entrées sur les sorties de modèle. Dans les deux cas, un grand nombre de simulations de modèle sont nécessaires. Cela reste bien évidemment infaisable avec un modèle de Chimie-Transport à cause du temps CPU demandé. Pour surmonter cette difficulté, deux approches ont été étudiées dans cette thèse : La première consiste à construire un modèle réduit. Deux techniques ont été utilisées : la première est la méthode POD (Proper Orthogonal Decomposition) liée au comportement statistique du système. La seconde méthode est une méthode efficace de prétabulation fondée sur la troncature d'un développement multivariables de la relation Entrées/ sorties associé au modèle.
La seconde est relative à la réduction du nombre de simulations demandé par la méthode Monte-Carlo classique de propagation d'incertitude. La technique utilisée ici est basée sur une représentation d'une sortie de modèle incertaine comme un développement de polynômes orthonormaux de variables d'entrées. Un autre point clé dans la modélisation intégrée d'impacts est de développer des stratégies de réduction des émissions en calculant des matrices de transfert sur plusieurs années de simulation. Une méthode efficace de calcul de ces matrices a été ainsi développée, notamment en définissant des scénarios "chimiquement" représentatifs.
L'ensemble de ces méthodes a été appliqué au modèle POLAIR3D, modèle de Chimie-Transport développé dans le cadre de cette thèse.
APA, Harvard, Vancouver, ISO, and other styles
36

Mohamed, Drissi. "Un modèle de propagation de feux de végétation à grande échelle." Phd thesis, Université de Provence - Aix-Marseille I, 2013. http://tel.archives-ouvertes.fr/tel-00931806.

Full text
Abstract:
Le présent travail est consacré au développement et à la validation d'un modèle hybride de propagation d'un incendie de végétation à grande échelle prenant en compte les hétérogénéités locales liées à la végétation, à la topographie du terrain et aux conditions météorologiques. Dans un premier temps, on présente différentes méthodes permettant de générer un réseau amorphe, représentatif d'une distribution réaliste de la végétation. Le modèle hybride est un modèle de réseau où les phénomènes qui se produisent à l'échelle macroscopique sont traités de façon déterministe, comme le préchauffage du site végétal provenant du rayonnement de la flamme et des braises et de la convection par les gaz chauds, mais aussi son refroidissement radiatif et son inflammation pilotée. Le rayonnement thermique provenant de la flamme est calculé en combinant le modèle de flamme solide à la méthode de Monte Carlo et en considérant son atténuation par la couche d'air atmosphérique entre la flamme et la végétation réceptive. Le modèle est ensuite appliqué à des configurations simples de propagation sur un terrain plat ou incliné, en présence ou non d'un vent constant. Les résultats obtenus sont en bon accord avec les données de la littérature. Une étude de sensibilité a été également menée permettant d'identifier les paramètres les plus influents du modèle, en termes de vitesse de propagation du feu, et de les hiérarchiser. La phase de validation a portée sur l'analyse comparative des contours de feux calculés par le modèle avec ceux mesurés lors d'un brûlage dirigé réalisé en Australie et d'un feu réel qui a lieu en Corse en 2009, montrant un très bon accord en termes de vitesse de propagation, de contours de feu et de surface brûlée.
APA, Harvard, Vancouver, ISO, and other styles
37

Martinez, Alexandre Souto. "Statistique de polarisation et effet Faraday en diffusion multiple de la lumière." Grenoble 1, 1993. http://www.theses.fr/1993GRE10082.

Full text
Abstract:
Statistique de polarisation et effet faraday en diffusion multiple de la lumiere. L'analyse traditionnelle de la propagation de la lumiere en milieu aleatoire suppose que les ondes sont des champs scalaires et que les diffuseurs sont ponctuels. Nous avons voulu etudier des situations plus realistes. La nature vectorielle du champ electromagnetique et l'anisotropie de diffusion sont explicitement prises en compte par la theorie de mie. Pour realiser cet objectif, nous avons ecrit et mis au point un code de simulation numerique utilisant l'algorithme de monte carlo. Nous nous sommes interesses tout d'abord aux mecanismes de depolarisation de la lumiere en regime de diffusion multiple. Puis nous faisons une etude approfondie de la pertinence des differentes approches du probleme de la diffusion multiple (portant principalement sur l'equation de boltzmann et la methode de monte carlo). Finalement nous etudions analytiquement et numeriquement l'effet faraday en diffusion multiple. Cet effet fait tourner les etats de polarisation entre deux collisions successives brisant la symetrie par reversement du temps. Les interferences de phase qui donnent lieu au cone de retrodiffusion peuvent ainsi etre controlees par l'application d'un champ magnetique
APA, Harvard, Vancouver, ISO, and other styles
38

Taktak, Mohamed. "Mesure de la matrice de diffusion d'un tronçon traité cylindrique : applications à la mesure de son efficacité et à la détermination de son impédance homogénéisée." Compiègne, 2008. http://www.theses.fr/2008COMP1788.

Full text
Abstract:
Dans ce travail, deux applications basées sur la mesure et le calcul de la matrice de diffusion multimodale d'un tronçon traité cylindrique ont été présentées. La première est relative à la mesure de l'efficacité du silencieux en fonction des vecteurs des pressions et des puissances entrantes au conduit. La seconde est relative à la caractérisation de ce conduit par la détermination de son impédance homogénéisée par une méthode indirecte en association avec le calcul numérique de cette matrice. La technique de mesure de la matrice de diffusion multimodale est basée sur le surdimensionnement des configurations sources et l'utilisation d'une terminaison anéchoïque tout en conservant la séparation des pressions transmises et rétrogrades. Le calcul de la matrice de diffusion est fait pour un tronçon axisymétrique et recouvert par un matériau localement réactif et en utilisant la méthode des éléments finis. L'évaluation de l'efficacité du tronçon proposée est basée sur le calcul de la dissipation et de l'atténuation de la puissance acoustique de ce dernier à partir du vecteur des pressions entrantes. Aussi la méthode indirecte de détermination de l'impédance acoustique homogénéisée du tronçon est présentée, elle est basée sur la minimisation de l'écart entre les dissipations théorique et expérimentale déduites de la matrice de diffusion en supposant un vecteur des pressions incidentes incident d'un seul côté. La précision de la technique est évaluée par une utilisation conjuguée de la simulation théorique de l'expérience et de la méthode de Monte Carlo pour déterminer les intervalles de confiance des différents paramètres mesurés. Enfin, les différentes techniques et procédures présentées dans ce travail ont été testées dans des tronçons contenant des matériaux absorbants industriels de type résonateurs d'Helmholtz. Dans cette partie, une confrontation entre les résultats expérimentaux et théoriques a été effectuée et les dissipations et les atténuations de puissance acoustique ont été déterminées. La méthode indirecte est ensuite appliquée avec des corrections tenant compte de l'effet du conduit de référence, support du matériau, pour déterminer l'impédance homogénéisée du tronçon étudié
In this work, two applications based on the measurement and the compute of the multimodal scattering matrix of a cylindrical lined duct were developed and presented. The first is related to the measurement of the liner efficiency in function of the incoming pressures and or powers. The second is related to the determination of this wall duct by determining its homogenized acoustic impedance by an indirect method in association with the numerical compute of this matrix. The scattering matrix measurement technique is based on the multi sources method with , the use of an anechoic termination and the conservation of the transmitted and retrograde pressures separation. The numerical computation of the scattering matrix, using the finite elements method, assumes that the duct is axisymetric and covered by a locally reacting liner were developed. The proposed evaluation of the lined duct section efficiency is based on the compute of its acoustic power dissipation and attenuation deduced from the scattering matrix using an incoming pressure vector. Also, the indirect method to determine the homogenized acoustic impedance of the duct is presented ; it is based on the minimisation of the difference between theorical and experimental dissipations computed from the scattering matrix and an incoming pressures vector from only one side. The precision of these techniques was estimated through a simulation of the experiment coupled with the Monte Carlo technique leading to determine the confidence intervals of several output experimental data measured parameters. Finally, different techniques presented in this work were tested with two lined ducts which the wall is covered with industrial locally reacting materials made of a honeycomb and a perforated sheet. In this part of work, Experimental and theoretical results of the scattering matrix coefficients and of the acoustic power dissipated and attenuated by the silencer are compared and pointed out, as already found in the litterature, the effect of the vibration of the rigid part of the wall near the higher order mode resonance frequencies. A comparison between theorical and experimental results is made and acoustic power dissipation and attenuation were determined. Then, it is shown that to determine the homogenized acoustic impedance of the liner, the indirect method has to be based on a cost function defined by the difference between the acoustic power dissipated by the actual lined duct section and the reference duct section avoiding the effect of the wall vibration
APA, Harvard, Vancouver, ISO, and other styles
39

Marinelli, Marco Antonio. "Modelling and communicating the effects of spatial data uncertainty on spatially based decision-making." Thesis, Curtin University, 2011. http://hdl.handle.net/20.500.11937/1842.

Full text
Abstract:
Important economic and environmental decisions are routinely based on spatial/ temporal models. This thesis studies the uncertainty in the predictions of three such models caused by uncertainty propagation. This is considered important as it quantifies the sensitivity of a model’s prediction to uncertainty in other components of the model, such as the model’s inputs. Furthermore, many software packages that implement these models do not permit users to easily visualize either the uncertainty in the data inputs, the effects of the model on the magnitude of that uncertainty, or the sensitivity of the uncertainty to individual data layers. In this thesis, emphasis has been placed on demonstrating the methods used to quantify and then, to a lesser extent, visualize the sensitivity of the models. Also, the key questions required to be resolved with regards to the source of the uncertainty and the structure of the model is investigated. For all models investigated, the propagation paths that most influence the uncertainty in the prediction were determined. How the influence of these paths can be minimised, or removed, is also discussed.Two different methods commonly used to analyse uncertainty propagation were investigated. The first is the analytical Taylor series method, which can be applied to models with continuous functions. The second is the Monte Carlo simulation method which can be used on most types of models. Also, the later can be used to investigate how the uncertainty propagation changes when the distribution of model uncertainty is non Gaussian. This is not possible with the Taylor method.The models tested were two continuous Precision Agriculture models and one ecological niche statistical model. The Precision Agriculture models studied were the nitrogen (N) availability component of the SPLAT model and the Mitscherlich precision agricultural model. The third, called BIOCLIM, is a probabilistic model that can be used to investigate and predict species distributions for both native and agricultural species.It was generally expected that, for a specific model, the results from the Taylor method and the Monte Carlo will agree. However, it was found that the structure of the model in fact influences this agreement, especially in the Mitscherlich Model which has more complex non linear functions. Several non-normal input uncertainty distributions were investigated to see if they could improve the agreement between these methods. The uncertainty and skew of the Monte Carlo results relative to the prediction of the model was also useful in highlighting how the distribution of model inputs and the models structure itself, may bias the results.The version of BIOCLIM used in this study uses three basic spatial climatic input layers (monthly maximum and minimum temperature and precipitation layers) and a dataset describing the current spatial distribution of the species of interest. The thesis investigated how uncertainty in the input data propagates through to the estimated spatial distribution for Field Peas (Pisum sativum) in the agriculturally significant region of south west Western Australia. The results clearly show the effect of uncertainty in the input layers on the predicted specie’s distribution map. In places the uncertainty significantly influences the final validity of the result and the spatial distribution of the validity also varies significantly.
APA, Harvard, Vancouver, ISO, and other styles
40

Houret, Thomas. "Méthode d’estimation des valeurs extrêmes des distributions de contraintes induites et de seuils de susceptibilité dans le cadre des études de durcissement et de vulnérabilité aux menaces électromagnétiques intentionnelles." Thesis, Rennes, INSA, 2019. http://www.theses.fr/2019ISAR0011.

Full text
Abstract:
Une Interférence Electromagnétique Intentionnelle (IEMI) agressant un équipement électronique peut provoquer une défaillance de ce dernier. L’étude des effets d’une IEMI commence par l’évaluation du risque de défaillance afin de mettre en place les protections adéquates. Malheureusement, une prédiction déterministe d’une défaillance est impossible car les caractéristiques de l’équipement et de l’agression sont très incertaines. La stratégie proposée consiste à modéliser la contrainte générée par l’agression, ainsi que la susceptibilité de l’équipement, comme des variables aléatoires. Ensuite, trois étapes sont nécessaires. La première concerne l’estimation de la distribution probabiliste de la variable aléatoire de susceptibilité, la seconde porte sur celle de la contrainte, pour enfin, dans une troisième étape, en déduire la probabilité de défaillance. Pour la première étape, nous utilisons des méthodes d’inférence statistique sur un petit échantillon de seuils de susceptibilités mesurés. Nous comparons deux types d’inférence paramétrique : bayésienne et celle du maximum de vraisemblance. Nous concluons qu’une approche pertinente pour l'analyse du risque CEM consiste à utiliser les intervalles de confiance ou de crédibilité des estimations des paramètres pour encadrer la probabilité de défaillance, quelle que soit la méthode d’inférence choisie. Pour la deuxième étape, nous explorons les techniques de recherche de valeurs extrêmes tout en réduisant le nombre de simulations nécessaires. En particulier, nous proposons la technique de la stratification contrôlée par un métamodèle de krigeage. Nous montrons que cette technique améliore drastiquement les performances par rapport à l’approche classique (simulation Monte Carlo). De plus, nous proposons une implémentation particulière de cette technique afin de maitriser le coût de calcul. Enfin, la troisième étape est la plus simple une fois les deux premières franchies puisque, par définition, une défaillance survient lorsque la contrainte est supérieure à la susceptibilité. A partir d’un cas test final comportant la simulation de l’agression d’un équipement et de données de susceptibilité de cet équipement, nous calculons un encadrement de la probabilité de défaillance en recourant aux méthodes développées pendant cette thèse. En particulier, nous montrons que l’utilisation conjointe de la stratification contrôlée par le krigeage et de l’inférence de la distribution de la susceptibilité permet effectivement d’encadrer l’estimation de la vraie probabilité de défaillance
Intentional ElectroMagnetic Interference (IEMI) can cause equipment failure. The study of the effects of an IEMI begins with an assessment of the risk of equipment failure in order to implement appropriate protections, if required. Unfortunately, a deterministic prediction of a failure is impossible because both characteristics of equipment and of the aggression are very uncertain. The proposed strategy consists of modelling the stress generated by the aggression, as well as the susceptibility of the equipment, as random variables. Then, three steps are necessary: The first step deals with the estimation of the probability distribution of the random susceptibility variable. The second step deals with the similar estimation for the constraint / stress then that of the stress. Eventually, the third step concerns the calculation of the probability of failure. For the first step, we use statistical inference methods on a small sample of measured susceptibility thresholds. We compare two types of parametric inference: bayesian and maximum likelihood. We conclude that a relevant approach for a risk analysis is to use the confidence or credibility intervals of parameter estimates to frame the probability of failure, regardless of the inference method chosen. For the second step we explore extreme value exploration techniques while reducing the number of simulations required. In particular, we propose the technique of Controlled Stratification by Kriging. We show that this technique drastically improves performance compared to the classic approach (Monte Carlo simulation). In addition, we propose a particular implementation of this technique in order to control the calculation effort. Finally, the third step is the simplest once the first two steps have been completed since, by definition, a failure occurs when the stress is greater than the susceptibility. With the help of a final test case comprising the simulation of an electromagnetic aggression on a piece of equipment, we use the method developed in our work to estimate the frame of the probability of failure, More specifically, we show that the combined use of controlled stratification by kriging and inference of susceptibility distribution, allows to frame the estimated true value of the probability of failure
APA, Harvard, Vancouver, ISO, and other styles
41

Deaconu, Madalina. "Processus stochastiques associés aux équations d'évolution linéaires ou non-linéaires et méthodes numériques probabilistes." Habilitation à diriger des recherches, Université Henri Poincaré - Nancy I, 2008. http://tel.archives-ouvertes.fr/tel-00590778.

Full text
Abstract:
Ce document de synthèse est consacré à l'interprétation probabiliste de certaines équations d'évolution liénaires ou non-linéaires ainsi qu'à l'étude de méthodes numériques probabilistes. La première partie réunit plusieurs résultats qui mettent en évidence les liens qui existent entre les équations aux dérivées partielles et les processus de diffusion pour des modèles linéaires ou non-linéaires. Un paragraphe important est consacré à l'approche probabiliste des modèles de coagulation et/ou fragmentation. Nous présentons dans la seconde partie la construction de nouveaux algorithmes de simulation de type Monte-Carlo pour une large classe d'équations différentielles stochastiques. Cette méthode permet d'estimer de façon précise le premier moment de sortie d'un domaine et la position de sortie pour un processus stochastique. Nous nous intéressons ensuite aux techniques d'échantillonnage pondéré afin de réduire la variance de nos éstimateurs. Dans la troisième partie nous présentons des travaux sur l'analyse fine de certains processus stochastiques dans les espaces de Besov. La quatrième partie est consacrée à des applications issues de collaborations industrielles.
APA, Harvard, Vancouver, ISO, and other styles
42

Fabík, Jiří. "Realistická vizualizace alkoholických nápojů pomocí distribuovaného raytracingu." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2013. http://www.nusl.cz/ntk/nusl-236392.

Full text
Abstract:
This work is about a realistic visualization technique called raytracing. It studies its original form, its extensions and optimizations. Raytracing casts rays through pixels and follows their propagation in the scene, according to the physical laws. It enables rendering of correct shadows, reflections and refractions. Distributed raytracing serves for better visualization and advanced effects. One ray is replaced with a beam of rays that allows soft shadows, fuzzy translucency, depth of field and antialiasing. With the increasing number of rays, the render time rises as well, so it is needed to use some optimization techniques and tools. A way of using this rendering method for visualization of alcoholic beverages is also described.
APA, Harvard, Vancouver, ISO, and other styles
43

Buot, de l’Épine Yorick. "Identification de l’impédance d’un traitement en présence d’un écoulement." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2369/document.

Full text
Abstract:
Afin de réduire les bruits rayonnés en sortie de guide d’onde, des traitements acoustiques localement réactifs, comme les structures « Plaque perforée/Nid d’abeilles », peuvent être appliqués en liner. La conception de ces liners devient alors un challenge important avec l’apparition de nouvelles normes sur le bruit et impose de posséder une très bonne connaissance du comportement de ces traitements, en particulier leur impédance de surface. Néanmoins, la caractérisation de cette impédance n’est pas une chose facile et est généralement réalisée via des modèles semi-empiriques comme ceux de Guess, Elnady, Allam ou expérimentalement par des méthodes de mesures directes ou inverses. Ces approches inverses permettent, par la confrontation d’une modélisation du problème avec des observations expérimentales, de retourner, au travers d’une fonction coût, l’impédance du traitement. Ces méthodes ont l’avantage de réaliser une observation dans les conditions réelles d’utilisation du traitement. En effet, de nombreux paramètres influencent l’impédance de surface comme la présence d’un écoulement, l’incidence de l’onde… Dans cette thèse, une méthode d’identification de l’impédance est proposée. A partir de l’impédance de surface d’un traitement « Plaque perforée/Nid d’abeille » prédite par un modèle empirique via ses paramètres géométriques (épaisseur de la plaque, diamètre des perforations…), une méthode basée sur l’approche Bayésienne est implémentée afin de remonter à l’impédance réelle du traitement. Le problème étudié consiste en la propagation d’une onde dans un tronçon rectangulaire traité sur sa face supérieure et la mesure des pressions acoustiques est réalisée sur le banc d’essai de l’Université Technologique de Compiègne avec un écoulement rasant. Un modèle de propagation d’ondes dans le conduit est développé via la technique du raccordement modal, afin de prédire la pression aux positions des microphones pour n’importe quelle valeur d’impédance. A partir de la mesure et de la simulation, la règle de Bayes peut être appliquée afin de construire la densité de probabilité a posteriori. Cette densité de probabilité est alors échantillonnée au travers d’un algorithme Évolutionnaire de Monte Carlo par Chaîne de Markov (EMCMC). L’intérêt principale de cette méthode, est d’obtenir de nombreuses d’informations statistiques sur les paramètres caractérisant l’impédance de surface comme leur distribution et leur corrélation
Locally reactive acoustic liners such as honeycomb structures with perforated panels can be modeled with a surface impedance in standard numerical models. However, the characterization of this impedance is not always straightforward. Empirical models or standing wave tube measurements are generally used to get the behavior of these acoustic treatments. Unfortunately, these methods provide only an evaluation of the impedance under specific conditions. Moreover, the conditions of use can change significantly the acoustic liners behavior as grazing flow conditions or oblique incident waves. A characterization of locally reactive acoustic liners is presented here. Starting from a set of parameters and represents a surface impedance using empirical model, an inverse method based on Bayesian approach is used to return the surface impedance taking in consideration the real conditions of use. A rectangular duct treated by a liner on its upper face is considered and these conditions are similar to the experiment present at the Université de Technologie de Compiègne. This inverse method requires a direct model to predict the pressure at some microphone positions with any surface impedance. The model used in the following is based on the Mode-Matching method. From the direct analytical model, the Bayes'rule is then used to get the posterior probability density function of the estimated impedance. An Evolutionary Monte Carlo by Markov chain (EMCMC) method is used to sample this posterior probability density. This method provides not only the best set of parameters but also some statistical information for each parameter
APA, Harvard, Vancouver, ISO, and other styles
44

Savin, Eric. "Influence de la variabilité spatiale en interaction sismique sol-structure." Phd thesis, Ecole Centrale Paris, 1999. http://tel.archives-ouvertes.fr/tel-00006636.

Full text
Abstract:
Les études des phénomènes d'interaction sismique sol-structure pour le dimensionnement d'ouvrages en génie civil sont fondées sur deux hypothèses simplificatrices fortes : l'homogénéité latérale du sol sous la fondation, et la représentation du mouvement sismique par des ondes planes à incidences verticales ou inclinées. Pour de grands ouvrages reposant sur des radiers flexibles étendus, ces hypothèses ne sont plus valides, d'autant que les observations in situ des ondes sismiques font apparaître une variabilité spatiale importante même sur de courtes distances et indépendamment de l'effet du passage d'onde. Dans ce travail sont développés les outils de modélisation et d'analyse numérique permettant de tenir compte de cette variabilité ainsi que de celle des caractéristiques mécaniques du sol. Une approche probabiliste est retenue, et leur influence est directement reliée à la réponse de la structure au séisme par une formulation intégrale incorporant ces deux aspects simultanément. Pour une mise en oeuvre numérique efficace, la dimension aléatoire des fluctuations - grandes ou petites - aléatoires des caractéristiques mécaniques du sol est réduite par l'introduction du développement de Karhunen-Loeve de l'opérateur de raideur dynamique associé. Cette technique est aussi appliquée au champ sismique incident. Les résultats obtenus pour des cas complexes réalistes permettent de mettre en évidence certains phénomènes dont l'appréhension apparaît indispensable dans le cadre d'une étude industrielle. Ils donnent notamment quelques indications utiles sur la sensibilité de la réponse de la structure à la variabilité spatiale du mouvement sismique ou des paramètres du sol.
APA, Harvard, Vancouver, ISO, and other styles
45

Sabouri, Pouya. "Application of perturbation theory methods to nuclear data uncertainty propagation using the collision probability method." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENI071/document.

Full text
Abstract:
Dans cette thèse, nous présentons une étude rigoureuse des barres d'erreurs et des sensibilités de paramètres neutroniques (tels le keff) aux données nucléaires de base utilisées pour les calculer. Notre étude commence au niveau fondamental, i.e. les fichiers de données ENDF et leurs incertitudes, fournies sous la forme de matrices de variance/covariance, et leur traitement. Lorsqu'un calcul méthodique et consistant des sensibilités est consenti, nous montrons qu'une approche déterministe utilisant des formalismes bien connus est suffisante pour propager les incertitudes des bases de données avec un niveau de précision équivalent à celui des meilleurs outils disponibles sur le marché, comme les codes Monte-Carlo de référence. En appliquant notre méthodologie à trois exercices proposés par l'OCDE, dans le cadre des Benchmarks UACSA, nous donnons des informations, que nous espérons utiles, sur les processus physiques et les hypothèses sous-jacents aux formalismes déterministes utilisés dans cette étude
This dissertation presents a comprehensive study of sensitivity/uncertainty analysis for reactor performance parameters (e.g. the k-effective) to the base nuclear data from which they are computed. The analysis starts at the fundamental step, the Evaluated Nuclear Data File and the uncertainties inherently associated with the data they contain, available in the form of variance/covariance matrices. We show that when a methodical and consistent computation of sensitivity is performed, conventional deterministic formalisms can be sufficient to propagate nuclear data uncertainties with the level of accuracy obtained by the most advanced tools, such as state-of-the-art Monte Carlo codes. By applying our developed methodology to three exercises proposed by the OECD (UACSA Benchmarks), we provide insights of the underlying physical phenomena associated with the used formalisms
APA, Harvard, Vancouver, ISO, and other styles
46

Volat, Ludovic. "Développement d’une méthode stochastique de propagation des incertitudes neutroniques associées aux grands coeurs de centrales nucléaires : application aux réacteurs de génération III." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0330/document.

Full text
Abstract:
Les réacteurs nucléaires de génération III s'inscrivent dans la continuité des réacteurs à eau sous pression actuels, tout en présentant un certain nombre d'améliorations en terme de sûreté, de rendement et d'environnement.Parmi les caractéristiques de ces réacteurs, la taille importante du coeur et l'utilisation d'un réflecteur lourd se traduisent par une meilleure efficacité neutronique et une meilleure protection de la cuve.Du fait de leur grande taille, le risque de basculement de la nappe de puissance neutronique est exacerbé. Le basculement est donc un paramètre d'intérêt à prendre en compte dans les études de sûreté. Par ailleurs, le calcul de l'incertitude associée à la nappe de puissance neutronique est difficilement atteignable par les méthodes déterministes actuellement implémentées dans les codes de neutronique.Ce travail de thèse a donc porté sur le développement d'une méthode stochastique innovante de propagation des incertitudes neutroniques. Tout en étant basée sur des résultats probabilistes, elle tire parti de la puissance croissante des moyens de calcul informatique afin de parcourir tous les états du réacteur statistiquement prévus.Après avoir été validée, cette méthode a été appliquée à un benchmark de grand coeur de l'OCDE/AEN avec des valeurs de covariances issues d'une analyse critique. Ainsi, pour ce système, l'incertitude associée au facteur de multiplication effectif des neutrons keff $(1\sigma)$ vaut 638 pcm . Par ailleurs, le basculement total vaut 8.8 \% $(1\sigma)$, et l'incertitude maximale associée à l'insertion d'un groupe de barres absorbantes utilisées pour son pilotage vaut 11~\% $(1\sigma)$
Generation III Light Water Reactors undoubtedly follow design guidelines comparable to those of current PWRs. Furthermore, they take advantage of enhanced features in terms of safety, energy efficiency, radiation protection and environment. Then, we talk about an evolutionary approach. Amongst those improvements, the significant size and the use of a heavy reflector translate into a better neutronics efficacy, leading to intrinsic enrichment benefits then to natural uranium profits. They contribute to the core vessel preservation as well.Because of their large dimensions, the neutronic bulge of this kind of reactors is emphasized. Therefore, it is a parameter of interest in the reactor safety studies. Nevertheless, the uncertainty related to the radial power map is hardly reachable by using the numerical methods implemented in the neutronics codes.Given the above, this PhD work aims to develop an innovative stochastic neutronics uncertainties propagation method. By using recent probabilistic results, it makes good use of the growing calculation means in order to explore all the physical states of the reactor statiscally foreseen.After being validated , our method has been applied to a reactor proposed in the framework of a large core OECD/NEA international benchmark with carefully chosen covariances values. Thus, for this system, the uncertainties related to the keff reaches 638~pcm $(1\sigma)$. What is more, the total bulge equals 8.8~\% $(1\sigma)$ and the maximal uncertainty related to the insertion of a group of control rods reaches 11~\% $(1\sigma)$
APA, Harvard, Vancouver, ISO, and other styles
47

Hosseinizadeh, Ahmad. "Excited States in U(1)2+1 Lattice Gauge Theory and Level Spacing Statistics in Classical Chaos." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/26815/26815.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Sanchez-Palencia, Laurent. "ETUDE THEORIQUE DE LA DYNAMIQUE NON LINEAIRE D'ATOMES FROIDS DANS UN RESEAU OPTIQUE DISSIPATIF : TRANSPORT SPONTANE ET TRANSPORT STIMULE." Phd thesis, Ecole Polytechnique X, 2003. http://tel.archives-ouvertes.fr/tel-00003425.

Full text
Abstract:
Nous étudions théoriquement la dynamique non linéaire d'atomes refroidis et piégés dans un réseau optique dissipatif et plus particulièrement les phénomènes de transport spontané et stimulé induits par le bruit.

Nous distinguons deux classes d'atomes, respectivement piégés et non-piégés dans les puits de potentiel, aux comportements très différents. Cette distinction permet de comprendre précisément le comportement des distributions de vitesse ainsi que les propriétés du transport spontané (diffusion spatiale) dans un domaine de paramètres allant du régime sautant au régime oscillant.

Des phénomènes de transport stimulés sont étudiés dans le régime intermédiaire entre les régimes sautant et oscillant où les temps typiques du mouvement hamiltonien et des phénomènes dissipatifs sont comparables. Nous caractérisons les modes de propagation Brillouin ainsi que leurs mécanismes d'excitation. Nous montrons que ceux-ci donnent lieu au phénomène de résonance stochastique qui correspond à la synchronisation du mouvement hamiltonien et des processus dissipatifs. Nous étudions enfin un rochet atomique temporel correspondant à un mouvement dirigé induit par la brisure de la symétrie temporelle.
APA, Harvard, Vancouver, ISO, and other styles
49

Santos, Elton Márcio da Silva. "QCD na rede: um estudo não-perturbativo no calibre de Feynman." Universidade de São Paulo, 2011. http://www.teses.usp.br/teses/disponiveis/76/76131/tde-19102011-135900/.

Full text
Abstract:
O comportamento infra-vermelho dos propagadores de glúons e de ghosts é de fundamental importância para o entendimento do limite de baixas energias da cromodinâmica quântica (QCD), especialmente no que diz respeito ao problema do confinamento de quarks e de glúons. O objetivo desta tese é implementar um novo método para o estudo do propagador de glúons no calibre covariante linear para a QCD na rede. Em particular, analisamos em detalhe a nova implementação proposta e estudamos os algoritmos para fixação numérica deste calibre. Note que a fixação numérica da condição de calibre de Feynman apresenta vários problemas não encontrados nos casos de Landau e de Coulomb, o que impossibilitou por longo tempo o seu estudo adequado. De fato, a definição considerada inicialmente, por Giusti et. al., é de difícil implementação numérica e introduz condições espúrias na fixação de calibre. Como consequência, os únicos estudos efetuados anteriormente referem-se aos propagadores de glúons e de quarks em redes relativamente pequenas, não permitindo uma análise cuidadosa do limite infra-vemelho da QCD neste calibre. A obtenção de novas soluções para a implementação do calibre de Feynman na rede é portanto de grande importância para viabilizar estudos numéricos mais sistemáticos dos propagadores e dos vértices neste calibre e, em geral, no calibre covariante linear.
The infrared behavior of gluon and ghost propagators is of fundamental importance for the understanding of the low-energy limit of quantum chromodynamics (QCD), especially with respect to the problem of the confinement of quarks and gluons. The goal of this thesis is to implement a new method to study the gluon propagator in the linear covariant gauge in lattice QCD. In particular, we analyze in detail the newly proposed implementation and study the algorithms for numerically fixing this gauge. Note that the numerical fixing of the Feynman gauge condition poses several problems that are not present in the Landau and Coulomb cases, which prevented it from being properly studied for a long time. In fact, the definition considered initially, by Giusti et. al., is of difficult numerical implementation and introduces spurious conditions into the gauge fixing. As a consequence, the only studies carried out previously involved gluon and quark propagators on relatively small lattices, hindering a careful analysis of the infrared limit of QCD in this gauge. Obtaining new solutions for the implementation of the Feynman gauge on the lattice is therefore of great importance to enable more systematic numerical studies of propagators and vertices in this gauge and, in general, in the linear covariant gauge.
APA, Harvard, Vancouver, ISO, and other styles
50

Davis, Mitchell Alan. "Monte Carlo simulation of fluorescence imaging of microvasculature." Thesis, 2011. http://hdl.handle.net/2152/ETD-UT-2011-08-4191.

Full text
Abstract:
Little numerical analysis has been done on fluorescence lifetime imaging \emph{in-vivo}. Here, a 3D fluorescence Monte Carlo model is used to evaluate a microvasculature geometry obtained via two-photon microscopy. I found that a bulk-vascularization assumption does not provide an accurate picture of penetration depth of the collected fluorescence signal. Instead the degree of absorption difference between extravascular and intravascular space, as well as the absorption difference between excitation and emission wavelengths must be taken into account to determine the depth distribution. Additionally, I found that using targeted illumination can provide for superior surface vessel sensitivity over wide-field illumination, with small area detection offering an even greater amount of sensitivity to surface vasculature. Depth sensitivity can be enhanced by either increasing the detector area or increasing the illumination area. Finally, it is shown that the excitation wavelength and vessel size can affect intra-vessel sampling distribution, as well as the amount of signal that originates from inside the vessel under targeted illumination conditions.
text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography