To see the other types of publications on this topic, follow the link: Reconstruction and flux simulations.

Dissertations / Theses on the topic 'Reconstruction and flux simulations'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Reconstruction and flux simulations.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ntemos, George. "GPU-accelerated high-order scale-resolving simulations using the flux reconstruction approach." Thesis, Imperial College London, 2017. http://hdl.handle.net/10044/1/59135.

Full text
Abstract:
High-order methods in Computational Fluid Dynamics (CFD) offer a potential route towards the resolution of hitherto intractable fluid-dynamics problems in industry. The Flux Reconstruction (FR) approach provides a unifying framework for a number of popular high-order methods such as the Discontinuous Galerkin (DG). Its suitability for use on unstructured grids along with its ability to facilitate massively parallelised implementation on architectures such as GPUs provide a means to tackle computationally challenging flows around complex geometries. Such a flow can be found in the rod-aerofoil tandem configuration: Complex, unsteady flow structures generated by and interacting with more than a single solid body are central to a number of applications in the aerospace industry. The current thesis attempts to demonstrate the suitability of the FR approach in successfully simulating the flow around a rod-aerofoil configuration. The in-house CFD solver employed in the research is presented and the FR implementation analysed. Computational grid resolution issues arising from the rod-aerofoil problem are studied and a novel strategy for the stabilisation of the computation is implemented in the form of local entropy stability. The results obtained are analysed and conclusions are drawn on the utility of the FR approach in the absence of a sub-grid scale model (Implicit LES - under-resolved DNS). The present work confirms the utility of local entropy stability for the stabilisation of the rod-aerofoil simulation of aerofoil-chord based Reynolds number of Re=480, 000. It will also demonstrate that the under-resolved DNS setup that resulted in a computational cost of approximately six hours for a single flow pass over the aerofoil chord on 200 Nvidia P100 GPUs resulted in moderate success for a significant portion of the flow dynamics, which not adequately predicted when compared with experiment. The latter led to a series of useful conclusions. The core of the conclusions involved the apparent over-prediction of time-averaged velocity and momentum deficits across wakes and as well as over-prediction of turbulent intensities. An identification of the problematic areas is therefore given and potential alleviation techniques outlined.
APA, Harvard, Vancouver, ISO, and other styles
2

Negre, Delphine. "Rationalisation de l’Accès aux Produits Naturels Fongiques par une Approche OSMAC in silico : Cas d’étude avec la modélisation du métabolisme de Penicillium rubens." Electronic Thesis or Diss., Nantes Université, 2024. http://www.theses.fr/2024NANU4038.

Full text
Abstract:
Face à la résistance accrue aux antibiotiques menaçant la santé publique, la prospection de nouvelles molécules biologiquement actives est pressante. Les champignons filamenteux se distinguent par leur capacité à synthétiser une large gamme de produits naturels, sous l’influence de clusters de gènes biosynthétiques (BGC) qui orchestrent la production de métabolites spécialisés. Toutefois, de nombreux produits issus de ces BGCs n’ont pas encore été caractérisés et leur chimiodiversité demeure sous-explorée en raison de l’incapacité à activer l’ensemble de leur potentiel en laboratoire. L’approche OSMAC (One Strain Many Compound) permet de solliciter ce potentiel en variant les conditions de culture. Cependant, cette méthode reste complexe et coûteuse en raison de son caractère aléatoire et du grand nombre d’expérimentations nécessaires. L’optimisation de ces processus nécessite l’intégration de stratégies plus rationnelles et efficaces. A l’aide d’approches systémiques liées à la biologie des systèmes, les réseaux métaboliques à l’échelle du génome (GSMN) offrent une modélisation détaillée des voies métaboliques, des enzymes impliquées et des gènes associés, fournissant un aperçu précis du métabolisme. Dans ce cadre, nous proposons une stratégie alternative: l’OSMAC in silico. En reconstruisant un GSMN actualisé pour Penicillium rubens, nous avons pu étudier les réponses de son métabolisme sous divers scénarios nutritionnels. Cette modélisation a permis d’évaluer l’influence de différentes sources de carbone et d’azote sur sa croissance et la production de métabolites spécialisés, ouvrant ainsi de nouvelles perspectives pour optimiser la production de produits naturels
Given the pressing issue of increasing antibiotic resistance threatening public health, new biologically active molecule research is urgent. Filamentous fungi are charcterised by their ability to synthesise a wide range of natural products, driven by biosynthetic gene clusters (BGCs) that orchestrate the production of specialised metabolites. However, many products derived from these BGCs remain uncharacterised, and their chemodiversity is underexplored due to the inability to activate their full potential in laboratory settings. The OSMAC (One Strain Many Compounds) approach seeks to harness this potential through culture condition variations. Nevertheless, this method remains complex and costly due to its randomness and vast number of experiments required. Therefore, optimising these processes needs the integration of more rational and efficient strategies. Using systems biology approaches, genome-scale metabolic networks (GSMNs) provide detailed modeling of metabolic pathways, involved enzymes, and associated genes, offering a precise overview of metabolism. In this context, we propose an alternative strategiy: in silico OSMAC. By reconstructing an updated GSMN for Penicillium rubens , we studied its metabolic responses under various nutritional scenarios. This modelling enabled us to assess the influence of different carbon and nitrogen sources on growth and the production of specialised metabolites, thereby opening new prospects for optimising the production of natural products
APA, Harvard, Vancouver, ISO, and other styles
3

Delestre, Olivier. "Simulation du ruissellement d'eau de pluie sur des surfaces agricoles." Phd thesis, Université d'Orléans, 2010. http://tel.archives-ouvertes.fr/tel-00587197.

Full text
Abstract:
L'objectif de ce travail est le développement d'un modèle et d'une méthode numérique adaptés à la simulation du ruissellement d'eau de pluie sur des surfaces agricoles. Pour cela, nous utilisons un système d'équations aux dérivées partielles pour les eaux peu profondes : le système de Saint Venant. La pluie et l'infiltration y sont pris en compte par l'ajout de termes source et le couplage avec un modèle d'infiltration. Le système étant hyperbolique et conservatif nous choisissons d'utiliser un schéma aux volumes finis avec reconstruction hydrostatique. Avec cette reconstruction nous obtenons un schéma permettant de traiter les équilibres stationnaires et les interfaces sec/mouillé dues aux événements pluvieux. Tout d'abord, nous effectuons une comparaison systématique de différents flux numériques, de différentes reconstructions d'ordre deux (MUSCL et ENO modifiées) et de différentes méthodes de traitement des frottements sur des solutions analytiques unidimensionnelles. Ces comparaisons nous permettent de choisir une méthode numérique adaptée à la simulation du ruissellement qui en outre capture les phénomènes de type roll-waves. Ensuite nous nous intéressons au traitement de la pluie et de l'infiltration à l'aide du modèle de Green-Ampt. Cette méthode généralisée en dimension deux est validée sur des résultats expérimentaux obtenus à l'INRA d'Orléans et à l'IRD. La méthode numérique choisie et validée a été implémentée dans FullSWOF_2D un logiciel libre écrit en C++ pour la simulation de ruissellement d'eau de pluie sur des surfaces agricoles.
APA, Harvard, Vancouver, ISO, and other styles
4

Gross, Richard Edward. "Numerical simulations of flux pinning." Thesis, University of Cambridge, 1996. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.243012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Hu, Chih-Chieh. "Mechanistic modeling of evaporating thin liquid film instability on a bwr fuel rod with parallel and cross vapor flow." Diss., Atlanta, Ga. : Georgia Institute of Technology, 2009. http://hdl.handle.net/1853/28148.

Full text
Abstract:
Thesis (M. S.)--Mechanical Engineering, Georgia Institute of Technology, 2009.
Committee Chair: Abdel-Khalik, Said; Committee Member: Ammar, Mostafa H.; Committee Member: Ghiaasiaan, S. Mostafa; Committee Member: Hertel, Nolan E.; Committee Member: Liu, Yingjie.
APA, Harvard, Vancouver, ISO, and other styles
6

Tsui, Chi-Wa. "Magnetic flux reconstruction methods for shaped tokamaks." Thesis, Massachusetts Institute of Technology, 1993. http://hdl.handle.net/1721.1/12279.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Caro, Gregory P. "Direct numerical simulations of diffusive staircases in the Arctic." Thesis, Monterey, Calif. : Naval Postgraduate School, 2009. http://edocs.nps.edu/npspubs/scholarly/theses/2009/Mar/09Mar%5FCaro.pdf.

Full text
Abstract:
Thesis (M.S. in Physical Oceanography)--Naval Postgraduate School, March 2009.
Thesis Advisor(s): Radko, Timour. "March 2009." Description based on title screen as viewed on April 23, 2009. Author(s) subject terms: Double-diffusion, diffusive convection, heat flux, thermohaline staircase, Includes bibliographical references (p. 39-41). Also available in print.
APA, Harvard, Vancouver, ISO, and other styles
8

Spencer, Steven Charles. "Computer simulations of flux pinning in type II superconductors." Thesis, Imperial College London, 1996. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.338422.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Virtanen, I. (Iiro). "Surface flux transport simulations of the photospheric magnetic field." Doctoral thesis, Oulun yliopisto, 2019. http://urn.fi/urn:isbn:9789526223292.

Full text
Abstract:
Abstract This thesis studies the long-term evolution of the photospheric magnetic field using surface flux transport simulations. The photospheric magnetic field and magnetic activity are tightly connected to space weather, and affect the whole heliosphere including the Earth. However, due to a lack of reliable observations our understanding of the long-term evolution of the photospheric magnetic field is still poor. Surface flux transport models, which are capable of simulating the evolution of the whole surface field from observations of solar activity, can be used to study the field in times when direct observations are not available. In this thesis we validate our surface flux transport model, optimize its parameters and test its sensitivity to uncertainties in parameter values and input data. We find a need to extend the model with a decay term to properly model the deep and long minimum between solar cycles 23 and 24, and simulate the photospheric magnetic field of cycles 21–24 using magnetographic observations as input. We also study consequences of hemispherically asymmetric activity, and show that activity in one hemisphere is enough to maintain polar fields in both hemispheres through cross-equatorial flow of magnetic flux. We develop a new method to reconstruct active regions from calcium K line and sunspot polarity observations. We show that this reconstruction is able to accurately capture the correct axial dipole moment of active regions. We study the axial dipole moments of observed active regions and find that a significant fraction of them have a sign opposite to the sign expected from Hale’s and Joy’s laws, proving that the new reconstruction method has an advantage over existing methods that rely on Hale’s and Joy’s laws to define polarities. We show one example of a long simulation covering solar cycles 15–21, demonstrating that using the active region reconstruction and surface flux transport model presented in this thesis it is possible to simulate the large-scale evolution of the photospheric magnetic field over the past century
Original papers The original publications are not included in the electronic version of the dissertation. Virtanen, I. O. I., Virtanen, I. I., Pevtsov, A. A., Yeates, A., & Mursula, K. (2017). Reconstructing solar magnetic fields from historical observations. II. Testing the surface flux transport model. Astronomy & Astrophysics, 604, A8. https://doi.org/10.1051/0004-6361/201730415 http://jultika.oulu.fi/Record/nbnfi-fe2017103050356 Virtanen, I. O. I., Virtanen, I. I., Pevtsov, A. A., & Mursula, K. (2018). Reconstructing solar magnetic fields from historical observations. III. Activity in one hemisphere is sufficient to cause polar field reversals in both hemispheres. Astronomy & Astrophysics, 616, A134. https://doi.org/10.1051/0004-6361/201732323 http://jultika.oulu.fi/Record/nbnfi-fe201902205813 Virtanen, I. O. I., Virtanen, I. I., Pevtsov, A. A., Bertello, L., Yeates, A., & Mursula, K. (2019). Reconstructing solar magnetic fields from historical observations. IV. Testing the reconstruction method. Astronomy & Astrophysics, 627, A11. https://doi.org/10.1051/0004-6361/201935606 http://jultika.oulu.fi/Record/nbnfi-fe2019091828628 Virtanen, I. O. I., Virtanen, I. I., Pevtsov, A. A., & Mursula, K. (2019) Axial dipole moment of solar active regions in cycles 21-24. Manuscript
APA, Harvard, Vancouver, ISO, and other styles
10

Caschera, Elisabetta. "Global confinement properties in global, flux-driven, gyrokinetic simulations." Electronic Thesis or Diss., Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0509.

Full text
Abstract:
La compréhension du confinement du plasma dans les réacteurs à fusion est l’une des étapes manquantes pour la disponibilité de l’énergie de fusion. La conception de futurs réacteurs tels que ITER sont bases sur l'extrapolation de lois d'échelle empiriques. Dans ce travail de thèse nous étudions les propriétés globales du confinement du plasma dans un Tokamak avec l'une des simulations numériques les plus complétés. Les recherches portent sur deux sujets principaux: les propriétés d’échelle du confinement et l’effet de la limite du plasma sur le transport turbulent. Un résultat important est obtenu lors de la reproduction de la loi d’échelle globale du temps de confinement de l’énergie avec les simulations numériques. La condition aux limites du code a été modifié pour imiter cela au bord du plasma dans les expériences. Une physique supplémentaires est accessibles aux simulations, telles que l'instabilité de type Kelvin-Helmeholtz au niveau de la separatrice et la turbulence sous-critique de bord
Understanding and predicting the performance of a fusion reactor in terms of confinement is one of the missing milestones for the availability of fusion energy. The predictions for the design of future reactors such as ITER are based on the extrapolation of empiricalscaling laws. We investigate global confinement properties of turbulent heat transport in a Tokamak with first principle simulations. The research is carried on two main topics: the scaling properties of plasma confinement and the effect of the plasma boundary on the turbulent transport. An important result is obtained when reproducing the global scaling for the energy confinement time with numerical simulations. However the scaling properties are found to brake at the local level. The boundary condition of the code has been modified to mimic the experimental Scrape-Off Layer at the plasma edge. Additional physics is now accessible, such as Kelvin-Helmholtz-like instability at separatrix and edge subcritical turbulence
APA, Harvard, Vancouver, ISO, and other styles
11

Yureidini, Ahmed. "Robust blood vessel reconstruction for interactive medical simulations." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10044/document.

Full text
Abstract:
Dans le cadre des simulations interactives, le manque de modèles géométriques reste une des limitations majeurs des simulateurs. Actuellement, les simulateurs commerciaux ne propose pas ou un tout cas, un nombre limité de cas. Un grand nombre des travaux abordent cependant ce sujet tout au long de ces deux dernières décennies. Malgré une vaste littérature, les méthodes ne sont pas adaptées à un contexte interactive, plus particulièrement quand il s'agit des réseaux vasculaires. Dans cette thèse, nous considérons le problème de la segmentation et la reconstruction des vaisseaux sanguins à partir de données patients en 3DRA. Pour ce faire, nous proposons deux nouveaux algorithmes, un pour la segmentation et un autre, pour la reconstruction. Tout d'abord, le réseau vasculaire est construit grâce à un algorithme de suivi de la ligne centrale des vaisseaux. De plus, notre procédure de suivi extrait des point à la surface des vaisseaux de manière robuste. Deuxièmement, ces points sont estimés par une surface implicite (un blobby model) qui est raffinée de façon itérative. Les résultats du suivi et de la reconstruction sont produit à partir de données synthétiques et réelles. Lors de la simulation de la navigation d'outils interventionnels, notre modèle géométrique remplit les exigences des simulations interactives : une prédiction et détection rapide des collisions, l'accès à l'information topologique, une surface lisse et la mise à disposition de quantités différentielles pour la résolution des contacts
In the context of interactive simulation, the lack of patient specific geometrical models remains one of the major limitations of simulators. Current commercial simulators proposed no or a limited number of cases. However, a vast literature on the subject has been introduced in the past twenty years. Nevertheless, the proposed methods are not adapted to an interactive context, especially when dealing with vascular networks. In this work, we address the problem of blood vessel segmentation and reconstruction from 3DRA patient data. To this end, we propose two novel algorithms for segmentation and reconstruction. First, the vessel tree is built by tracking the vessel centerline. Our dedicated tracking process also extracts points on the vessel surface in a robust way. Second, those points are fitted by an implicit surface (a blobby model) that is iteratively refined. Tracking and reconstruction results are reported on synthetic and patient data. Simulations within an interventional tool navigation context showed that the resulting geometrical model complies with interactive simulation requirements : fast collision detection and prediction, topology information, smoothness and availability of differential quantities for contact response computation
APA, Harvard, Vancouver, ISO, and other styles
12

Sturrock, Zoe. "Numerical simulations of sunspot rotation driven by magnetic flux emergence." Thesis, University of St Andrews, 2017. http://hdl.handle.net/10023/10129.

Full text
Abstract:
Magnetic flux continually emerges from the Sun, rising through the solar interior, emerging at the photosphere in the form of sunspots and expanding into the atmosphere. Observations of sunspot rotations have been reported for over a century and are often accompanied by solar eruptions and flaring activity. In this thesis, we present 3D numerical simulations of the emergence of twisted flux tubes from the uppermost layers of the solar interior, examining the rotational movements of sunspots in the photospheric plane. The basic experiment introduces the mechanism and characteristics of sunspot rotation by a clear calculation of rotation angle, vorticity, magnetic helicity and energy, whereby we find an untwisting of the interior portion of the field, accompanied by an injection of twist into the atmospheric field. We extend this model by altering the initial field strength and twist of the sub-photospheric tube. This comparison reveals the rotation angle, helicity and current show a direct dependence on field strength. An increase in field strength increases the rotation angle, the length of fieldlines extending into the atmosphere, and the magnetic energy transported to the atmosphere. The fieldline length is crucial as we predict the twist per unit length equilibrates to a lower value on longer fieldlines, and hence possesses a larger rotation angle. No such direct dependence is found when varying the twist but there is a clear ordering in rotation angle, helicity, and energy, with more highly twisted tubes undergoing larger rotation angles. We believe the final angle of rotation is reached when the system achieves a constant degree of twist along the length of fieldlines. By extrapolating the size of the modelled active region, we find rotation angles and rates comparable with those observed. In addition, we explore sunspot rotation caused by sub-photospheric velocities twisting the footpoints of flux tubes.
APA, Harvard, Vancouver, ISO, and other styles
13

Cook, Graeme Robert. "Magnetic flux transport simulations : applications to solar and stellar magnetic fields." Thesis, University of St Andrews, 2011. http://hdl.handle.net/10023/2072.

Full text
Abstract:
Magnetic fields play a key role in a wide variety of phenomena found on the Sun. One such phenomena is the Coronal Mass Ejection (CME) where a large amount of material is ejected from the Sun. CME’s may directly affect the earth, therefore understanding their origin is of key importance for space weather and the near-Earth environment. In this thesis, the nature and evolution of solar magnetic fields is considered through a combination of Magnetic Flux Transport Simulations and Potential Field Source Surface Models. The Magnetic Flux Transport Simulations produce a realistic description of the evolution and distribution of the radial magnetic field at the level of the solar photosphere. This is then applied as a lower boundary condition for the Potential Field Source Surface Models which prescribe a coronal magnetic field. Using these two techniques, the location and variation of coronal null points, a key element in the Magnetic Breakout Model of CMEs, are determined. Results show that the number of coronal null points follow a cyclic variation in phase with the solar cycle. In addition, they preferentially form at lower latitudes as a result of the complex active latitude field. Although a significant number of coronal nulls may exist at any one time (≈ 17), it is shown that only half may satisfy the necessary condition for breakout. From this it is concluded that while the Magnetic Breakout Model of CMEs is an important model in understanding the origin of the CMEs, other processes must occur in order to explain the observed number of CMEs. Finally, the Magnetic Flux Transport Simulations are applied to stellar magnetic fields and in particular to the fast rotating star HD171488. From this speculative study it is shown that the Magnetic Flux Transport Simulations constructed for the Sun may be applied in very different stellar circumstances and that for HD171488 a significantly higher rate of meridional flow (1200-1400 ms⁻¹) is required to match observed magnetic field distributions.
APA, Harvard, Vancouver, ISO, and other styles
14

Appelgren, Patrik. "Experiments with and modelling of explosively driven mangetic flux compression generators." Licentiate thesis, KTH, Rymd- och plasmafysik, 2008. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-9638.

Full text
Abstract:
This thesis presents work performed on explosively driven magnetic flux compression generators. This kind of devices converts the chemically stored energy in a high explosive into electromagnetic energy in the form of a powerful current pulse. The high energy density of the high explosives makes flux compression generators attractive as compact power sources. In order to study these devices a generator was designed at FOI in the mid-90ies. Two generators remained unused and became available for this licentiate work. The thesis reports experiments with, and simulations of, the operation of the two remaining generators. The aim was to fully understand the performance of the generator design and be able to accurately simulate its behaviour. The generators were improved and fitted with various types of diagnostics to monitor the generator operation. Two experiments were performed of which the first generator was operated well below its current capability limits while the second was stressed far above its limits. Since the generator generates a rapidly increasing current, a current measurement is the most important diagnostic revealing the current amplification of the generator and its overall performance. Further it is important to measure the timing of various events in the generator. With a common time reference it is possible to combine data from different probes and extract interesting information which cannot be directly obtained with a single measurement. Two types of numerical simulations have been performed: Hydrodynamic simulations of the high explosive interaction with the armature were used to verify the measured armature dynamics. A zero-dimensional code was used to perform circuit simulations of the generator. The model takes into account the inductance reduction due to the compression of the generator as well as the change in conductivity due to heating of the conductors in the generators.
QC 20101103
APA, Harvard, Vancouver, ISO, and other styles
15

Shavdina, Olga. "Micro-nano-structuration de surface par renforcement local du flux électromagnétique." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSES076/document.

Full text
Abstract:
Cette thèse présente les résultats théoriques et expérimentaux de l’interaction entre une onde plane et une monocouche de particules sub-microniques sphériques/non sphériques transparentes au champ optique. Un renforcement local du champ optique sous la particule peut être observé, menant à la formation d’une concentration d’énergie appelée «nanojet photonique». Une étude théorique de la répartition du champ électromagnétique sous les microparticules et le choix des conditions optimales, nous a permis d’exploiter ce nanojet comme un outil de micro-nano-structuration. Dans le cadre de cette thèse, une structuration périodique 2D d’un matériau photosensible à base de TiO2 déposé sur divers substrats a été effectuée par la technique de photolithographie colloïdale. En utilisant ce matériau, cette approche permet en une seule étape de conduire à une couche fonctionnelle, stable mécaniquement et chimiquement. Enfin, cette thèse présente quelques pistes d’exploitation et de perspectives de l’utilisation du phénomène de concentration d’une onde incidente par les microparticules. Plus précisément, cette microstructuration peut être utilisée pour des fonctions de piégeage optique, pour de la croissance localisée de matériaux fonctionnels ou encore pour augmenter l’activité de photocatalyse de couches actives
This PhD thesis presents the theoretical and experimental results of the interaction between a plane wave and a monolayer of spherical / non-spherical submicron particles that are transparent to the optical field. Local amplification of the optical field under the particle can be observed. This amplification of electromagnetic field is called "photonic nanojet". A theoretical study of nanojet under the microparticles and the choice of optimal conditions, allowed us to exploit this nanojet as a micro-nano-structuring tool. A 2D periodic structuring of a TiO2-based photosensitive material deposited on various substrates was carried out by the colloidal photolithography technique. By using this TiO2-based photosensitive material, this approach makes possible in a single step to produce a functional layer. Finally, this thesis presents some opportunities to exploit the phenomenon of concentration of an incident wave by the microparticles. More precisely, this microstructuration can be used for optical trapping functions, for the localized growth of functional materials or for increasing the photocatalytic activity of active layers
APA, Harvard, Vancouver, ISO, and other styles
16

Marchand, Mathieu. "Flux financiers et endettement de l'État : simulations par modèle d'équilibre général calculable (MEGC)." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24520/24520.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Ridel, Mélissa. "Reconstruction du flux d'énergie et recherche de squarks et gluinos dans l'expérience D0." Phd thesis, Université Paris Sud - Paris XI, 2002. http://tel.archives-ouvertes.fr/tel-00002927.

Full text
Abstract:
DO est l'une des 2 expériences du collisionneur p-pbar du Fermi National Accelerator Laboratory près de Chicago. Après 5 années d'arrêt, le Run II a débuté en mars 2001. Il permettra d'explorer de nouveaux domaines de masses de squarks et de gluinos, particules supersymétriques dont la signature en jets et énergie transverse manquante est l'objet de ce travail. Mais, avant le démarrage, j'ai travaillé sur des améliorations hardware et software de la mesure de l'énergie, essentielle pour les jets et l'énergie transverse manquante.
Une simulation des chaînes de lecture et de calibration de chaque voie du calorimètre a été réalisée. Son résultat dépend de 8 grandeurs caractéristiques qui ont été extraites par traitement du signal de mesures de réflectométrie temporelle. Elle permettra de définir une stratégie de calibration du calorimètre.
Une clusterisation des dépôts d'énergie calorimétrique a été réalisée (cel1NN) basée sur la cellule et non la tour et exploitant au maximum la granularité du calorimètre notamment en débutant dans le Sème compartiment électromagnétique, 4 fois plus granulaire que les autres. L'information longitudinale permet de séparer les particules électromagnétiques et hadroniques superposées. Ainsi, tous les éléments indispensables â la reconstruction individuelle des gerbes sont mis en oeuvre.
Puis, l'energy flow combine les clusters ce11NN et les traces reconstruites dans la cavité centrale pour conserver la meilleure mesure de l'énergie et améliorer ainsi la reconstruction du flux d'énergie de chaque événement.
L'efficacité des déclenchements calorimétriques actuels a été déterminée et utilisée pour une recherche de squarks et gluinos utilisant des événements Monte Carlo dans le cadre de mSUGRA. Une limite inférieure sur les masses des squarks et des gluinos qu'atteindra DO avec 100 pb-1 de luminosité est prédite â partir d'outils de reconstruction standards; elle pourra être améliorée grâce à l'utilisation de l'energy flow.
APA, Harvard, Vancouver, ISO, and other styles
18

Ridel, Mélissa. "Reconstruction du flux d'énergie et recherche de squarks et gluinos dans l'expérience DØ." Paris 11, 2002. http://www.theses.fr/2002PA112101.

Full text
Abstract:
DØ est l'une des 2 expériences du collisionneur pp ̃du Fermi National Accelerator Laboratory près de Chicago. Après 5 années d'arrêt, le Run II a débuté en mars 2001. Il permettra d'explorer de nouveaux domaines de masses de squarks et de gluinos, particules supersymétriques dont la signature en jets et énergie tranverse manquante est l'objet de ce travail. Mais, avant le démarrage, j'ai travaillé sur des améliorations hardware et software de la mesure de l'énergie, essentielle pour les jets et l'énergie transverse manquante. Une simulation des chaînes de lecture et de calibration de chaque voie du calorimètre a été réalisée. Son résultat dépend de 8 grandeurs caractéristiques qui ont été extraites par traitement du signal de mesures de réflectométrie temporelle. Elle permettra de définir une stratégie de calibration du calorimètre. Une clusterisation des dépôts d'énergie calorimétrique a été réalisée (cellNN) basée sur la cellule et non la tour et exploitant au maximum la granularité du calorimètre notamment en débutant dans le 3ème compartiment électromagnétique, 4 fois plus granulaire que les autres. L'information longitudinale permet de séparer les particules électromagnétiques et hadroniques superposées. Ainsi, tous les éléments indispensables à la reconstruction individuelle des gerbes sont mis en œuvre. Puis, l'energy flow combine les clusters cellNN et les traces reconstruites dans la cavité centrale pour conserver la meilleure mesure de l'énergie et améliorer ainsi la reconstruction du flux d'énergie de chaque événement. L'efficacité des déclenchements calorimétriques actuels a été déterminée et utilisée pour une recherche de squarks et gluinos utilisant des événements Monte Carlo dans le cadre de mSUGRA. Une limite inférieure sur les masses des squarks et des gluinos qu'atteindra DØ avec 100 pb^(-1) de luminosité est prédite à partir d'outils de reconstruction standard; elle pourra être améliorée grâce à l'utilisation de l'energy flow
The DØ experiment is located at the Fermi National Accelerator Laboratory on the TeVatron proton-antiproton collider. The Run II has started in march 2001 after 5 years of shutdown and will allow DØ extend its reach in squarks and gluinos searches, particles predicted by supersymmetry. In this work, I focussed on their decays that lead to signature with jets and missing transverse energy. But before the data taking started, I studied bath software and hardware ways to improve the energy measurement which is crutial for jets and for missing transverse energy. For each calorimeter channel, the physics and the calibration signal has been simulated based on a database of the 8 parameters that describe each channel. The parameters have been extracted from time reflectometry measurements. The calibration strategy can be defined using this simulation. Energy deposits in the calorimeter has been clustered with celINN, at the cellievei instead of the tower level. Efforts have been made to take advantage of the calorimeter granularity to aim at individual particles showers reconstruction. CellNN starts from the third floor which has a quadruple granulariry compared to the other floors. The longitudinal information has been used to detect electromagnetic and hadronic showers overlaps. Then, clusters and reconstructed tracks from the central detectors are combined and their energies compared. The better measurement is kept. Using this procedure allows to improve the reconstruction of each event energy flow. The efficiency of the current calorimeter triggers has been determined. They has been used to perform a Monte Carlo search analysis of squarks and gluinos in the mSUGRA framework. The lower bound that DO will be able to put on squarks and gluinos masses with a 100 pb^(-1) integrated luminosity has been predicted. The use of the energy flow instead of standard reconstruction tools will be able to improve this lower limit
APA, Harvard, Vancouver, ISO, and other styles
19

Kulchoakrungsun, Ekapob. "Global simulations of heat-flux-driven buoyancy and magnetothermal instabilities, and their astrophysical implications." Thesis, Massachusetts Institute of Technology, 2016. http://hdl.handle.net/1721.1/105598.

Full text
Abstract:
Thesis: S.B., Massachusetts Institute of Technology, Department of Physics, 2016.
Cataloged from PDF version of thesis.
Includes bibliographical references (page 36).
In this thesis, we investigate the convective instabilities induced by anisotropic conduction in a rapidly conducting plasma. We simulate the magneto-thermal instability (MTI), and the heat-flux-driven buoyancy instability (HBI) in two- and three- dimensional, global hydrodynamic simulations performed by the AREPO code, and verify the results of previous works. Our results have important astrophysical implications, such as the conductive heat transport in galaxy clusters.
by Ekapob Kulchoakrungsun.
S.B.
APA, Harvard, Vancouver, ISO, and other styles
20

Eker, Gokhan. "Performance Evaluation Of Magnetic Flux Density Based Magnetic Resonance Electrical Impedance Tomography Reconstruction Algorithms." Master's thesis, METU, 2009. http://etd.lib.metu.edu.tr/upload/12610940/index.pdf.

Full text
Abstract:
Magnetic Resonance Electrical Impedance Tomography (MREIT) reconstructs images of electrical conductivity distribution based on magnetic flux density (B) measurements. Magnetic flux density is generated by an externally applied current on the object and measured by a Magnetic Resonance Imaging (MRI) scanner. With the measured data and peripheral voltage measurements, the conductivity distribution of the object can be reconstructed. There are two types of reconstruction algorithms. First type uses current density distributions to reconstruct conductivity distribution. Object must be rotated in MRI scanner to measure three components of magnetic flux density. These types of algorithms are called J-based reconstruction algorithms. The second type of reconstruction algorithms uses only one component of magnetic flux density which is parallel to the main magnetic field of MRI scanner. This eliminates the need of subject rotation. These types of algorithms are called B-based reconstruction algorithms. In this study four of the B-based reconstruction algorithms, proposed by several research groups, are examined. The algorithms are tested by different computer models for noise-free and noisy data. For noise-free data, the algorithms work successfully. System SNR 30, 20 and 13 are used for noisy data. For noisy data the performance of algorithm is not as satisfactory as noise-free data. Twice differentiation of z component of B (Bz) is used for two of the algorithms. These algorithms are very sensitive to noise. One of the algorithms uses only one differentiation of Bz so it is immune to noise. The other algorithm uses sensitivity matrix to reconstruct conductivity distribution.
APA, Harvard, Vancouver, ISO, and other styles
21

Witherden, Freddie. "On the development and implementation of high-order flux reconstruction schemes for computational fluid dynamics." Thesis, Imperial College London, 2015. http://hdl.handle.net/10044/1/28967.

Full text
Abstract:
High-order numerical methods for unstructured grids combine the superior accuracy of high-order spectral or finite difference methods with the geometric flexibility of low-order finite volume or finite element schemes. The Flux Reconstruction (FR) approach unifies various high-order schemes for unstructured grids within a single framework. Additionally, the FR approach exhibits a significant degree of element locality, and is thus able to run efficiently on modern streaming architectures, such as graphics processing units (GPUs). The aforementioned properties of FR mean it offers a promising route to performing affordable, and hence industrially relevant, scale-resolving simulations of hitherto intractable unsteady flows within the vicinity of real-world engineering geometries. In this thesis a formulation of the FR approach that is suitable for solving non-linear advection-diffusion type problems on mixed curvilinear grids is developed. Issues around aliasing are explored in detail and techniques for mitigation outlined. A methodology for identifying symmetric quadrature rules inside of a variety of domains is also presented and used to find several rules that appear to be an improvement over those in literature. This methodology is also used to obtain improved sets of solution points inside of triangular elements. PyFR, an open-source Python based framework for solving the compressible Navier–Stokes equations using the FR approach, is also developed. It is designed to target a range of hardware platforms via use of an in-built domain specific language based on the Mako templating engine. PyFR is able to operate on mixed grids in both two and three dimensions and can target NVIDIA GPUs, AMD GPUs, and Intel CPUs. Results are presented for various benchmark flow problems, single-node performance is discussed, heterogeneous multi-node capabilities are analysed, and scalability is demonstrated on up to 2000 NVIDIA K20X GPUs for a sustained performance of 1.3 PFLOP/s.
APA, Harvard, Vancouver, ISO, and other styles
22

Patin, David. "Le chauffage stochastique dans l'interaction laser-plasma à très haut flux." Paris 11, 2006. http://www.theses.fr/2006PA112020.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de l'étude de l'interaction laser plasma à très haut flux. L'objectif a été de rendre compte d'un phénomène bien précis : le chauffage stochastique. Ce phénomène trouve son origine dans la nature chaotique du comportement des électrons du plasma. Afin de construire un modèle théorique simple nous avons fait deux hypothèses : (i) des plasmas très peu denses, (ii) des intensités lasers très élevées. La deuxième hypothèse se traduit par un a>1 (où a=e*E0/m*c*omega0 avec -e la charge de l'électron, E0 le champ électrique du laser, m la masse de l'électron, c la vitesse de la lumière dans le vide et omega0 la pulsation de l'onde laser), ce qui entraîne la nécessité d'utiliser une approche relativiste du système. Avec ces deux hypothèses, notre système se compose d'un électron interagissant avec un ou plusieurs lasers et le modèle théorique pour décrire celui ci fait appel aux outils de la dynamique hamiltonienne. L'étude approfondie du modèle théorique a permis, via le critère de Chirikov, de dégager un ensemble de paramètres pour lequel le chaos est étendu. Ce chaos étendu est à la base du chauffage stochastique. Ensuite des simulations réalisées à l'aide d'un code PIC (Particle In Cell) ont permis de retrouver la signature d'un comportement chaotique prédit par le modèle théorique. L'influence de différents paramètres sur le gain en énergie cinétique des électrons apporté par le chauffage stochastique a été étudiée. Cela a permis également de conforter le bon choix du modèle théorique. Enfin, un premier test (numérique) d'utilisation du chauffage stochastique est présenté en annexe
This thesis takes place in the field of high intensity laser-plasma interaction. The aim was to highlight the stochastic heating effect. This phenomenon comes from the chaotic behavior of the plasma electrons. In order to have a simple theoretical model, two assumptions were made : underdense plasma and high intensity laser. The second one is equivalent to a>1 (where a is the normalized vector potential, a=eE0/mcw0 with (-e) the electron charge, E0 the electric field of the laser, m the electron mass, c the speed of light in vacuum and w0 the pulsation of the laser), so we need a relativistic approach of the system. The hamiltonian formalism is used in order to get information from our system. Using the Chirikov criterion, a set of parameters was deduced in order to get global stochasticity. Then, particle in cell simulations were performed in order to validate theoretical predictions. The influence of several parameters on the energy gain has been studied. Finally, a first numerical test was performed for protons acceleration
APA, Harvard, Vancouver, ISO, and other styles
23

Ch'ng, Eugene. "Developing artificial life simulations of vegetation to support the virtual reconstruction of ancient landscapes." Thesis, University of Birmingham, 2007. http://etheses.bham.ac.uk//id/eprint/262/.

Full text
Abstract:
Research in Virtual Heritage has gained popularity in recent years. Efforts by the community of Virtual Heritage researchers to reconstruct sites considered worthy of preservation span from the historical “built environment”, including the Pyramids at Ghiza and Virtual Reality Notre Dame, to natural heritage sites such as Australia’s Great Barrier Reef and the Virtual Everglades at Florida. Other important efforts to conserve artefacts and educate visitors include Virtual Stonehenge, Pompeii and the Caves of Lascaux. Entire villages, cities and even caves have been constructed as part of virtual conservation efforts. These digital reconstructions have, to date, contributed significant awareness and interest among the general public, providing educational benefits to schoolchildren and new research opportunities to archaeologists and conservationists, to mention but two groups of beneficiaries. Today, to paraphrase the work of Professor Robert J. Stone, Virtual Heritage strives to deliver to a global audience, computer-based reconstructions of artefacts, sites and actors of historic, artistic, religious and cultural heritage in such a way as to provide formative educational experience through the manipulations of time and space. It is realised that the user experience and educational value of a Virtual Heritage site is crucial – the process of virtual reconstruction is as important as its outcome. The total experience therefore, hinges on the modelling accuracy, scientific credibility, and the interactive visualisation capability of a virtual site. However, many interactive media implementations in Virtual Heritage in the recent past have failed to make full use of the advanced interactive visualisation techniques available to researchers. In particular, an element that many end users might consider essential, namely the inclusion of “living” and responsive virtual agents are noticeably lacking in most all Virtual Heritage examples. The addition of these ‘living’ entities and environments could give Virtual Heritage applications a richer, more evolvable content, and a higher level of interactivity. Artificial Life (alife), an emerging research area dealing with the study of synthetic systems that exhibit behaviours characteristic of natural living systems, offers great potential in overcoming this missing element in current Virtual Heritage applications. The present research investigates the feasibility of constructing models of vegetation, exploiting new developments in Artificial Life implemented within a controlled Virtual Environment for application in the field of Archaeology. The specific area of study is the recently discovered and recently named Shotton river valley off the eastern coast of the United Kingdom – a region that once flourished during the Mesolithic Era prior to the post-glacial flooding of the North Sea.
APA, Harvard, Vancouver, ISO, and other styles
24

Mishra, Ekant. "Concussions in Ice Hockey : Accident Reconstructions Using Finite Element Simulations." Thesis, KTH, Skolan för kemi, bioteknologi och hälsa (CBH), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-253774.

Full text
Abstract:
Ice hockey, one of the most popular sports in the world, is a contact sport that is always associated with huge risks of traumatic brain injuries (TBIs) resulting from high-velocity impacts. Although technology in player protection equipment has advanced over the years, mild traumatic brain injuries (mTBIs) like concussion remain prevalent. Finite Element (FE) analysis presents a methodology to recreate accidents in an effort to study the effects of protective helmets and predict brain injuries. This study aimed at improving the response of an existing ice hockey helmet FE model during different impact conditions and reconstructing an ice hockey collision using FE simulations. First, the shear response of the Expanded Polypropylene (EPP) material for the helmet liner was improved by means of a single element simulation to replicate the experiments. Simulations of helmet drop tests were then performed to validate the helmet FE model. Two different designs of the helmet model were implemented, one with normal properties of the foam and the other with a softer foam. Actual cases of ice hockey accidents were then reconstructed using positioning and impact velocities as input from video analysis. As player to player collisions had not been reconstructed for ice hockey using two player models, it was decided to use two full body Human Body Models (HBMs) for the reconstruction. The biomechanical injury parameters for the accident reconstruction were plotted and compared with injury thresholds for concussion. The kinematic results achieved from the drop test simulations showed a considerable decrease in peak values for resultant accelerations, resultant rotational accelerations, and resultant rotational velocities. These results also exhibited better CORrelation and Analysis (CORA) scores than previously achieved. The biomechanical analysis of the accident reconstruction showed the strains in the brain for the concussed player to be more than the threshold for concussion, which confirms the validity of the reconstruction approach. The results of this study show an improved response of the helmet FE model under different impact conditions. They also present a methodology for ice hockey accident reconstruction using two full body HBMs.
APA, Harvard, Vancouver, ISO, and other styles
25

Yureidini, Ahmed. "Reconstruction robuste des vaisseaux sanguins pour les simulations médicales interactives à partir de données patients." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2014. http://tel.archives-ouvertes.fr/tel-01010973.

Full text
Abstract:
Dans le cadre des simulations interactives, le manque de modèles géométriques reste une des limitations majeures des simulateurs. Actuellement, les simulateurs commerciaux ne proposent pas ou un tout cas, un nombre limité de cas. Un grand nombre des travaux abordent cependant ce sujet tout au long de ces deux dernières décennies. Malgré une vaste littérature, les méthodes ne sont pas adaptées à un contexte interactif, plus particulièrement quand il s'agit des réseaux vasculaires. Dans cette thèse, nous considérons le problème de la segmentation et la reconstruction des vaisseaux sanguins à partir de données patients en Angiographie Rotationnelle (RA) 3D. Pour ce faire, nous proposons deux nouveaux algorithmes, un pour la segmentation et un autre, pour la reconstruction. Tout d'abord, le réseau vasculaire est construit grâce à un algorithme de suivi de la ligne centrale des vaisseaux. De plus, notre procédure de suivi extrait des points à la surface des vaisseaux de manière robuste. Deuxièmement, ces points sont estimés par une surface implicite (un blobby model) qui est, à son tour, raffinée de façon itérative. Les résultats du suivi et de la reconstruction sont produit à partir de données synthétiques et réelles. Lors de la simulation de la navigation d'outils interventionnels, notre modèle géométrique remplit les exigences des simulations interactives: une prédiction et détection rapide des collisions, l'accès à l'information topologique, une surface lisse et la mise à disposition de quantités différentielles pour la résolution des contacts.
APA, Harvard, Vancouver, ISO, and other styles
26

Qi, Yusheng Ph D. Massachusetts Institute of Technology. "Phase-resolved reconstruction and forecast of nonlinear irregular wave field based on direct numerical simulations." Thesis, Massachusetts Institute of Technology, 2017. http://hdl.handle.net/1721.1/111739.

Full text
Abstract:
Thesis: Ph. D., Massachusetts Institute of Technology, Department of Mechanical Engineering, 2017.
Cataloged from PDF version of thesis.
Includes bibliographical references (pages 241-249).
The problem of phase-resolved reconstruction and forecast of ocean wave field based on measurements is of basic scientific interest and practical importance in ocean science and marine engineering. This capability aids and expands the use and interpretation of field and wave basin measurements, contributing to the study of fundamental wave mechanics. It also expands the operational envelope and improves survivability and efficiency of ships and marine facilities in severe seas. We develop theoretical and computational capabilities to solve this problem, which can be applied to both ocean wave field and wave basin experiments. Given limited wave measurement data, there exists specific space and time domain( s) (the "predictable zone") where the wave-field can be reconstructed and forecasted. In this thesis, using linearized wave theory and reasonable assumptions of the frequency and directional extent of the wave field, we obtain closed-form expressions for (linear) predictable zone PL in terms of set notation involving the individual measurement. We derive and illustrate PL obtained for ("probe") measurements at one or more fixed locations over time, for moving probes, for whole-area wave measurements, and combinations of these. We also consider the problem of optimal deployment of these measurements to maximize the volume of PL in space-time. For J probes, we show that this volume scales as J³ (in contrast to J when the predictable zones of individual measurements are simply summed). With the knowledge of the predictable zone, we develop and validate a high-order reconstruction (HOR) method for the phase-resolved reconstruction of nonlinear wave field given a set of wave measurements. HOR optimizes the amplitude and phase of L free-wave components of the nonlinear wave field, accounting for nonlinear wave interactions up to order M in the evolution to obtain a nonlinear wave field that minimizes the reconstruction error between reconstructed wave field and the given measurements. For a given reconstruction tolerance, L and M are provided in the HOR scheme itself. To demonstrate the validity and efficacy of HOR, we perform extensive tests of general two- and three-dimensional wave fields specified by theoretical Stokes waves, nonlinear simulations, and physical wave fields in tank experiments. The necessary L, for general broad banded wave fields, is shown to be relatively small and substantially less than the free and locked modes needed for the nonlinear evolution. We find that, even for relatively small wave steepness, the inclusion of high-order effects in HOR is important for prediction of wave kinematics not in the measurements. For all the cases we consider, HOR converges to the underlying wave field within a nonlinear spatial-temporal predictable zone PNL (dependent on the measurements and wave nonlinearity). PNL generally extends in time (and space) beyond the measurements, thus obtaining reliable forecast/predictions of the wave field. For linear waves, PNL=PL, verifying the predictable zone theory. With increasing wave nonlinearity, we show that PNL contains and is generally greater than PL. Thus PL provides a (conservative) estimate of PNL when the underlying wave field is not known. For nonlinear steep wave-field, wave breaking plays an important role in the evolution of the wave field. We develop a phenomenological wave breaking model that can be incorporated into the nonlinear evolution engine of HOR to predict breaking onset and simulate proper amount of energy dissipation. Thus HOR can properly reconstruct and forecast nonlinear wave field which may contain breaking events. The breaking model is developed in the spectra domain and based on analysis of simulated two-dimensional wave breaking caused by different wave-wave interaction mechanism, including modulation instability and wave focusing. The developed wave breaking model is calibrated, validated and verified by different wave breaking measurements and excellent agreement is obtained between simulated wave breaking results and measured ones. The wave breaking model can be further used to simulate the locations of breaking events, which is validated statistically by calculating the Phillips statistics. This thesis does not address the issue of wave-body interaction nor the control problem for scale models in the wave basin, but it provides necessary nonlinear whole-field data for intense CFD analysis of wave-body interaction at a level heretofore not possible. The presence of imposed current or wind is not considered at this stage but can be incorporated in the future using the same framework.
by Yusheng Qi.
Ph. D.
APA, Harvard, Vancouver, ISO, and other styles
27

Didorally, Sheddia. "Prévision des flux de chaleur turbulents et pariétaux par des simulations instationnaires pour des écoulements turbulents chauffés." Thesis, Toulouse, ISAE, 2014. http://www.theses.fr/2014ESAE0015/document.

Full text
Abstract:
Cette thèse s’inscrit dans le cadre de l’amélioration des prévisions aérothermiques qui suscite l’intérêt croissant des industriels aéronautiques. Elle consiste à évaluer l’apport des méthodes URANS avancées de type SAS dans la prévision des flux de chaleur turbulents et pariétaux pour des écoulements turbulents chauffés. Elle vise aussi à situer ces approches par rapports aux modèles URANS classiques de type DRSM et hybrides RANS/LES comme la ZDES. Une extension de l’approche SAS à un modèle DRSM a d’abord été proposé afin d’obtenir une meilleure restitution des tensions de Reynolds résolues et modélisées. Ce modale SAS-DRSM a été implanté dans le code elsA de l’ONERA. Nous avons ensuite évalué les approches SAS disponibles avec ce code sur la prévention d’écoulements aérothermiques rencontrés sur avion dans un compartiment de moteur. Ces études ont montré que les approches SAS améliorent la représentation des écoulements par rapport aux modèles URANS classiques. Elles aboutissent à des écoulements fortement tridimensionnels avec de nombreuses structures turbulentes. Ces structures induisent un mélange turbulent accru et donc une meilleure prévision du flux de chaleur pariétal. De plus, nos travaux ont situé les approches de type SAS comme des méthodes plus précises que les méthodes URANS classiques sans augmentation importante du coût de calcul. Les modèles SAS ne résolvent pas les plus petites structures caractéristiques du mouvement turbulent par rapport à la ZDES qui montre des prévisions supérieures. Le modèle SAS-RDSM offre néanmoins la meilleur alternative de type SAS. Enfin, l’étude du flux de chaleur turbulent semble retrouver le fait que l’hypothèse classique de nombre de Prandtl turbulent constat n’est pas valable dans toutes les zones de l’écoulement
The improvement of aerothermal predictions is a major concern for aeronautic manufacturers. In line with this issue, SAS approaches are assessed on the prediction of wall and turbulent heat fluxes for heated-turbulent flows. This study also aims at evaluating these advanced URANS methods in regard to DRSM models and hybrid RANS/LES approaches as ZDES. Firstly, we proposed to combine the SAS approach and a DRSM model in order to better reproduce both resolved and modelled Reynolds stresses. This new model, called SAS-DRSM, was implemented in ONERA Navier-Strokes code elsA. Unsteady simulations of two heated turbulent flows encountered in an aircraft engine compartment were then performed to evaluate all the SAS models available in the code. These numerical studies demonstrated that SAS approaches improve prediction of the flows compared to classical URANS models. They lead to full 3D flows with many turbulent structures. These structures favour turbulent mixing and thus induce a better prediction of the wall heat fluxes. Moreover, the numerical simulations showed that SAS methods are more accurate than classical URANS models without increasing significantly calculation costs. SAS approaches are not able to resolve the smallest turbulent structures in relation to ZDES which provides better predictions. Finally, the investigation of the turbulent heat flux suggested that the constant turbulent Prendtl number assumption, that is characteristic of classical URANS models, may not be valid in some regions of the flow
APA, Harvard, Vancouver, ISO, and other styles
28

Lu, Philip Fei-Tung. "Monte-Carlo simulations of positron emission tomography based on liquid xenon detectors." Thesis, University of British Columbia, 2008. http://hdl.handle.net/2429/595.

Full text
Abstract:
The prospects for enhanced Positron Emission Tomography imaging using liquid xenon (LXe) gamma ray detectors had been examined. Monte-Carlo simulations using GEANT4 were performed and the results were used to study the expected performance of a small animal PET scanner in comparison with a simulated conventional small animal scanner (LSO Focus 120). A NEMA-like cylinder phantom and an image contrast phantom were simulated with both scanners to compare performance characteristics. A Compton reconstruction algorithm was developed for the LXe scanner, and its performance and limitations studied.
APA, Harvard, Vancouver, ISO, and other styles
29

Hariri, Farah. "FENICIA : un code de simulation des plasmas basé sur une approche de coordonnées alignées indépendante des variables de flux." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4760/document.

Full text
Abstract:
Ce travail porte sur le développement et la vérification d’une nouvelle approche de coordonnées alignées FCI (Flux-Coordinate Independent), qui tire partie de l’anisotropie du transport dans un plasma immergé dans un fort champ magnétique. Sa prise en compte dans les codes numériques permet de réduire grandement le coût de calcul nécessaire pour une précision donnée. Une particularité de l’approche nouvellement développée dans ce manuscrit est en particulier sa capacité à traiter, pour la première fois, des configurations avec point X. Toutes ces analyses ont été conduites avec FENICIA, code modulaire entièrement développé dans le cadre de cette thèse, et permettant la résolution d’une classe de modèles génériques. En résumé, la méthode développée dans ce travail est validée. Elle peut s’avérer pertinente pour un large champ d’application dans le contexte de la fusion magnétique. Il est montré dans cette thèse que cette technique devrait pouvoir s’appliquer aussi bien aux modèles fluides que gyrocinétiques de turbulence, et qu’elle permet notamment de surmonter un des problèmes fondamentaux des techniques actuelles, qui peinent à traiter de manière précise la traversée de la séparatrice
The primary thrust of this work is the development and implementation of a new approach to the problem of field-aligned coordinates in magnetized plasma turbulence simulations called the FCI approach (Flux-Coordinate Independent). The method exploits the elongated nature of micro-instability driven turbulence which typically has perpendicular scales on the order of a few ion gyro-radii, and parallel scales on the order of the machine size. Mathematically speaking, it relies on local transformations that align a suitable coordinate to the magnetic field to allow efficient computation of the parallel derivative. However, it does not rely on flux coordinates, which permits discretizing any given field on a regular grid in the natural coordinates such as (x, y, z) in the cylindrical limit. The new method has a number of advantages over methods constructed starting from flux coordinates, allowing for more flexible coding in a variety of situations including X-point configurations. In light of these findings, a plasma simulation code FENICIA has been developed based on the FCI approach with the ability to tackle a wide class of physical models. The code has been verified on several 3D test models. The accuracy of the approach is tested in particular with respect to the question of spurious radial transport. Tests on 3D models of the drift wave propagation and of the Ion Temperature Gradient (ITG) instability in cylindrical geometry in the linear regime demonstrate again the high quality of the numerical method. Finally, the FCI approach is shown to be able to deal with an X-point configuration such as one with a magnetic island with good convergence and conservation properties
APA, Harvard, Vancouver, ISO, and other styles
30

Marstorp, Linus. "Modelling of subgrid-scale stress and passive scalar flux in large eddy simulations of wall bounded turbulent flows." Doctoral thesis, KTH, Mekanik, 2008. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-4809.

Full text
Abstract:
The aim of the thesis is to develop and validate subgrid-scale models that are relevant for large eddy simulations of complex flows including scalar mixing. A stochastic Smagorinsky model with adjustable variance and time scale is developed by adding a stochastic component to the Smagorinsky constant. The stochastic model is shown to provide for backscatter of both kinetic energy and scalar variance without causing numerical instabilities. In addition, new models for the subgrid-scale stress and passive scalar flux are derived from modelled subgrid scale transport equations. These models properly account for the anisotropy of the subgrid scales and have potentials wall bounded flows. The proposed models are validated in wall bounded flows with and without rotation and show potential or significantly improve predictions for such cases.

QC 20100826

APA, Harvard, Vancouver, ISO, and other styles
31

Frasson, Thomas. "Flux de chaleur hétérogène dans des simulations de convection mantellique : impact sur la géodynamo et les inversions magnétiques." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALU027.

Full text
Abstract:
Le champ magnétique terrestre est généré par la convection du fer liquide dans le noyau, éléctriquementconducteur, produisant un effet dynamo. Ce processus, appelé géodynamo, maintientun champ magnétique depuis des milliards d’années. Les données paléomagnétiques montrent quele comportement de la géodynamo a changé au cours des temps géologiques. Ces changementsde comportement sont visibles à travers les variations de l’amplitude et de la stabilité du dipôlemagnétique. Les variations du flux de chaleur à la limite entre le noyau et le manteau (CMB) duesà la convection mantellique ont été suggérées comme un mécanisme capable d’entraîner un telchangement de comportement.Les modèles numériques de convection mantellique et de la géodynamo ont connu des améliorationssignificatives ces dernières années. Le couplage entre ces deux types de modèle peutdonner des indications sur la façon dont la géodynamo réagit aux variations de flux de chaleurà la CMB. Notre compréhension actuelle de ce couplage entre le manteau et le noyau est néanmoinsrestreinte par les limitations des modèles numériques. Du côté du manteau, l’orientationdu manteau par rapport à l’axe de rotation doit être mieux contrainte afin d’exploiter les récentessimulations reproduisant environ 1 Gyr de convection mantellique. Pour contraindre cette orientation,l’axe de plus grand moment d’inertie du manteau doit être aligné avec l’axe de rotation de laTerre, ce qui provoque des rotations du manteau appelées "true polar wander" (TPW). Du côté dunoyau, les simulations numériques sont encore loin du régime de paramètre de la Terre, et il n’estpas certain que le mécanisme d’inversion observé dans ces modèles soit pertinent pour le noyaude la Terre.Ce travail vise à mieux contraindre la façon dont les hétérogénéités de flux de chaleur à laCMB affectent la géodynamo. Dans une première partie, nous explorons l’impact du TPW surle flux de chaleur à la CMB en utilisant deux modèles de convection mantellique récemmentpubliés : un modèle contraint par une reconstruction de plaque et un second produisant de manièreautocohèrente un comportement de tectonique des plaques. Le géoïde est calculé pour corriger leTPW. Une alternative à la correction du TPW est utilisée pour le modèle contraint par la positiondes plaques en repositionnant simplement le manteau dans le référentiel paléomagnétique. Dansce modèle, l’axe de plus grand moment d’inertie n’est pas cohérent avec la position du dipôlemagnétique déduite du paléomagnétisme. Le TPW joue un rôle important dans la redistributiondu flux de chaleur, notamment à des échelles de temps courtes (≤ 10 Myr). Ces variations rapidesmodifient la distribution latitudinale du flux de chaleur à la CMB. Une analyse en composantesprincipales est effectuée pour obtenir les motifs de flux de chaleur dominant dans les modèles.Dans une deuxième partie, nous étudions l’impact des conditions hétérogènes de flux de chaleurau sommet du noyau dans des modèles de géodynamo qui s’étendent vers des régimes deparamètres plus proches de celui de la Terre que ce qui a été fait précédemment. L’effet de ladistribution du flux de chaleur en latitude est notamment étudié. Des motifs de flux complexes extraitsdes modèles de convection mantellique sont également utilisés. Nous montrons qu’un refroidissementéquatorial du noyau est le plus efficace pour déstabiliser le dipôle magnétique, tandisqu’un refroidissement polaire tend à stabiliser le dipôle. Les effets observés des flux de chaleurhétérogènes s’expliquent par la compatibilité entre les motifs de flux et les écoulements zonaux.Notamment, les motifs de flux de chaleur ont un effet plus modéré lorsque les écoulements zoiinaux vers l’ouest sont forts, avec une déstabilisation du dipôle seulement pour des amplitudesimprobables. Un paramètre contrôlant l’amplitude et la stabilité du dipôle magnétique, cohérentavec l’existence d’inversions magnétiques pour la Terre, est proposé
The Earth’s magnetic field is generated within the Earth’s core, where convective motions ofthe electrically conducting liquid iron result in a dynamo action. This process, called the geodynamo,has been maintaining a magnetic field for billion of years. Paleomagnetic evidence showsthat the behaviour of the geodynamo has changed during geological times. These behaviourchanges are visible through variations in the strength and stability of the magnetic dipole. Variationsin the heat flux at the core-mantle boundary (CMB) due to mantle convection have beensuggested as one possible mechanism capable of driving such a change of behaviour.Numerical models of mantle convection and of the geodynamo have made significant improvementsin the recent years. Coupling mantle convection models and geodynamo models cangive insights into how the geodynamo reacts to variations in the CMB heat flux. Our current understandingof this thermal coupling between the mantle and the core is nonetheless restricted bylimitations in numerical models on both the mantle and core side. On the mantle side, the orientationof the mantle with respect to the spin axis has to be better constrained in order to exploitrecent simulations reproducing about 1 Gyr of mantle convection. Constraining this orientationrequires to align the maximum inertia axis of the mantle with the spin axis of the Earth, causingsolid-body rotations of the mantle called true polar wander (TPW). On the core side, numericalsimulations are still far from the parameter regime of the Earth, and it is not clear whether thereversing mechanism observed in these models is relevant for the Earth’s core.This work aims at acquiring a more complete understanding of how lateral heterogeneitiesof the CMB heat flux affect the geodynamo. In a first part, we explore the impact of TPW onthe CMB heat flux using two recently published mantle convection models: one model drivenby a plate reconstruction and a second that self-consistently produces a plate-like behaviour. Wecompute the geoid in both models to correct for TPW. An alternative to TPW correction is used forthe plate-driven model by simply repositioning the model in the original paleomagnetic referenceframe of the plate reconstruction. We find that in the plate-driven mantle convection model, themaximum inertia axis does not show a long-term consistency with the position of the magneticdipole inferred from paleomagnetism. TPW plays an important role in redistributing the CMBheat flux, notably at short time scales (≤ 10 Myr). Those rapid variations modify the latitudinaldistribution of the CMB heat flux. A principal component analysis (PCA) is computed to obtainthe dominant CMB heat flux patterns in the models.In a second part, we study the impact of heterogeneous heat flux conditions at the top of thecore in geodynamo models that expands towards more Earth-like parameter regimes than previouslydone. We especially focus on the heat flux distribution between the poles and the equator.More complex patterns extracted from the mantle convection models are also used. We show thatan equatorial cooling of the core is the most efficient at destabilizing the magnetic dipole, while apolar cooling of the core tends to stabilize the dipole. The observed effects of heterogeneous heatflux patterns are explained through the compatibility of thermal winds generated by the heat fluxpattern with zonal flows. Notably, heat flux patterns have a more moderate effect when westwardzonal flows are strong, with a destabilization of the dipole only for unrealistically large amplitudes.A parameter controlling the strength and stability of the magnetic dipole that is consistentwith the reversing behaviour of the geodynamo is suggested.i
APA, Harvard, Vancouver, ISO, and other styles
32

Breton, Catherine. "Reconstruction de l’histoire de l’olivier (Olea europaea subsp. Europaea) et de son processus de domestication en région méditerranéenne, étudiés sur des bases moléculaires." Aix-Marseille 3, 2006. http://www.theses.fr/2006AIX30066.

Full text
Abstract:
Comment l’olivier a-t-il été domestiqué à partir de la forme sauvage l’oléastre ? La diversité moléculaire à 14 locus SSR nucléaires et 2 chloroplastiques de l’olivier et de l’oléastre ont été étudiées et comparées sur un échantillonnage de plus de 1500 individus répartis sur tout le pourtour du bassin méditerranéen. Pour préciser l’histoire des deux taxons nous avons utilisé une méthode bayésienne pour analyser la diversité nucléaire afin de reconstruire des lignées ancestrales de l’oléastre. Les analyses de diversité avec les outils classiques de génétique des populations révèlent des tendances mais ne permettent pas des conclusions tranchées quant aux regroupements car les individus forment un continuum. Les flux de gènes depuis les cultivars déplacés de l’Est vers l’Ouest par l’homme lors des migrations ont perturbé la structuration de la diversité des oléastres sur le continent et quelques îles. La méthode d’analyse bayésienne utilisée permet a posteriori de trier les arbres pour les rattacher à onze lignées ancestrales d’oléastres se rattachant à une dizaine de régions géographiques. Les cultivars étudiés apparaissent ancrés dans 9 lignées ancestrales et délimitent une origine géographique pour chaque évènement de domestication, elles correspondent à des foyers de domestication révélés pour l’olivier (Israël et Espagne - Portugal) et d’autres non soupçonnées (Corse, Chypre, France, Tunisie). La méthode bayésienne utilisée apparaît donc comme complémentaire des analyses de diversité pour assigner les individus dans les lignées ancestrales. Les diverses méthodes utilisées convergent pour rendre les résultats solides. La domestication multilocale est donc réelle chez l’olivier, elle conduit à une domestication incomplète avec des individus intermédiaires inclassables
How has the olive been domesticated from its wild form, the oleaster? Molecular diversity at 14 nuclear and 2 chloroplast loci was investigated for comparison amongst a set of more than 1500 individuals from the entire Mediterranean basin. To document the history of the two taxa, a Bayesian method was used to reconstruct the ancestral lines. Diversity analysis with classic genetic tools revealed tendencies but did not provide clear-cut conclusions because the individuals fell along a continuum. Indeed, gene flow from cultivars that were displaced from East to West during human migrations has disturbed the genetic structure on both the continent and various islands. The Bayesian method enabled us to reconstruct the ancestral lineages a posteriori, and so to screen the trees individually in order to reveal those with only a single ancestor in one lineage, rather than “hybrids” with several ancestors in several lineages. We determined 11 ancestral oleaster lineages that originate from ten geographical areas, some of which are recognised as refuge zones for plant and animal species. Cultivars studied separately from oleasters proved to possess 9 ancestral lineages. Cultivars from each lineage delimit a geographic origin corresponding to a domestication event and, while some of these have already been described (Israel, Spain), others were unknown (Corsica, Cyprus, France, and Tunisia). The Bayesian method used was, therefore, complementary with diversity analyses in assigning and admixing each individual to one or several ancestral lineages. Thus, the diverse methods used contributed to providing more robust results. The olive has, therefore, undergone multilocal domestication which is incomplete, as many trees remain unclassifiable
APA, Harvard, Vancouver, ISO, and other styles
33

Eraslan, Elvan. "Implementation Of Different Flux Evaluation Schemes Into A Two-dimensional Euler Solver." Master's thesis, METU, 2006. http://etd.lib.metu.edu.tr/upload/12607704/index.pdf.

Full text
Abstract:
This study investigates the accuracy and efficiency of several flux splitting methods for the compressible, two-dimensional Euler equations. Steger-Warming flux vector splitting method, Van Leer flux vector splitting method, The Advection Upstream Splitting Method (AUSM), Artificially Upstream Flux Vector Splitting Scheme (AUFS) and Roe&rsquo
s flux difference splitting schemes were implemented using the first- and second-order reconstruction methods. Limiter functions were embedded to the second-order reconstruction methods. The flux splitting methods are applied to subsonic, transonic and supersonic flows over NACA0012 airfoil, as well as subsonic, transonic and supersonic flows in a channel. The comparison of the obtained results with each other and the ones in the literature is presented. The advantages and disadvantages of each scheme among others are identified.
APA, Harvard, Vancouver, ISO, and other styles
34

Chouh, Hamza. "Simulations interactives de champ ultrasonore pour des configurations complexes de contrôle non destructif." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1220/document.

Full text
Abstract:
Pour répondre à des impératifs croissants de fiabilité et de sûreté, les procédés mis en œuvre dans le cadre du contrôle non destructif sont en constante évolution. Au vu de la complexité des techniques utilisées, la simulation prend une part importante dans leur développement. Nous présentons des travaux ayant abouti à un outil rapide de simulation du champ émis par un traducteur ultrasonore plan quelconque dans des configurations complexes de contrôle non destructif impliquant des géométries maillées sans arêtes saillantes, des matériaux isotropes ou anistropes, homogènes ou hétérogènes et des trajectoires d'ondes pouvant comporter des rebonds et des transmissions. Les fronts d'ondes ultrasonores sont approximés à l'aide d'interpolateurs polynomiaux locaux à des pinceaux de rayons ultrasonores. Ceux-ci sont obtenus au moyen d'un algorithme de recherche de surface par lancer de pinceaux et subdivisions successives. Ils permettent le calcul des grandeurs utiles à la constitution de la réponse impulsionnelle en chaque point d'un échantillonnage du traducteur respectant le critère de Shannon. De cette façon, nous pouvons calculer une réponse impulsionnelle qui, convoluée au signal d'excitation du traducteur, donne le champ ultrasonore. Les performances des simulations ont été accrues par l'exploitation du parallélisme de tâches et des instructions SIMD dans les parties les plus coûteuses du calcul. Enfin, un outil de calcul progressif continu a été développé pour permettre une visualisation interactive d'images de champ. Il exploite une méthode de reconstruction d'images et ordonnance les calculs de champ de manière à accélérer la convergence des images produites
In order to fulfill increasing reliability and safety requirements, non destructive testing techniques are constantly evolving and so does their complexity. Consequently, simulation is an essential part of their design. We developed a tool for the simulation of the ultrasonic field radiated by any planar probes into non destructive testing configurations involving meshed geometries without prominent edges, isotropic and anisotropic, homogeneous and heterogeneous materials, and wave trajectories that can include reflections and transmissions. We approximate the ultrasonic wavefronts by using polynomial interpolators that are local to ultrasonic ray pencils. They are obtained using a surface research algorithm based on pencil tracing and successive subdivisions. Their interpolators enable the computation of the necessary quantities for the impulse response computation on each point of a sampling of the transducer surface that fulfills the Shannon criterion. By doing so, we can compute a global impulse response which, when convoluted with the excitation signal of the transducer, results in the ultrasonic field. The usage of task parallelism and of SIMD instructions on the most computationally expensive steps yields an important performance boost. Finally, we developed a tool for progressive visualization of field images. It benefits from an image reconstruction technique and schedules field computations in order to accelerate convergence towards the final image
APA, Harvard, Vancouver, ISO, and other styles
35

Gustafsson, Mattias. "Monte Carlo simulations of D-mesons with extended targets in the PANDA detector." Thesis, Uppsala universitet, Kärnfysik, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-295024.

Full text
Abstract:
Within the PANDA experiment, proton anti-proton collisions will be studied in order to gain knowledge about the strong interaction. One interesting aspect is the production and decay of charmed hadrons. The charm quark is three orders of magnitude heavier than the light up- and down-quarks which constitue the matter we consist of. The detection of charmed particles is a challenge since they are rare and often hidden in a large background. There will be three different targets used at the experiment; the cluster-jet, the untracked pellet and the tracked pellet. All three targets meet the experimental requirements of high luminosity. However they have different properties, concerning the effect on beam quality and the determination of the interaction point. In this thesis, simulations and reconstruction of the charmed D-mesons using the three different targets have been made. The data quality, such as momentum resolution and vertex resolution has been studied, as well as how the different targets effect the reconstruction efficiency of D-meson have been analysed. The results are consistent with the results from a similar study in 2006, but provide additional information since it takes the detector response into account. Furthermore, a new target distribution have been implemented in the software package. This is the first results obtained from a cylindrical target distribution. The results are very important for PANDA since they show the limitations of different target types regarding the possibilities to reduce background. Simulations with the new target distribution have been made for all three targets and the results are presented.
APA, Harvard, Vancouver, ISO, and other styles
36

Décossin, Étienne. "Ébullition et assèchement dans un lit de particules avec production interne de chaleur : premières expériences et simulations numériques en situation multidimensionnelle." Toulouse, INPT, 2000. http://www.theses.fr/2000INPT004H.

Full text
Abstract:
Dans le contexte des études sur les accidents graves dans les centrales nucléaires, la démonstration de la capacité de refroidissement des lits de particules de corium, matériau résultant de la fusion du coeur et véhiculant la puissance résiduelle, est d'une grande importance. De nombreux travaux expérimentaux, essentiellement 1D, ont démontré l'existence d'un flux critique d'assèchement au-delà duquel le refroidissement des particules par l'ébullition de l'eau interstitielle n'est plus assuré. L'interprétation et la modélisation du phénomène reposent sur l'équation hydrodynamique d'Ergun, adaptée aux écoulements diphasiques par le biais des coefficients de perméabilité et passabilité relatives. Cette équation, malgré son manque de justification théorique, est aujourd'hui généralisée dans les modèles multidimensionnels pour simuler des situations représentatives des cas réacteurs. Un programme expérimental original a été élaboré dans le but de fournir des données de validation pour ces modèles. Constitué de billes en acier chauffées par induction, le lit poreux a un rapport d'aspect choisi pour capter des phénomènes bidimensionnels, en l'occurence des circulations convectives de liquide. Des premières mesures de flux critique d'assèchement ont été obtenues dans le cas homogène pour différentes hauteurs de lit et diamètres de billes. La confrontation des essais avec de simulations numériques montrent les limites actuelles de la modélisation. Ces premiers résultats montrent la nécessité de raffiner la représentation du phénomène d'assèchement tant au niveau des conditions aux limites que des équations de quantité de mouvement.
APA, Harvard, Vancouver, ISO, and other styles
37

Solminihac, Florence de. "Effets de perturbations magnétiques sur la dynamique de la barrière de transport dans un Tokamak : modélisation et simulations numériques." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4743/document.

Full text
Abstract:
Dans cette thèse nous étudions l'impact de perturbations magnétiques résonnantes sur la dynamique de la barrière de transport dans un tokamak. Pour cela nous avons réalisé des simulations numériques tridimensionnelles de turbulence dans le plasma de bord du tokamak. Nos simulations numériques ont reproduit les résultats expérimentaux observés dans différents tokamaks. Dans le régime de confinement amélioré (mode H), la barrière de transport n'est pas stable : elle effectue des oscillations de relaxation, qui partagent des caractéristiques communes avec les "modes localisés au bord'' (Edge Localized Modes, ELMs). Ces ELMs ont à la fois des avantages et des inconvénients. D'un côté, ils permettent d'évacuer les impuretés présentes dans le coe ur du plasma. Mais d'un autre côté, la charge thermique induite sur la paroi pendant un ELM peut endommager les matériaux de première paroi. Pour cette raison, ils doivent être contrôlés. Cette thèse s'inscrit dans le contexte du projet ITER actuellement en construction en France. Sur ITER, le contrôle des ELMs sera indispensable en raison de la quantité d'énergie évacuée. Parmi les différentes façons de contrôler les ELMs, les perturbations magnétiques résonnantes (Resonant Magnetic Perturbations, RMPs) semblent prometteuses. Ces perturbations magnétiques résonnantes sont créées par des bobines externes. Nous nous plaçons dans le cas du tokamak TEXTOR et nous considérons deux configurations pour les bobines externes : dans un premier temps, une perturbation magnétique résonnante comprenant plusieurs harmoniques, qui permet d'avoir une zone stochastique au bord du plasma lorsque les chaînes d'îlots magnétiques se superposent
In this PhD thesis we study the impact of resonant magnetic perturbations on the transport barrier dynamics in a tokamak. In this goal we have performed turbulence tridimensional numerical simulations in the edge plasma of a tokamak, which reproduced the experimental results observed in different tokamaks. In the improved confinement regime (H mode), the transport barrier is not stable : it does relaxation oscillations, which share common features with the ``Edge Localized Modes'' (ELMs). These ELMs both have advantages and drawbacks. On the one hand, they enable to push away the impurities present in the plasma core. But on the other hand, the thermal load induced on the wall during an ELM can damage the first wall materials. For this reason, they must be controlled. This PhD thesis belongs to the frame of the ITER project, which is today in construction in France. On ITER the ELMs control will be compulsory due to the quantity of energy released. Among the different ways of controlling the ELMs, the resonant magnetic perturbations (RMPs) seem promising. These resonant magnetic perturbations are created by external coils. We consider the TEXTOR tokamak case and we consider two configurations for the external coils : first, a resonant magnetic perturbation with several harmonics, which enables to have a stochastic zone at the plasma edge when the magnetic island chains overlap ; then, a resonant magnetic perturbation with a single harmonic, which therefore creates a single magnetic island chain. In this PhD thesis, we focus on the non-axisymmetric equilibrium created in the plasma by the resonant magnetic perturbation
APA, Harvard, Vancouver, ISO, and other styles
38

Mohamed, Ali Bellou. "Flux maps obtained from core geometry approximations Monte Carlo simulations and benchmark measurements for a 250 kW TRIGA reactor /." College Park, Md. : University of Maryland, 2009. http://hdl.handle.net/1903/10007.

Full text
Abstract:
Thesis (Ph.D.) -- University of Maryland, College Park, 2009.
Thesis research directed by: Dept. of Materials and Nuclear Engineering. Title from t.p. of PDF. Includes bibliographical references. Published by UMI Dissertation Services, Ann Arbor, Mich. Also available in paper.
APA, Harvard, Vancouver, ISO, and other styles
39

Labiadh, Mohamed Taieb. "Quantification de l'érosion éolienne sur des surfaces anthropisées : simulations des flux en masse à l'échelle des zones arides Tunisiennes." Paris 7, 2011. http://www.theses.fr/2011PA077072.

Full text
Abstract:
The aim of this work is to present a methodology permitting to quantify wind erosion, in particular the fluxes in mass on the southern Tunisian arid regions, A particular attention has been carried to the description and the assessment of the modifications of land use {extension of culture, change of agricultural practices, etc. ). An approach combining simulations in laboratory, experiences on parcels and modelling is implemented. Otherwise, this last technique, modelling, is considered like one main tools of investigating permitting to give elements of answer to the final objectives of this work. Some specific parametrisations bas been developed on the laboratory permitting, consequequently to describe the erosion fluxes on agricultural surfaces (Kardous. 2005a, 2005b). These relations, allow to derive solely from the geometric features of the ridged surfaces (the height, RH, and the spacing, RS) the aerodynamic roughness height (-„), the erosion threshold friction velocity and the saltation fluxes. To validate these parametrisation in situ, we had conduct in southern Tunisian arid region three experiences (2003. 2008 and 2009} on parcels plowed by three different tools (the disc, the moulboard and the tiller). These experiences show, on one hand that the model developed on the laboratory' reproduces very well the experimental results and describes on a satisfying way the saltation fluxes on agricultural surfaces in Tunisian arid zones. On the other hand, theses results indicate also that erosion fluxes are smaller for the mouldboard, intermediate with the tiller and the higher for the disc. To simulate the emission of erosion fluxes the scale of arid and desert Tunisian zones, we used a meso-scale model, the regional Atmospheric Modeling System (RAMS) coupled on line with the Dust production model (DPM) developed by Marticorena and Bergametti (1995) and Laurent (2005). We had, first identified the most frequent and intense simulated zones sources of clust emission, We evaluated also the relative contribution of both natural surfaces and land agricultural uses to the fluxes in mass. The results suggest that the wind erosion stays predominant on the natural surfaces. Finally. A very marked seasonal cycle of the emissions is simulated with a maximum in the spring and in the beginning of the summer. This cycle is mainly due to the high wind speed generally observed on this period of year. Iron dust solubility in atmospheric waters is critical to estimate the effect of its deposition on primary production, especially on global carbon cycle. My PhD studies the effect of atmospheric organic complexation on iron dust dissolution. First of all, I studied the water soluble fraction of collected aerosols in the source region during strong biomass burning event, an important source of organic compounds. Second of all, I performed laboratory experiments with dust particles from different African sources and different organic compounds measured in the atmosphere. This work have highlight that the variability of iron dust solubility could be linked to the organic complexation. Oxalic acid is the most important iron ligand in the atmosphère and is the one with the most important effect on iron solubility, but others organic compounds such as malonic, tartane, glycolic acids or HULIS could enhanced the dissolution of iron. This dissolution, without light, is reductive and lead to the formation of Fe(II). I found a linear dissolution for dust iron in presence of increasing concentration of oxalate and HULIS, but for the other compounds the dissolution seems to be limited. I also found that the mineralogical composition of iron contained in dust is very important, and the dissolution is controlled by me presence of iron from clay minerals rather than iron from (hydr-)oxides.
APA, Harvard, Vancouver, ISO, and other styles
40

Jacqmin, Robert P. "A semi-experimental nodal synthesis method for the on-line reconstruction of three-dimensional neutron flux-shapes and reactivity." Thesis, Massachusetts Institute of Technology, 1991. http://hdl.handle.net/1721.1/13532.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

A, Disi. "Numerical simulations of the forward problem and compressive digital holographic reconstruction of weak scatterers on a planar substrate." Thesis, Massachusetts Institute of Technology, 2014. http://hdl.handle.net/1721.1/87954.

Full text
Abstract:
Thesis: S.M., Massachusetts Institute of Technology, Department of Mechanical Engineering, 2014.
Cataloged from PDF version of thesis.
Includes bibliographical references (pages 91-95).
TFT (Thin-film transistor) - LCD (Liquid-crystal display) is now widely used by the display industry for the reason that LCD is compact and light with very low power consumption; moreover, it has little or no flicker and no geometric distortion. However, small defects from the bottom layers could grow after the deposition process and result in defective panels. Such tiny objects on the scale of ~102 nm are too small for modem cameras to directly image and generally requires (scanning) microscopy during industrial inspection process, which unfortunately leads to a tremendous cost. This thesis investigates a holographic imaging approach combined with a compressive signal reconstruction framework to automatically locate such small defects from FDTD simulation results. Holography records the electric field from a sparse distribution of particle scattering; compressive sensing retrieves a clean signal from the original measured signal corrupted by shot noise and other system noise with a sparsity prior and auto-parameter tuning based on signal characteristics. Strong denoising parameter reduces false alarms and increases miss detection at the same time. The compressive framework is followed by a defect candidate selection process which helps to eliminate false alarms while preserving the desired signal by comparing the compressive reconstruction result to the direct signal back-propagation estimate. Auto-parameter tuning finds the compressive (denoising) parameter according to the strength of noise present in the direct measurement. The accuracy and reliability of using this method to localize cylindrical defects on the scale of 102 nm is studied. This method is able to accurately cover detection of most cylindrical defects of different sizes under 0.2 sec exposure time per field of view. The accuracy is compromised for extremely small defects on a similar size scale to a cylindrical defect of 100 nm in diameter and 100 nm in height.
by Disi A.
S.M.
APA, Harvard, Vancouver, ISO, and other styles
42

Suntay, Kemal [Verfasser], and Gerhard [Akademischer Betreuer] Starke. "Nonconforming P2-FEM for the obstacle problem and flux-reconstruction-based a-posteriori error estimator / Kemal Suntay ; Betreuer: Gerhard Starke." Duisburg, 2020. http://d-nb.info/1221960180/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Olsen, Börge. "Coupled steady-state Monte Carlo criticality simulations - Development of iterative methods for obtaining the steady-state fission source and neutron flux." Thesis, KTH, Fysik, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-202592.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Moriceau, Brivaëla. "Étude de la dissolution de la silice biogénique des agrégats : utilisation dans la reconstruction des flux de sédimentation de la silice biogénique et du carbonne dans la colonne d'eau." Brest, 2005. http://www.theses.fr/2005BRES2034.

Full text
Abstract:
L’augmentation de la teneur en carbone dans l’atmosphère provoquée par les activités anthropiques est freinée par l’effet « puit de carbone » de certaines régions de l’océan, en particulier grâce à la pompe biologique de carbone. La forte participation des diatomées à la production primaire océanique ainsi que leur capacité à former des agrégats nous ont conduit à étudier le rôle des diatomées, et en particulier l’impact de l’agrégation sur la pompe biologique de carbone. Des expériences en laboratoire ont permis de déterminer que la vitesse de dissolution des frustules de diatomées est plus faible pour les cellules agrégées que pour les cellules libres. Le modèle d’agrégat utilisé pour mieux comprendre les paramètres conduisant à ces mesures expérimentales, confirme que la dissolution de la BSiO2 est ralentie et démontre que la diffusion de la DSi dans l’agrégat est plus faible que dans l’eau de mer. Le ralentissement de la dissolution est attribué aux fortes teneurs en DSi mesurées dans l’agrégat et à une viabilité plus longue des diatomées agrégées. Les résultats expérimentaux sont ensuite combinés avec des mesures in situ de flux de BSiO2 dans neuf provinces de l’océan, dans un modèle simplifié reconstruisant les flux de BSiO2 de la colonne d’eau. Ce modèle détermine la répartition de la BSiO2 du flux entre cellules libres et grosses particules et donne des informations sur la dynamique des particules. Les flux de BSiO2 reconstruits, associés à une relation empirique donnant l’évolution des rapports Si:C avec la profondeur, permettent d’évaluer le véritable rôle des diatomées dans la pompe biologique de carbone en calculant les flux de carbone au bas de la couche hivernale de mélange. L’utilisation des flux de Si comme traceur des flux de C permet de s’affranchir des difficultés liées à la chimie complexe à laquelle est soumis le C. Le rôle des diatomées dans l’export ou le transfert de carbone dépend de la façon d’estimer l’export hors de la couche de surface
The dramatic increase of carbon concentration in the atmosphere is limited by the action of some oceanic areas that act like a “sink of carbon” mainly thanks to the biological pump. Because of the strong participation of diatoms to the primary production and their ability to aggregate, we study the role of diatoms and the impact of aggregation on the biological pump. Laboratory experiments determined that the BSiO2 dissolution rate of aggregated cells is lower than the one of freely suspended cells. The model of aggregate used to better understand aggregate internal parameters that provoke the decrease of the dissolution rate, confirmed that the dissolution is lower in aggregates and added that the DSi diffusion in aggregate is lower than in seawater. The decrease of the BSiO2 dissolution rate is attributed to the strong DSi concentrations measured into aggregates and to the higher viability of aggregated cells. Experimental results were then combined with in situ measurements of BSiO2 fluxes in nine areas cf the ocean, intc a simple model that reconstruct BSiO2 fluxes in the water column. This model allows to calculate the repartition of the BSiO2 between large particles and freely suspended cells and to better understand particles dynamic. The BSiO2 fluxes reconstructed using the model, were then associated with a relation between Si/C ratios and water column depth to determine the real importance of diatoms in the biological pump cf carbon. We then calculated the carbon fluxes at the maximum depth of the mixing layer. The use of the Si fluxes as a proxy of the carbon fluxes allow to ignore difficulties due to the cornplexity of the carbon chemistry. The role of diatoms in the export and transfer of carbon strongly depend on the way used to calculate the export out of the surface layer
APA, Harvard, Vancouver, ISO, and other styles
45

Cerezo, Nadia. "Workflows conceptuels." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00942559.

Full text
Abstract:
Les workflows sont de plus en plus souvent adoptés pour la modélisation de simulations scientifiques de grande échelle, aussi bien en matière de données que de calculs. Ils profitent de l'abondance de sources de données et infrastructures de calcul distribuées. Néanmoins, la plupart des formalismes de workflows scientifiques restent difficiles à exploiter pour des utilisateurs n'ayant pas une grande expertise de l'algorithmique distribuée, car ces formalismes mélangent les processus scientifiques qu'ils modélisent avec les implémentations. Ainsi, ils ne permettent pas de distinguer entre les objectifs et les méthodes, ni de repérer les particularités d'une implémentation ou de l'infrastructure sous-jacente. Le but de ce travail est d'améliorer l'accessibilité aux workflows scientifiques et de faciliter leur création et leur réutilisation. Pour ce faire, nous proposons d'élever le niveau d'abstraction, de mettre en valeur l'expérience scientifique plutôt que les aspects techniques, de séparer les considérations fonctionnelles et non-fonctionnelles et de tirer profit des connaissances et du savoir-faire du domaine.Les principales contributions de ce travail sont : (i) un modèle de workflows scientifiques à structure flexible, sémantique et multi-niveaux appelé "Conceptual Workflow Model", qui permet aux utilisateurs de construire des simulations indépendamment de leur implémentation afin de se concentrer sur les objectifs et les méthodes scientifiques; et (ii) un processus de transformation assisté par ordinateur pour aider les utilisateurs à convertir leurs modèles de simulation de haut niveau en workflows qui peuvent être délégués à des systèmes externes pour exécution.
APA, Harvard, Vancouver, ISO, and other styles
46

Puiseux, Thomas. "Numerical simulations for phase-contrast magnetic resonance imaging." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTS109.

Full text
Abstract:
L'hémodynamique (la manière dont le sang coule) est aujourd'hui considérée par la communauté médicale comme un marqueur prépondérant dans l'apparition et dans l'évolution de certaines pathologies cardiovasculaires (formation d’un caillot sanguin, anévrisme, sténose...). Les récents progrès technologiques ont permis d'adapter l'Imagerie par Résonance Magnétique (IRM) à l'exploration vélocimétrique 3D du système cardiovasculaire grâce à l'IRM de flux 4D. En plus d'être non invasive et non ionisante, cette technique ouvre l'accès à l'évaluation de quantités dérivées du champ de vitesse telles que la pression ou le frottement pariétal, pertinentes lors des diagnostics médicaux, mais difficilement accessibles par imagerie. Néanmoins, les contraintes technologiques (temps d'acquisition, résolution spatiale, dépendance aux vitesses d'encodages) limitent la précision des mesures. De plus, les complexités intrinsèques au processus d’acquisition en IRM rendent difficilement identifiables les sources d'erreurs de mesures.Cette thèse à pour but de développer une méthodologie standardisée permettant l'évaluation systématique des mesures par IRM de flux 4D dans un régime d'écoulement complexe. Dans ce but, un fantôme IRM compatible capable de générer un écoulement typique de ceux observés dans la circulation thoracique (crosse aortique, bifurcation, anévrisme) est conçu et intégré à un banc d'essai expérimental. L'écoulement est prédit par simulation numérique (Mécanique des fluides Numérique) et simultanément mesuré par IRM de flux 4D.Grâce à une évaluation rigoureuse des différences entre ces deux modalités, on montre d’abord que la simulation numérique peut être considérée comme une représentation fidèle du champ de vitesse réel.Une évaluation rigoureuse des différences entre ces deux modalités permet de considérer la simulation numérique comme l’écoulement de référence représentant le champ de vitesse réel. L'analyse met aussi en lumière d'une part des erreurs typiques de mesures du champ de vitesse par IRM de flux 4D, ainsi que des erreurs relatives au calcul de quantités dérivées (pression et le frottement pariétal).Enfin, une méthodologie de simulation du processus d'acquisition en IRM est développée. Couplée avec la MFN, celle-ci permet de reconstruire des images IRM synthétiques correspondant à l'écoulement de référence mesuré par un protocole d'acquisition donné, mais exemptes de toutes erreurs expérimentales. La capacité à produire des images in silico permet notamment d’identifier les sources d’erreurs (matériel, logiciel, séquence) en IRM de flux 4D
Hemodynamics (blood flow dynamics) is now recognized as a key marker in the onset and evolution of many cardiovascular disorders such as aneurysms, stenoses, or blood clot formation. As it provides a comprehensive access to blood flows in-vivo, time-resolved 3D phase-contrast magnetic resonance imaging (or 4D Flow MRI) has gained an increasing interest over the last years and stands out as a highly relevant tool for diagnosis, patient follow-up and research in cardiovascular diseases. On top of providing a non-invasive access to the 3D velocity field in-vivo, this technique allows retrospective quantification of velocity-derived hemodynamic biomarkers such as relative pressure or shear stress, which are pertinent for medical diagnosis but difficult to measure in practice. However, several acquisition parameters (spatio-temporal resolution, encoding velocity, imaging artifacts) might limit the expected accuracy of the measurements and potentially lead to erroneous diagnosis. Moreover, the intrinsic complexities of the MRI acquisition process make it generally difficult to localize the sources of measurement errors.This thesis aims at developing a methodology for the assessment of 4D Flow MRI measurements in complex flow configuration. A well-controlled experiment gathering an idealized in-vitro flow phantom generating flow structures typical of that observed in the cardiovascular system is designed. The flow is simultaneously predicted by means of a high-order Computational Fluid Dynamics (CFD) solver and measured with 4D flow MRI. By evaluating the differences between the two modalities, it is first shown that the numerical solution can be considered very close to the ground truth velocity field. The analysis also reveals the typical errors present in 4D flow MRI images, whether relevant to the velocity field itself or to classical derived quantities (relative pressure, wall shear stress). Finally, a 4D Flow MRI simulation framework is developed and coupled with CFD to reconstruct the synthetic MR images of the reference flow that correspond to the acquisition protocol, but exempted from experimental measurement errors. Thanks to this new capability, the sources of the potential errors in 4D Flow MRI (hardware, software, sequence) can be identified
APA, Harvard, Vancouver, ISO, and other styles
47

Maunoury, Matthieu. "Méthode de visualisation adaptée aux simulations d'ordre élevé : application à la compression-reconstruction de champs rayonnés pour des ondes harmoniques." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30021.

Full text
Abstract:
Bien que les méthodes d'ordre élevé permettent de réaliser des simulations très précises et peu coûteuses, il y a un manque d'outils pour analyser et exploiter les résultats obtenus par ces nouveaux schémas. L'objectif de cette thèse est de mettre en place un cadre et des algorithmes efficaces pour visualiser des solutions calculées par des méthodes d'ordre élevé. Notre approche est basée sur la construction d'une approximation affine optimisée de la solution numérique qui peut être post-traitée dans un logiciel de visualisation standard. Un maillage de représentation est créé via un indicateur d'erreurs a posteriori qui contrôle l'erreur de visualisation entre la solution numérique et sa représentation ponctuellement. Une stratégie est établie afin d'assurer que les (dis)continuités soient bien rendues. Un travail particulier est développé pour traiter les éléments d'ordre élevé (éléments courbes) et utilise notamment des indicateurs d'erreurs a posteriori spécifiques. Des exemples numériques montrent le potentiel de la méthode de visualisation. Dans une seconde partie, nous nous intéressons au calcul et à la reconstruction de champs rayonnés pour des problèmes d'ondes en régime harmonique. Nous proposons une méthodologie pour générer une reconstruction précise de champs rayonnés tout en limitant le nombre d'informations nécessaires (i.e. en compressant les données). Pour ce faire, nous nous appuyons sur des fonctions de base composées de polynômes d'ordre élevé et d'ondes planes, ainsi que sur un développement du noyau de la formule intégrale servant au rayonnement. La méthode de visualisation permet alors de représenter fidèlement (décompression) les cartographies obtenues
While high order methods allow to perform very accurate simulations with low costs, there is a lack of tools to analyze and exploit results obtained by these new schemes. The objective of this thesis is to design a framework and efficient algorithms to visualize solutions computed by high order methods. Our approach is based on the construction of an optimized affine approximation of the numerical solution which can be handled by any standard visualization software. A representation mesh is created via an a posteriori estimate which control visualization error between the numerical solution and its representation, and is performed pointwise. A strategy is established to ensure that (dis)continuities are well-rendered. A special work is done to treat high order elements (curved elements) and in particular use specific a posteriori estimates. Several numerical examples demonstrate the potential of the visualization method. In a second part, we examine the computation and reconstruction of radiated fields for wave problems in harmonic regime. We propose a methodology to generate an accurate reconstruction of radiated fields while limiting the information needed (i.e. compressing the data). For this purpose, we rely on basis functions composed of high order polynomials and plane waves, as well as a development of the kernel used for the integral representation. The visualization method allows to faithfully represent (decompression process) the cartographies obtained
APA, Harvard, Vancouver, ISO, and other styles
48

Havet, Maxime. "Solution of algebraic problems arising in nuclear reactor core simulations using Jacobi-Davidson and multigrid methods." Doctoral thesis, Universite Libre de Bruxelles, 2008. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210467.

Full text
Abstract:
The solution of large and sparse eigenvalue problems arising from the discretization of the diffusion equation is considered. The multigroup

diffusion equation is discretized by means of the Nodal expansion Method (NEM) [9, 10]. A new formulation of the higher order NEM variants revealing the true nature of the problem, that is, a generalized eigenvalue problem, is proposed. These generalized eigenvalue problems are solved using the Jacobi-Davidson (JD) method

[26]. The most expensive part of the method consists of solving a linear system referred to as correction equation. It is solved using Krylov subspace methods in combination with aggregation-based Algebraic Multigrid (AMG) techniques. In that context, a particular

aggregation technique used in combination with classical smoothers, referred to as oblique geometric coarsening, has been derived. Its particularity is that it aggregates unknowns that

are not coupled, which has never been done to our

knowledge. A modular code, combining JD with an AMG preconditioner, has been developed. The code comes with many options, that have been tested. In particular, the instability of the Rayleigh-Ritz [33] acceleration procedure in the non-symmetric case has been underlined. Our code has also been compared to an industrial code extracted from ARTEMIS.
Doctorat en Sciences de l'ingénieur
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
49

Brixel, Bernard. "Quantification of the regional groundwater flux to a northern peatland complex, Schefferville, Québec, Canada: results from a water budget and numerical simulations." Thesis, McGill University, 2011. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=97107.

Full text
Abstract:
Peatlands are significant soil carbon and freshwater reservoirs at the global scale, and thus play a key role in the global carbon and water cycles. Peatland inception and development are intrinsically related to optimal environmental conditions, including an adequate hydro-morphological setting that promotes the occurrence of waterlogged soils and low topographic gradients. This thesis investigates the hydrology of 0.2 km2 northern peatland complex, located in the region of Schefferville, Québec, Canada, in which a significant area has developed over a relatively steep topographic gradient. The objective of this thesis is to quantify and characterize the spatiotemporal flux of regional groundwater to the peatland local flow system in an attempt to evaluate the relative importance of this flux compared with other water inputs. A three-dimensional groundwater flow model, the finite-difference U.S. Geological Survey MODFLOW code, is used to simulate the peatland and characterize the groundwater flow system. The model is parameterized with data measured from June 17th to September 4th, 2009, including continuous meteorological measurements from an automatic weather station, 14 observation wells, and two 90° V-notch weirs gauging stream discharge. This study establishes that, over the measuring period, the regional groundwater influx accounted for 27% ± 0.4% of the total water inputs, the remainder 73% ± 0.4% consisting of precipitation (54% ± 0.4%), surface water inflow (14% ± 0.4%), and change in storage (5% ± 0.4%). Consequently, it is the main conclusion of this work that regional groundwater inflows were, volumetrically, the second most important source of water to the peatland local flow system.
Les tourbières représentent d'importants réservoirs naturels riches en carbone et en eau douce à l'échelle globale. Ils jouent par conséquent un rôle majeur à la fois dans le cycle du carbone et le cycle hydrologique. L'origine et le développement des tourbières sont liés à l'existence de circonstances environnementales optimales. Il s'agit essentiellement d'un contexte hydro-morphologique adéquat favorisant l'occurrence de sols saturés en eau sur des terrains relativement plats. Ce document présente les résultats d'une étude scientifique conduite dans un complexe tourbier nordique, situé dans la région de Schefferville, Québec, Canada. Ce terrain représente un cas particulier peu observé dans la nature : une large partie de l'accumulation de matière organique a eu lieu sur un gradient topographique prononcé. L'objectif de cette étude est de quantifier et caractériser le flux spatiotemporel du système de circulation de l'eau souterraine régional à la nappe d'aquifère du système tourbier local. Un modèle numérique de circulation de l'eau souterraine est utilisé afin de simuler le système tourbier et caractériser son régime hydraulique. Basé sur le code informatique du modèle MODFLOW, développé par le Service de Géologie des Etats Unis (McDonald and Harbaugh 1988), le modèle tridimensionnel est utilisé afin de simuler la circulation des eaux sou terraine. Le modèle incorpore une série de données météorologiques et hydrométriques en tant que paramètres d'entrée. Mesurées entre le 17 juin et le 4 septembre 2009, ces données proviennent d'une station météo installée pour les besoins de l'étude sur le terrain même, ainsi que 14 puits d'observations et 2 barrages pour mesure le débit. Cette étude établit que, sur l'ensemble de la période d'étude, le flux de l eau souterraine du système régional a représenté 27% des entrées en eau. Les 73% restant se divisent entre 54% pour la précipitation, 14% pour l influx de surface et 5% pour le changement de stockage hydraulique. En conséquence, la conclusion majeure de cette étude est que le flux régional d'eau souterraine est, d'un point de vue volumétrique, le deuxième flux le plus important dans le system tourbier nordique.
APA, Harvard, Vancouver, ISO, and other styles
50

Terra, Nova Filipe. "The time-dependence of reversed flux patches in archeomagnetic field models and numerical dynamo simulations : implication for the South Atlantic Anomaly evolution." Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4023/document.

Full text
Abstract:
Les modèles de champ archéomagnétique et les simulations numériques de dynamos fournissent des informations importantes sur la géodynamique. J'ai étudié l’existence et la mobilité des patches de flux inverse (PFI) dans les modèles de champ archéomagnétique. J'ai comparé le suivi des PFIs avec les anomalies sismologiques à la base du manteau pour explorer si les PFIs ont des emplacements privilégiés prescrits par l'hétérogénéité latérale à la base du manteau. Les PFI sont ainsi interprétés en termes de dynamique de noyau et d'interactions thermiques noyau-manteau. La corrélation en co-latitude et le décalage en longitude permettent d'inférer l'orientation azimutale du champ toroidal et la présence d'un large upwelling au sommet du noyau. L'Anomalie de l'Atlantique Sud (AAS) est une région de faible intensité géomagnétique à la surface de la Terre, qui est communément attribuée aux PFIs sur la frontière noyau manteau (FNM). Alors que l’AAS est clairement affecté par la région de flux inverse sous l'Atlantique Sud, je montre que la relation entre l’AAS et les PFIs n'est pas simple. L'anomalie est déterminée par l'interaction de plusieurs patches de flux (normal et inverse) à la FNM. Des scenarios simples de variation séculaire (VS) suggèrent que si le déplacement de l’AAS peut être expliqué par l'advection, sa chute d'intensité nécessite la diffusion magnétique. J'ai déterminé si l'hétérogénéité thermique du manteau inférieur pouvait expliquer l'emplacement de l’AAS avec des dynamos numériques dont le flux de chaleur à la FMN est hétérogène. Les histogrammes des coordonnées des minima d'intensité de surface montrent deux pics de position longitudinale préférée dont un est proche de la longitude actuelle de l’AAS. Les ingrédients pour reproduire les coordonnées de l'AAS sont liés à l'asymétrie nord-sud du flux normal et inverse
Archeomagnetic field models and numerical dynamo simulations provide important insights to the geodynamo. I investigated the existence and mobility of reversed flux patches (RFPs) in archeomagnetic field models. I compared the tracking of RFPs with seismic anomalies of the lowermost mantle to explore if RFPs have preferred locations prescribed by lower mantle lateral heterogeneity and interpreted in terms of core dynamics and core-mantle thermal interactions. Correlation in co-latitude and a shift in longitude allowed inferring azimuthal orientation of toroidal field below the core-mantle boundary (CMB) and the presence of large fluid upwelling structures at the top of the core. The South Atlantic Anomaly (SAA) is a region of weak geomagnetic field intensity at the Earth's surface, which is commonly attributed to RFPs on the CMB. While the SAA is clearly affected by the reversed flux region below the South Atlantic, I showed that the relation between the SAA and RFPs is not straightforward. The SAA minimum is determined by the interplay among several robust flux patches at the CMB. Simple secular variation (SV) scenarios suggest that while the SAA path can be explained by advection, its intensity decrease requires magnetic diffusion. Investigating whether lower mantle thermal heterogeneity may explain the location of the SAA was tested with run numerical dynamos with heterogeneous CMB heat flux. Histograms of the coordinates of surface intensity minima show two peaks of preferred longitudinal position of weakest surface field intensity, one close to the present SAA minimum longitude. The ingredients to reproduce the SAA coordinates are related to north-south asymmetry of normal and reversed flux
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography