Siga este link para ver outros tipos de publicações sobre o tema: Accélérateurs de particules – Simulation, Méthodes de.

Teses / dissertações sobre o tema "Accélérateurs de particules – Simulation, Méthodes de"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 49 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Accélérateurs de particules – Simulation, Méthodes de".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Goutierre, Emmanuel. "Machine learning-based particle accelerator modeling". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG106.

Texto completo da fonte
Resumo:
Les accélérateurs de particules reposent sur des simulations de haute précision pour optimiser la dynamique du faisceau. Ces simulations sont coûteuses en ressources de calcul, rendant leur analyse en temps réel difficilement réalisable. Cette thèse propose de surmonter cette limitation en explorant le potentiel de l'apprentissage automatique pour développer des modèles de substitution des simulations d'accélérateurs de particules. Ce travail se concentre sur ThomX, une source Compton compacte, et introduit deux modèles de substitution : LinacNet et Implicit Neural ODE (INODE). Ces modèles sont entraînés sur une base de données développée dans le cadre de cette thèse, couvrant une grande variété de conditions opérationnelles afin d'assurer leur robustesse et leur capacité de généralisation. LinacNet offre une représentation complète du nuage de particules en prédisant les coordonnées de toutes les macro-particules du faisceau plutôt que de se limiter à ses observables. Cette modélisation détaillée, couplée à une approche séquentielle prenant en compte la dynamique cumulative des particules tout au long de l'accélérateur, garantit la cohérence des prédictions et améliore l'interprétabilité du modèle. INODE, basé sur le cadre des Neural Ordinary Differential Equations (NODE), vise à apprendre les dynamiques implicites régissant les systèmes de particules sans avoir à résoudre explicitement les équations différentielles pendant l'entraînement. Contrairement aux méthodes basées sur NODE, qui peinent à gérer les discontinuités, INODE est conçu théoriquement pour les traiter plus efficacement. Ensemble, LinacNet et INODE servent de modèles de substitution pour ThomX, démontrant leur capacité à approximer la dynamique des particules. Ce travail pose les bases pour développer et améliorer la fiabilité des modèles basés sur l'apprentissage automatique en physique des accélérateurs
Particle accelerators rely on high-precision simulations to optimize beam dynamics. These simulations are computationally expensive, making real-time analysis impractical. This thesis seeks to address this limitation by exploring the potential of machine learning to develop surrogate models for particle accelerator simulations. The focus is on ThomX, a compact Compton source, where two surrogate models are introduced: LinacNet and Implicit Neural ODE (INODE). These models are trained on a comprehensive database developed in this thesis that captures a wide range of operating conditions to ensure robustness and generalizability. LinacNet provides a comprehensive representation of the particle cloud by predicting all coordinates of the macro-particles, rather than focusing solely on beam observables. This detailed modeling, coupled with a sequential approach that accounts for cumulative particle dynamics throughout the accelerator, ensures consistency and enhances model interpretability. INODE, based on the Neural Ordinary Differential Equation (NODE) framework, seeks to learn the implicit governing dynamics of particle systems without the need for explicit ODE solving during training. Unlike traditional NODEs, which struggle with discontinuities, INODE is theoretically designed to handle them more effectively. Together, LinacNet and INODE serve as surrogate models for ThomX, demonstrating their ability to approximate particle dynamics. This work lays the groundwork for developing and improving the reliability of machine learning-based models in accelerator physics
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Guyot, Julien. "Particle acceleration in colliding laser-produced plasmas". Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS616.

Texto completo da fonte
Resumo:
Les particules chargées énergétiques sont omniprésentes dans l'Univers et sont accélérées par des sources galactiques et extragalactiques. Comprendre l'origine de ces "rayons cosmiques" est crucial en astrophysique et dans le cadre de l'astrophysique de laboratoire à haute densité d'énergie, nous avons développé une nouvelle plate-forme sur les installations laser LULI pour étudier l'accélération de particules. Dans les expériences, la collision de deux plasmas contre-propageant produits par laser génère une distribution non thermique de particules allant jusqu'à 1 MeV d'énergie. L'objectif de ce travail est de fournir un cadre théorique pour comprendre leur origine. Des simulations magnéto-hydrodynamiques avec des particules tests montrent que la collision des plasmas conduit à la croissance de structures caractéristiques de l'instabilité de Rayleigh-Taylor magnétique et à la génération de forts champs électriques. Nous constatons que les particules sont accélérées à des énergies allant jusqu'à quelques centaines de keV en moins de 20 ns, par des interactions répétées avec les perturbations de Rayleigh-Taylor. Les simulations et un modèle d'accélération stochastique reproduisent bien le spectre expérimental. En conclusion, nous avons identifié en laboratoire un nouveau mécanisme d'accélération de particules qui repose sur la croissance de l'instabilité de Rayleigh-Taylor magnétique pour accélérer de manière stochastique les particules. Cette instabilité est fréquente dans les plasmas astrophysiques, avec par exemple les restes de supernovæ et les éjections de masse coronale, et nous suggérons qu'elle peut contribuer à l'accélération de particules dans ces systèmes
Energetic charged particles are ubiquitous in the Universe and are accelerated by galactic and extragalactic sources. Understanding the origin of these "cosmic rays" is crucial in astrophysics and within the framework of high-energy-density laboratory astrophysics we have developed a novel platform on the LULI laser facilities to study particle acceleration in the laboratory. In the experiments, the collision of two laser-produced counter-propagating plasmas generates a distribution of non-thermal particles with energies up to 1 MeV. The aim of this work is to provide a theoretical framework to understand their origin. Magneto-hydrodynamic simulations with test particles show that the plasma collision leads to the growth of bubble and spike structures driven by the magnetic Rayleigh-Taylor instability and the generation of strong electric fields. We find that particles are accelerated to energies up to a few hundred of keV in less than 20 ns, by repeated interactions with these growing magnetic Rayleigh-Taylor perturbations. The simulations and a stochastic acceleration model recover very well the experimentally measured non-thermal energy spectrum. In conclusion, we have identified in the laboratory a new particle acceleration mechanism that relies on the growth of the magnetic Rayleigh-Taylor instability to stochastically energize particles. This instability is very common in astrophysical plasmas, with examples including supernovae remnants and coronal mass ejections, and we suggest that it may contribute to the energization of particles in these systems
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Jenkinson, William. "Simulation de la mécanique mésoscopique des aliments par méthodes de particules lagrangiennes". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASB047.

Texto completo da fonte
Resumo:
Le rôle des mécanismes mésoscopiques dans le traitement et la conception des aliments est encore mal compris, notamment pour la transformation orale et la perception de la texture. Malgré le développement de la physique de la matière molle, les scientifiques peinent encore à relier les comportements micro-, méso- et macroscopiques par des simulations. Cette thèse se concentre sur les simulations mécaniques, excluant les effets thermiques, chimiques et physico-chimiques, pour explorer le comportement des aliments à l'échelle mésoscopique. Nous avons développé une approche de simulation dans LAMMPS combinant des implémentations de "smoothed-particle hydrodynamics" (SPH) pour les liquides et les solides élastiques. Cette approche a été validée pour des scénarios comme l'écoulement de Couette et la déformation des granules. Les résultats démontrent l'efficacité de l'approche pour capter la dynamique des structures alimentaires et leurs interactions avec des papilles et des cils ; offrant de nouvelles perspectives sur la perception de la texture. L'étude met aussi en évidence l'impact de l'élasticité des granules et de leur fraction volumique sur les propriétés d'écoulement. Ce travail, centré sur la mécanique, reste ouvert à l'intégration future de processus thermiques, chimiques et biologiques dans les modèles alimentaires. Les recherches futures viseront à intégrer plus de physiques et à rendre les outils de simulation plus accessibles aux ingénieurs, pour favoriser les applications pratiques en science des aliments
The role of mesoscopic mechanics in food processing and design is not well understood, particularly for oral processing and texture perception. Despite the recognized importance of soft matter, the food science community has struggled to bridge the gap between micro-, meso-, and macro-scale behaviours using simulations. This thesis addresses this challenge by focusing on mechanical simulations, excluding thermal, chemical and physicochemical effects, to explore food behaviour at the mesoscopic scale. We have developed a simulation framework within the LAMMPS environment, combining smoothed-particle hydrodynamics (SPH) implementations for liquids and elastic solids. We validated the framework across scenarios such as Couette flow and deformation of granules in a flow. The results show the framework's effectiveness in capturing food structure dynamics and interactions with cilia and papillae and offer new insights into texture perception and hydrodynamics. The study also highlights how granule elasticity and volume fraction impact flow properties and their eventual role in texture perception. This work focuses on mechanics while deliberately remaining flexible enough to integrate mechanical, thermal, chemical, and biological processes in future food science models. Proposed future research includes strategies to integrate more physics and scales and efforts to improve the accessibility of simulation tools for engineers, advancing practical applications in food science
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

DaCosta-Cloix, Olivier. "Emission cyclotronique ionique dans les tokamaks". Palaiseau, Ecole polytechnique, 1995. http://www.theses.fr/1995EPXX0030.

Texto completo da fonte
Resumo:
L’émission cyclotronique ionique (ice) présente un grand potentiel comme diagnostic des ions rapides, en particulier des particules alpha de fusion, dans les tokamaks. Nous présentons les résultats expérimentaux pendant l'expérience préliminaire tritium de jet. Les spectres de l'ice présentent jusqu'a 11 pics étroits et régulièrement espaces. Les fréquences de ces pics sont aux harmoniques cyclotroniques de l'ion majoritaire (deuterium) au bord extérieur du plasma (grand rayon 4. 0m), près de la dernière surface fermée. Ceci représente un paradoxe majeur parce que l'ice est fortement corrélée aux ions rapides et cette densité d'ions rapides au bord extérieur du plasma est très faible. Les formes des spectres dans des plasmas d-d ou d-t sont similaires et un continuum d'émission apparait pour des fréquences supérieures a 120 mhz. Une corrélation presque linéaire entre l'intensité de l'ice et le flux de neutrons est observée sur 6 ordres de grandeur. Cela confirme que ce sont les ions de fusion rapides qui fournissent l'énergie nécessaire a l'excitation de l'ice. Nous observons aussi de fortes correlations temporelles entre l'intensite de l'ice et les instabilités mhd, particulièrement celles se produisant au bord extérieur du plasma. En particulier, le signal s'effondre pendant chaque instabilité elm de grande amplitude. Dans les decharges d-t, l'intensité de l'ice est corrélée avec des oscillations cohérentes observées dans differents signaux. Nous développons un calcul de l'émission spontanée dans le mode d'alfven rapide (fw). Le point de depart est le courant electrique cree par un ion test en rotation autour d'une ligne de champ magnetique, considere comme un courant externe. Nous exprimons les champs électriques et magnétique crees dans le mode fw en utilisant le tenseur dielectrique de plasma chaud. Nous obtenons alors les champs electrique et magnetique totaux de l'onde par sommations statistiques sur les ions majoritaires et les ions rapides de fusion en utilisant leurs distributions de vitesse specifiques. Nous prenons une distribution maxwellienne pour le deuterium majoritaire et une distribution de freinage pour les particules alphas au centre du plasma. Parallèlement, nous résolvons la relation de dispersion du mode fw dans le domaine de fréquences et de vecteurs d'onde ou il est couple avec le mode de bernstein, et donc avec les ions rapides. Nous calculons alors la densite d'energie du plasma et la puissance rayonnee dans le mode fw par integration sur les solutions de la relation de dispersion. Les spectres numériques de puissance emise presentent de grandes similarites avec les spectres experimentaux. Cette théorie est donc satisfaisante et doit être étendue pour l'interprétation des expériences
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Valdenaire, Simon. "Mise en place et utilisation des faisceaux FFF en radiothérapie : radiobiologie, caractérisation physique, contrôles qualité, modélisation et planification de traitement". Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0037/document.

Texto completo da fonte
Resumo:
Les faisceaux de photons produits par les accélérateurs d'électrons linéaires médicaux sont plats, grâce à un cône égalisateur. Les technologies ont évolué et la présence d'un cône n'est plus indispensable. On parle alors de faisceaux FFF (flattening filter free). Les faisceaux FFF présentent des débits de dose plus élevés, des profils de dose hétérogènes, des spectres énergétiques différents et une diminution de la dose hors-champ. Cette thèse a eu pour but d'étudier les caractéristiques des faisceaux FFF, ainsi que l'impact de leur utilisation thérapeutique. Plusieurs thématiques ont été. Des expériences d'irradiation in vitro ont tout d'abord permis de s'assurer que les débits de dose FFF n'ont pas d'impact radiobiologique sur la réponse des cellules irradiées. Une large revue de la littérature a permis de corroborer ces résultats. Afin de maitriser les caractéristiques physiques des faisceaux FFF, des mesures ont été faites avec différents détecteurs. Les effets du spectre et du débit de dose sur la calibration en dose ont aussi été étudiés. Les faisceaux FFF ont été modélisés dans deux TPS. Les modèles ont été comparés entre les deux types de faisceaux et entre les deux TPS. La mise en place des traitements stéréotaxiques a aussi été l'occasion d'appréhender la dosimétrie des petits faisceaux. Nous avons étudié des cas VMAT de cancer de la prostate et des cas de stéréotaxies 3D de tumeurs pulmonaires. La comparaison donne un avantage aux faisceaux FFF. La maitrise de la physique et de la biologie des haut débits a permis de débuter les traitements FFF à l'IPC. Des études comparatives nous permettent aujourd'hui d'adapter leur utilisation au cas par cas
In medical linear electron accelerators, photon beams profiles are homogenised using flattening filters. Technologies have evolved and the presence of this filter is no longer necessary. Flattening filter free (FFF) beams exhibit higher dose rates, heterogeneous dose profiles, modified energy spectra and lower out-of-field dose. This PhD aimed at studying the characteristics of unflattened beams, as well as their impact in clinical utilization. Several subjects were thoroughly investigated: radiobiology, dosimetry, quality controls, modelling and treatment planning. In vitro experiments ensured that the high dose-rate of FFF beams had not a radiobiological impact. A wide review of the literature was conducted to corroborate these results. In order to understand thoroughly the characteristics of FFF beams, measurements were conducted using several detectors. The effect of the spectra and dose rates of unflattened beams on dose calibration were also studied. FFF beams were modeled in two TPSs. The methods, results and model parameters have been compared between the available beam qualities as well as between both TPSs. Furthermore, the implementation of stereotactic treatments technique was the occasion to investigate small beam dosimetry. Prostate cancer cases treated with VMAT and pulmonary tumors treated with stereotactic 3D beams were also studied. The comparison of dose distributions and treatment metrics give advantage to FFF beams. Mastering physical and biological aspects of flattening filter free beams allowed the IPC to start FFF treatments. Comparative studies have since resulted in a deeper understanding on the pertinent use of these beams
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Cannaméla, Claire. "Apport des méthodes probabilistes dans la simulation du comportement sous irradiation du combustible à particules". Paris 7, 2007. http://www.theses.fr/2007PA077082.

Texto completo da fonte
Resumo:
Ce travail de thèse se consacre à l'évaluation d'espérances mathématiques et se place plus particulièrement dans un contexte de fiabilité des structures. Nous cherchons à estimer une probabilité de défaillance (supposée faible) en tenant compte des incertitudes des paramètres influents du système. Notre objectif est d'atteindre un bon compromis entre la précision de l'estimation et le coût de calcul associé. L'application porte sur l'estimation de la probabilité de rupture du combustible à particules d'un réacteur nucléaire de type HTR, via un code de calcul numérique coûteux. Nous considérons différentes approches probabilistes pour traiter le problème. Tout d'abord, nous examinons une méthode de Monte Carlo de réduction de variance : le tirage d'importance. Pour le cas paramétrique, nous proposons des algorithmes adaptatifs pour construire une suite de densités de probabilité qui convergerait vers la densité d'importance optimale. Nous présentons ensuite plusieurs estimateurs de l'espérance mathématique à partir de cette suite de densités. Par la suite, nous examinons une méthode de simulation multi-niveaux utilisant les algorithmes de Monte Cario par Chaînes de Markov. Enfin, nous nous intéressons au problème connexe de l'estimation de quantité (non extrême) de quantité physique simulée par un code numérique coûteux. Nous proposons une méthode de stratification contrôlée où des réalisations des variables d'entrées sont échantillonnées dans des zones déterminées à partir d'un modèle réduit de la réponse. L'estimation du quantile se fait alors à partir de cet échantillon
TThis work is devoted to the evaluation of mathematica! expectations in the context of structural reliability. We seek a failure probability estimate (that we assume low), taking into account the uncertainty of influential parameters of the System. Our goal is to reach a good copromise between the accuracy of the estimate and the associated computational cost. This approach is used to estimate the failure probability of fuel particles from a HTR-type nuclear reactor. This estimate is obtain by means of costly numerical simulations. We consider differents probabilistic methods to tackle the problem. First, we consider a variance reducing Monte Carlo method : importance sampling. For the parametric case, we propose adaptive algorithms in order to build a series of probability densities that will eventually converge to optimal importance density. We then present several estimates of the mathematical expectation based on this series of densities. Next, we consider a multi-level method using Monte Carlo Markov Chain algorithm. Finally, we turn our attention to the related problem of quantile estimation (non extreme) of physical output from a large-scale numerical code. We propose a controled stratification method. The random input parameters are sampled in specific regions obtained from surrogate of the response. The estimation of the quantile is then computed from this sample
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Peronnard, Paul. "Méthodes et outils pour l'évaluation de la sensibilité de circuits intégrés avancés face aux radiations naturelles". Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00441658.

Texto completo da fonte
Resumo:
La réduction des dimensions et paramètres électriques des transistors, fruit des progrès dans les technologies de fabrication de circuits intégrés, rend les composants présents et futurs de plus en plus sensibles aux perturbations appelées évènements singuliers S.E.E. (Single Event Effects). Ces événements sont la conséquence d'une impulsion de courant résultant de l'impact dans des zones sensibles du circuit, de particules énergétiques présentes dans l'environnement dans lequel ils fonctionnent. Parmi les différents types de SEE, peuvent être mentionnés les SEU (Single Event Upsets) qui consistent en l'inversion du contenu de cellules mémoires, les SEL (Single Event Latchups) qui donnent lieu à des courts-circuits masse-alimentation et peuvent donc conduire à la destruction du circuit par effet thermique. Cette thèse a pour but de décrire et valider les méthodologies nécessaires pour évaluer de manière précise la sensibilité face aux radiations de deux types de circuits numériques représentatifs, processeurs et mémoires, composants utilisés dans la plupart des systèmes embarqués.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Lominé, Franck. "Écoulements de particules dans un milieu poreux". Rennes 1, 2007. https://tel.archives-ouvertes.fr/tel-00198209.

Texto completo da fonte
Resumo:
Cette thèse a pour objet l'étude expérimentale et numérique de l'écoulement de particules dans un empilement de sphères plus grosses. Un dispositif expérimental a été mis au point pour étudier la dispersion latérale et le temps moyen de séjour d'un paquet de particules dans un milieu poreux. Nous avons en particulier déterminé la dépendance du temps moyen de transit en fonction du nombre de particules en écoulement, de la taille des particules et de la hauteur du milieu poreux. Nous avons également caractérisé la dépendance du coefficient de dispersion latéral avec le nombre de particules transitant dans la structure poreuse. Dans un deuxième temps, nous avons développé des modèles de simulations numériques basés sur les méthodes « Event-Driven » et « dynamique moléculaire de sphères molles ». Ceux-ci nous ont permis de compléter l'étude expérimentale en analysant l'influence de divers paramètres supplémentaires. L'accès à l'intérieur du milieu poreux a permis une analyse plus fine de la dispersion des particules. Enfin, nous avons abordé la possibilité d'utiliser le phénomène de percolation spontanée pour réaliser un mélangeur. Grâce à l'outil numérique, nous avons réalisé et caractérisé des mélanges de particules de tailles différentes. Nous avons alors montré que ce procédé s'avère être un moyen simple et efficace pour obtenir des mélanges homogènes de particules
This work deals with experimental and numerical investigations on particles flow through a packing of larger spheres. We built an experimental device to study lateral dispersion and the mean transit time of a blob of particles through a porous medium. Particularly, we determined the dependence of the mean transit time on the number of particles, on particle size and on the height of the porous medium. We also characterized the dependence of the lateral dispersion coefficient on the number of particles moving in the porous structure. Then, we developed numerical simulation models based on « Event-Driven » and « molecular dynamic of soft spheres » methods. Those allowed us to supplement the experimental study by analyzing the influence of various additional parameters. The access inside the porous medium allowed a finer analysis of particles dispersion. Finally, we approached the possibility of using the spontaneous percolation phenomenon to produce a mixer. Thanks to the numerical tool, we carried out and characterized mixtures of particles of different sizes. We showed that this process proves to be a simple and effective method to obtain homogeneous mixtures of particles
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Peaucelle, Christophe. "La problématique de l'évolution des moments d'une densité de particules soumises à des forces non linéaires". Phd thesis, Grenoble INPG, 2001. http://tel.archives-ouvertes.fr/tel-00001153.

Texto completo da fonte
Resumo:
L'utilisation des accélérateurs linéaires de forte puissance dans différents projets (production de neutrons par spallation, réacteurs hybrides) nous a amené à se pencher sur les problèmes de la dynamique de faisceaux de haute intensité. Dans le cas de faisceaux intenses, les particules sont soumises à des forces non linéaires, principalement dues à l'effet de charge d'espace. Afin de disposer d'outils à la fois moins lourds et plus réalistes que les méthodes classiques de simulation (interaction particule-particule, modèle coeur-particule), la description de l'évolution d'une distribution de particules à partir de ses paramètres statistiques, ses moments, a donc été envisagée. Nous présentons donc dans une première partie une analyse détaillée de la problématique, menée dans un cadre simplifié mais non limitatif : tout d'abord, nous développons un formalisme original basé sur les propriétés fines des polygones orthogonaux permettant l'étude des moments d'une densité en une dimension. De cette analyse, nous voyons que l'on peut extraire, d'un nombre fini de moments, un certain nombre d'informations concernant la densité. En particulier, il en découle la notion fondamentale d'enveloppe convexe définissant le domaine d'existence de cette densité. Ceci permet de mieux comprendre la signification des moments. La généralisation de cette description en deux dimensions permet d'estimer avec une bonne précision où sont localisées les particules dans cet espace des phases. Enfin, nous abordons les difficultés rencontrées au cours de cette étude, fixant ainsi les limites de cette méthode. La deuxième partie de cette thèse, plus expérimentale, présente les mesures de faisceaulogie effectuées sur l'accélérateur GENEPI (GEnérateur de NEutrons Pulsé Intense) dans le cadre de l'étude des systèmes hybrides. Elles permettent, entre autres, la calibration du faisceau et la validation des codes de calculs nécessaires à la conception de la machine.
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

DERRIENNIC, OURLY HELENE. "Etude et optimisation des méthodes de Monte Carlo non analogues pour la simulation des particules neutres en radio-protection". Paris, CNAM, 1999. http://www.theses.fr/1999CNAM0312.

Texto completo da fonte
Resumo:
La modelisation et la simulation en radio-protection ont pour but d'evaluer l'intensite de rayonnements ionisants, emis lors de reactions nucleaires, a une certaine distance de leur source. Ceci necessite la resolution de l'equation du transport des particules dans les materiaux. La methode de monte carlo, etant la seule methode numerique permettant de prendre en compte de facon detaillee les interactions particule-matiere et la geometrie du probleme, est frequemment utilisee dans ce domaine. Mais, lorsque la quantite cherchee depend d'evenements tres peu probables de la trajectoire des particules, un nombre extremement grand de simulations s'impose pour obtenir une variance faible des techniques d'acceleration de convergence doivent donc etre mises en uvre pour que les calculs soient realisables pratiquement. Certaines d'entre elles consistent a modifier (a biaiser) la loi des trajectoires echantillonnees en fonction du resultat cherche, dans le but de diminuer l'incertitude sur le resultat. L'utilisation de ces techniques est rendue tres delicate par le fait que les parametres de biaisage, definissant ces simulations, doivent etre ajustes finement pour chaque calcul d'une part, pour que le biaisage engendre un gain d'efficacite des simulations, d'autre part, pour eviter les problemes de sur-biaisage entrainant une mauvaise estimation du resultat, qui apparaissent lorsque les parametres de biaisage utilises sont trop grands. Jusqu'a present, ces parametres etaient fixes manuellement par l'utilisateur. Nous proposons, dans cette these, d'exploiter des informations sur la variance, recueillies en cours de simulation, pour optimiser le choix des parametres de biaisage, de facon quasi-automatique. Nous avons mis en uvre ce principe dans un programme monte carlo de resolution de l'equation du transport. Des resultats tres interessants sont obtenus. Nous avons d'autre part fait une analyse plus approfondie, basee sur l'etude de marches aleatoires biaisees simplifiees, du principe de biaisage et du phenomene de sur-biaisage, qui represente un danger majeur en radio-protection puisqu'il entraine une sous-estimation de la quantite cherchee. Nous avons ainsi mis en evidence numeriquement, et en partie theoriquement, les limites et les dangers de ces techniques de biaisage. Cette these presente donc des outils nouveaux permettant d'optimiser l'efficacite des simulations biaisees et d'eliminer le risque de sur-biaisage.
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Guyot-Delaurens, Frédérique. "Application de la méthode particulaire déterministe à la simulation du modèle cinétique de dispositifs électroniques inhomogène unidimensionnels". Palaiseau, Ecole polytechnique, 1990. http://www.theses.fr/1990EPXX0001.

Texto completo da fonte
Resumo:
On s'intéresse à la simulation de Boltzmann des semiconducteurs, par une méthode particulaire à poids variables. Dans cette méthode, les particules se déplacent suivant une dynamique non collisionnelle, tandis que les collisions sont traitées de manière déterministe, par la variation des poids des particules. Dans la première partie, on suppose le champ électrique homogène, et on applique la méthode a un opérateur de collisions non linéaire (correspondant à un semi-conducteur fortement dope), puis à un système couple d'équations de Boltzmann ; ce système est issu de la modélisation du transport électronique et des effets quantiques à l'interface d'une hétérojonction. Dans la deuxième partie, on tient compte du champ électrique créé par le déplacement des charges, en résolvant un système couple Boltzmann-Poisson. On compare, sur un problème simplifie, plusieurs méthodes pour coupler numériquement le déplacement des particules et le calcul du champ. On applique ensuite ces méthodes a la simulation de structures électroniques inhomogènes, unidimensionnelles.
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Chauvin, Corine. "Influence des forces d'interactions particulaires dans la simulation lagrangienne du comportement de particules en sédimentation et écoulements turbulents". Rouen, 1991. http://www.theses.fr/1991ROUE5037.

Texto completo da fonte
Resumo:
Ce mémoire porte sur la prise en compte de forces d'interactions particulaires dans une simulation lagrangienne du comportement de particules en écoulement turbulent. Les forces d'interactions hydrodynamiques sont estimées à partir de la matrice de mobilité définie dans la théorie de la sédimentation. Les chocs sont supposés parfaitement élastiques. Les résultats concernent le comportement de 2, 3, 4 ou 6 sphères en sédimentation, ainsi que le comportement d'un alignement vertical ou horizontal de 10 particules dans un écoulement turbulent homogène et isotrope. Le comportement d'un nuage de 50 particules, distribuées de manière aléatoire mais respectant une concentration donnée, est ensuite présenté
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Kong, Jian Xin. "Contribution à l'analyse numérique des méthodes de couplage particules-grille en mécanique des fluides". Habilitation à diriger des recherches, Grenoble 1, 1993. http://tel.archives-ouvertes.fr/tel-00343556.

Texto completo da fonte
Resumo:
Ce travail concerne l'étude numérique des méthodes du couplage particules-grille (ou appelée methode de vortex in cell) en écoulements bidimensionnels de fluides incompressibles, tant parfait que peu visqueux. Dans la première partie de ce travail on s'intéresse a la resolution numérique des équations d'Euler incompressibles par des méthodes de vortex in cell (vic). On propose une technique itérative pour en améliorer la précision et on montre sur des cas tests l'efficacité de ces techniques. Dans la seconde partie, on montre la convergence pour les équations de navier-stokes d'une methode de vortex utilisant la diffusion numérique produite par la reinitialisation des particules pour simuler la diffusion physique. On définit un schéma vic base sur les techniques de la première partie et on l'utilise pour la simulation de turbulence bidimensionnelle périodique. On obtient les premiers résultats satisfaisants par methode de vortex in cell pour ce cas test difficile
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Dorogan, Kateryna. "Schémas numériques pour la modélisation hybride des écoulements turbulents gaz-particules". Phd thesis, Aix-Marseille Université, 2012. http://tel.archives-ouvertes.fr/tel-00820978.

Texto completo da fonte
Resumo:
Les méthodes hybrides Moments/PDF sont bien adaptées pour la description des écoulements diphasiques turbulents, polydispersés, hors équilibre thermodynamique. Ces méthodes permettent d'avoir une description assez fine de la polydispersion, de la convection et des termes sources non-linéaires. Cependant, les approximations issues de telles simulations sont bruitées ce qui, dans certaines situations, occasionne un biais. L'approche alternative étudiée dans ce travail consiste à coupler une description Eulerienne des moments avec une description stochastique Lagrangienne à l'intérieur de la phase dispersée, permettant de réduire l'erreur statistique et d'éliminer le biais. La mise en oeuvre de cette méthode nécessite le développement de schémas numériques robustes. Les approches proposées sont basées sur l'utilisation simultanée des techniques de relaxation et de décentrement, et permettent d'obtenir des approximations stables des solutions instationnaires du système d'équations aux dérivées partielles, avec des données peu régulières provenant du couplage avec le modèle stochastique. Une comparaison des résultats de la méthode hybride Moments-Moments/PDF avec ceux issus de la méthode hybride ''classique'' est présentée en termes d'analyse des erreurs numériques sur un cas de jet co-courant gaz-particules.
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Noël, Franck. "Simulation numérique de la formation d'un dépôt de particules sur une surface poreuse : application à la filtration d'arrêt". Toulouse, INPT, 2006. https://hal.science/tel-04594672.

Texto completo da fonte
Resumo:
Dans ce travail, nous avons développé des outils numériques qui nous ont permis d'une part d'analyser et de renseigner la résistance hydraulique de couches de particules déposées sur une membrane filtrante et d'autre part de simuler la formation de dépôts en filtration frontale lorsque l'écoulement externe est à très faible nombre de Reynolds (écoulement de Stokes). Nous avons distingué deux cas principaux suivant le rapport entre la taille des particules et la taille du pore de la paroi filtrante. Lorsque ce rapport est petit (situations dites à séparation d'échelle), il est légitime de s'appuyer sur la loi de Darcy pour modéliser l'écoulement dans le dépôt. Dans le cas contraire (absence de séparation d'échelle), les modèles homogénéisés type Darcy représentent a priori de mauvaises approximations de l'écoulement et il est en principe nécessaire de procéder par résolution directe des équations de Stokes à l'échelle des particules
In this work, we developed numerical tools which enabled us on the one hand to analyze and compute the hydraulic resistance of particles deposited on a filter membrane and on the other hand to simulate the formation of deposits in frontal filtration when the external flow has a very small Reynolds number (Stokes flow). We distinguished two principal cases according to the relationship between the size of the particles and the size of the pore of the membrane. When this ratio is small (situations called to separation of scales), we modelized the flow in the deposit with the Darcy's law. When this ratio is important (absence of separation of scales), the homogenized models such as Darcy is a bad approximation of the flow and it is necessary in theory to solve equations of Stokes
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Fourrier, Joris. "Les accélérateurs à champ fixe et gradient alterné FFAG et leur application médicale en protonthérapie". Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10161.

Texto completo da fonte
Resumo:
La radiothérapie utilise des faisceaux de particules dans le but d'irradier et d'éliminer les tumeurs cancéreuses tout en épargnant au maximum les tissus sains. La perte d'énergie en forme de pic de Bragg des protons dans la matière permet une amélioration balistique du dépôt de la dose par rapport aux rayons X. Le volume irradié peut ainsi être précisément ajusté au volume tumoral. Cette thèse, dans le cadre du projet RACCAM, vise à étudier et à mettre au point le design d'une installation de protonthérapie basée sur un accélérateur de particules à champ fixe et à gradient alterné FFAG dans le but de construire un aimant FFAG à secteur spiral pour validation. Nous présentons tout d'abord la protonthérapie pour définir un cahier des charges médicales définissant les critères techniques d'une installation de protonthérapie. Puis nous introduisons les accélérateurs FFAG par une présentation des projets passés et en cours dans le monde avant de développer la théorie de la dynamique faisceau dans le cas de l'optique à focalisation invariante. Nous décrivons ensuite les outils de modélisation et simulation mis au point pour étudier cette dynamique faisceau dans une optique FFAG à focalisation invariante et à secteur spiral. Nous expliquons par la suite la recherche des paramètres de l'optique ayant abouti à la construction d'un aimant prototype. Enfin, nous décrivons l'installation de protonthérapie du projet RACCAM depuis le cyclotron injecteur jusqu'au système d'extraction
Radiotherapy uses particle beams to irradiate and kill cancer tumors while sparing healthy tissues. Bragg peak shape of the proton energy loss in matter allows a ballistic improvement of the dose deposition compared with X rays. Thus, the irradiated volume can be precisely adjusted to the tumour. This thesis, in the frame of the RACCAM project, aims to the study and the design of a proton therapy installation based on a fixed field alternating gradient (FFAG) accelerator in order to build a spiral sector FFAG magnet for validation. First, we present proton therapy to define medical specifications leading to the technical specifications of a proton therapy installation. Secondly, we introduce FFAG accelerators through their past and on-going projects which are on their way around the world before developing the beam dynamic theories in the case of invariant focusing optics (scaling FFAG). We describe modelling and simulation tools developed to study the dynamics in a spiral scaling FFAG accelerator. Then we explain the spiral optic parameter search which has leaded to the construction of a magnet prototype. Finally, we describe the RACCAM project proton therapy installation starting from the injector cyclotron and ending with the extraction system
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Peaucelle, Christophe. "La problématique de l'évolution des moments d'une densité de particules soumises à des forces non linéaires". Phd thesis, Grenoble INPG, 2001. http://www.theses.fr/2001INPG0095.

Texto completo da fonte
Resumo:
L'utilisation des accélérateurs linéaires de forte puissance dans différents projets (production de neutrons par spallation, réacteurs hybrides) nous a amené à se pencher sur les problèmes de la dynamique de faisceaux de haute intensité. Dans le cas de faisceaux intenses, les particules sont soumises à des forces non linéaires, principalement dues à l'effet de charge d'espace. Afin de disposer d'outils à la fois moins lourds et plus réalistes que les méthodes classiques de simulation (interaction particule-particule, modèle coeur-particule), la description de l'évolution d'une distribution de particules à partir de ses paramètres statistiques, ses moments, a donc été envisagée. Nous présentons donc dans une première partie une analyse détaillée de la problématique, menée dans un cadre simplifié mais non limitatif : tout d'abord, nous développons un formalisme original basé sur les propriétés fines des polygones orthogonaux permettant l'étude des moments d'une densité en une dimension. De cette analyse, nous voyons que l'on peut extraire, d'un nombre fini de moments, un certain nombre d'informations concernant la densité. En particulier, il en découle la notion fondamentale d'enveloppe convexe définissant le domaine d'existence de cette densité. Ceci permet de mieux comprendre la signification des moments. La généralisation de cette description en deux dimensions permet d'estimer avec une bonne précision où sont localisées les particules dans cet espace des phases. Enfin, nous abordons les difficultés rencontrées au cours de cette étude, fixant ainsi les limites de cette méthode. La deuxième partie de cette thèse, plus expérimentale, présente les mesures de faisceaulogie effectuées sur l'accélérateur GENEPI (GEnérateur de NEutrons Pulsé Intense) dans le cadre de l'étude des systèmes hybrides. Elles permettent, entre autres, la calibration du faisceau et la validation des codes de calculs nécessaires à la conception de la machine
High-power linear accelerators are needed as driver for several projects (spallation neutron sources, hybrid system). This interest brings us to the question of dynamics of high intensity particle beam. Inside intense beam, particles are under non linear forces mainly due to space charge effects. In order to have less heavy and more realistic tools than classical simulation methods (particle-particle interactions, particle-core model), we consider a description of the evolution of a particle density from its statistical parameters, its moments. In a first part, a detailed analysis of the moment problems is shown in a simplified but non restrictive case. To begin with, we develop an original study based on orthogonal polynomial properties which allows us to study one-dimension density moments. We can see that we obtain information about density from only few moments. Such an investigation is essential for a better understanding of moment significance. Then, we apply this description to two-dimension phase space, so that we can precisely estimate where particles are in this phase space. Finally, we enumerate difficulties met and deduce the limits of this method. The second part of this thesis, more experimental, presents beam the measurements of the beam characteristics of accelerator "GENEPI" as a part of hybrid reactor program. Moreover, we show how these specifications yields to beam calibration and validation of theoretical calculations used to design GENEPI
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Fourrier, Joris. "Les accélérateurs à champ fixe et gradient alterné FFAG et leur application médicale en protonthérapie". Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00338177.

Texto completo da fonte
Resumo:
La radiothérapie utilise des faisceaux de particules dans le but d'irradier et d'éliminer les tumeurs cancéreuses tout en épargnant au maximum les tissus sains. La perte d'énergie en forme de pic de Bragg des protons dans la matière permet une amélioration balistique du dépôt de la dose par rapport aux rayons X. Le volume irradié peut ainsi être précisément ajusté au volume tumoral. Cette thèse, dans le cadre du projet RACCAM, vise à étudier et à mettre au point le design d'une installation de protonthérapie basée sur un accélérateur de particules à champ fixe et à gradient alterné FFAG dans le but de construire un aimant FFAG à secteur spiral pour validation. Nous présentons tout d'abord la protonthérapie pour définir un cahier des charges médicales définissant les critères techniques d'une installation de protonthérapie. Puis nous introduisons les accélérateurs FFAG par une présentation des projets passés et en cours dans le monde avant de développer la théorie de la dynamique faisceau dans le cas de l'optique à focalisation invariante. Nous décrivons ensuite les outils de modélisation et simulation mis au point pour étudier cette dynamique faisceau dans une optique FFAG à focalisation invariante et à secteur spiral. Nous expliquons par la suite la recherche des paramètres de l'optique ayant abouti à la construction d'un aimant prototype. Enfin, nous décrivons l'installation de protonthérapie du projet RACCAM depuis le cyclotron injecteur jusqu'au système d'extraction.
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Roux, Raphaël. "Étude probabiliste de systèmes de particules en interaction : applications à la simulation moléculaire". Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00597479.

Texto completo da fonte
Resumo:
Ce travail présente quelques résultats sur les systèmes de particules en interaction pour l'interprétation probabiliste des équations aux dérivées partielles, avec des applications à des questions de dynamique moléculaire et de chimie quantique. On présente notamment une méthode particulaire permettant d'analyser le processus de la force biaisante adaptative, utilisé en dynamique moléculaire pour le calcul de différences d'énergies libres. On étudie également la sensibilité de dynamiques stochastiques par rapport à un paramètre, en vue du calcul des forces dans l'approximation de Born-Oppenheimer pour rechercher l'état quantique fondamental de molécules. Enfin, on présente un schéma numérique basé sur un système de particules pour résoudre des lois de conservation scalaires, avec un terme de diffusion anormale se traduisant par une dynamique de sauts sur les particules
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Zambelli, Laura. "Contraintes sur la prédiction des flux de neutrinos de T2K par les données de l'expérience de hadroproduction NA61/SHINE". Paris 7, 2013. http://www.theses.fr/2013PA077215.

Texto completo da fonte
Resumo:
T2K est une expérience d'oscillation de neutrinos basée au Japon, dont le principal but est une première mesure précise de l'angle de mélange thetal3 de la matrice PMNS. Cette mesure est réalisée via l'apparition de neutrinos électroniques dans un faisceau de neutrinos muoniques, 300 km après leur création. Le faisceau de neutrinos est créé par la désintégration en vol de particules instables (pions, kaons, muons) produites par les interactions de protons à 31 GeV/c contre une cible de carbone. Principalement composé de neutrinos muoniques, le faisceau ainsi créé présente également une composante électronique, constituant la source d'erreur dominante pour la mesure de theta13. Afin de comprendre, et prédire cette contamination électronique, une expérience parallèle d'hadroproduction est utilisée, NA61/SHINE au CERN, qui reproduit les conditions de création du faisceau de T2K et mesure la cinématique des hadrons produits grâce à deux types de cibles: mince et réplique. La mesure du taux de production des kaons neutres sur cible mince est présentée dans cette thèse. Cette mesure, combinée avec celle des hadrons chargés, est ensuite injectée dans la chaine de simulation de T2K. Le développement d'une simulation basée sur l'outil générique VMC nous a permis un cadre unique pour la simulation des deux expériences. Cet outil a également permis de tester les prédictions d'une large gamme de modèles de physique hadronique sur les données des expériences NA61/SHINE et HARP montrant que le modèle d'interaction Fritiof est le plus prometteur à ces énergies. Ces ingre��dients ont joué un rôle important dans la première observation de thetal3, et dans les réductions de son incertitude
T2K is a long baseline neutrino oscillation experiment on accelerator based in Japan, whose primary goal is a precise measurement of the thetal3 angle of the PMNS matrix. This measurement is possible through the appearance of electronic neutrinos out of a muonic neutrino beam, 300 km downstream after their creation point. Neutrinos are made by the decay in flight of unstable particles (pions, kaons, muons) produced by 31 GeV/c accelerated protons impinging onto a carbon target. Most of the neutrinos produced are of muonic-type, but a non-negligible amount of electronic neutrinos is also created, which will contribute to the dominant source of errors for the measurement of thetal3. In order to understand, and predict, this electronic contamination, a parallel hadroproduction experiment is used: NA61/SHINE at CERN reproduces the T2K beam conditions, and measures the kinematics of produced hadrons thanks to two types of target: thin and replica. The measurement of the KOS production is described in this thesis. This measurement, together with charged hadrons, is then implemented in the T2K simulation chain. The development of a simulation based on the generic tool VMC, detailed in the thesis, provides a unique framework for the simulation of the two experiments. Moreover, this tool allows tests of several hadronic models against NA61/SHINE and HARP experimental data. Fritiof-based models seem to be the most promising. All these ingredients played a key rote leading to the first measurement of the theta13 angle, and reducing its uncertainty
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Charles, Frédérique. "Modélisation mathématique et étude numérique d'un aérosol dans un gaz raréfié. Application à la simulation du transport de particules de poussière en cas d'accident de perte de vide dans ITER". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2009. http://tel.archives-ouvertes.fr/tel-00463639.

Texto completo da fonte
Resumo:
Dans ce travail, nous nous intéressons à des modèles cinétiques décrivant un aérosol constitué de particules solides dans un gaz raréfié. Ces modèles sont constitués d'un couplage de deux Équations aux Dérivées Partielles décrivant l'évolution spatio-temporelle des distributions en molécules de gaz et en particules de poussière. Le modèle présenté dans la première partie de ce travail est constitué d'un couplage de deux équations de type Boltzmann, dans lequel l'interaction entre les molécules de gaz et les particules de poussière est décrite par deux opérateurs de collision. Nous proposons deux modélisations de ces opérateurs. Dans la première, les collisions entre particules et molécules sont supposées élastiques. Dans la seconde, nous modélisons ces collisions par un mécanisme inélastique de réflexion diffuse sur la surface des particules. Nous établissons alors des opérateurs de collision d'expressions non classiques. D'un point de vue mathématique, nous montrons que le couplage homogène en espace muni des opérateurs de collision élastiques possède des solutions faibles préservant la masse et l'énergie, et vérifiant une inégalité d'entropie. Nous proposons ensuite une mise en oeuvre numérique du modèle dit de réflexion diffuse, basé sur un code de type Direct Simulation Monte Carlo. Celle-ci met en évidence un coût de simulation de l'opérateur particules-molécules trop élevé lorsque les particules ont un rayon trop grand. Nous introduisons alors dans la deuxième partie de ce travail un modèle constitué d'un couplage (par l'intermédiaire d'une force de traînée) entre une équation de Vlasov et une équation de Boltzmann. Pour cela, nous effectuons un adimensionnement du premier système, suivi d'un développement asymptotique de l'opérateur de collision particules-molécules adimensionné en fonction du rapport de masse entre une molécule et une particule de poussière. Nous justifions ensuite rigoureusement ce développement asymptotique dans le cas homogène en espace et pour le modèle de collisions élastiques en prouvant que les solutions du couplage Boltzmann/Boltzmann convergent faiblement vers des solutions du couplage asymptotique Vlasov/Boltzmann. Nous établissons pour cela une nouvelle variante de l'inégalité de Povzner, adaptée au cas de particules de masses très différentes. Par ailleurs, nous comparons numériquement les systèmes Boltzmann/Boltzmann et Vlasov/Boltzmann pour le modèle dit de réflexion diffuse. La mise en oeuvre numérique du système Vlasov/Boltzmann est réalisée par couplage entre une méthode de type Particle-In-Cell et une méthode Monte-Carlo. Enfin, nous présentons l'application de ces modèles à la simulation numérique de la mobilisation et du transport de particules de poussière au début d'un accident de perte de vide, dans le cadre d'étude de sûreté pour le réacteur ITER
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Baraglia, Federico. "Développement d'un modèle triphasique Euler/Euler/Lagrange pour la simulation numérique des écoulements liquide-gaz chargés en particules". Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSEP017.

Texto completo da fonte
Resumo:
Ce manuscrit retranscris un travail effectué au cours d’une thèse au département MFEE d’EDF R&D sur les écoulements liquid-gaz chargés en particules dispersées sous la direction d’Olivier Simonin (IMFT), de Jérôme Laviéville (EDF) et de Nicolas Mérigoux (EDF). Le but de la thèse est de fournir un environnement de travail pour la simulation numérique d’écoulement eau-air à bulles, à phases séparés ou en régime mixte, chargé en particules qui peuvent interagir avec les fluides présents sous leur forme continue ou dispersée. Ces écoulements peuvent se retrouver aussi bien dans des situations industrielles comme des réacteurs chimiques, des centrales de production d’électricité ou des usines de traitement des eaux usées que dans des situations naturelles comme durant la crue d’un fleuve. L’outil développé permet de faire des prédictions sur les performances de ces dispositifs industriels ou sur les dégâts causés par des évènements naturels exceptionnels. Les développements sont inclus dans la version la plus à jour du code de calcul neptune_cfd, un solveur N-fluides développé par EDF, le CEA, l’IRSN et Framatome, basé sur la méthode multi-fluide standard qui permet la simulation d’écoulement à plusieurs phases indépendamment de leur typologie.Les méthodes misent en place sont basées sur des approches diphasiques bien connues. La méthode Lagrangienne stochastique de suivi de particules est adaptées pour que chaque particule puisse interagir avec toutes les champs fluides présents. Des fermetures sont proposées pour déterminer l’impact de chacune des phases sur le comportement des particules. Afin de vérifier certaines hypothèses, une nouvelle fermeture pour l’équation de Langevin sur la vitesse de fluide vue par la particule est proposée. Son comportement est comparée aux modèles standards et de la littérature sur des cas de vérification simples de turbulence homogène isotrope et des cas inhomogènes. Les équations Lagrangiennes obtenues sont utilisées pour fermer un modèle Eulerien basé sur l’approche fonction densité de probabilité. Les performances des deux modèles triphasiques développés sont établies en matière de déposition de particules pilotée par la turbulence et la gravité.Un pan entier de la thèse se concentre sur une problématique apparue durant des vérifications préliminaires: le phénomène d’entraînement d’air dans les jets plongeants. En effet, à partir d’une structure résolue, en fonction des conditions d’écoulements, des bulles ou gouttelettes dispersées peuvent apparaître. La quantité de ces structures transférées ainsi que leur taille caractéristique étant des grandeurs primordiales, il a fallu mettre en place un nouveau modèle. Le transfert de masse entre structures continues et inclusions dispersées est assuré par le modèle qui décrit l’évolution des interfaces résolues. Nous ne l’avons pas modifié. Celui qui concerne la taille des bulles/gouttelettes créées s’intègre dans l’équation d’évolution de l’aire interfaciale, grandeur qui permet de suivre le diamètre des inclusions.Tous les modèles développés sont comparés à des mesures expérimentales. Le modèle d’entraînement d’air est d’abord testé sans la présence des particules sur des cas divers. Un cas de ressaut hydraulique est aussi envisagé pour établir la généralité du modèle mis en place. Les modèles triphasiques sont testés sur des configurations variées, d’abord sans entraînement d’air pour isoler le comportement des particules puis avec tous les phénomènes. Les différents cas ont permis de mettre en valeur l’importance de certains modèles ainsi que les différences entre les méthodes Lagrangienne stochastique et Eulerienne
This manuscript sums up work carried out during a thesis at the MFEE department of EDF R&D on liquid-gas flows laden with dispersed particles under the supervision of Olivier Simonin (IMFT), Jérôme Laviéville (EDF), and Nicolas Mérigoux (EDF). The thesis aims at providing a working environment for the numerical simulation of two-phase bubbly flows, free-surface flows or in a mixed regime, loaded with particles that can interact with the fluids present in their continuous or dispersed form. These flows can be found in industrial situations such as chemical reactors, power plants, or wastewater treatment plants, as well as in natural situations such as during a flood. The developed tool allows predictions to be made about the performance of these industrial devices or the damage caused by exceptional natural events. The developments are included in the most up-to-date version of neptune_cfd, a multi-fluid solver developed by EDF, CEA, IRSN, and Framatome, based on the standard multi-fluid method that allows the simulation of multiphase flow independently of their typology.The methods implemented are based on well-known two-phase approaches. The stochastic Lagrangian particle tracking method is adapted so that each particle can interact with all the fluids. Closures are proposed to determine the impact of each phase on the behavior of the particles. To verify certain assumptions, a new closure for the Langevin equation on the fluid velocity seen by the particle is proposed. Its behavior is compared to standard models and literature on simple verification cases of homogeneous isotropic turbulence and inhomogeneous cases. The Lagrangian equations obtained are used to close an Eulerian model based on the probability density function approach. The performance of the two developed threephase models is established in terms of particle deposition driven by turbulence or gravity.A significant part of the thesis focuses on an issue that arose during preliminary checks: the phenomenon of air entrainment in plunging jets. Indeed, due to the nature of the solver, bubbles or dispersed droplets can detach from the free-surface depending on the flow conditions. The quantity of these transferred structures and their characteristic size being crucial quantities which drives their behavior, a new model had to be developed. Mass transfer between continuous structures and dispersed inclusions is ensured by the model that describes the evolution of resolved interfaces, the latter was not modified. The one regarding the size of the created bubbles/droplets is integrated into the evolution equation of the interfacial area, a quantity that allows tracking the diameter of the inclusions.All developed models are compared to experimental measurements. The air entrainment model is first tested without the presence of particles in various cases. A hydraulic jump case is also considered to establish the generality of the model. Then, the threephase models are tested in various configurations. First, configurations without air entrainment to isolate the behavior of the particles, and then with air entrainment. The different cases highlighted the importance of certain models and the differences between stochastic Lagrangian and Eulerian methods
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Crestetto, Anaïs. "Optimisation de méthodes numériques pour la physique des plasmas : application aux faisceaux de particules chargées". Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00735569.

Texto completo da fonte
Resumo:
Cette thèse propose différentes méthodes numériques permettant de simuler le comportement des plasmas ou des faisceaux de particules chargées à coût réduit. Le mouvement de particules chargées soumises à un champ électromagnétique est régi par l'équation de Vlasov. Celle-ci est couplée aux équations de Maxwell pour le champ électromagnétique ou à l'équation de Poisson dans un cas simplifié. Plusieurs types de modèles existent pour résoudre ce système. Dans les modèles cinétiques, les particules sont représentées par une fonction de distribution f(x,v,t) qui vérifie l'équation de Vlasov. Dans le cas général tridimensionnel (3D), le système fait apparaître 7 variables. Les calculs sur ordinateur deviennent rapidement très lourds. Les modèles fluides de plasma s'intéressent quant à eux à des quantités macroscopiques déduites de f par des intégrales en vitesse, telles que la densité, la vitesse moyenne et la température. Ces quantités ne dépendent que de la position x et du temps t. Le coût numérique est ainsi réduit, mais la précision s'en trouve altérée. Dans la première partie de cette thèse, une méthode multi-fluides est utilisée pour la résolution du système de Vlasov-Poisson 1D. Elle est basée sur la connaissance a priori de la forme prise par la fonction de distribution f. Deux possibilités sont étudiées : une somme de masse de Dirac et le modèle multi-water-bag. Ce type de méthodes est plutôt adapté aux systèmes restant proches de l'état d'équilibre. La deuxième partie propose de décomposer f en une partie d'équilibre et une perturbation. L'équilibre est résolu par une méthode fluide alors que la perturbation est résolue par une méthode cinétique. On construit notamment un schéma préservant l'asymptotique pour le système de Vlasov-Poisson-BGK, basé sur une telle décomposition. On étudie dans la troisième partie la méthode Particle-In-Cell (PIC) en géométrie 2D axisymétrique. Un travail basé sur l'analyse isogéométrique est présenté, ainsi qu'un code PIC - Galerkin Discontinu parallélisé sur carte graphique (GPU). Cette architecture permet de réduire de manière significative les temps de calculs.
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Hitti, Karim. "Simulation numérique de Volumes Élémentaires Représentatifs (VERs) complexes : Génération, Résolution et Homogénéisation". Phd thesis, École Nationale Supérieure des Mines de Paris, 2011. http://pastel.archives-ouvertes.fr/pastel-00667428.

Texto completo da fonte
Resumo:
L'influence des hétérogénéités microstructurales sur le comportement d'un matériau est devenue une problématique industrielle de première importance, cet état de fait explique l'engouement actuel pour la prise en compte de ces hétérogénéités dans le cadre de la modélisation numérique. Ainsi, de nombreuses méthodes pour représenter de manière digitale un matériau virtuel statistiquement équivalent à la microstructure réelle et pour connecter cette représentation à des calculs éléments finis se sont développées ces dernières années. Les travaux réalisés durant cette thèse s'inscrivent en grande partie dans cette thématique. En effet, un générateur de microstructures virtuelles permettant de générer à la fois des microstructures polyédriques ou sphériques a été développé. Ce générateur est basé sur les diagrammes de Laguerre et une méthode frontale de remplissage, une approche level-set pour l'immersion de ces microstructures dans un maillage éléments finis et une technique d'adaptation anisotrope de maillage pour assurer une grande précision lors de cette immersion mais également lors de la réalisation de simulations éléments finis sur ces microstructures. La capacité de ces outils à respecter des données statistiques concernant les microstructures considérées est assurée par le couplage d'une méthode frontale à une méthode d'optimisation des défauts locaux selon la nature de la microstructure considérée. Une technique de coloration de graphe est également appliquée afin de limiter le nombre de fonctions level-set nécessaires à l'adaptation de maillage. En outre, le coût élevé d'une simulation micro-macro entièrement couplée peut-être significativement réduite en limitant les calculs à une analyse entièrement découplée. Dans ce contexte, la réponse d'un Volume Élémentaire Représentatif (VER) soumis à des conditions aux limites représentatives de ce que subit la matière en un point précis d'un calcul macroscopique reste l'approche la plus complète à l'heure actuelle. Dans le cadre de ce travail, nous nous sommes intéressés à deux types de VER pour deux applications différentes : la déformation de VERs de mousses polyédriques élastiques et le calcul du tenseur de perméabilité pour des VERs composés de fibres cylindriques hétérogènes mais monodirectionnelles. Plus précisément, pour la première de ces applications, des cas de compression biaxiale de mousses élastiques à cellules fermées en nids d'abeille ou irrégulières sont modélisés comme un problème d'interaction fluide structure (IFS) entre un fluide compressible (l'air à l'intérieur des cellules) et un solide élastique compressible (le squelette de la mousse). Une formulation monolithique est utilisée pour résoudre ce problème en regroupant les équations d'états régissant le solide et le fluide en un seul jeu d'équations résolu sur un maillage unique discrétisant les deux phases. Une telle stratégie donne lieu, pour la partie solide, à l'apparition d'un tenseur d'extra-contrainte dans les équations de Navier-Stokes. Ces équations sont ensuite résolues par une méthode éléments finis mixte avec une interpolation de type P1+/P1. Concernant la deuxième application, des écoulements dans des milieux fibreux sont simulés en considérant les fibres comme rigides. Ici encore, une formulation monolithique est adoptée. Ainsi, les équations de Stokes sont résolues sur l'ensemble du domaine de calcul en utilisant une méthode de pénalisation. Par homogénéisation, la loi de Darcy est utilisée pour obtenir le tenseur de perméabilité.
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Latocha, Vladimir. "Deux problemes en transport des particules chargees intervenant dans la modelisation d'un propulseur ionique". Phd thesis, INSA de Toulouse, 2001. http://tel.archives-ouvertes.fr/tel-00002194.

Texto completo da fonte
Resumo:
La modélisation des propulseurs ioniques de type SPT pose de nombreux
problèmes dans le domaine du transport des particules chargées. Nous nous
intéressons à deux de ces problèmes, à savoir le transport des électrons et
le calcul du potentiel électrique.

Le transport des électrons résulte de l'influence conjuguée des champs
(électrique et magnétique) établis dans la cavité du propulseur et des
collisions des électrons (dans la cavité et avec la paroi limitant celle-ci).
Nous avons participé au développement d'un modèle SHE (Spherical Harmonics
Expansion) qui résulte d'une analyse asymptotique de l'équation de Boltzmann
munie de conditions de réflexion aux bords. Ce modèle permet d'approcher la
fonction de distribution en énergie des électrons en résolvant une
équation de diffusion dans un espace \{position, énergie\}. Plus précisément,
nous avons étendu une démarche existante au cas où les collisions en volume
(excitation, ionisation) et les collisions inélastiques à la paroi
(attachement et émission secondaire) sont prises en compte. Enfin, nous
avons écrit un code de résolution du modèle SHE, dont les résultats ont
été comparés avec ceux d'une méthode de Monte Carlo.

\vspace*{1mm}
Dans un deuxième temps, nous avons étudié le calcul du potentiel électrique.
La présence du champ magnétique impose d'écrire le courant d'électrons sous
la forme ${\cal J}=\sigma \nabla W$
où W est le potentiel électrique et le tenseur de conductivité $\sigma$
est fortement anisotrope compte tenu des grandeurs physiques en jeu dans
le SPT. Pour résoudre $\mbox{div }{\cal J}(x,y)=S(x,y)$,
nous avons implémenté une méthode de volumes finis
sur maillage cartésien permettant de résoudre ce problème elliptique
anisotrope, et nous avons vérifié qu'elle échouait lorsque le rapport
d'anisotropie devenait grand. Aussi nous avons développé une méthode de
paramétrisation, qui consiste à extrapoler la solution d'un problème
anisotrope à l'aide d'une suite de problèmes isotropes. Cette méthode a
donné des résultats encourageants pour de forts rapports d'anisotropie,
et devrait nous permettre d'atteindre des cas réels.
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Zhang, Qijie. "Simulation de la matière particulaire dans la région parisienne, en particulier de l'aérosol organique". Paris 7, 2012. http://www.theses.fr/2012PA077206.

Texto completo da fonte
Resumo:
Les activités humaines dans les grandes agglomérations ("mégalopoles") provoquent des émissions de polluants importantes, avec des effets négatifs sur la qualité de l'air et la santé humaine à l'échelle locale et régionale. Les particules fines (PM) sont l'une des plus grandes préoccupations pour la santé. Les aérosols organiques constituent une partie importante de paricules fines, mais il y a encore de grandes lacunes dans les connaissances sur leurs voies de formation et il y a une incertitude considérable dans leur modélisation 3D. Dans cette thèse, les simulations de PM₂. ₅ avec le modèle de chimie-transport régionaux CHIMERE ont d'abord été évaluées avec les mesures recueillies à Paris au printemps 2007. Les résultats du modèle montrent une bonne performance de simuler l'apparition de pics, surtout pour les aérosols inorganiques qui proviennent principalement de transport à longue distance de l'Europe Nord-Est et Centrale. L'aérosol organique primaire (POA) simulé est surestimé quand il est considéré comme non-volatile par un facteur de deux, tandis que l'aérosol organique secondaire (SOA) est sous-estimé par un facteur de plus de 2. Afin d'améliorer la performance du modèle de simulation de l'aérosol organique, l'approche "Volatility Basis Set" qui formalise les nouvelles connaissances sur la volatilité de POA et le vieillissement chimique de SOA sont mises en oeuvre dans CHIMERE. Les simulations du modèle sont évaluées avec les observations au sol et aéroportées obtenues lors des deux campagnes de terrain intensives effectuées dans l'agglomération parisienne en été 2009 et hiver 2009/2010 dans le cadre du projet européen MEGAPOLI. La simulation de l'aérosol organique est significativement améliorée lorsque l'on tient compte de la volatilité des POA et l'oxydation multi-étapes de COV semi volatil lors de la campagne d'été. L'advection des masses d'air continentales à l'agglomération parisienne avec des niveaux de fond de SOA soit d'origine anthropique ou biogénique, est bien restituée par le modèle. L'accumulation de SOA dans le panache est surestimée par un facteur de deux, quand normalisée à la production photochimique d'ozone, ce facteur est dans l'incertitude de l'approche VBS. Pendant la campagne d'hiver, la formation de la SOA reste sous-estimée. Ces résultats représentent clairement des progrès dans la modélisation de l'aérosol organique dans et autour d'une grande agglomération urbaine. Le modèle a été utilisé pour estimer les contributions des sources de l'aérosol organique dans l'agglomération et dans le panache en été 2009. Dans l'agglomération, l'advection de SOA biogéniques, anthropiques et du fond de l'extérieur a été dominante, tandis que le POA émis localement à environ un quart de l'aérosol organique au total. Dans le panache, la formation de SOA anthropique, et aussi de POA âgés devient dominante. Ces résultats sont en accord général avec les études de l'attribution des sources à partir d'observations
Human activities in large agglomerations ("megacities") cause large pollutant emissions, with negative effects on air quality and human health at a local and regional level. Fine particulate matter (PM) is one of the greatest concerns for health. Organic aerosol makes up a large part of fine PM, but there are still large gaps in the knowledge on its formation pathways and there is considerable uncertainty in its 3D modeling. In this thesis, PM₂. ₅ simulations with the regional chemistry-transport model CHIMERE were first evaluated with measurement date collected in Paris in springtime, 2007. The model results show good performance of simulating occurrence of peaks, especially for inorganic aerosols which mainly originate from long range transport from Northeastern and Central Europe. Modeled primary organic aerosol (POA) is overestimated when considered as non-volatile by a factor of two, while secondary organic aerosol (SOA) is underestimated by a factor of more than two. In order to improve the model performance of organic aerosol simulation, the volatility basis set approach which formalizes new knowledge on POA volatility and on SOA chemical aging is implemented into CHIMERE. Model simulations are evaluated with ground based and airborne observations obtained during two intensive field campaigns performed in the Paris agglomeration in summer 2009 and winter 2009/2010 in the frame of the European MEGAPOLI project. The simulation for organic aerosol is improved when taking into account POA volatility and multistep oxidation of semivolatile VOC during the summer campaign. Advection of continental air masses to the Paris agglomeration with enhanced SOA levels either from anthropogenic or biogenic origin, is well restituted by the model. SOA build-up in the plume is overestimated by a factor of two when normalized to photochemical ozone production, but this factor is within the uncertainty of the VBS approach. During the winter campaign, SOA formation is still underestimated. These results clearly represent progress in the modeling of organic aerosol in and around a large urban agglomeration. The model was used to estimate sources contributing for summer 2009 to organic aerosol in the agglomeration and in the plume. Within the agglomeration, advection of biogenic, anthropogenic and background SOA from outside was dominant, while locally emitted POA accounts to about a quarter of total OA. In the plume, anthropogenic SOA formation, and to some extent also SOA formation from aged POA becomes dominant. These results are in broad agreement with source apportionment studies from observations
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Zaffora, Biagio. "Statistical analysis for the radiological characterization of radioactive waste in particle accelerators". Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1131/document.

Texto completo da fonte
Resumo:
Ce travail de thèse introduit une nouvelle méthode pour la caractérisation radiologique des déchets très faiblement radioactifs produits au sein de l’Organisation Européenne pour la Recherche Nucléaire (CERN). La méthode se base sur : 1. le calcul des radionucléides en présence, i.e. les radionucléides qui peuvent être produits lors de l’interaction des particules avec la matière et les structures environnantes les accélérateurs, 2. la mesure directe des émetteurs gamma et, 3. la quantification des émetteurs alpha et beta purs et de rayons X de faible énergie, appelés radionucléides difficile-a-mesurer (DTM), en utilisant les méthodes dites des «scaling factor» (SF), «correlation factor» (CF) et activité moyenne (MA). La première phase du processus de caractérisation est le calcul des radionucléides en présence à l’aide de codes de calcul analytiques ou Monte Carlo. Après le calcul de l’inventaire radiologique, les radionucléides émetteurs gamma sont mesurés par spectrométrie gamma dans chaque colis de la population. L’émetteur gamma dominant, appelé « key nuclide » (KN), est identifié. La méthode dite des «scaling factors» permet d’estimer l’activité des radionucléides DTM après évaluation de la corrélation entre l’activité des DTM et l’activité de l’émetteur gamma dominant obtenue à partir d’échantillons. Si une corrélation existe, l’activité des radionucléides DTM peut être évaluée grâce à des facteurs de corrélation expérimentaux appelés « scaling factors », sinon l’activité moyenne obtenue à partir d’échantillons prélevés dans la population est attribuée à chaque colis. Lorsque les activités des émetteurs alpha et beta purs et des émetteurs X de faible énergie ne peuvent pas être estimées par mesure la méthode des « correlation factors » s’applique. La méthode des « correlation factors » se base sur le calcul de corrélations théoriques entre l’émetteur gamma dominant et les radionucléides de très faible activité. Cette thèse décrit en détail la nouvelle technique de caractérisation radiologique, montre un cas d’application complet et présente les résultats de l’industrialisation de la méthode ayant permis la caractérisation radiologique de plus de 1000 m3 de déchets radioactifs au CERN entre 2015 et 2017
This thesis introduces a new method to characterize metallic very-low-level radioactive waste produced at the European Organization for Nuclear Research (CERN). The method is based on: 1. the calculation of a preliminary radionuclide inventory, which is the list of the radionuclides that can be produced when particles interact with a surrounding medium, 2. the direct measurement of gamma emitters and, 3. the quantification of pure-alpha, pure-beta and low-energy X-ray emitters, called difficult-to-measure (DTM) radionuclides, using the so-called scaling factor (SF), correlation factor (CF) and mean activity (MA) techniques. The first stage of the characterization process is the calculation of the radionuclide inventory via either analytical or Monte Carlo codes. Once the preliminary radionuclide inventory is obtained, the gamma-emitting radionuclides are measured via gamma-ray spectrometry on each package of the waste population. The major gamma-emitter, called key nuclide (KN), is also identified. The scaling factor method estimates the activity of DTM radionuclides by checking for a consistent and repeated relationship between the key nuclide and the activity of the difficult to measure radionuclides from samples. If a correlation exists the activity of DTM radiodionuclides can be evaluated using the scaling factor otherwise the mean activity from the samples collected is applied to the entire waste population. Finally, the correlation factor is used when the activity of pure-alpha, pure-beta and low-energy X-ray emitters is so low that cannot be quantified using experimental values. In this case a theoretical correlation factor is obtained from the calculations to link the activity of the radionuclides we want to quantify and the activity of the key nuclide. The thesis describes in detail the characterization method, shows a complete case study and describes the industrial-scale application of the characterization method on over 1’000 m3 of radioactive waste, which was carried out at CERN between 2015 and 2017
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Sajjad, Saeeda. "Développement d'outils de simulation et de reconstruction de gerbes de particules pour l'astronomie gamma avec les futurs imageurs Tcherenkov". Phd thesis, Montpellier 2, 2007. http://www.theses.fr/2007MON20249.

Texto completo da fonte
Resumo:
Le futur de l'astronomie gamma au sol repose sur l'utilisation de grands réseaux d'imageurs Tcherenkov atmosphériques (IACT) avec des capacités améliorées : seuil en énergie plus bas, meilleure sensibilité, meilleurs résolution et pouvoir de rejet. Pour concevoir ces systèmes et optimiser leurs caractéristiques, il est nécessaire de comprendre les gerbes atmosphériques et de disposer d'outils de simulation adaptés permettant d'évaluer les performances des réseaux. La première partie de cette thèse traite des gerbes atmosphériques, des propriétés de la lumière Tcherenkov qu'elles émettent et de leur simulation. La seconde partie présente les outils que nous avons développés pour la simulation des télescopes à imagerie Tcherenkov atmosphérique et les caractéristiques des images qu'ils obtiennent. La troisième partie de cette thèse contient une présentation des outils dévéloppés pour la reconstruction de la source, du pied de gerbe et de l'énergie ainsi que des propositions pour la séparation gamma-hadrons. Dans la dernière partie, ces outils sont utilisés pour étudier deux grands réseaux de télescopes à deux altitudes différentes et pour donner leurs performances pour la détection des rayons gamma.
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Chaigne, Benoît. "Méthodes hiérarchiques pour l'optimisation géométrique de structures rayonnantes". Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00429366.

Texto completo da fonte
Resumo:
Une antenne à réflecteur est un dispositif largement utilisé pour la communication satellite. La durée de vie d'un tel dispositif est étroitement liée à la fatigue due à la consommation d'énergie pour émettre le signal. Un des enjeux de la conception optimale d'une antenne revient donc à produire des systèmes dont le rendement est le meilleur possible par rapport à une tâche donnée. La particularité d'une antenne à réflecteur se traduit par la présence de surfaces rayonnantes dont la géométrie constitue le paramètre principal pour assumer cette tâche. Sur la base de la simulation de la propagation d'une onde électromagnétique en espace libre et en régime harmonique, on est capable de développer des méthodes d'optimisation numérique de la forme de surfaces rayonnantes. On cherche à minimiser un critère qui traduit en terme mathématique la tâche à effectuer d'un point de vue énergétique. Cependant, les méthodes utilisées sont souvent soumis à des difficultés liées au fait que ces problèmes sont mal posés et numériquement raides. Le contrôle étant géométrique, on a examiné dans cette thèse les contributions potentielles de représentations hiérarchiques afin d'étendre les performances d'algorithmes classiques d'optimisation. Ces extensions empruntent ses fondements aux méthodes multigrilles pour la résolution d'EDP. Un exemple théorique d'optimisation de forme permet d'assoir les stratégies appliquées à l'optimisation d'antennes. Puis des expériences numériques d'optimisation montrent que les algorithmes de bases sont améliorés en terme de robustesse comme en terme de vitesse de convergence.
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Sajjad, Saeeda. "Développement d'outils de simulation et de reconstruction de gerbes de particules pour l'astronomie gamma avec les futurs imageurs Tcherenkov". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00408835.

Texto completo da fonte
Resumo:
Le futur de l'astronomie gamma au sol repose sur l'utilisation de grands réseaux d'imageurs Tcherenkov atmosphériques (IACT) avec des capacités améliorées : seuil en énergie plus bas, meilleure sensibilité, meilleurs résolution et pouvoir de rejet. Pour concevoir ces systèmes et optimiser leurs caractéristiques, il est nécessaire de comprendre les gerbes atmosphériques et de disposer d'outils de simulation adaptés permettant d'évaluer les performances des réseaux. La première partie de cette thèse traite des gerbes atmosphériques, des propriétés de la lumière Tcherenkov qu'elles émettent et de leur simulation. La seconde partie présente les outils que nous avons développés pour la simulation des télescopes à imagerie Tcherenkov atmosphérique et les caractéristiques des images qu'ils obtiennent. La troisième partie de cette thèse contient une présentation des outils dévéloppés pour la reconstruction de la source, du pied de gerbe et de l'énergie ainsi que des propositions pour la séparation gamma-hadrons. Dans la dernière partie, ces outils sont utilisés pour étudier deux grands réseaux de télescopes à deux altitudes différentes et pour donner leurs performances pour la détection des rayons gamma.
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Bilgen, Suheyla. "Dynamic pressure in particle accelerators : experimental measurements and simulation for the LHC". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASP020.

Texto completo da fonte
Resumo:
L’obtention de très faible pression (UHV) est une condition essentielle pour les accélérateurs de particules de haute énergie et de hautes performances. Par conséquent, la compréhension de l'évolution de la pression dynamique pendant le fonctionnement des accélérateurs est fondamentale afin de trouver des solutions qui permettent de minimiser les hausses de pression induites par de multiples phénomènes présents dans les lignes faisceaux. Pour le LHC, l'apparition d'instabilités peut être due à la succession de plusieurs processus. Tout d’abord, le faisceau de protons de haute intensité ionise le gaz résiduel, produisant des ions positifs (principalement H₂⁺ et CO⁺) ainsi que des électrons qui sont accélérés et qui impactent la paroi en cuivre des tubes de faisceaux. Ensuite, ces interactions induisent : (i) une désorption des gaz absorbés sur les parois, conduisant à des élévations de pression ; (ii) la création de particules secondaires (ions et électrons). Dans ce dernier cas, la production d'électrons secondaires entraîne, par effet d’avalanche, la formation de nuages d’électrons, dont la limitation est l'un des enjeux majeurs de l'anneau de stockage du LHC. Ces nuages génèrent des montées de pression et des dépôts de chaleur sur les parois du collisionneur pouvant conduire à des « quench » d’aimants supraconducteurs. Tous ces phénomènes limitent l'intensité maximale et augmentent l’émittance des faisceaux et donc la luminosité ultime atteignable dans un accélérateur de protons. Ce travail de thèse a pour but d’étudier certains phénomènes fondamentaux qui contrôlent la pression dynamique dans le LHC, à savoir les effets induits par les électrons et les ions, d’une part, et l'influence de la chimie de surface du cuivre constituant les écrans faisceaux, d’autre part. Dans un premier temps, les courants d’électrons et d’ions ainsi que la pression ont été mesurés in situ dans le Secteur Pilote Vide (VPS) situé sur l'anneau du LHC pendant la deuxième période d’exploitation du collisionneur. En analysant ces résultats, une quantité d’ion plus importante que prévu a été détectée et la relation entre les électrons, les ions et les variations de pression a été étudiée. D’autre part, la désorption stimulée par les ions a été mesurée au laboratoire au CERN en utilisant un bâti expérimental dédié. L'influence de la nature, de la masse et de l'énergie des ions incidents interagissant avec les surfaces sur les rendements de désorption ionique a été discutée. De plus, des analyses approfondies de la surface de cuivre constituant l'écran faisceau ont été réalisées dans le laboratoire IJCLab pour identifier le rôle joué par la chimie de surface du cuivre sur le rendement d’émission électronique, les processus de conditionnement de surface et la désorption de gaz stimulée. Le rôle fondamental de composés chimiques sur la surface (contaminants, présence de carbone et d'oxydes natifs) sur le rendement de production des électrons secondaires a été mis en évidence. Enfin, nous avons proposé un code de simulation permettant de prédire les profils de pression dans les chambres à vide des accélérateurs de particules ainsi que leur évolution temporelle. Ce nouveau code de simulation appelé DYVACS (DYnamic VACuum Simulation) est une amélioration du code VASCO développé par le CERN. Il a été appliqué pour simuler la pression dynamique dans le VPS. L'évolution du nuage d'électrons a été implémentée dans le code via des « maps » permettant de calculer l'évolution de la densité des nuages d'électrons. L'ionisation du gaz résiduel par les électrons a également été prise en compte. Finalement, les résultats obtenus avec DYVACS ont été comparés aux mesures de pression enregistrées dans le LHC. Les résultats obtenus à l’issu de ces travaux de thèse, ainsi que les développements expérimentaux et de simulation réalisés, pourront permettre l’étude de la stabilité du vide de futurs accélérateurs de particules tels que HL-LHC ou FCC(ee et hh)
Ultra-High Vacuum is an essential requirement to achieve design performances and high luminosities in high-energy particle colliders. Consequently, the understanding of the dynamic pressure evolution during accelerator operation is fundamental to provide solutions to mitigate pressure rises induced by multiple-effects occurring in the vacuum chambers and leading to beam instabilities. For the LHC, the appearance of instabilities may be due to the succession of several phenomena. First, the high intensity proton beams ionize the residual gas producing positive ions (mainly H₂⁺ or CO⁺) as well as accelerated electrons which impinge the copper wall of the beam pipe. Then, these interactions induce: (i) the desorption of gases adsorbed on the surfaces leading to pressure rises; (ii) the creation of secondary particles (ions, electrons). In this latter case, the production of secondary electrons leads to the so-called “Electron Cloud” build-up by multipacting effect, the mitigation of which being one of the major challenges of the LHC storage ring. Electron clouds generate beam instabilities, pressure rises and heat loads on the walls of beam pipe and can lead to “quench” of the superconducting magnets. All these phenomena limit the maximum intensity of the beams and thus the ultimate luminosity achievable in a proton accelerator. This work aims to investigate some fundamental phenomena which drive the dynamic pressure in the LHC, namely the effects induced by electrons and ions interacting with the copper surface of the beam screens on the one hand and the influence of the surface chemistry of copper on the other hand. First, in-situ measurements were performed. Electron and ion currents as well as pressure were recorded in situ in the Vacuum Pilot Sector (VPS) located on the LHC ring during the RUN II. By analyzing the results, more ions than expected were detected and the interplay between electrons, ions and pressure changes was investigated. Then, the ion-stimulated desorption was studied, using a devoted experimental set-up at the CERN vacuum Lab. The influence of the nature, mass, and energy of the incident ions interacting with the copper surface on the ion-desorption yields was discussed. In addition, extensive surface analyses were performed in the IJCLab laboratory to identify the role played by the surface chemistry on the electron emission yield, surface conditioning processes and the stimulated gas desorption. The fundamental role of the surface chemical components (contaminants, presence of carbon and native oxide layers) on the secondary electron yield was evidenced. Finally, we proposed a simulation code allowing to predict the pressure profiles in the vacuum chambers of particle accelerators as well as their evolution under dynamic conditions (i.e. as a function of time). This new simulation code called DYVACS (DYnamic VACuum Simulation) is an upgrade of the VASCO code developed at CERN. It was applied to simulate the dynamic pressure in the VPS when proton beams circulate into the ring. The electron cloud build-up was implemented in the code via electron cloud maps. The ionization of the residual gas by electrons was also considered. Results obtained with the DYVACS code are compared to pressure measurements recorded during typical fills for physics and a good agreement is obtained. This PhD study has provided interesting results and has allowed the development of new experimental and simulation tools that will be useful for further investigations on the vacuum stability of future particle accelerators such as HL-LHC or FCC (ee and hh)
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Chata, Florent. "Estimation par méthodes inverses des profils d’émission des machines à bois électroportatives". Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0161/document.

Texto completo da fonte
Resumo:
Cette thèse est dédiée à l'estimation de l'intensité d'une source de polluant de type particulaire par inversion de signaux de concentration mesurés avec un nombre fini de capteurs placés loin de la source. Cette méthode d'estimation inclut deux étapes distinctes. La première étape consiste à déterminer les paramètres du modèle d'inversion en utilisant une source d'aérosol connue et les mesures de concentration en particules correspondantes. Dans une seconde étape, une source d'aérosol inconnue est reconstruite à partir de l'inversion du modèle et des mesures de la concentration. Ce manuscrit traite dans un premier temps du cas stationnaire. L'approche théorique exposée permet de proposer un placement optimal des capteurs en plus de la méthode d'estimation de la source. Dans un second temps, on considère le cas où la source inconnue d'aérosol est instationnaire. La méthode d'estimation repose sur une approche convolutive du système, en introduisant la notion d'impédance source/capteur. Après une présentation de la technique d'inversion propre à la méthode d'estimation, elle est appliquée expérimentalement au cas des machines à bois éléctroportatives, dans le but de les discriminer en fonction de leur caractère émissif
This thesis is dedicated to the determination of unknown aerosol sources emission profiles from aerosol concentration measurements in the far-field. This procedure includes two distinct steps. The first step consists in determining the model linking the aerosol source and the concentration measurements using a known source of aerosols and the corresponding dust measurements. In a second step, the unknown source of aerosols is reconstructed by inverting the model for the measured aerosol concentrations. This manuscript deals in a first time with the stationary case. The exposed theoretical approach allows to suggest an optimal sensors placement in addition to the source estimation method. In a second time, we consider the case where the unknown aerosol source is unsteady. The estimation method is then based on a convolutive system approach, introducing the concept of source/sensor impedance. After a presentation of the numerical inversion technique, the method is applied experimentally to the real case of hand-held wood working machines so as to classify the machines with respect to their emission rate
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Demidem, Camilia. "Shocks, turbulence and particle acceleration in relativistic magnetohydrodynamics : Numerical and theoretical investigations". Thesis, Université de Paris (2019-....), 2019. http://www.theses.fr/2019UNIP7052.

Texto completo da fonte
Resumo:
Quels sont les processus physiques à l’origine des propriétés non-thermiques observées dans les sources astrophysiques de haute énergie ? D’où viennent les rayons cosmiques de haute énergie ? Les réponses à ces questions semblent être intimement liées à la physique des chocs, de la turbulence et de l’accélération de particules. Notamment, comprendre les chocs non-collisionnels, qui sont parmi les sites d’accélération les plus activement explorés par l’astrophysique moderne, implique de rendre compte de dépendances complexes entre ces trois composantes.Nous plaçant ici dans le cadre de travail de la magnétohydrodynamique (MHD) relativiste, nous examinons tour à tour différents aspects impliqués dans la physique non-linéaire et multi-échelle qui régit ces systèmes. Dans un premier temps, nous traitons d’un problème en lien avec la problématique des interactions choc-turbulence, à savoir la réponse d’un choc rapide perpendiculaire à des ondes magnétohydrodynamiques en provenance de l’amont du choc. Nous démontrons numériquement que cette réponse est dans certaines conditions résonantes, comme cela avait été prédit par une étude linéaire dans la limite relativiste. Par le biais de simulations bidimensionnelles à haute résolution effectuées avec un code à maillage adaptatif, MPI-AMRVAC, nous sondons ce phénomène dans les régimes sub-relativiste et relativiste ainsi que son évolution non-linéaire. On se concentre ensuite sur le problème de particules test interagissant avec une turbulence MHD relativiste pour étudier de manière analytique et numérique la physique de l’accélération stochastique, en insistant sur les spécificités du régime relativiste, qui demeure peu exploré. Au niveau analytique, nous dérivons des expressions pour les coefficients de diffusion de l’angle d’attaque et de la quantité de mouvement pour différents modèles phénoménologiques de turbulence largement acceptés dans la littérature. Nous nous affranchissons de certaines limites de la théorie quasi-linéaire standard en incorporant des effets d’élargissement de résonance dus à la décorrélation des ondes qui composent la turbulence et à des perturbations non-linéaires de la trajectoire des particules sujettes aux réflexions de miroirs magnétiques. Nous montrons que ces estimations analytiques sont en bon accord avec nos simulations de particules test évoluant dans une turbulence prescrite. Enfin, on présente les premiers résultats de nos simulations de MHD relativiste tridimensionnelles de turbulence forcée avec évolution temporelle, utilisées pour explorer l’accélération stochastique dans un plasma relativiste chaud de magnétisation de l’ordre de l’unité. On trouve en particulier que le coefficient de diffusion en quantité de mouvement a une dépendance Dpp ~p2, ce qui est cohérent avec nos prédictions analytiques pour une turbulence faite de perturbations de type ondes d’Alfvén et avec de récentes simulations « Particule en cellule » ayant sondé un régime similaire
What are the physical processes underlying the non-thermal features observed in high-energy astrophysical sources? What are the origins of high-energy cosmic rays? The answers to these questions seem to be intimately related to the physics of shocks, turbulence and particle acceleration. Notably, understanding collisionless shocks, which are among the most prominent potential acceleration sites considered in modern astrophysics, implies to account for a complex interplay between these three components. Relying on the framework of special relativistic magnetohydrodynamics (SRMHD), we investigate in turn different aspects involved in the non-linear and multi-scale physics governing such systems. First, we examine a problem related to the issue of shock-turbulence interactions; namely the response of a perpendicular fast shock to upstream magnetohydrodynamic waves and demonstrate numerically that this response can be resonant, as predicted by a recent linear study in the relativistic limit. By means of high resolution two-dimensional SRMHD simulations carried out with the adaptive mesh code MPI-AMRVAC, we probe this phenomenon in the relativistic and sub-relativistic regimes, as well as its non-linear evolution. We then shift the focus towards the problem of test particles interacting with SRMHD turbulence to investigate analytically and numerically the physics of stochastic acceleration, emphasizing the specifities of the relativistic regime, which remains largely unexplored. On the analytic level, we provide expressions for the quasi-linear pitch angle and momentum diffusion coefficients for widely accepted phenomenological models of MHD turbulence, going beyond standard quasi-linear theory by incorporating resonance broadening effects due to the decorrelation of the waves composing the turbulence and non-linear perturbations to the trajectories of particles subjected to magnetic mirroring. These analytical estimations are shown to be in good agreement the results of our simulations of test particles involving in synthetic turbulence. Finally, we introduce the first results from three-dimensional time evolving SRMHD simulations of driven turbulence, used to probe stochastic acceleration in relativistically hot plasmas with magnetization of order unity. We derive in particular momentum diffusion coefficients scaling as Dpp ~p2 consistent with our analytic predictions for turbulence made of Alfven like perturbations and recent Particle-In-Cell simulations, which explored a similar regime
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Courtin, Jérôme. "Empreinte de l'énergie noire sur la formation des structures". Paris 7, 2009. http://www.theses.fr/2009PA077203.

Texto completo da fonte
Resumo:
L'objectif de cette thèse participe à la mise en évidence et à la compréhension des mécanismes non linéaires responsables d'empreintes mesurables de l'énergie noire sur la structuration du champ de matière noire en vue de la différenciation des modèles. Nous étudions les conséquences d'évolutions cosmologiques spécifiques aux modèles de quintessence sur la formation des structures en cosmologie. Ce travail est mené dans le cadre de simulations numériques N-corps dans un univers en expansion accélérée. Dans ce but, nous avons fait tourner un vaste ensemble de simulations numériques pour des énergies noires variées, avec des résolutions et sur une gamme de masses sans précédents. Nos résultats concernant les empreintes de l'énergie noire sur la formation des structures recouvrent deux aspects. D'une part l'empreinte forte de l'énergie noire sur la structuration du champ de matière puis sur les fonctions de masse. Nous montrons pourquoi celle-ci est spécifique aux paramètres cosmologiques déduits des observations et donc à l'équation d'état de l'énergie noire. Et d'autre part l'empreinte fine associée à l'enregistrement de l'histoire du taux d'expansion par les mécanismes non linéaires de formation des structures du champ de matière. Nous montrerons les effets de l'énergie noire sur la définition de la massé des halos de matière noire et les conséquences mesurables sur les fonctions de masse
This thesis aims at the understanding of non linear mecanisms responsible for the imprints of Dark Energy in structure formation. These mecanisms should provide an observable imprint for the differenciation of the cosmologies. In this work, we study the specific consequences of quintessence phenomenologies on structure formation. This reflexion is lead in the Framework of N-body simulations in accelerated universes. We ran a number of state of art simulations for various cosmologies and a set of nine simulations with unprecedent resolution and mass range, for three observational dark energy cosmologies. Our results cover two aspects. First, the strong imprint of dark energy on the dark matter field structuration, and on mass functions. We show that cosmology parameters derived from observations in a consistent way induce a very different structuration. Second, we show that the linear history of structure formation is recorded in the non linear dark matter field which keeps a fine imprint of the specific expansion of each dark energy cosmology. We will show the effects of dark energy on dark matter haloes definition and the consequences on mass function prediction
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Dugois, Kévin. "Simulation à l’échelle microscopique et analyse macroscopique de l’imprégnation d’un matériau composite par un fluide chargé en particules". Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0011/document.

Texto completo da fonte
Resumo:
Dans le but d’améliorer le comportement thermo-mécanique des aubes de turbine présentes dans les moteurs d’avion développés par SAFRAN, il est nécessaire de mettre au point un nouveau matériau composite. Le procédé de fabrication de ce matériau est complexe et requiert une densification par voie liquide divisée en deux étapes. Cette thèse s’intéresse à la modélisation numérique de la première étape appelée Slurry Cast/APS.Celle-ci consiste en l’injection et le confinement, dans la préforme fibreuse, de particules préalablement mises en suspension. Pour cela, nous avons développé à l’échelle des fibres,un modèle qui utilise les équations de Navier-Stokes incompressibles et monophasiques ,l’équation de Phillips [Phillips et al., 1992] et une loi rhéologique [Krieger, 1972]. Après validation des résultats numériques par comparaison avec des résultats expérimentaux [Hampton et al., 1997] et théoriques [Belfort et al., 1994], le modèle est utilisé pour simuler l’écoulement autour de géométries de tissage proches du matériau étudié
In order to improve thermo-mechanical behavior of tubine blades in SAFRAN engines plane, a new composite material is necessary. The manufacturing process to obtain this composite is intricate and requires a two steps fluid densification process. This thesis focuses on numerical simulation of the first one called Slurry Cats/APS. In this step, suspended particles are introducted and captured in the reinforcement. For that purpose,we carry out a model at fiber scale, using Navier-Stokes equations in incompressible and monophasic formulation, Phillips equations [Phillips et al., 1992] and a rheological law [Krieger, 1972]. After validation step consisting in a comparison of computational results with experiments [Hampton et al., 1997] and theorical law [Belfort et al., 1994], this model has been used to simulate flow around geometries similar to those encountered in our composite material
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Tatomirescu, Emilian-Dragos. "Accélération laser-plasma à ultra haute intensité - modélisation numérique". Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0013/document.

Texto completo da fonte
Resumo:
Avec les dernières augmentations de l'intensité maximale de laser réalisable grâce à de courtes impulsions à haute puissance (gamme femtoseconde) un intérêt a surgi dans les sources de plasma laser potentiels. Les lasers sont utilisés en radiographie proton, allumage rapide, hadronthérapie, la production de radioisotopes et de laboratoire astrophysique. Au cours de l'interaction laser-cible, les ions sont accélérés par des processus physiques différents, en fonction de la zone de la cible. Tous ces mécanismes ont un point commun: les ions sont accélérés par des champs électriques intenses, qui se produisent en raison de la séparation de forte charge induite par l'interaction de l'impulsion laser avec la cible, directement ou indirectement. Deux principales sources distinctes pour le déplacement de charge peuvent être mis en évidence. Le premier est le gradient de charge provoquée par l'action directe de la force ponderomotive de laser sur les électrons dans la surface avant de la cible, qui est la prémisse pour le processus d'accélération des radiations de pression (RPA). Une deuxième source peut être identifiée comme provenant du rayonnement laser qui est transformée en énergie cinétique d'une population d'électrons relativistes chaud (~ quelques MeV). Les électrons chauds se déplacent et font recirculer à travers la cible et forment un nuage d'électrons relativistes à la sortie de la cible dans le vide. Ce nuage, qui se prolonge pour plusieurs longueurs de Debye, crée un champ électrique extrêmement intense longitudinal, la plupart du temps dirigé le long de la surface normale, ce qui, par conséquent, est la cause de l'accélération d'ions efficace, qui conduit à l'accélération cible normale gaine (TNSA) processus . Le mécanisme TNSA permet d'utiliser des géométries différentes cibles afin de parvenir à une meilleure focalisation des faisceaux de particules de l'ordre de plusieurs dizaines de microns, avec des densités d'énergie élevées. Les électrons chauds sont produits par l'irradiation d'une feuille solide avec une impulsion laser intense; ces électrons sont transportés à travers la cible, la formation d'un champ électrostatique fort, normal à la surface cible. Protons et les ions chargés positivement de la surface arrière de la cible sont accélérés par ce domaine jusqu'à ce que la charge de l'électron est compensée. La densité d'électrons chauds et la température dans le vide arrière dépendent des propriétés géométriques et de composition cibles tels que la courbure de la cible, les structures de mise au point d'impulsion et de microstructure pour l'accélération de protons améliorée. Au cours de ma première année, j'ai étudié les effets de la géométrie de la cible sur le proton et l'ion énergie et la distribution angulaire afin d'optimiser les faisceaux de particules laser accéléré au moyen de deux dimensions (2D) particule-in-cell (PIC) simulations de l'interaction de l'ultra-court impulsions laser avec plusieurs cibles microstructurées. Également au cours de cette année, je l'ai étudié la théorie derrière les modèles utilisés
With the latest increases in maximum laser intensity achievable through short pulses at high power (femtosecond range) an interest has arisen in potential laser plasma sources. Lasers are used in proton radiography, rapid ignition, hadrontherapy, production of radioisotopes and astrophysical laboratory. During the laser-target interaction, the ions are accelerated by different physical processes, depending on the area of ​​the target. All these mechanisms have one thing in common: the ions are accelerated by intense electric fields, which occur due to the separation of high charge induced by the interaction of the laser pulse with the target, directly or indirectly. Two main distinct sources for charge displacement can be identified. The first is the charge gradient caused by the direct action of the laser ponderomotive force on the electrons in the front surface of the target, which is the premise for the pressure ramping acceleration (RPA) process. A second source can be identified as coming from the laser radiation which is transformed into kinetic energy of a hot relativistic electron population (~ a few MeV). The hot electrons move and recirculate through the target and form a cloud of relativistic electrons at the exit of the target in a vacuum. This cloud, which extends for several lengths of Debye, creates an extremely intense longitudinal electric field, mostly directed along the normal surface, which is therefore the cause of effective ion acceleration, which leads to the normal target sheath acceleration (TNSA) process. The TNSA mechanism makes it possible to use different target geometries in order to obtain a better focusing of the beams of particles on the order of several tens of microns, with high energy densities. Hot electrons are produced by irradiating a solid sheet with an intense laser pulse; these electrons are transported through the target, forming a strong electrostatic field, normal to the target surface. Protons and positively charged ions from the back surface of the target are accelerated by this domain until the charge of the electron is compensated. The density of hot electrons and the temperature in the back vacuum depend on the target geometric and compositional properties such as target curvature, pulse and microstructure tuning structures for enhanced proton acceleration. In my first year I studied the effects of target geometry on the proton and energy ion and angular distribution in order to optimize the accelerated laser particle beams by means of two-dimensional (2D) particle -in-cell (PIC) simulations of the interaction of ultra-short laser pulses with several microstructured targets. Also during this year, I studied the theory behind the models used
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Sibille, Valérian. "Mesure de l'angle de mélange θ₁₃ avec les deux détecteurs de Double Chooz". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS582/document.

Texto completo da fonte
Resumo:
L'expérience Double Chooz a pour but de mesurer l'angle de mélange leptonique θ₁₃ avec précision. Pour ce faire, l'expérience met à profit deux détecteurs identiques -- remplis de liquide scintillant dopé au gadolinium -- afin d'étudier les $antinue$ produits par les deux réacteurs nucléaires de 4.25GWth de la centrale de Chooz. Le détecteur lointain -- situé à une distance moyenne de $SI{1050}{m}$ des coeurs -- prend des données depuis Avril 2011. Le détecteur proche -- à une distance moyenne de 400m des coeurs -- observe les réacteurs depuis Décembre 2014. Le paramètre de mélange θ₁₃ conduit à la disparition d'$antinue$, lorsque ceux-ci voyagent des coeurs jusqu'aux sites de détection; la dépendance en énergie de ce déficit permet d'extraire la valeur de sin² 2θ₁₃, par ajustement. Les systématiques de détection, ainsi que l'incertitude sur la prédiction du flux $antinue$, sont formidablement réduites par le biais de corrélations entre les détecteurs et la configuration iso-flux du site. Par conséquent, la précision relative à la mesure de θ₁₃ est dominée par les incertitudes sur les bruits de fond et sur la normalisation relative des taux d'$antinue$. Le bruit de fond principal provient de la désintégration des émetteurs βn -- produits par spallation des muons -- dans le détecteur lui-même. Les spectres de ces isotopes cosmogéniques ont été simulés et complétés par un traitement d'erreur rigoureux. Ces prédictions sont en bon accord avec les données, elles-mêmes extraites à l'aide d'un veto actif, dont la performance a été étudiée pour les deux sites. Le taux d'évènements cosmogéniques restant parmi les candidats $antinue$ a également été estimé. En outre, la normalisation relative du taux d'$antinue$, liée aux nombres de protons dans les cibles de chaque détecteur, a été évaluée. Tous ces travaux se sont inscrits au sein des premières analyses Double Chooz à l'aide de deux détecteurs, produisant sin² (2θ₁₃) = 0.111±0.018
The Double Chooz experiment aims at accurately measuring the value of the leptonic mixing angle θ₁₃. To this intent, the experiment makes the most of two identical detectors -- filled with gadolinium-loaded liquid scintillator -- observing $antinue$'s released by the two 4.25GWth nuclear reactors of the French Chooz power plant. The so-called "far detector" -- located at an average distance of 1050m from the two nuclear cores -- has been taking data since April 2011. The "near detector" -- at an average distance of 400}m from the cores -- has monitored the reactor since December 2014. The θ₁₃ mixing parameter leads to an energy dependent disappearance of $antinue$'s as they propagate from the nuclear cores to the detection sites, which allows for a fit of the sin² 2θ₁₃ value. By reason of correlations between the detectors and an iso-flux site layout, the detection systematics and the $antinue$ flux uncertainty on the θ₁₃ measurement are dramatically suppressed. In consequence, the precision of the θ₁₃ measurement is dominated by the uncertainty on the backgrounds and the relative normalisation of the $antinue$-rates. The main background originates from the decay of βn-emitters -- generated by $mu$-spallation -- within the detector itself. The energy spectra of these cosmogenic isotopes have been simulated and complemented by a diligent error treatment. These predictions have been successfully compared to the corresponding data spectra, extracted by means of an active veto, whose performance has been studied at both sites. The rate of cosmogenic background remaining within the $antinue$ candidates has also been assessed. Addtionally, the normalisation of the $antinue$ rates, bound to the number of target protons within each detector, has been evaluated. All these works were part of the first Double Chooz multi-detector results, yielding sin² (2θ₁₃) = 0.111±0.018
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Furieri, Bruno. "Erosion éolienne de tas de stockage de matières granulaires sur sites industriels : amélioration des méthodes de quantification des émissions". Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2012. http://tel.archives-ouvertes.fr/tel-00853659.

Texto completo da fonte
Resumo:
L'érosion éolienne des matières granulaires (minerais, charbons,. . . ) est un des facteurs influençant grandement la qualité de l'air dans l'environnement proche de nombreux sites industriels. L'objectif principal de ce travail est l'amélioration des méthodologies de quantification des émissions des sources diffuses, notamment à partir d'une meilleure prise en compte de l'exposition éolienne des sources que sont les tas de stockage et des répartitions granulométriques des matières présentes sur les sites de stockage. Les observations sur sites industriels montrent que les régions proches des tas de stockage de matières granulaires sont chargées de particules de granulométries plutôt fines. Celles-ci sont susceptibles d'être remises en suspension par les structures tourbillonnaires générées par le vent incident. Ainsi, ces zones d'envol potentiel ont fait l'objet d'analyses afin de quantifier leur contribution aux émissions globales. Une technique de visualisation d'écoulement pariétal, associée à des simulations numériques tridimensionnelles, ont été mises en oeuvre pour mieux comprendre ces structures de l'écoulement. Les matières granulaires sont un mélange de particules érodibles et non-érodibles. Le caractère érodible étant lié aux propriétés des particules (principalement granulométrie et masse volumique), ainsi qu'à la vitesse du vent incident. Dans ce cadre, deux types d'études ont été menées: des essais expérimentaux d'envol de particules dans une soufflerie et des simulations numériques tridimensionnelles avec un logiciel open-source de mécanique des fluides (Code_Saturne). Une technique originale a ainsi été développée pour quantifier, par une pesée en continue, l'influence des particules non-érodibles sur le flux massique envolé. En parallèle, le comportement des particules sur la surface est analysé à l'aide de clichés photographiques. L'analyse de l'effet des particules non-érodibles au niveau local est réalisée grâce à des simulations numériques pour des configurations polydispersées. Les résultats présentés dans ce mémoire constituent de premiers éléments pouvant possiblement contribuer à l'amélioration des modèles actuels de quantification des émissions de particules par une meilleure intégration et pris en compte de la présence de particules non-érodibles pour les matières présentant de larges spectres granulométriques.
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Medina, Julien. "Transport processes in phase space driven by trapped particle turbulence in tokamak plasmas". Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0158.

Texto completo da fonte
Resumo:
Une des approches les plus prometteuses pour réaliser la fusion nucléaire est le tokamak. Un tokamak est une machine toroïdale qui confine le plasma de fusion via des champs magnétiques. Le transport de particules et de chaleur du centre vers les bords apparaît spontanément, dégrade le confinement et est produit par la turbulence. Nous utilisons un code 4D gyrocinétique qui résout le système Vlasov-Quasi-neutralité. Le code est basé sur un modèle réduit qui moyenne le mouvement cyclotron et de rebond des particules piégées pour réduire la dimensionnalité. Dans ce travail, nous avons développé et testé un nouveau module pour le code permettant de suivre des particules test dans l’espace des phases. En premier résultat, grâce aux particules test nous avons pu séparer la contribution diffusive au flux de particules, des contributions non-diffusives. Sur des temps longs, elles suivent un processus de marche aléatoire. Les deux flux présentent un important pic indiquant que les particules résonantes dominent le transport. Nous avons ensuite exploré avec une plus grande précision les flux dans l’espace des énergies. Enfin nous avons comparé les flux obtenus aux prédictions quasi-linéaires et avons trouvé un accord qualitatif, avec cependant un écart de ~50% dans l'intensité du pic
One of the most promising approach to controlled nuclear fusion is the tokamak. It is a toroidal machine confining a fusion plasma using magnetic fields. Transport of particles and heat, from the core toward the edges happens spontaneously, degrades the efficiency of the tokamak, and is driven by turbulence. We use a bounce-averaged 4D gyrokinetic code which solves the Vlasov-Quasi-neutrality system. The code is based on a reduced model which averages out the cyclotron and the bounce motion of the trapped particles to reduce the dimensionality. In this work we developed and tested a new module for the code, allowing to track test particle trajectories in phase space. As a first result obtained with test particles, we achieved to separate the diffusive contribution to the radial particle flux in energy space, from the non-diffusive contributions. Both fluxes present an intense peak indicating resonant particles dominate transport. On short period of time the test particles undergo a small scale advection, but on longer times, they follow a random walk process. We then explored with greater accuracy the fluxes in energy space. Furthermore we compared the obtained fluxes with quasi-linear predictions and found a qualitative agreement, although there was a ~50% discrepancy in the peak magnitude
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Delay, Guillaume. "Analyse des écoulements transitoires dans les systèmes d'injection directe essence : effets sur l'entraînement d'air instationnaire du spray". Phd thesis, Toulouse, INPT, 2005. http://oatao.univ-toulouse.fr/7367/1/delay1.pdf.

Texto completo da fonte
Resumo:
L'objectif de cette étude est de déterminer l'effet des fluctuations de débit liquide instantané d'un injecteur sur l'entraînement d'air instationnaire d'un spray conique creux de type injection directe essence. Pour ce faire, nous utilisons plusi eurs outils, expérimentaux et numériques. Une méthode de mesure de débit liquide instantané, basée sur la modélisation physique des écoulements pulsés est utilisée. La mesure de la vitesse (Anémométrie Laser Doppler) de l'écoulement à l'axe de la conduite alimentant l'injecteur suffit pour reconstruire l'écoulement avant l'injecteur. Un logiciel de modélisation hydraulique et mécanique (AMESim) permet d'obtenir le débit liquide instantané en sortie de l'injecteur. La validation est réalisée grâce aux résultats de la méthode de reconstruction et à des mesures de pression de rampe d'injection. La Vélocimétrie par Images de Particules Fluorescentes (FPIV), adaptée aux milieux diphasiques denses, donne accès à l'écoulement d'air autour et à l'intérieur du spray cônique. Des mesures de vitesse d'air à proximité de la nappe diphasique permettent de déterminer l'entraînement d'air instationnaire du spray. En se basant sur des données de granulométrie et de vitesse du carburant en sortie de l'injecteur, l'analyse des échanges de quantité de mouvement des gouttes vers l'air permet enfin de proposer un modèle d'entraînement instationnaire fidèle aux mesures FPIV.
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Pretot, Pierre-Emmanuel. "Air quality improvement in closed or semi-closed areas with a minimal energy consumption". Electronic Thesis or Diss., Ecole centrale de Nantes, 2023. http://www.theses.fr/2023ECDN0023.

Texto completo da fonte
Resumo:
La qualité de l’air est un facteur clépour la santé. Les polluants intérieurs sontnombreux avec des attributs et comportementspropres. Des solutions existent pour les traitermais la consommation énergétique ou lamaintenance sont des points clés et il faut doncoptimiser ces solutions à chaque cas. L’objectifde cette thèse est de proposer des méthodes desimulation temps réel d’optimisation.D’après la littérature, les particules liées àl’activité ferroviaire sont la principaleproblématique au niveau des stations de trainsouterraines et celles-ci sont traitées séparémentdes autres milieux clos en utilisant une approche1D. Les niveaux de concentration journalierspour différentes classes de particules sontreproduits à partir d’un jeu d’équations pour deuxcas d’étude. La discrétisation 1D permet ensuited’implémenter des solutions de dépollution lelong des quais pour évaluation. Les résultatsavec cette méthode corrèlent plutôt bien auxessais réalisés et chaque configuration estévaluée en moins d’une minute.Une méthode FFD permettant des simulationstransitoires est évaluée pour les autresenvironnements intérieurs. L’objectif principal iciest d’évaluer la précision de la modélisation duflux d’air pour une simulation temps réel. Eneffet, le comportement d’un polluant est trèsdépendant de celui-ci. Après une premièreévaluation, la méthode FFD utilisant un maillagegrossier parait assez précise en comparaison àla CFD standard pour être utilisée comme outild’optimisation de solution de dépollution maisune analyse approfondie est nécessaire
Air quality is a key factor regardinghuman health. Indoor air pollutants are numerousand have different characteristics and behavior.Solutions to treat these pollutants already existbut energy consumption or maintenance are keypoints and optimization for each case is required.In this PhD thesis, simulation methods areproposed for this with real time simulation astarget.Based on literature review, particles linked withtrain activity are the main problematic insidesubterranean train stations. Due to its specificity,they are treated separately from other indoorvolumes and a 1D approach is used here. Basedon a differential equations set using physicalparameters like air and train velocities, the dailyparticles concentrations for different particlessize classes are well reproduced for two studycases. The 1D discretization allow then toimplement depollution solutions along theplatforms for evaluation. The method givespretty good results compared to measurementsand each configuration is evaluated in less thana minute.An FFD method allowing transient simulations isthen evaluated for other indoor environments.The main objective here is to evaluate theairflow modelling accuracy for a real timesimulation. Indeed, pollutant behavior highlydepends on airflow. After a first evaluation, theFFD method using coarse mesh grid seems tobe accurate enough based on comparison withstandard Computational Fluid Dynamics to beused as tool for optimization of depollutionsolution but deeper analysis is needed
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Rabhi, Nesrine. "Charged particle diagnostics for PETAL, calibration of the detectors and development of the demonstrator". Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0339/document.

Texto completo da fonte
Resumo:
Afin de protéger leurs systèmes de détection de l'impulsion électromagnétique géante générée par l'interaction du laser PETAL avec sa cible, les diagnostics de PETAL seront équipés de détecteurs passifs. Pour les ensembles SEPAGE et SESAME, une combinaison d'Imaging Plates (IP) et de couches de protection de matériaux de grand numéro atomique sera utilisée, qui permettra: 1) d'assurer que la réponse des détecteurs sera indépendante de son environnement mécanique proche dans les diagnostics et donc homogène sur toute la détection, 2) de blinder les détecteurs contre les photons de haute énergie produits dans la cible de PETAL. Dans le travail présenté ici, nous avons réalisé des expériences d'étalonnage avec les IPs auprès d'installations générant des électrons, des protons ou des ions, dans le but de couvrir le domaine en énergie cinétique de la détection des particules chargées de PETAL, de 0.1 à 200 MeV. L'introduction a pour but de décrire les méthodes et outils utilisés au cours de cette étude. Le second chapitre présente les résultats de deux expériences réalisées avec des électrons dans le domaine d'énergie cinétique [5-180] MeV. Le troisième chapitre décrit une expérience et ses résultats avec les protons entre 80 et 200 MeV étaient envoyés sur nos détecteurs. Le quatrième chapitre est consacré à une expérience utilisant des protons et des ions entre1 et 22 MeV en énergie de protons et dont l'objectif était l'étude de détecteurs et le test du démonstrateur de SEPAGE. Nous avons utilisé GEANT4 pour l'analyse de nos données et prédire la réponse de nos détecteurs dans le domaine 0.1 à 1000 MeV
In order to protect their detection against the giant electromagnetic pulse generated by the interaction of the PETAL laser with its target, PETAL diagnostics will be equipped with passive detectors. For SESAME and SEPAGE systems, a combination of imaging plate (IP) detectors with high-Z material protection layers will be used to provide additional features such as: 1) Ensuring a response of the detector to be independent of its environment and hence homogeneous over the surface of the diagnostics; 2) Shielding the detectors against high-energy photons from the PETAL target. In this work, calibration experiments of such detectors based on IPs were performed at electron and proton facilities with the goal of covering the energy range of the particle detection at PETAL from 0.1 to 200 MeV. The introduction aims at providing the reader the methods and tools used for this study. The second chapter presents the results of two experiments performed with electrons in the range from 5 to 180 MeV. The third chapter describes an experiment and its results, where protons in the energy range between 80 and 200 MeV were sent onto detectors. The fourth chapter is dedicated to an experiment with protons and ions in the energy range from 1 to 22 MeV proton energy, which aimed at studying our detector responses and testing the demonstrator of the SEPAGE diagnostic. We used the GEANT4 toolkit to analyse our data and compute the detection responses on the whole energy range from 0.1 to 1000 MeV
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Fan, Jianhua. "Numerical study of particle transport and deposition in porous media". Thesis, Rennes, INSA, 2018. http://www.theses.fr/2018ISAR0003/document.

Texto completo da fonte
Resumo:
L'objectif de ce travail de recherche est d'étudier numériquement le transport et le dépôt de particules dans des milieux poreux à l'échelle des pores.Premièrement, un couplage entre la méthode de Boltzmann sur réseau (LBM) et la méthode des éléments discrets (DEM) est réalisé et utilisé pour simuler l'écoulement d'un fluide chargé en particules. La LBM est utilisée pour décrire l'écoulement du fluide autour des fibres tandis que la DEM est utilisée pour traiter la dynamique des particules. Ce couplage est bidirectionnel dans le sens où le mouvement des particules affecte le flux de fluide et réciproquement. Ce modèle nous a permis de prédire l'efficacité de capture et la chute de pression à l'étape initiale du processus de filtration. Le facteur de qualité est également calculé pour déterminer la qualité de filtration.Ensuite, on se focalise sur l'étude de l'efficacité de la capture de fibres de formes de section transversale différentes (circulaire, losange et carrée). Les résultats issus de nos simulations du processus de filtration de la fibre circulaire concordent bien avec les corrélations empiriques. L'impaction des particules sur la face avant de la fibre de forme carrée est plus importante que dans les cas de fibre de formes circulaire et losange. Cependant, en raison d'une chute de pression plus faible, la fibre de section losange présente une meilleure qualité de filtration. Ensuite, les variations du facteur de qualité dues à l'angle d'orientation et au rapport d'aspect des fibres ont été étudiées numériquement pour la forme rectangulaire. Pour chaque cas, on a déterminé la valeur optimale de la zone au vent pour laquelle le facteur de qualité est maximal. La comparaison des valeurs du facteur de qualité obtenues pour les différentes formes de fibre monte une meilleure performance pour la fibre de section carrée orientée avec un angle de π/4.Enfin, l'influence de l'arrangement des fibres sur la qualité de la filtration est analysée en considérant la configuration en quinconce pour les différentes formes. Les simulations conduites pour différentes tailles de particules et différentes valeurs de la densité (particule/air) montent que la fibre de section losange est plus performante en termes de facteur de qualité pour les particules de grande taille et pour les valeurs de densité élevée. La présente étude fournit des pistes pour optimiser le processus de filtration et prédire la qualité de filtration
The objective of the present research was to numerically investigate the transport and deposition of particles in porous media at the pore scale. Firstly, a developed coupled lattice Boltzmann method (LBM) and discrete element method (DEM) is used to simulate the fluid-particle flow. LBM is employed to describe the fluid flow around fibers whereas DEM is used to deal with the particle dynamics. The corresponding method is two-way coupling in the sense that particle motion affects the fluid flow and reciprocally. It allowed us to predict the capture efficiency and pressure drop at the initial stage of filtration process. The quality factor is also calculated for determining the filtration performance. Secondly, we focus on the study the capture efficiency of single fiber with circular, diamond and square cross-section, respectively. The results of LBM-DEM for filtration process of single circular fiber agree well with the empirical correlation. The impaction of particles on the front side of square-shaped fiber is more favorable than those on circular and diamond cases. However, diamond fiber exhibits a good filtration performance. Then the variations of quality factor due to the different orientation angle and aspect ratio of rectangular fiber were studied using LBM-DEM. For each case, we have found the optimal value of the windward area to which corresponds a maximum value of the quality factor. The comparison of the performance of the different forms of fibers shows that the largest quality factor is obtained for square fiber oriented with angle π/4.Finally, the influence of the arrangement of fiber on filtration performance is analyzed by considering the staggered configuration. Simulations conducted for several particle size and density show that the diamond with staggered array performs better for large particles and high particle-to-fluid density ratio in terms of quality factor. The present study provide an insight to optimize the filtration process and predict filtration performance
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Steinmetz, David. "Représentation d'une huile dans des simulations mésoscopiques pour des applications EOR". Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS521.

Texto completo da fonte
Resumo:
Les techniques de récupération assistée du pétrole par voie chimique consistent à injecter dans un réservoir pétrolier une formulation contenant des tensioactifs. Cette formulation permet de réduire la tension interfaciale eau/brut et ainsi de libérer l’huile piégée dans les pores de la roche. Les outils de simulations peuvent nous aider à améliorer ces techniques en nous apportant des connaissances sur les phénomènes se déroulant aux échelles moléculaires et mésoscopiques. Des méthodes de simulation moléculaire à l’échelle mésoscopique, la Dissipative Particle Dynamics et le Monte Carlo gros-grains, ont été utilisées pour prédire la tension interfaciale. Une approche de paramétrisation des interactions entre les molécules a été développée sur des équilibres liquide-liquide. Cette approche a été validée pour reproduire la composition des phases denses et pour prédire la tension interfaciale. Une méthodologie de représentation d’un brut a été développée. Le brut est séparé en fonction du nombre d’atomes de carbone en deux coupes : C20- et C20+. Une méthode de regroupement a été appliquée à la coupe C20- et une approche de reconstruction stochastique a été utilisée sur la coupe C20+. Une représentation a été obtenue avec 13 molécules représentatives. Les simulations de ce brut modèle fournissent des valeurs de tension interfaciale en bon accord avec les données expérimentales
Chemical enhanced oil recovery techniques consist of injecting into a petroleum reservoir an Alkaline/Surfactant/Polymer formulation. This formulation aims at mobilizing the oil trapped in the reservoir by reducing the water/crude oil interfacial tension. Molecular simulations are adapted to improve the efficiency of such a process by providing information about phenomena occurring at the molecular and mesoscopic levels. Mesoscopic simulation methods, Dissipative Particle Dynamics and coarse grained Monte Carlo, have been used to quantitatively predict the water/crude interfacial tension. An approach to parameterize interactions between entities has been developed using liquid-liquid ternary systems. This approach has been validated to reproduce compositions of bulk phases and to quantitatively predict the interfacial tension. A representation methodology of crude oil has been developed. The crude oil was divided according to the number of carbon atoms into two fractions: C20- and C20+. A lumping approach was applied to the C20- fraction and a stochastic reconstruction approach was employed on the C20+ fraction. A crude oil representation with only 13 representative molecules was so-obtained. Simulations of the parameterized crude oil model provides interfacial tension values that are in good agreement with available experimental data
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Nadler, Sébastien. "Comportement d'un milieu granulaire soumis à des vibrations horizontales : Etudes numériques et expérimentales". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2012. http://tel.archives-ouvertes.fr/tel-00782361.

Texto completo da fonte
Resumo:
Cette étude de la compaction d'un empilement granulaire par vibrations horizontales a été réalisée dans le cadre d'un partenariat avec le groupe MERSEN pour une application au sable contenu dans ses fusibles. L'objectif scientifique est de développer la compréhension des mécanismes mis en jeu dans un milieu granulaire vibré horizontalement. Deux approches ont été utilisées en parallèle, l'une expérimentale, l'autre par simulation numérique. L'approche expérimentale a été réalisée sur des grains de silice de diamètre moyen 500 m. Un récipient de quelques centimètres est soumis à un mouvement sinusoïdal de fréquence comprise entre 20 et 200 Hz avec des accélérations allant jusqu'à 10 g. Le dispositif instrumenté permet la mesure instantanée de la force et de l'accélération, la vitesse des grains aux parois (PIV) ainsi que la densité globale du milieu. L'approche numérique est basée sur la méthode des éléments discrets (DEM). Des méthodes spécifiques d'analyse des résultats ont été développées pour assurer la comparaison avec l'expérience. Elles permettent d'obtenir des informations qui ne sont pas accessibles expérimentalement comme les densités, vitesses et contraintes locales dans l'ensemble de l'empilement. Dans le cas d'un récipient ouvert, la simulation permet de retrouver les résultats expérimentaux : rouleaux de convections, seuils de comportement, influence de l'accélération... Des résultats originaux ont été établis dans les expériences et les simulations comme une croissance de la vitesse des grains avec la longueur du récipient. La simulation a aussi permis d'obtenir des résultats spécifiques comme l'influence du coefficient de friction sur le sens des rouleaux et la caractérisation des contraintes au sein de l'empilement. L'écoulement des grains à travers des orifices circulaires de différentes dimensions a été également étudié. Le comportement du sable dans un récipient fermé (milieu confiné) a été étudié au cours d'un remplissage progressif. Des différences significatives ont été constatées lorsque le taux de remplissage devient élevé. Des mesures d'accélération et de force sur l'ensemble du dispositif ont permis de définir et de mesurer une masse apparente et l'énergie dissipée par le dispositif. Des modèles descriptifs ont permis de comprendre les comportements observés. Ces résultats sont à l'origine d'un brevet déposé par le groupe MERSEN sur le contrôle du remplissage.
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Jaffar-Bandjee, Mourad. "Pheromone transport in multiscale pectinate antennae". Thesis, Tours, 2019. http://www.theses.fr/2019TOUR4021.

Texto completo da fonte
Resumo:
Chez de nombreuses espèces de papillons, les adultes femelles relâchent d’infimes quantités de phéromones sexuelles pour attirer les mâles. Ces quantités sont de l’ordre de la dizaine de nanogrammes et les mâles peuvent les détecter à plusieurs centaines de mètres. Les mâles doivent donc être capables de sentir des concentrations de phéromone très faibles. Cette fonction olfactive est réalisée par les antennes et une des étapes critiques est la capture des molécules dans l’air. C’est un problème de transport de masse qui dépend étroitement de la forme de l’antenne. Une des formes les plus spectaculaires est l’antenne pectinée qui se retrouve dans plusieurs familles de papillons. Ce type d’antenne est aussi considéré plus efficace que les antennes cylindriques pour détecter les phéromones. Nous avons étudié comment la forme des antennes pectinées influence leur efficacité pour capturer les phéromones et nous nous sommes concentrés sur une espèce, Samia cynthia.Une antenne pectinée est un objet multi-échelle. Elle fait 1cm de long et est composée d’une branche principale, le flagellum, qui porte des branches secondaires, les ramis. Chaque rami porte de nombreux poils, les sensilles, qui font 150µm de long et 3µm de diamètre. Les dimensions caractéristiques de l’antenne couvrent donc 4 ordres de grandeur, ce qui rend l’étude des antennes difficile.Pour simplifier le problème, nous avons décomposé l’antenne en deux niveaux : la macrostructure, composée du flagellum et des ramis, et la microstructure, composée d’un rami et de sensilles qu’il porte. Chaque structure a été agrandie et construite par impression 3D. La construction des ramis et des sensilles, qui sont de longs et fins cylindres, a été un challenge.Les antennes pectinées sont des objets perméables, ainsi que les macro- et micro- structures. Ainsi, le flux d’air passe en partie à travers de tels objets et est en partie dévié. La perméabilité est la proportion du flux passant à travers l’objet. Ce paramètre est important car il détermine un limite haute de ce que peut capture l’antenne : les molécules du flux d’air dévié ne peuvent pas être capturées. Nous avons expérimentalement mesuré, par Vélocimétrie à Image de Particule, la perméabilité des macro- et micro- structures à différentes vitesses rencontrées par le papillon dans la nature.Nous avons ensuite calculé la capture de phéromone et l’efficacité de la microstructure en adaptant un modèle de transfert de chaleur à notre problème de transfert de masse. Nous avons montré que l’orientation longitudinale des sensilles est suffisante pour expliquer le phénomène de lentille olfactive qui dit que la partie distale de la sensille capture plus de molécules que la partie basale. Nous avons montré que l’efficacité de l’antenne est limitée par la perméabilité, qui augmente avec la vitesse de l’air, et par la capture locale, qui est la proportion de molécules capturée dans le flux passant à travers l’antenne et qui décroît avec la vitesse. Au final, la microstructure n’a pas un maximum d’efficacité autour d’une valeur de vitesse d’air mais elle est plutôt modérément efficace sur la large plage de vitesses d’air rencontrées par le papillon.Nous avons développé une méthode par le biais de simulations FEM pour combiner les deux niveaux (la macro- et la micro- structures). Cette méthode est basée sur la relation entre le traînée et la perméabilité et nous a permis de déterminer la perméabilité de l’antenne entière. Nous avons ensuite calculé l’efficacité d’une antenne pectinée et l’avons comparée à celle d’une antenne cylindrique. Nous avons trouvé que l’antenne pectinée est une bonne solution pour fortement augmenter la surface de contact entre l’air et l’antenne tout en maintenant une bonne efficacité de capture aux vitesses d’air rencontrées par le papillon
In many moth species, female adults release tiny amounts of sexual pheromone in order to attract male mates and reproduce. The quantity of released pheromone is around a few dozens of nanograms and male moths can detect it a few hundred meters away from females. As a consequence, they must be able to smell very low concentrations of pheromone. This olfactory function is carried out by the antennae. A critical step in the olfactory process is the capture of molecules from the air. This is a mass transport problem which depends heavily on the shape of the antenna. One of the most spectacular shapes, which occurs in several moth families, is the pectinate antenna. This type of antenna is also thought to be more effective at detecting pheromones than cylindrical-shaped ones. In this work, we investigated whether and how the shape of the pectinate antenna influences its efficiency at capturing pheromone molecules. We focused on one species, Samia cynthia.A pectinate antenna is a complex and multi-scale object. It has a length of 1cm and is composed of one main branch, the flagellum, which carries secondary branches, the rami. Each rami supports numerous hairs, the sensilla, which are 150µm long and have a diameter of only 3µm. Thus, the characteristic dimensions of the antenna span over four orders of magnitude, which makes the study of such objects difficult.To simplify our problem, we decided to split the pectinate antenna in two levels: the macrostructure, composed of the flagellum and the rami, and the microstructure, composed of a rami and the sensilla it bears. Both structures were scaled up and fabricated by Additive Manufacturing. The building of the rami and sensilla, which are long and thin cylinders, was a challenge as we reached the limits of the 3D-printers we used.Pectinate antenna are permeable objects, as are the macro-and microstructures. Thus, air flowing in the direction of such objects either passes through the antenna or is deflected around it. Leakiness if the proportion of flow passing through the permeable object. This parameter is important as it sets an upper limit on the pheromone captured by the antenna: molecules carried by the deflected part of the flow cannot be captured. We experimentally determined the leakiness of the macro- and microstructures at several air velocities encountered by a moth in nature using Particle Image Velocimetry.We then calculated the pheromone capture and efficiency of the microstructure by adapting a model of heat transfer to our mass transport problem. We showed that the longitudinal orientation of the sensilla is sufficient to explain the phenomenon of olfactory lens, stating that the tip of the sensilla captures more molecules than the base. We also found that the efficiency of the antenna is limited by both the leakiness of the antenna, which increases with air velocity, and the local capture, which is the proportion of molecules captured in the part of the airflow passing through the antenna and which decreases with air velocity. Eventually, the microstructure does not have a strong maximum efficiency at a specific air velocity but, instead, is moderately efficient over the large range of air velocity encountered by a moth.We developed a method with the help of FEM simulations to combine the two levels (the macrostructure and the microstructure). This method is based on the relation between drag and leakiness and allowed us to determine the leakiness of the entire antenna. We then could calculate the efficiency of the pectinate antenna and compared it with the one of a cylindrical-shaped one. We found that a pectinate design is a good solution to increase the surface contact between the air and the antenna strongly while maintaining a good capture efficiency at the velocities encountered by the moth
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Chappuis, Anne. "Étude et simulation de la lumière de scintillation produite et se propageant dans une chambre à dérive double-phase à argon liquide, dans le contexte du projet DUNE". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAY068/document.

Texto completo da fonte
Resumo:
Le projet DUNE est un projet d’expérience d’oscillations de neutrinos sur faisceau longue-distance, dédié en particulier à la détermination de la hiérarchie de masse des neutrinos et à la mesure de la phase de violation CP intervenant dans le mécanisme d’oscillations. Ce projet consiste en un faisceau intense de neutrinos de 1300 km et un détecteur massif contenant plus de 40 kilotonnes d’argon liquide, basé sur la technologie des chambres à dérive à argon liquide (LArTPC). Deux approches de cette technologie sont actuellement en développement, menant à l'installation au CERN de deux prototypes dont la construction devrait s'achever fin 2018. Le travail présenté dans cette thèse s’intègre dans le cadre du projet ProtoDUNE-DP, qui vise à prouver la faisabilité de la technologie dite « double-phase », c’est-à-dire utilisant de l'argon liquide et gazeux, pour les LArTPC de cette envergure. Deux signaux principaux sont attendus dans un tel détecteur, un signal de charges et un signal lumineux de scintillation. Le signal lumineux peut être utilisé dans le système de déclenchement d'acquisition des données, dans l’identification et éventuellement la réjection du signal dû aux muons cosmiques, et pour des mesures calorimétriques de précision. Des simulations préalables de ce signal sont donc nécessaires afin d'en comprendre les particularités et de développer des algorithmes d'identification. Cette thèse porte en particulier sur le développement de cette simulation et sur l’étude de la propagation des photons de scintillation au sein du détecteur. Les différents mécanismes de production de la lumière de scintillation, la simulation développée au cours de cette thèse et les études réalisées sur la propagation de la lumière de scintillation dans ProtoDUNE-DP seront présentés. Ces simulations ont également pu être comparées aux données recueillies avec un pré-prototype double-phase installé au CERN en 2017, afin de tester la validité de la simulation et d’en améliorer les différents paramètres
DUNE is a future long-baseline neutrino experiment designed to determine, among others, the neutrino mass hierarchy and to measure the CP violation phase that enters the neutrino oscillation process. This project is based on a 1300 km long high intensity neutrino beam and a massive detector containing more than 40 kilotons of liquid argon using the liquid argon time projection chamber technology (LArTPC). Two approaches of this technology are currently under development, leading to the construction of two prototypes to be in place at the end of 2018 at CERN. The work of this thesis is part of the ProtoDUNE-DP project, which aims at probing the capabilities of the so-called “dual-phase” technology, that uses both gaseous and liquid argon, for a large-scale detector. Two kind of signals, a charge signal and a scintillation light signal, are expected in a LArTPC. The light signal can be used as a trigger, for the identification and rejection of the cosmic background, and for precise calorimetric measurements. Prior simulations of this signal are needed in order to improve our understanding of the scintillation light signal and to develop the identification algorithms. This work addresses the development of this simulation and the study of the scintillation photon behavior in the liquid argon detector. The different scintillation light production mechanisms, the developed simulation and the different studies on the light propagation in ProtoDUNE-DP are presented. These simulations have also been compared with light data taken at CERN in 2017 with a first demonstrator, in order to validate and tune the simulation
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Ghavamian, Ataollah. "Un cadre de calcul pour un système de premier ordre de lois de conservation en thermoélasticité". Thesis, Ecole centrale de Nantes, 2020. http://www.theses.fr/2020ECDN0004.

Texto completo da fonte
Resumo:
Il n'est évidemment pas trivial de résoudre analytiquement des problèmes d'ingénierie pratiques en raison de leurs non-linéarités inhérentes. De plus, les tests expérimentaux peuvent être extrêmement coûteux et longs. Au cours des dernières décennies, les techniques numériques ont donc été progressivement développées et utilisées afin d'étudier des applications d'ingénierie complexes par le biais de simulations informatiques. Dans le contexte de la thermo-élastodynamique rapide, les boîtiers commerciaux modernes sont généralement développés sur la base de formulations d'éléments finis basés sur le déplacement de second ordre et, malheureusement, cela introduit une série de défauts numériques (par exemple verrouillage nuisible, modes sablier, pression parasite oscillations). Pour remédier à ces inconvénients, un ensemble mixte de lois de conservation hyperbolique de premier ordre pour la thermoélastodynamique est présenté en termes de moment linéaire par unité de volume non déformé, de gradient de déformation, de son cofacteur, de son jacobien et de l'équilibre de l'énergie totale. Fait intéressant, le cadre de formulation de la conservation permet d'exploiter les techniques CFD disponibles dans le contexte d'une dynamique solide. D'un point de vue informatique, deux discrétisations spatiales distinctes sont employées, à savoir la méthode des volumes finis centrés sur les sommets (VCFVM) et l'hydrodynamique des particules lisses (SPH). Une procédure de reconstruction linéaire associée à un limiteur de pente est utilisée afin d'assurer une précision de second ordre dans l'espace tout en évitant les oscillations numériques au voisinage de gradients nets. Le système d'équations semi-discret est ensuite discrétisé temporellement à l'aide d'un intégrateur de temps Runge-Kutta de diminution de variation totale (TVD) de second ordre. Enfin, un large éventail d'exemples difficiles est présenté afin d'évaluer à la fois la performance et l'applicabilité des régimes proposés. La nouvelle formulation s'est avérée très efficace dans la thermoélasticité presque incompressible par rapport aux approches classiques basées sur le déplacement par éléments finis
It is evidently not trivial to analytically solve practical engineering problems due to their inherent nonlinearities. Moreover, experimental testing can be extremely costly and time-consuming. In the past few decades, therefore, numerical techniques have been progressively developed and utilised in order to investigate complex engineering applications through computer simulations. In the context of fast thermo-elastodynamics, modern commercial packages are typically developed on the basis of second order displacement-based finite element formulations and, unfortunately, that introduces a series of numerical shortcomings (e.g. detrimental locking, hour-glass modes, spurious pressure oscillations). To rectify these drawbacks, a mixed-based set of first order hyperbolic conservation laws for thermo- elastodynamics is presented in terms of the linear momentum per unit undeformed volume, the deformation gradient, its co-factor, its Jacobian and the balance of total Energy. Interestingly, the conservation formulation framework allows exploiting available CFD techniques in the context of solid dynamics. From a computational standpoint, two distinct spatial discretisations are employed, namely, Vertex-Centred Finite Volume Method (VCFVM) and Smooth Particle Hydrodynamics (SPH). A linear reconstruction procedure together with a slope limiter is employed in order to ensure second order accuracy in space whilst avoiding numerical oscillations in the vicinity of sharp gradients. The semi-discrete system of equations is then temporally discretised using a second-order Total Variation Diminishing (TVD) Runge-Kutta time integrator. Finally, a wide spectrum of challenging examples is presented in order to assess both the performance and applicability of the proposed schemes. The new formulation is proven to be very efficient in nearly incompressible thermoelasticity in comparison with classical finite element displacement-based approaches
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Mounier, Marie. "Résolution des équations de Maxwell-Vlasov sur maillage cartésien non conforme 2D par un solveur Galerkin discontinu". Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAD028/document.

Texto completo da fonte
Resumo:
Cette thèse propose l’étude d’une méthode numérique permettant de simuler un plasma. On considère un ensemble de particules, dont le mouvement est régi par l’équation de Vlasov, et qui est sensible aux forces électromagnétiques, qui proviennent des équations de Maxwell. La résolution numérique des équations de Vlasov-Maxwell est réalisée par une méthode Particle In Cell (PIC). La résolution des équations de Maxwell nécessite un maillage suffisamment fin afin de modéliser correctement les problémes multi-échelles que nous souhaitons traiter. Cependant, mailler finement tout le domaine de calcul a un coût. La nouveauté de cette thèse est de proposer un solveur PIC sur des maillages cartésiens localement raffinés, des maillages non conformes, afin de garantir la bonne modélisation du phénomène physique et d’éviter une trop forte pénalisation des temps de calcul.Nous utilisons une méthode Galerkin Discontinue en domaine temporelle (GDDT), qui offre l’avantage d’être d'une grande flexibilité dans le choix du maillage et qui est une méthode d’ordre élevé. Un point fondamental dans l’étude des solveurs PIC concerne le respect de la conservation de la charge. Nous proposons deux approches afin de traiter cet aspect. La première concerne les méthodes utilisant un système de Maxwell augmenté, dont la nouveauté a été de les étendre aux maillages non conformes. La seconde approche repose sur une méthode originale de pré-traitement du calcul du terme source de courant
This thesis deals with the study of a numerical method to simulate a plasma. We consider a set of particles whose displacement is governed by the Vlasov equation and which creates an electromagnetic field thanks to Maxwell equations. The numerical resolution of the Vlasov-Maxwell system is performed by a Particle In Cell (PIC) method. The resolution of Maxwell equations needs a sufficiently fine mesh to correctly simulate the multi scaled problems that we have to face. Yet, a uniform fine mesh of the whole domain has a prohibitive cost. The novelty of this thesis is a PIC solver on locally refined Cartesian meshes : non conforming meshes, to guarantee the good modeling of the physical phenomena and to avoid too large CPU time. We use the Discontinuous Galerkin in Time Domain (DGTD) method which has the advantage of a great flexibility in the choice of the mesh and which is a high order method. A fundamental point in the study of PIC solvers is the respect of the charge conserving law. We propose two approaches to tackle this point. The first one deals with augmented Maxwell systems, that we have adapted to non conforming meshes. The second one deals with an original method of preprocessing of the calculation of the current source term
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia