Literatura académica sobre el tema "Accélérateurs de particules – Simulation, Méthodes de"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Accélérateurs de particules – Simulation, Méthodes de".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Accélérateurs de particules – Simulation, Méthodes de"

1

HERNANDEZ-SHEK, M. A., P. PEULTIER, A. PAUSS y T. RIBEIRO. "Une revue des instruments de caractérisation rhéologique de biomasses appliqués à la méthanisation en voie solide continue". Techniques Sciences Méthodes 5 (22 de mayo de 2023): 48–81. http://dx.doi.org/10.36904/tsm/202305048.

Texto completo
Resumen
Cet article propose un état des lieux des méthodes pour la détermination des paramètres rhéologiques des biomasses grossières appliquées à la méthanisation en voie solide. La méthanisation en voie solide est un procédé biologique permettant la valorisation sous forme de biogaz des sous-produits à forte teneur en matières sèches, en particulier les sous-produits agricoles, les déchets ménagers et les déchets alimentaires. Afin d’assurer le développement de plusieurs technologies de méthanisation, des connaissances précises sur les propriétés rhéologiques des substrats et du milieu réactionnel sont indispensables pour la conception, l’opération et la simulation de procédés. Malgré l’importance des propriétés rhéologiques, très peu de données du comportement rhéologique de la biomasse grossière sont présentes dans la littérature. Cela s’explique par le fait que les rhéomètres rotatifs conventionnels ne sont pas bien adaptés à la biomasse hétérogène comportant des particules grossières et de longues fibres. Jusqu’à présent, les équipements rotatifs conçus permettent de déterminer les propriétés rhéologiques de biomasse concentrée contenant des particules d’une taille maximale de 3 cm alors que les biomasses peuvent contenir des fibres lignocellulosiques ayant jusqu’à 25 cm de longueur. Compte tenu de cette limitation instrumentale, différents appareils alternatifs issus des domaines de l’analyse du béton, des sols ou des aliments ont été récemment adaptés pour accéder à des propriétés rhéologiques des biomasses agricoles. Dans cet article, ces différents outils ont été répertoriés en précisant des informations sur les facteurs d’influence, les principes physiques théoriques, le montage expérimental et leur gamme d’application pour la biomasse. Hélas, pour certains de ces appareils, les relations trouvées sont à ce jour plutôt qualitatives que quantitatives et les raisonnements mathématiques permettant d’intégrer complètement les phénomènes physiques observés avec les facteurs influençant la rhéologie de la biomasse doivent encore être investigués afin de mettre en place des méthodes normalisées spécifiques à une biomasse grossière.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Maulin, Maëva, Nicolas Estre, David Tisseur, Grégoire Kessedjian, Alix Sardet, Emmanuel Payan y Daniel Eck. "Défloutage de projections tomographiques industrielles hautes énergies à l’aide d’un réseau de neurones convolutifs". e-journal of nondestructive testing 28, n.º 9 (septiembre de 2023). http://dx.doi.org/10.58286/28481.

Texto completo
Resumen
La fabrication additive, métallique en particulier, est en plein essor, mais les pièces ainsi produites peuvent présenter des défauts tels que des anomalies d'impression, de la rétention de poudre ou des fissures. Pour contrôler l'intégrité de ces pièces, la tomographie par transmission haute résolution reste la méthode de référence. Cependant, pour inspecter des pièces massives et fortement absorbantes, la tomographie haute énergie avec un accélérateur linéaire d'électrons est nécessaire. Le Laboratoire de Mesures Nucléaires du CEA IRESNE dispose d'un tomographe haute énergie et a souhaité améliorer la qualité des projections acquises en mettant en place des post-traitements numériques. Afin d’essayer de dépasser les performances des méthodes de restauration classiques, basées sur des algorithmes de déconvolution, une approche de post-traitement novatrice a été étudiée : la déconvolution de flou par réseaux de neurones convolutifs. Pour ce faire, un jeu de données d’images a tout d’abord été généré par simulation. Un réseau de neurones convolutifs, basé sur la structure du réseau SRCNN (Super-Resolution Convolutional Neural Network), a ensuite été adapté, entraîné et évalué. Chaque hyperparamètre du réseau a alors été spécialement optimisé. Enfin, ce réseau a été validé sur des tomographies à 9 MeV d’objets réels afin d’évaluer les performances finales obtenues, mais aussi comprendre les limitations de ce type d’approche. Le réseau de neurones convolutifs ainsi optimisé démontre de bonnes performances de défloutage tout en limitant l’amplification du bruit.
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Accélérateurs de particules – Simulation, Méthodes de"

1

Goutierre, Emmanuel. "Machine learning-based particle accelerator modeling". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG106.

Texto completo
Resumen
Les accélérateurs de particules reposent sur des simulations de haute précision pour optimiser la dynamique du faisceau. Ces simulations sont coûteuses en ressources de calcul, rendant leur analyse en temps réel difficilement réalisable. Cette thèse propose de surmonter cette limitation en explorant le potentiel de l'apprentissage automatique pour développer des modèles de substitution des simulations d'accélérateurs de particules. Ce travail se concentre sur ThomX, une source Compton compacte, et introduit deux modèles de substitution : LinacNet et Implicit Neural ODE (INODE). Ces modèles sont entraînés sur une base de données développée dans le cadre de cette thèse, couvrant une grande variété de conditions opérationnelles afin d'assurer leur robustesse et leur capacité de généralisation. LinacNet offre une représentation complète du nuage de particules en prédisant les coordonnées de toutes les macro-particules du faisceau plutôt que de se limiter à ses observables. Cette modélisation détaillée, couplée à une approche séquentielle prenant en compte la dynamique cumulative des particules tout au long de l'accélérateur, garantit la cohérence des prédictions et améliore l'interprétabilité du modèle. INODE, basé sur le cadre des Neural Ordinary Differential Equations (NODE), vise à apprendre les dynamiques implicites régissant les systèmes de particules sans avoir à résoudre explicitement les équations différentielles pendant l'entraînement. Contrairement aux méthodes basées sur NODE, qui peinent à gérer les discontinuités, INODE est conçu théoriquement pour les traiter plus efficacement. Ensemble, LinacNet et INODE servent de modèles de substitution pour ThomX, démontrant leur capacité à approximer la dynamique des particules. Ce travail pose les bases pour développer et améliorer la fiabilité des modèles basés sur l'apprentissage automatique en physique des accélérateurs
Particle accelerators rely on high-precision simulations to optimize beam dynamics. These simulations are computationally expensive, making real-time analysis impractical. This thesis seeks to address this limitation by exploring the potential of machine learning to develop surrogate models for particle accelerator simulations. The focus is on ThomX, a compact Compton source, where two surrogate models are introduced: LinacNet and Implicit Neural ODE (INODE). These models are trained on a comprehensive database developed in this thesis that captures a wide range of operating conditions to ensure robustness and generalizability. LinacNet provides a comprehensive representation of the particle cloud by predicting all coordinates of the macro-particles, rather than focusing solely on beam observables. This detailed modeling, coupled with a sequential approach that accounts for cumulative particle dynamics throughout the accelerator, ensures consistency and enhances model interpretability. INODE, based on the Neural Ordinary Differential Equation (NODE) framework, seeks to learn the implicit governing dynamics of particle systems without the need for explicit ODE solving during training. Unlike traditional NODEs, which struggle with discontinuities, INODE is theoretically designed to handle them more effectively. Together, LinacNet and INODE serve as surrogate models for ThomX, demonstrating their ability to approximate particle dynamics. This work lays the groundwork for developing and improving the reliability of machine learning-based models in accelerator physics
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Guyot, Julien. "Particle acceleration in colliding laser-produced plasmas". Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS616.

Texto completo
Resumen
Les particules chargées énergétiques sont omniprésentes dans l'Univers et sont accélérées par des sources galactiques et extragalactiques. Comprendre l'origine de ces "rayons cosmiques" est crucial en astrophysique et dans le cadre de l'astrophysique de laboratoire à haute densité d'énergie, nous avons développé une nouvelle plate-forme sur les installations laser LULI pour étudier l'accélération de particules. Dans les expériences, la collision de deux plasmas contre-propageant produits par laser génère une distribution non thermique de particules allant jusqu'à 1 MeV d'énergie. L'objectif de ce travail est de fournir un cadre théorique pour comprendre leur origine. Des simulations magnéto-hydrodynamiques avec des particules tests montrent que la collision des plasmas conduit à la croissance de structures caractéristiques de l'instabilité de Rayleigh-Taylor magnétique et à la génération de forts champs électriques. Nous constatons que les particules sont accélérées à des énergies allant jusqu'à quelques centaines de keV en moins de 20 ns, par des interactions répétées avec les perturbations de Rayleigh-Taylor. Les simulations et un modèle d'accélération stochastique reproduisent bien le spectre expérimental. En conclusion, nous avons identifié en laboratoire un nouveau mécanisme d'accélération de particules qui repose sur la croissance de l'instabilité de Rayleigh-Taylor magnétique pour accélérer de manière stochastique les particules. Cette instabilité est fréquente dans les plasmas astrophysiques, avec par exemple les restes de supernovæ et les éjections de masse coronale, et nous suggérons qu'elle peut contribuer à l'accélération de particules dans ces systèmes
Energetic charged particles are ubiquitous in the Universe and are accelerated by galactic and extragalactic sources. Understanding the origin of these "cosmic rays" is crucial in astrophysics and within the framework of high-energy-density laboratory astrophysics we have developed a novel platform on the LULI laser facilities to study particle acceleration in the laboratory. In the experiments, the collision of two laser-produced counter-propagating plasmas generates a distribution of non-thermal particles with energies up to 1 MeV. The aim of this work is to provide a theoretical framework to understand their origin. Magneto-hydrodynamic simulations with test particles show that the plasma collision leads to the growth of bubble and spike structures driven by the magnetic Rayleigh-Taylor instability and the generation of strong electric fields. We find that particles are accelerated to energies up to a few hundred of keV in less than 20 ns, by repeated interactions with these growing magnetic Rayleigh-Taylor perturbations. The simulations and a stochastic acceleration model recover very well the experimentally measured non-thermal energy spectrum. In conclusion, we have identified in the laboratory a new particle acceleration mechanism that relies on the growth of the magnetic Rayleigh-Taylor instability to stochastically energize particles. This instability is very common in astrophysical plasmas, with examples including supernovae remnants and coronal mass ejections, and we suggest that it may contribute to the energization of particles in these systems
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Jenkinson, William. "Simulation de la mécanique mésoscopique des aliments par méthodes de particules lagrangiennes". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASB047.

Texto completo
Resumen
Le rôle des mécanismes mésoscopiques dans le traitement et la conception des aliments est encore mal compris, notamment pour la transformation orale et la perception de la texture. Malgré le développement de la physique de la matière molle, les scientifiques peinent encore à relier les comportements micro-, méso- et macroscopiques par des simulations. Cette thèse se concentre sur les simulations mécaniques, excluant les effets thermiques, chimiques et physico-chimiques, pour explorer le comportement des aliments à l'échelle mésoscopique. Nous avons développé une approche de simulation dans LAMMPS combinant des implémentations de "smoothed-particle hydrodynamics" (SPH) pour les liquides et les solides élastiques. Cette approche a été validée pour des scénarios comme l'écoulement de Couette et la déformation des granules. Les résultats démontrent l'efficacité de l'approche pour capter la dynamique des structures alimentaires et leurs interactions avec des papilles et des cils ; offrant de nouvelles perspectives sur la perception de la texture. L'étude met aussi en évidence l'impact de l'élasticité des granules et de leur fraction volumique sur les propriétés d'écoulement. Ce travail, centré sur la mécanique, reste ouvert à l'intégration future de processus thermiques, chimiques et biologiques dans les modèles alimentaires. Les recherches futures viseront à intégrer plus de physiques et à rendre les outils de simulation plus accessibles aux ingénieurs, pour favoriser les applications pratiques en science des aliments
The role of mesoscopic mechanics in food processing and design is not well understood, particularly for oral processing and texture perception. Despite the recognized importance of soft matter, the food science community has struggled to bridge the gap between micro-, meso-, and macro-scale behaviours using simulations. This thesis addresses this challenge by focusing on mechanical simulations, excluding thermal, chemical and physicochemical effects, to explore food behaviour at the mesoscopic scale. We have developed a simulation framework within the LAMMPS environment, combining smoothed-particle hydrodynamics (SPH) implementations for liquids and elastic solids. We validated the framework across scenarios such as Couette flow and deformation of granules in a flow. The results show the framework's effectiveness in capturing food structure dynamics and interactions with cilia and papillae and offer new insights into texture perception and hydrodynamics. The study also highlights how granule elasticity and volume fraction impact flow properties and their eventual role in texture perception. This work focuses on mechanics while deliberately remaining flexible enough to integrate mechanical, thermal, chemical, and biological processes in future food science models. Proposed future research includes strategies to integrate more physics and scales and efforts to improve the accessibility of simulation tools for engineers, advancing practical applications in food science
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

DaCosta-Cloix, Olivier. "Emission cyclotronique ionique dans les tokamaks". Palaiseau, Ecole polytechnique, 1995. http://www.theses.fr/1995EPXX0030.

Texto completo
Resumen
L’émission cyclotronique ionique (ice) présente un grand potentiel comme diagnostic des ions rapides, en particulier des particules alpha de fusion, dans les tokamaks. Nous présentons les résultats expérimentaux pendant l'expérience préliminaire tritium de jet. Les spectres de l'ice présentent jusqu'a 11 pics étroits et régulièrement espaces. Les fréquences de ces pics sont aux harmoniques cyclotroniques de l'ion majoritaire (deuterium) au bord extérieur du plasma (grand rayon 4. 0m), près de la dernière surface fermée. Ceci représente un paradoxe majeur parce que l'ice est fortement corrélée aux ions rapides et cette densité d'ions rapides au bord extérieur du plasma est très faible. Les formes des spectres dans des plasmas d-d ou d-t sont similaires et un continuum d'émission apparait pour des fréquences supérieures a 120 mhz. Une corrélation presque linéaire entre l'intensité de l'ice et le flux de neutrons est observée sur 6 ordres de grandeur. Cela confirme que ce sont les ions de fusion rapides qui fournissent l'énergie nécessaire a l'excitation de l'ice. Nous observons aussi de fortes correlations temporelles entre l'intensite de l'ice et les instabilités mhd, particulièrement celles se produisant au bord extérieur du plasma. En particulier, le signal s'effondre pendant chaque instabilité elm de grande amplitude. Dans les decharges d-t, l'intensité de l'ice est corrélée avec des oscillations cohérentes observées dans differents signaux. Nous développons un calcul de l'émission spontanée dans le mode d'alfven rapide (fw). Le point de depart est le courant electrique cree par un ion test en rotation autour d'une ligne de champ magnetique, considere comme un courant externe. Nous exprimons les champs électriques et magnétique crees dans le mode fw en utilisant le tenseur dielectrique de plasma chaud. Nous obtenons alors les champs electrique et magnetique totaux de l'onde par sommations statistiques sur les ions majoritaires et les ions rapides de fusion en utilisant leurs distributions de vitesse specifiques. Nous prenons une distribution maxwellienne pour le deuterium majoritaire et une distribution de freinage pour les particules alphas au centre du plasma. Parallèlement, nous résolvons la relation de dispersion du mode fw dans le domaine de fréquences et de vecteurs d'onde ou il est couple avec le mode de bernstein, et donc avec les ions rapides. Nous calculons alors la densite d'energie du plasma et la puissance rayonnee dans le mode fw par integration sur les solutions de la relation de dispersion. Les spectres numériques de puissance emise presentent de grandes similarites avec les spectres experimentaux. Cette théorie est donc satisfaisante et doit être étendue pour l'interprétation des expériences
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Valdenaire, Simon. "Mise en place et utilisation des faisceaux FFF en radiothérapie : radiobiologie, caractérisation physique, contrôles qualité, modélisation et planification de traitement". Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0037/document.

Texto completo
Resumen
Les faisceaux de photons produits par les accélérateurs d'électrons linéaires médicaux sont plats, grâce à un cône égalisateur. Les technologies ont évolué et la présence d'un cône n'est plus indispensable. On parle alors de faisceaux FFF (flattening filter free). Les faisceaux FFF présentent des débits de dose plus élevés, des profils de dose hétérogènes, des spectres énergétiques différents et une diminution de la dose hors-champ. Cette thèse a eu pour but d'étudier les caractéristiques des faisceaux FFF, ainsi que l'impact de leur utilisation thérapeutique. Plusieurs thématiques ont été. Des expériences d'irradiation in vitro ont tout d'abord permis de s'assurer que les débits de dose FFF n'ont pas d'impact radiobiologique sur la réponse des cellules irradiées. Une large revue de la littérature a permis de corroborer ces résultats. Afin de maitriser les caractéristiques physiques des faisceaux FFF, des mesures ont été faites avec différents détecteurs. Les effets du spectre et du débit de dose sur la calibration en dose ont aussi été étudiés. Les faisceaux FFF ont été modélisés dans deux TPS. Les modèles ont été comparés entre les deux types de faisceaux et entre les deux TPS. La mise en place des traitements stéréotaxiques a aussi été l'occasion d'appréhender la dosimétrie des petits faisceaux. Nous avons étudié des cas VMAT de cancer de la prostate et des cas de stéréotaxies 3D de tumeurs pulmonaires. La comparaison donne un avantage aux faisceaux FFF. La maitrise de la physique et de la biologie des haut débits a permis de débuter les traitements FFF à l'IPC. Des études comparatives nous permettent aujourd'hui d'adapter leur utilisation au cas par cas
In medical linear electron accelerators, photon beams profiles are homogenised using flattening filters. Technologies have evolved and the presence of this filter is no longer necessary. Flattening filter free (FFF) beams exhibit higher dose rates, heterogeneous dose profiles, modified energy spectra and lower out-of-field dose. This PhD aimed at studying the characteristics of unflattened beams, as well as their impact in clinical utilization. Several subjects were thoroughly investigated: radiobiology, dosimetry, quality controls, modelling and treatment planning. In vitro experiments ensured that the high dose-rate of FFF beams had not a radiobiological impact. A wide review of the literature was conducted to corroborate these results. In order to understand thoroughly the characteristics of FFF beams, measurements were conducted using several detectors. The effect of the spectra and dose rates of unflattened beams on dose calibration were also studied. FFF beams were modeled in two TPSs. The methods, results and model parameters have been compared between the available beam qualities as well as between both TPSs. Furthermore, the implementation of stereotactic treatments technique was the occasion to investigate small beam dosimetry. Prostate cancer cases treated with VMAT and pulmonary tumors treated with stereotactic 3D beams were also studied. The comparison of dose distributions and treatment metrics give advantage to FFF beams. Mastering physical and biological aspects of flattening filter free beams allowed the IPC to start FFF treatments. Comparative studies have since resulted in a deeper understanding on the pertinent use of these beams
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Cannaméla, Claire. "Apport des méthodes probabilistes dans la simulation du comportement sous irradiation du combustible à particules". Paris 7, 2007. http://www.theses.fr/2007PA077082.

Texto completo
Resumen
Ce travail de thèse se consacre à l'évaluation d'espérances mathématiques et se place plus particulièrement dans un contexte de fiabilité des structures. Nous cherchons à estimer une probabilité de défaillance (supposée faible) en tenant compte des incertitudes des paramètres influents du système. Notre objectif est d'atteindre un bon compromis entre la précision de l'estimation et le coût de calcul associé. L'application porte sur l'estimation de la probabilité de rupture du combustible à particules d'un réacteur nucléaire de type HTR, via un code de calcul numérique coûteux. Nous considérons différentes approches probabilistes pour traiter le problème. Tout d'abord, nous examinons une méthode de Monte Carlo de réduction de variance : le tirage d'importance. Pour le cas paramétrique, nous proposons des algorithmes adaptatifs pour construire une suite de densités de probabilité qui convergerait vers la densité d'importance optimale. Nous présentons ensuite plusieurs estimateurs de l'espérance mathématique à partir de cette suite de densités. Par la suite, nous examinons une méthode de simulation multi-niveaux utilisant les algorithmes de Monte Cario par Chaînes de Markov. Enfin, nous nous intéressons au problème connexe de l'estimation de quantité (non extrême) de quantité physique simulée par un code numérique coûteux. Nous proposons une méthode de stratification contrôlée où des réalisations des variables d'entrées sont échantillonnées dans des zones déterminées à partir d'un modèle réduit de la réponse. L'estimation du quantile se fait alors à partir de cet échantillon
TThis work is devoted to the evaluation of mathematica! expectations in the context of structural reliability. We seek a failure probability estimate (that we assume low), taking into account the uncertainty of influential parameters of the System. Our goal is to reach a good copromise between the accuracy of the estimate and the associated computational cost. This approach is used to estimate the failure probability of fuel particles from a HTR-type nuclear reactor. This estimate is obtain by means of costly numerical simulations. We consider differents probabilistic methods to tackle the problem. First, we consider a variance reducing Monte Carlo method : importance sampling. For the parametric case, we propose adaptive algorithms in order to build a series of probability densities that will eventually converge to optimal importance density. We then present several estimates of the mathematical expectation based on this series of densities. Next, we consider a multi-level method using Monte Carlo Markov Chain algorithm. Finally, we turn our attention to the related problem of quantile estimation (non extreme) of physical output from a large-scale numerical code. We propose a controled stratification method. The random input parameters are sampled in specific regions obtained from surrogate of the response. The estimation of the quantile is then computed from this sample
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Peronnard, Paul. "Méthodes et outils pour l'évaluation de la sensibilité de circuits intégrés avancés face aux radiations naturelles". Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00441658.

Texto completo
Resumen
La réduction des dimensions et paramètres électriques des transistors, fruit des progrès dans les technologies de fabrication de circuits intégrés, rend les composants présents et futurs de plus en plus sensibles aux perturbations appelées évènements singuliers S.E.E. (Single Event Effects). Ces événements sont la conséquence d'une impulsion de courant résultant de l'impact dans des zones sensibles du circuit, de particules énergétiques présentes dans l'environnement dans lequel ils fonctionnent. Parmi les différents types de SEE, peuvent être mentionnés les SEU (Single Event Upsets) qui consistent en l'inversion du contenu de cellules mémoires, les SEL (Single Event Latchups) qui donnent lieu à des courts-circuits masse-alimentation et peuvent donc conduire à la destruction du circuit par effet thermique. Cette thèse a pour but de décrire et valider les méthodologies nécessaires pour évaluer de manière précise la sensibilité face aux radiations de deux types de circuits numériques représentatifs, processeurs et mémoires, composants utilisés dans la plupart des systèmes embarqués.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Lominé, Franck. "Écoulements de particules dans un milieu poreux". Rennes 1, 2007. https://tel.archives-ouvertes.fr/tel-00198209.

Texto completo
Resumen
Cette thèse a pour objet l'étude expérimentale et numérique de l'écoulement de particules dans un empilement de sphères plus grosses. Un dispositif expérimental a été mis au point pour étudier la dispersion latérale et le temps moyen de séjour d'un paquet de particules dans un milieu poreux. Nous avons en particulier déterminé la dépendance du temps moyen de transit en fonction du nombre de particules en écoulement, de la taille des particules et de la hauteur du milieu poreux. Nous avons également caractérisé la dépendance du coefficient de dispersion latéral avec le nombre de particules transitant dans la structure poreuse. Dans un deuxième temps, nous avons développé des modèles de simulations numériques basés sur les méthodes « Event-Driven » et « dynamique moléculaire de sphères molles ». Ceux-ci nous ont permis de compléter l'étude expérimentale en analysant l'influence de divers paramètres supplémentaires. L'accès à l'intérieur du milieu poreux a permis une analyse plus fine de la dispersion des particules. Enfin, nous avons abordé la possibilité d'utiliser le phénomène de percolation spontanée pour réaliser un mélangeur. Grâce à l'outil numérique, nous avons réalisé et caractérisé des mélanges de particules de tailles différentes. Nous avons alors montré que ce procédé s'avère être un moyen simple et efficace pour obtenir des mélanges homogènes de particules
This work deals with experimental and numerical investigations on particles flow through a packing of larger spheres. We built an experimental device to study lateral dispersion and the mean transit time of a blob of particles through a porous medium. Particularly, we determined the dependence of the mean transit time on the number of particles, on particle size and on the height of the porous medium. We also characterized the dependence of the lateral dispersion coefficient on the number of particles moving in the porous structure. Then, we developed numerical simulation models based on « Event-Driven » and « molecular dynamic of soft spheres » methods. Those allowed us to supplement the experimental study by analyzing the influence of various additional parameters. The access inside the porous medium allowed a finer analysis of particles dispersion. Finally, we approached the possibility of using the spontaneous percolation phenomenon to produce a mixer. Thanks to the numerical tool, we carried out and characterized mixtures of particles of different sizes. We showed that this process proves to be a simple and effective method to obtain homogeneous mixtures of particles
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Peaucelle, Christophe. "La problématique de l'évolution des moments d'une densité de particules soumises à des forces non linéaires". Phd thesis, Grenoble INPG, 2001. http://tel.archives-ouvertes.fr/tel-00001153.

Texto completo
Resumen
L'utilisation des accélérateurs linéaires de forte puissance dans différents projets (production de neutrons par spallation, réacteurs hybrides) nous a amené à se pencher sur les problèmes de la dynamique de faisceaux de haute intensité. Dans le cas de faisceaux intenses, les particules sont soumises à des forces non linéaires, principalement dues à l'effet de charge d'espace. Afin de disposer d'outils à la fois moins lourds et plus réalistes que les méthodes classiques de simulation (interaction particule-particule, modèle coeur-particule), la description de l'évolution d'une distribution de particules à partir de ses paramètres statistiques, ses moments, a donc été envisagée. Nous présentons donc dans une première partie une analyse détaillée de la problématique, menée dans un cadre simplifié mais non limitatif : tout d'abord, nous développons un formalisme original basé sur les propriétés fines des polygones orthogonaux permettant l'étude des moments d'une densité en une dimension. De cette analyse, nous voyons que l'on peut extraire, d'un nombre fini de moments, un certain nombre d'informations concernant la densité. En particulier, il en découle la notion fondamentale d'enveloppe convexe définissant le domaine d'existence de cette densité. Ceci permet de mieux comprendre la signification des moments. La généralisation de cette description en deux dimensions permet d'estimer avec une bonne précision où sont localisées les particules dans cet espace des phases. Enfin, nous abordons les difficultés rencontrées au cours de cette étude, fixant ainsi les limites de cette méthode. La deuxième partie de cette thèse, plus expérimentale, présente les mesures de faisceaulogie effectuées sur l'accélérateur GENEPI (GEnérateur de NEutrons Pulsé Intense) dans le cadre de l'étude des systèmes hybrides. Elles permettent, entre autres, la calibration du faisceau et la validation des codes de calculs nécessaires à la conception de la machine.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

DERRIENNIC, OURLY HELENE. "Etude et optimisation des méthodes de Monte Carlo non analogues pour la simulation des particules neutres en radio-protection". Paris, CNAM, 1999. http://www.theses.fr/1999CNAM0312.

Texto completo
Resumen
La modelisation et la simulation en radio-protection ont pour but d'evaluer l'intensite de rayonnements ionisants, emis lors de reactions nucleaires, a une certaine distance de leur source. Ceci necessite la resolution de l'equation du transport des particules dans les materiaux. La methode de monte carlo, etant la seule methode numerique permettant de prendre en compte de facon detaillee les interactions particule-matiere et la geometrie du probleme, est frequemment utilisee dans ce domaine. Mais, lorsque la quantite cherchee depend d'evenements tres peu probables de la trajectoire des particules, un nombre extremement grand de simulations s'impose pour obtenir une variance faible des techniques d'acceleration de convergence doivent donc etre mises en uvre pour que les calculs soient realisables pratiquement. Certaines d'entre elles consistent a modifier (a biaiser) la loi des trajectoires echantillonnees en fonction du resultat cherche, dans le but de diminuer l'incertitude sur le resultat. L'utilisation de ces techniques est rendue tres delicate par le fait que les parametres de biaisage, definissant ces simulations, doivent etre ajustes finement pour chaque calcul d'une part, pour que le biaisage engendre un gain d'efficacite des simulations, d'autre part, pour eviter les problemes de sur-biaisage entrainant une mauvaise estimation du resultat, qui apparaissent lorsque les parametres de biaisage utilises sont trop grands. Jusqu'a present, ces parametres etaient fixes manuellement par l'utilisateur. Nous proposons, dans cette these, d'exploiter des informations sur la variance, recueillies en cours de simulation, pour optimiser le choix des parametres de biaisage, de facon quasi-automatique. Nous avons mis en uvre ce principe dans un programme monte carlo de resolution de l'equation du transport. Des resultats tres interessants sont obtenus. Nous avons d'autre part fait une analyse plus approfondie, basee sur l'etude de marches aleatoires biaisees simplifiees, du principe de biaisage et du phenomene de sur-biaisage, qui represente un danger majeur en radio-protection puisqu'il entraine une sous-estimation de la quantite cherchee. Nous avons ainsi mis en evidence numeriquement, et en partie theoriquement, les limites et les dangers de ces techniques de biaisage. Cette these presente donc des outils nouveaux permettant d'optimiser l'efficacite des simulations biaisees et d'eliminer le risque de sur-biaisage.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Más fuentes

Libros sobre el tema "Accélérateurs de particules – Simulation, Méthodes de"

1

M, Berz y Makino Kyoko, eds. Computational accelerator physics 2002: Proceedings of the Seventh International Conference on Computational Accelerator Physics : Michigan State University, East Lansing, Michigan, USA, 15-18 October, 2002. Bristol: Institute of Pub., 2005.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Capítulos de libros sobre el tema "Accélérateurs de particules – Simulation, Méthodes de"

1

V. SANDRAKOV, Gennadiy. "Modélisation de la dynamique des fluides hétérogènes avec transitions de phase et milieux poreux". En Méthodes de calcul et modélisation mathématique en cyberphysique et applications techniques 1, 71–102. ISTE Group, 2024. https://doi.org/10.51926/iste.9164.ch4.

Texto completo
Resumen
On considère un processus qui est une combinaison de la méthode des particules et de la méthode des grosses particules, lorsque les particules fluides se déplacent le long de trajectoires lagrangiennes dans le fluide principal. Le mouvement de ces particules est déterminé par les lois de conservation de la masse, de la quantité de mouvement et de l'énergie. En figeant le mouvement de ces particules, il est possible de créer une méthode de simulation du mouvement d'un fluide dans un milieu poreux basée sur les lois de conservation, présentée dans la dernière section. Les modifications apportées à la méthode de modélisation des fluides visqueux sont également discutées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía