Dissertations / Theses on the topic 'Simulation à grande échelle'

To see the other types of publications on this topic, follow the link: Simulation à grande échelle.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Simulation à grande échelle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ralambondrainy, Tiana. "Observation de simulations multi-agents à grande échelle." La Réunion, 2009. http://elgebar.univ-reunion.fr/login?url=http://thesesenligne.univ.run/09_02ralambondrainy.pdf.

Full text
Abstract:
La simulation de systèmes complexes naturels ou sociaux a pour but de répondre aux questions que se pose un observateur sur ces systèmes. La complexité des situations réelles représentées, des entités impliquées et de leurs interactions produisent une masse de résultats qu'il est paradoxalement aussi diffcile à comprendre que le système réel initial. L'enjeu de notre travail est de faciliter l'observation et l'analyse de ces résultats par un observateur pour une meilleure compréhension des simulations orientées agent (SOA). Nous avons identifé une liste d'exigences inhérentes à l'observation que doit vérifer une plate-forme de SOA afn de faciliter la prise en compte de l'observation. Nous formalisons les concepts relatifs à l'observation sous la forme d'une ontologie de domaine destinée à la fois aux concepteurs de plates-formes de simulation ou de modèles, ainsi qu'aux entités logicielles de ces plates-formes qui utilisent cette ontologie comme vocabulaire conceptuel consensuel pour leurs interactions. Plusieurs moyens pour mieux gérer l'observation dans les plates-formes de simulation sont proposées, à la fois en termes d'architecture logicielle et de visualisation. Les interactions entre agents locaux en SOA sont à l'origine des phénomènes résultants au niveau global. Pour observer ces interactions à toutes les échelles allant du local au global, nous avons développé le concept de conversation, ainsi que des représentations visuelles génériques dédiées aux interactions à grande échelle. Nous avons validé ces propositions par la simulation d'un système à grande échelle de transfert de matières organiques entre exploitations agricoles
The goal of simulation of ecological or social complex systems is to help observers to answer questions about these systems. In individual-based models, the complexity of the system represented, the entities and their interactions produce a huge mass of results. These results are paradoxically as difficult to understand as the real system, that the model is suppoded to simplify. My research interests is to facilitate the observation and analysis of these results by the user, for a better understanding of multi-agent simulations. I have identified a list of requirements, that a multi-agent simulation platform should verify in order to facilitate observation by the user. A domain ontology dedicated to observation formalizes the concepts relative to the observation task. This observation ontology is useful both for humans involved in the simulation process, and for the software entities which can use this ontologyas a common vocabulary in their interactions. Several means are proposed to improve observation management in multi-agent simulation platforms, in term of architecture and visualisation. The interactions between agents are the source of emerging glabal phenomena : it is necessary to observe them at every relevant scales ranging from global to local. Hence, I have proposed the concept of conversation, and visual generic representations dedicated to large scale interactions. These proposals have been valited thanks to the simulation of the management of animal wastes fluxes between farms at a territory scale in Reunion Island
APA, Harvard, Vancouver, ISO, and other styles
2

Etcheverry, Arnaud. "Simulation de la dynamique des dislocations à très grande échelle." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0263/document.

Full text
Abstract:
Le travail réalisé durant cette thèse vise à offrir à un code de simulation en dynamique des dislocations les composantes essentielles pour permettre le passage à l’échelle sur les calculateurs modernes. Nous abordons plusieurs aspects de la simulation numérique avec tout d’abord des considérations algorithmiques. Pour permettre de réaliser des simulations efficaces en terme de complexité algorithmique pour des grandes simulations, nous explorons les contraintes des différentes étapes de la simulation en offrant une analyse et des améliorations aux algorithmes. Ensuite, une considération particulière est apportée aux structures de données. En prenant en compte les nouveaux algorithmes, nous proposons une structure de données pour bénéficier d’accès performants à travers la hiérarchie mémoire. Cette structure est modulaire pour faire face à deux types d’algorithmes, avec d’un côté la gestion du maillage nécessitant une gestion dynamique de la mémoire et de l’autre les phases de calcul intensifs avec des accès rapides. Pour cela cette structure modulaire est complétée par un octree pour gérer la décomposition de domaine et aussi les algorithmes hiérarchiques comme le calcul du champ de contrainte et la détection des collisions. Enfin nous présentons les aspects parallèles du code. Pour cela nous introduisons une approche hybride, avec un parallélisme à grain fin à base de threads, et un parallélisme à gros grain de type MPI nécessitant une décomposition de domaine et un équilibrage de charge.Finalement, ces contributions sont testées pour valider les apports pour la simulation numérique. Deux cas d’étude sont présentés pour observer et analyser le comportement des différentes briques de la simulation. Tout d’abord une simulation extrêmement dynamique, composée de sources de Frank-Read dans un cristal de zirconium est utilisée, avant de présenter quelques résultats sur une simulation cible contenant une forte densité de défauts d’irradiation
This research work focuses on bringing performances in 3D dislocation dynamics simulation, to run efficiently on modern computers. First of all, we introduce some algorithmic technics, to reduce the complexity in order to target large scale simulations. Second of all, we focus on data structure to take into account both memory hierachie and algorithmic data access. On one side we build this adaptive data structure to handle dynamism of data and on the other side we use an Octree to combine hierachie decompostion and data locality in order to face intensive arithmetics with force field computation and collision detection. Finnaly, we introduce some parallel aspects of our simulation. We propose a classical hybrid parallelism, with task based openMP threads and domain decomposition technics for MPI
APA, Harvard, Vancouver, ISO, and other styles
3

Guenot, Damien. "Simulation des effets instationnaires à grande échelle dans les écoulements décollés." École nationale supérieure de l'aéronautique et de l'espace (Toulouse ; 1972-2007), 2004. http://www.theses.fr/2004ESAE0009.

Full text
Abstract:
Le calcul des écoulements turbulents décollés est un des enjeux majeurs de l’aérodynamique numérique. Différentes méthodes existent : résolution des équations moyennées stationnaires, instationnaires (RANS/URANS), ou Simulation des Grandes Échelles (SGE). La méthode hybride Detached Eddy Simulation (DES) semble bien adaptée : elle utilise un modèle unique qui se comporte près des parois comme un modèle URANS (limite le coût de calcul), et loin comme une SGE (décrit mieux les écoulements hors équilibre). Les calculs de plaque plane montrent la nécessité de calculer les zones attachées en mode URANS. Pour le profil en décrochage, différents paramètres (maillage, envergure, formulation en mode SGE) sont testés. On obtient une meilleure prévision de la portance et de la traînée par rapport à l’URANS. Le cas de la marche descendante montre les limites de la DES. La géométrie pose le problème de la couche limite amont épaisse où les structures turbulentes sont absentes (traitée en URANS).
APA, Harvard, Vancouver, ISO, and other styles
4

Cordonnier, Guillaume. "Modèles à couches pour simuler l'évolution de paysages à grande échelle." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM072/document.

Full text
Abstract:
Le développement des nouvelles technologies permet la visualisation interactive de mondes virtuels de plus en plus vastes et complexes. La production de paysages plausibles au sein de ces mondes devient un défi majeur, en raison de l'importance des éléments de terrain et des écosystèmes dans la qualité et le réalisme du résultat. S'y rajoute la difficulté d'éditer de tels éléments sur des échelles spatiales et temporelles aussi vastes que peuvent l'être celles des chaînes de montagnes. Cette édition se fait souvent en couplant des méthodes manuelles et de longues simulations numériques dont le calibrage est complexifié par le nombre des paramètres et leur caractère peu intuitif.Cette thèse propose d'explorer de nouvelles méthodes de simulation de paysages à grande échelle, avec pour objectif d'améliorer le contrôle et le réalisme des scènes obtenues. Notre stratégie est de fonder nos méthodes sur des lois éprouvées dans différents domaines scientifiques, ce qui permet de renforcer la plausibilité des résultats, tout en construisant des outils de résolution efficaces et des leviers de contrôles intuitifs.En observant des phénomènes liés aux zones de compression de la croûte terrestre, nous proposons une méthode de contrôle intuitif de la surrection à l'aide d'une métaphore de sculpture des plaques tectoniques. Combinée avec de nouvelles méthodes efficaces d'érosion fluviale et glaciaire, celle-ci permet de sculpter rapidement de vastes chaînes de montagnes. Pour visualiser les paysages obtenus à échelle humaine, nous démontrons le besoin de combiner la simulation de phénomènes variés et de temporalités différentes, et nous proposons une méthode de simulation stochastique pour résoudre cette difficile cohabitation, que nous appliquons à la simulation de processus géologiques tels que l'érosion, jointe à la formation d'écosystèmes. Cette méthode est déclinée sur GPU et appliquée à la formation du manteau neigeux, en combinant des aspects au long cours (précipitations, changements d'état de l'eau) et des aspects dynamiques (avalanches, impact des skieurs).Les différentes méthodes proposées permettent de simuler l'évolution de paysages à grande échelle, tout en accordant une attention particulière au contrôle. Ces aspects sont validés par des études utilisateur et des comparaisons avec des données issues de paysages réels
The development of new technologies allows the interactive visualization of virtual worlds showing an increasing amount of details and spacial extent. The production of plausible landscapes within these worlds becomes a major challenge, not only because the important part that terrain features and ecosystems play in the quality and realism of 3D sceneries, but also from the editing complexity of large landforms at mountain range scales. Interactive authoring is often achieved by coupling editing techniques with computationally and time demanding numerical simulation, whose calibration is harder as the number of non-intuitive parameters increases.This thesis explores new methods for the simulation of large-scale landscapes. Our goal is to improve both the control and the realism of the synthetic scenes. Our strategy to increase the plausibility consist on building our methods on physically and geomorphologically-inspired laws: we develop new solving schemes, which, combined with intuitive control tools, improve user experience.By observing phenomena triggered by compression areas within the Earth's crust, we propose a method for the intuitive control of the uplift based on a metaphor on the sculpting of the tectonic plates. Combined with new efficient methods for fluvial and glacial erosion, this allows for the fast sculpting of large mountain ranges. In order to visualize the resulting landscapes withing human sight, we demonstrate the need of combining the simulation of various phenomena with different time spans, and we propose a stochastic simulation technique to solve this complex cohabitation. This methodology is applied to the simulation of geological processes such as erosion interleaved with ecosystems formation. This method is then implemented on the GPU, combining long term effects (snow fall, phase changes of water) with highly dynamics ones (avalanches, skiers impact).Our methods allow the simulation of the evolution of large scale, visually plausible landscapes, while accounting for user control. These results were validated by user studies as well as comparisons with data obtained from real landscapes
APA, Harvard, Vancouver, ISO, and other styles
5

Bethune, William. "Dynamique à grande échelle des disques protoplanétaires." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAY022/document.

Full text
Abstract:
Cette thèse est dédiée aux processus de transport de moment cinétique et de flux magnétique dans les disques faiblement magnétisés et faiblement ionisés ; l’influence des effets microphysiques sur la dynamique du disque à grande échelle y est centrale. Dans un premier temps, j’exclue les effets de stratification et j’examine l’impact des effets MHD non-idéaux sur la turbulence dans le plan du disque. Je montre que l’écoulement peut spontanément s’organiser si la fraction d’ionisation est assez faible ; dans ce cas, l’accrétion est stoppée, et le disque exhibe des anneaux axisymétriques susceptibles d’affecter la formation planétaire. Dans un second temps, je caractérise l’interaction du disque avec un vent magnétisé via un modèle global de disque stratifié. Ce modèle est le premier à décrire globalement les effets MHD non-idéaux d’après un réseau chimique simplifié. Il révèle que le disque est essentiellement non-turbulent, et que le champ magnétique peut adopter différentes configurations globales, affectant drastiquement les processus de transport. Un nouveau processus d’auto-organisation est identifié, produisant aussi des structures axisymétriques, tandis que le précédent est invalidé par l’action du vent. Les propriétés des vents magnéto-thermiques sont examinées pour différentes magnétisations, permettant de discriminer les vents magnétisés des vents photo-évaporés par leur efficacité d’éjection
This thesis is devoted to the transport of angular momentum and magnetic flux through weakly ionized and weakly magnetized accretion disks ; the role of microphysical effects on the large- scale dynamics of the disk is of primary importance. As a first step, I exclude stratification effects and examine the impact of non-ideal MHD effects on the turbulent properties near the disk midplane. I show that the flow can spontaneously organize itself if the ionization fraction is low enough ; in this case, accretion is halted and the disk exhibits axisymmetric structures, with possible consequences on planetary formation. As a second step, I study the disk-wind interaction via a global model of stratified disk. This model is the first to compute non-ideal MHD effects from a simplified chemical network in a global geometry. It reveals that the flow is essentially laminar, and that the magnetic field can adopt different global configurations, drastically affecting the transport processes. A new self-organization process is identified, also leading to the formation of axisymmetric structures, whereas the previous mechanism is discarded by the action of the wind. The properties of magneto-thermal winds are examined for various magnetizations, allowing discrimination between magnetized and photo-evaporative winds based upon their ejection efficiency
APA, Harvard, Vancouver, ISO, and other styles
6

Ben, Romdhanne Bilel. "Simulation des réseaux à grande échelle sur les architectures de calculs hétérogènes." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0088/document.

Full text
Abstract:
La simulation est une étape primordiale dans l'évolution des systèmes en réseaux. L’évolutivité et l’efficacité des outils de simulation est une clef principale de l’objectivité des résultats obtenue, étant donné la complexité croissante des nouveaux des réseaux sans-fils. La simulation a évènement discret est parfaitement adéquate au passage à l'échelle, cependant les architectures logiciel existantes ne profitent pas des avancées récente du matériel informatique comme les processeurs parallèle et les coprocesseurs graphique. Dans ce contexte, l'objectif de cette thèse est de proposer des mécanismes d'optimisation qui permettent de surpasser les limitations des approches actuelles en combinant l’utilisation des ressources de calcules hétérogène. Pour répondre à la problématique de l’efficacité, nous proposons de changer la représentation d'événement, d'une représentation bijective (évènement-descripteur) à une représentation injective (groupe d'évènements-descripteur). Cette approche permet de réduire la complexité de l'ordonnancement d'une part et de maximiser la capacité d'exécuter massivement des évènements en parallèle d'autre part. Dans ce sens, nous proposons une approche d'ordonnancement d'évènements hybride qui se base sur un enrichissement du descripteur pour maximiser le degré de parallélisme en combinons la capacité de calcule du CPU et du GPU dans une même simulation. Les résultats comparatives montre un gain en terme de temps de simulation de l’ordre de 100x en comparaison avec une exécution équivalente sur CPU uniquement. Pour répondre à la problématique d’évolutivité du système, nous proposons une nouvelle architecture distribuée basée sur trois acteurs
The simulation is a primary step on the evaluation process of modern networked systems. The scalability and efficiency of such a tool in view of increasing complexity of the emerging networks is a key to derive valuable results. The discrete event simulation is recognized as the most scalable model that copes with both parallel and distributed architecture. Nevertheless, the recent hardware provides new heterogeneous computing resources that can be exploited in parallel.The main scope of this thesis is to provide a new mechanisms and optimizations that enable efficient and scalable parallel simulation using heterogeneous computing node architecture including multicore CPU and GPU. To address the efficiency, we propose to describe the events that only differs in their data as a single entry to reduce the event management cost. At the run time, the proposed hybrid scheduler will dispatch and inject the events on the most appropriate computing target based on the event descriptor and the current load obtained through a feedback mechanisms such that the hardware usage rate is maximized. Results have shown a significant gain of 100 times compared to traditional CPU based approaches. In order to increase the scalability of the system, we propose a new simulation model, denoted as general purpose coordinator-master-worker, to address jointly the challenge of distributed and parallel simulation at different levels. The performance of a distributed simulation that relies on the GP-CMW architecture tends toward the maximal theoretical efficiency in a homogeneous deployment. The scalability of such a simulation model is validated on the largest European GPU-based supercomputer
APA, Harvard, Vancouver, ISO, and other styles
7

Côté, Benoit, and Benoit Côté. "Modèle d’évolution de galaxies pour simulations cosmologiques à grande échelle." Doctoral thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25550.

Full text
Abstract:
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015
Nous présentons un modèle semi-analytique (MSA) conçu pour être utilisé dans une simulation hydrodynamique à grande échelle comme traitement de sous-grille afin de générer l’évolution des galaxies dans un contexte cosmologique. Le but ultime de ce projet est d’étudier l’histoire de l’enrichissement chimique du milieu intergalactique (MIG) ainsi que les interactions entre les galaxies et leur environnement. Le MSA inclut tous les ingrédients nécessaires pour reproduire l’évolution des galaxies de faible masse et de masse intermédiaire. Cela comprend l’accrétion du halo galactique et du MIG, le refroidissement radiatif, la formation stellaire, l’enrichissement chimique et la production de vents galactiques propulsés par l’énergie mécanique et la radiation des étoiles massives. La physique des bulles interstellaires est appliquée à chaque population d’étoiles qui se forme dans le modèle afin de relier l’activité stellaire à la production des vents galactiques propulsés par l’énergie mécanique. Nous utilisons des modèles stellaires à jour pour générer l’évolution de chacune des populations d’étoiles en fonction de leur masse, de leur métallicité et de leur âge. Cela permet d’inclure, dans le processus d’enrichissement, les vents stellaires des étoiles massives, les supernovae de Type II, Ib et Ic, les hypernovae, les vents stellaires des étoiles de faible masse et de masse intermédiaire ainsi que les supernovae de Type Ia. Avec ces ingrédients, notre modèle peut reproduire les abondances de plusieurs éléments observées dans les étoiles du voisinage solaire. De manière plus générale, notre MSA peut reproduire la relation actuelle observée entre la masse stellaire des galaxies et la masse de leur halo de matière sombre. Il peut aussi reproduire la métallicité, la quantité d’hydrogène et le taux de formation stellaire spécifique observés dans les galaxies de l’Univers local. Notre modèle est également consistant avec les observations suggérant que les galaxies de faible masse sont davantage affectées par la rétroaction stellaire que les galaxies plus massives. De plus, le modèle peut reproduire les différents comportements, soit oscillatoire ou stable, observés dans l’évolution du taux de formation stellaire des galaxies. Tous ces résultats démontrent que notre MSA est suffisamment qualifié pour traiter l’évolution des galaxies à l’intérieur d’une simulation cosmologique.
Nous présentons un modèle semi-analytique (MSA) conçu pour être utilisé dans une simulation hydrodynamique à grande échelle comme traitement de sous-grille afin de générer l’évolution des galaxies dans un contexte cosmologique. Le but ultime de ce projet est d’étudier l’histoire de l’enrichissement chimique du milieu intergalactique (MIG) ainsi que les interactions entre les galaxies et leur environnement. Le MSA inclut tous les ingrédients nécessaires pour reproduire l’évolution des galaxies de faible masse et de masse intermédiaire. Cela comprend l’accrétion du halo galactique et du MIG, le refroidissement radiatif, la formation stellaire, l’enrichissement chimique et la production de vents galactiques propulsés par l’énergie mécanique et la radiation des étoiles massives. La physique des bulles interstellaires est appliquée à chaque population d’étoiles qui se forme dans le modèle afin de relier l’activité stellaire à la production des vents galactiques propulsés par l’énergie mécanique. Nous utilisons des modèles stellaires à jour pour générer l’évolution de chacune des populations d’étoiles en fonction de leur masse, de leur métallicité et de leur âge. Cela permet d’inclure, dans le processus d’enrichissement, les vents stellaires des étoiles massives, les supernovae de Type II, Ib et Ic, les hypernovae, les vents stellaires des étoiles de faible masse et de masse intermédiaire ainsi que les supernovae de Type Ia. Avec ces ingrédients, notre modèle peut reproduire les abondances de plusieurs éléments observées dans les étoiles du voisinage solaire. De manière plus générale, notre MSA peut reproduire la relation actuelle observée entre la masse stellaire des galaxies et la masse de leur halo de matière sombre. Il peut aussi reproduire la métallicité, la quantité d’hydrogène et le taux de formation stellaire spécifique observés dans les galaxies de l’Univers local. Notre modèle est également consistant avec les observations suggérant que les galaxies de faible masse sont davantage affectées par la rétroaction stellaire que les galaxies plus massives. De plus, le modèle peut reproduire les différents comportements, soit oscillatoire ou stable, observés dans l’évolution du taux de formation stellaire des galaxies. Tous ces résultats démontrent que notre MSA est suffisamment qualifié pour traiter l’évolution des galaxies à l’intérieur d’une simulation cosmologique.
We present a semi-analytical model (SAM) designed to be used in a large-scale hydrodynamical simulation as a sub-grid treatment in order to generate the evolution of galaxies in a cosmological context. The ultimate goal of this project is to study the chemical enrichment history of the intergalactic medium (IGM) and the interactions between galaxies and their surrounding. Presently, the SAM takes into account all the ingredients needed to compute the evolution of low- and intermediate-mass galaxies. This includes the accretion of the galactic halo and the IGM, radiative cooling, star formation, chemical enrichment, and the production of galactic outflows driven by the mechanical energy and the radiation of massive stars. The physics of interstellar bubbles is applied to every stellar population which forms in the model in order to link the stellar activity to the production of outflows driven by mechanical energy. We use up-to-date stellar models to generate the evolution of each stellar population as a function of their mass, metallicity, and age. This enables us to include, in the enrichment process, the stellar winds from massive stars, Type II, Ib, and Ic supernovae, hypernovae, the stellar winds from low- and intermediate-mass stars in the asymptotic giant branch, and Type Ia supernovae. With these ingredients, our model can reproduce the abundances of several elements observed in the stars located in the solar neighborhood. More generally, our SAM reproduces the current stellar-to-dark-halo mass relation observed in galaxies. It can also reproduce the metallicity, the hydrogen mass fraction, and the specific star formation rate observed in galaxies as a function of their stellar mass. Our model is also consistent with observations which suggest that low-mass galaxies are more affected by stellar feedback than higher-mass galaxies. Moreover, the model can reproduce the periodic and the stable behaviors observed in the star formation rate of galaxies. All these results show that our SAM is sufficiently qualified to treat the evolution of low- and intermediate-mass galaxies inside a large-scale cosmological simulation.
We present a semi-analytical model (SAM) designed to be used in a large-scale hydrodynamical simulation as a sub-grid treatment in order to generate the evolution of galaxies in a cosmological context. The ultimate goal of this project is to study the chemical enrichment history of the intergalactic medium (IGM) and the interactions between galaxies and their surrounding. Presently, the SAM takes into account all the ingredients needed to compute the evolution of low- and intermediate-mass galaxies. This includes the accretion of the galactic halo and the IGM, radiative cooling, star formation, chemical enrichment, and the production of galactic outflows driven by the mechanical energy and the radiation of massive stars. The physics of interstellar bubbles is applied to every stellar population which forms in the model in order to link the stellar activity to the production of outflows driven by mechanical energy. We use up-to-date stellar models to generate the evolution of each stellar population as a function of their mass, metallicity, and age. This enables us to include, in the enrichment process, the stellar winds from massive stars, Type II, Ib, and Ic supernovae, hypernovae, the stellar winds from low- and intermediate-mass stars in the asymptotic giant branch, and Type Ia supernovae. With these ingredients, our model can reproduce the abundances of several elements observed in the stars located in the solar neighborhood. More generally, our SAM reproduces the current stellar-to-dark-halo mass relation observed in galaxies. It can also reproduce the metallicity, the hydrogen mass fraction, and the specific star formation rate observed in galaxies as a function of their stellar mass. Our model is also consistent with observations which suggest that low-mass galaxies are more affected by stellar feedback than higher-mass galaxies. Moreover, the model can reproduce the periodic and the stable behaviors observed in the star formation rate of galaxies. All these results show that our SAM is sufficiently qualified to treat the evolution of low- and intermediate-mass galaxies inside a large-scale cosmological simulation.
APA, Harvard, Vancouver, ISO, and other styles
8

Côté, Benoît. "Modèle de vents galactiques destiné aux simulations cosmologiques à grande échelle." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27873/27873.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Côté, Benoit. "Modèle de vents galactiques destiné aux simulations cosmologiques à grande échelle." Master's thesis, Université Laval, 2010. http://hdl.handle.net/20.500.11794/22281.

Full text
Abstract:
Les vents galactiques sont des éléments importants à considérer dans les simulations numériques à grande échelle car ils ont des impacts sur la formation des galaxies environnantes. Puisque les galaxies sont mal résolues dans de telles simulations, les vents galactiques sont habituellement générés par des méthodes semi-analytiques. Dans le cadre de ce projet, un modèle galactique a été développé afin d'améliorer le modèle semi-analytique de Pieri et al. (2007). Ce nouveau modèle permet de suivre de manière consistante l'évolution de l'enrichissement des galaxies en tenant compte des vents stellaires, des supernovae et de différents scénarios de formation stellaire. Les vents galactiques sont générés par l'énergie thermique provenant des supernovae et des vents stellaires à l'intérieur des galaxies. Avec ce formalisme, seules les galaxies ayant une masse inférieure ou égale à 10¹⁰ MQ risquent de contribuer à l'enrichissement du milieu intergalactique. La distribution des vents galactiques dans ce milieu est calculée en respectant l'ordre chronologique des éjectas. De plus, la composition de ce vent peut désormais être décomposée en 31 éléments chimiques. Pour la même quantité d'étoiles formées durant l'évolution galactique, un taux de formation stellaire de longue durée produit un plus long vent galactique qu'un taux de formation stellaire de courte durée. Cependant, ce vent est alors moins dense et moins concentré en métaux. En augmentant l'efficacité de formation stellaire, la portée et la métallicité du vent galactique augmentent également. Par contre, dans certains cas, une trop grande quantité d'étoiles peut complètement balayer le milieu interstellaire de son gaz, ce qui altère l'évolution du vent galactique. Pour respecter la quantité de métaux observée dans le milieu intergalactique, les vents galactiques doivent provenir des galaxies ayant possédé une métallicité initiale différente de zéro au moment de leur formation. Dans ce cas et lors d'une collision galactique, les vents stellaires peuvent contribuer de manière significative au bilan énergétique et à la quantité de carbone et d'azote éjectée dans le milieu intergalactique.
APA, Harvard, Vancouver, ISO, and other styles
10

Praga, Alexis. "Un modèle de transport et de chimie atmosphérique à grande échelle adapté aux calculateurs massivement parallèles." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30012/document.

Full text
Abstract:
Cette thèse présente un modèle bi-dimensionnel pour le transport atmosphérique à grande échelle, nommé Pangolin, conçu pour passer à l'échelle sur les achitectures parallèles. La version actuelle comporte une advection 2D ainsi qu'un schéma linéaire de chimie et servira de base pour un modèle de chimie-transport (MCT). Pour obtenir la conservation de la masse, un schéma en volume finis de type van Leer a été retenu pour l'advection et étendu au cas 2D en utilisant des opérateurs alternés. La conservation de la masse est assurée en corrigeant les vents en amont. Nous proposons une solution au problème "des pôles" de la grille régulière latitude-longitude grâce à une nouvelle grille préservant approximativement les aires des cellules et couvrant la sphère uniformément. La parallélisation du modèle se base sur l'advection et utilise un algorithme de décomposition de domaines spécialement adapté à la grille. Cela permet d'obtenir l'équilibrage de la charge de calcul avec MPI, une librairie d'échanges de messages. Pour que les performances soient à la hauteur sur les architectures parallèles actuelles et futures, les propriétés analytiques de la grille sont exploitées pour le schéma d'advection et la parallélisation en privilégiant le moindre coût des flops par rapport aux mouvement de données. Le modèle est validé sur des cas tests analytiques et comparé à des schémas de transport à l'aide d'un comparatif récemment publié. Pangolin est aussi comparé au MCT de Météo-France via un schéma linéaire d'ozone et l'utilisation de coordonnées isentropes
We present in this thesis the development of a large-scale bi-dimensional atmospheric transport scheme designed for parallel architectures with scalability in mind. The current version, named Pangolin, contains a bi-dimensional advection and a simple linear chemistry scheme for stratospheric ozone and will serve as a basis for a future Chemistry Transport Model (CTM). For mass-preservation, a van Leer finite volume scheme was chosen for advection and extended to 2D with operator splitting. To ensure mass preservation, winds are corrected in a preprocessing step. We aim at addressing the "pole issue" of the traditional regular latitude-longitude by presenting a new quasi area-preserving grid mapping the sphere uniformly. The parallelization of the model is based on the advection operator and a custom domain-decomposition algorithm is presented here to attain load-balancing in a message-passing context. To run efficiently on current and future parallel architectures, algebraic features of the grid are exploited in the advection scheme and parallelization algorithm to favor the cheaper costs of flops versus data movement. The model is validated on algebraic test cases and compared to other state-of-theart schemes using a recent benchmark. Pangolin is also compared to the CTM of Météo-France, MOCAGE, using a linear ozone scheme and isentropic coordinates
APA, Harvard, Vancouver, ISO, and other styles
11

Woodman, Michael. "Formation de motif dynamique et structuré dans les circuits neuronaux et des réseaux du cerveau à grande échelle." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4022/document.

Full text
Abstract:
Un des challenges en neurosciences consiste à trouver une bonne adéquation entre le comportement et l'activité neuronale stimulée, le but à long terme étant d'obtenir un modèle prédictif. Les travaux ré- cents dans le domaine comportemental ont montré la mise en place d'outils d'analyses comme ceux utilisés en physique non linéaire, qui permettent une meilleure comparaison avec les modèles neu- ronaux. Nous montrons dans cette thèse que les processus neuraux et comportementales peuvent être visualisés sous forme de motifs, voire de structures dans un sous espace à multiple degrés de liberté, sous forme de trajectoires dans l'espace des phases afin de montrer la dynamique non linéaire émergeante. Nous présentons aussi deux exemples , l'un est le taux de pics d'activité et leur comportement temporel qui permet de générer une base des états dynamiques de l'ensemble du cerveau, l'autre montre comment identifier les mo- tifs ou sous réseaux actifs en présence de synchronisation à longue distance. Ces travaux montrent comment modéliser l'activité cor- ticocorticale afin de contribuer à l'état de référence du cerveau. A partir de l'activité neuronale simulée nous sommes donc en mesure d'identifier les motifs et sous réseaux mis en jeu et prévoir l'activité à court terme qui peut être observée ainsi que leurs implications futurs
A persistent question in the neurosciences asks what aspects of behavior correspond to neural activity. This means finding predictors of behavioral state from neural state, yet behavioral studies have shown that behaviors are structured state and time and may be described mathematically by nonlinear dynamical systems. Another similarity found between behavior and neurosciences is the coordination of many degrees of freedom. Given these two similarities, this thesis suggests that neural and behavioral processes involve 1) the task specific formation of patterns that bind or coordinate degrees of freedom such that only a few degrees of freedom remain and 2) the structured, nonlinear dynamical interaction of these degrees of freedom, tracing out trajectories in state space that may correspond to the completion of a task or recognition of visual stimulus. The combination of these two complementary aspects will be referred to structured flows on manifolds. This thesis provides two examples of how such structure can be found in neural network models both at the level of spiking neural circuits, as well as large-scale inter-regional networks in a whole brain model. We discuss the two contributions in terms of the common principles of pattern formation and structured nonlinear dynamical interactions and how these principles allow for a link to made between the dynamics of behaviors and dynamics of underlying neural networks, and in conclusion, we outline experimental predictions and future work motivated by this thesis
APA, Harvard, Vancouver, ISO, and other styles
12

Monmarson, Bastien. "Simulation en présence d'incertitude d'un gazosiphon de grande échelle. Application à l'optimisation d'un nouveau système géothermique urbain." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAI045/document.

Full text
Abstract:
Cette thèse s’inscrit dans le cadre du projet ANR « Uncertain flow optimization » (UFO) consacré au développement et à l’application de méthodes efficaces de quantification d’incertitudes pour l’analyse et l’optimisation d’écoulements. Dans ce contexte, ces méthodes sont appliquées à des gazosiphons de grande échelle utilisés comme pompe. Plus particulièrement, on s’intéresse à de tels gazosiphons choisis pour constituer l’organe central d’un système géothermique innovant, compatible avec un environnement urbain. On souhaite en quantifier le potentiel énergétique par voie numérique avec la recherche d’un compromis entre justesse des résultats et efficacité optimale. La simulation de l’écoulement diphasique produit dans le gazosiphon est fondée sur un modèle quasi-1D à flux de dérive et s’appuie sur une démarche de résolution implicite. Les résultats sont validés sur les études expérimentales les plus pertinents de la littérature, dont aucune toutefois n’atteint les longueurs requises de l'ordre du kilomètre. Le code de simulation du gazosiphon fait ensuite l’objet d’une démarche de prise en compte d’incertitudes physiques et de modélisation, précédée par une analyse de deux méthodes de quantification d’incertitude : une méthode non-intrusive de type chaos polynomial, et une méthode plus récente dite semi-intrusive qui fut développée en amont du projet UFO. Cet outil est intégré dans une modélisation simplifiée du système géothermique urbain dans son ensemble impliquant les composants en surface, notamment le compresseur d'air. Il en résulte une optimisation énergétique robuste préliminaire de deux variantes du système géothermique urbain proposé, respectivement de récupération de chaleur et de production d’électricité
This PhD thesis is part of the ANR project « Uncertain Flow Optimization » (UFO). The project is devoted to the development and application of efficient uncertainty quantification methods for flow analysis and optimization. In this framework, these methods are applied to the study of a large-scale airlift pump. The airlift pump is selected to be part of an innovative geothermal system, which can be exploited within an urban environment. We wish to quantify and optimize the energy potential of this new system with numerical tools. They provide both good accuracy and efficiency properties. The airlift two-phase flow simulation is based on a quasi one-dimensional drift flux model, which is implicitly solved. The solver is validated by comparison with relevant experimental airlift studies from the literature. However, these studies remain below the kilometric-targeted pipe length. Thanks to the analysis of two uncertainty quantification methods, a non-intrusive approach relying on polynomial chaos expansion and a new semi-intrusive method developed ahead of the UFO project, we perform airlift pump simulations taking into account physical and modelling uncertainties. This numerical tool is inserted into a simplified model of the complete urban geothermal system that involves surface devices, such as an air compressor. Finally, a robust preliminary optimization process is performed for two versions of the proposed geothermal urban system. They are designed respectively for heat recovery and electricity production
APA, Harvard, Vancouver, ISO, and other styles
13

Bodovillé, Guillaume. "Modélisation thermomécanique de disques de frein de TGV et simulation à échelle réduite." Lille 1, 2001. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2001/50376-2001-275.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Dure, Daniel. "Simulation multi-mode de circuits VLSI." Paris 11, 1989. http://www.theses.fr/1989PA112025.

Full text
Abstract:
Alors que la conception des circuits intégrés de haute densité a été grandement facilité par toute une nouvelle génération d'outils d'aide à la synthèse, la simulation demeure un goulot d'étranglement pour ce processus. Nous revoyons ici un ensemble d'améliorations possibles des techniques de simulation récentes. Nous plaidons également en faveur d'une meilleure intégration de la simulation dans le système de conception. Un certain nombre de méthodes sont envisagées à cette fin. Plus précisément, une étude systématique des divers usages de la simulation met en valeur les problèmes susceptibles d'être rencontrés durant la simulation mais également durant les échanges de données entre applications. Cela conduit à une nouvelle organisation du système de conception, aidée par un protocole de communication piloté par des évènements clairement identifiés. Le noyau d'un simulateur à évènements discrets est détaillé, ainsi qu'un modèle général pour la simulation logique, qui permet une vitesse de simulation de 50000 évènements par seconde et par MIPS, sur machine séquentielle. Cette échelle de performance a été rendue possible par l'usage de nouvelles structures de données et par la curyfication des fonctions d'évaluation des modèles de composants. Notre méthode fait également appel à un modèle continue de la charge d'une capacité, permettant une meilleure prise en compte des parasites que les modèles "une passe" classiques. D'autres méthodes taillées pour la simulation de composants de plus bas et de plus hauts niveaux sont aussi présentées. Les problèmes pratiques rencontrés durant le développement des simulateurs multi-mode sont évoqués et pris en compte par une méthodologie orientée objet, basée sur un nouvel environnement de programmation et de simulation
Whereas design of VLSI circuits has been sped up by a new crop of synthetisis tools, simulation still constitutes a bottleneck in this process. In this paper, we review existing simulation methods and some improvements of our own. We also advocate for better integration of simulation within the design system, and we present new techniques to this end. To be more precise, a systematic study of simulation usages highlights potential problems during simulation and data exchange. This leads to a new organization of the design system, supported by an event driven communication protocol. The kernel of an event driven simulator is detailed, along with a general purpose model for logic simulation, which enables simulation speed of 50000 events per second per MIPS, on sequential computers. This level of performance has been reached through the usage of new simulatable data structures and currying of device evaluation functions. This method also uses a continuous charge­ delay model, which handles spikes more accurately than classical one pass delay models. Other methods tailored for the simulation of higher and lower level devices are also presented, and practical problems encountered during development of multi-mode simulators are listed and addressed through an object oriented methodology supported by a new simulation and software environment
APA, Harvard, Vancouver, ISO, and other styles
15

Garonne, Vincent. "Etude, définition et modélisation d'un système distribué à grande échelle : DIRAC - Distributed infrastructure with remote agent control." Aix-Marseille 2, 2005. http://theses.univ-amu.fr.lama.univ-amu.fr/2005AIX22057.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Simone, Agnès. "Etude théorique et simulation numérique de la turbulence compressible en présence de cisaillement ou de variation de volume à grande échelle." Ecully, Ecole centrale de Lyon, 1995. http://www.theses.fr/1995ECDL0031.

Full text
Abstract:
Ce travail de thèse contribue à la compréhension physique et a la modélisation des effets de la compressibilité dans les écoulements cisaillés ou comprimés à grande vitesse. Deux approches distinctes ont été utilisées: une analyse linéaire dite de distorsion rapide et la simulation numérique directe. Des travaux récents ayant montré la pertinence de la théorie de distorsion rapide, nous nous sommes appuyés sur ces résultats pour la généraliser à une turbulence compressible soumise à un champ moyen compatible avec l'hypothèse d'homogénéité statistique de la turbulence. L'analyse dimensionnelle des équations linéarisées du mouvement met en évidence le rôle essentiel d'un paramètre sans dimension, appelé nombre de mach de gradient ; ce paramètre défini comme le rapport du temps acoustique et du temps caractéristique associé à la déformation moyenne, détermine la force des couplages induits par la déformation moyenne, entre les modes de vitesse solénoïdaux (ou incompressibles) et dilatationnel (ou rotationnel), et le mode de pression. Un code de calcul résolvant les équations linéarisées du mouvement a été développé et, validé à partir de déformations moyennes pour lesquelles des solutions analytiques existent (compressions isotrope et axiale uni-dimensionnelle). Le cas du cisaillement pur plan a été plus particulièrement étudié ; les résultats obtenus à l'aide du code de distorsion rapide, pour une large gamme de valeurs du nombre de mach de gradient, sont comparés avec des simulations numériques directes des équations de Navier-Stokes complètes. Ils confirment l'adéquation du nombre de mach de gradient à caractériser les effets de la compressibilité ; et, montrent, en particulier, que l'effet stabilisant inhérent à la compressibilité intrinsèque de l'écoulement - que l'on pensait dû à des mécanismes non-linéaires, est capturé par l'analyse de distorsion rapide. Son origine est donc, dans des phénomènes tels que la restructuration de l'anisotropie du champ de vitesse et du champ de pression, gouvernes par des équations linéaires.
APA, Harvard, Vancouver, ISO, and other styles
17

Dhellemmes, Sébastien. "Contribution à l'étude de l'épitaxie par jets moléculaires à grande échelle de semi-conducteurs phosphorés." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2006. http://tel.archives-ouvertes.fr/tel-00087202.

Full text
Abstract:
La montée en fréquence des composants renforce l'intérêt pour les semi-conducteurs phosphorés. Le développement des cellules à source solide de phosphore avec vanne et craqueur permet d'envisager des perspectives industrielles pour l'Epitaxie par Jets Moléculaires (EJM), face à la concurrence du dépôt chimique en phase vapeur. C'est l'objectif du laboratoire commun P-Taxy entre Riber et l'IEMN, au sein duquel s'est déroulée cette thèse.
Plusieurs aspects de l'EJM de composés phosphorés ont été étudiés dans un bâti de grand volume. Les interfaces phosphures sur arséniures ont été caractérisées au moyen d'une structure HEMT sensible à la qualité de l'interface. Les propriétés électriques de ces structures sont comparables à celles mesurées sur des couches élaborées dans un bâti d'EJM de recherche. L'effet mémoire du bâti est faible, et des interfaces de bonne qualité peuvent être obtenues pour des arrêts de croissance courts voire nuls. Le fort dopage « p » de l'InGaAs, point important de la réalisation des transistors bipolaires à hétérojonction, a été réalisé au moyen d'une source de CBr4. La diffusion des dopants est faible et la jonction p-n obtenue est proche de l'idéalité.
Les flux de cellules d'EJM ont été modélisés par la méthode de Monte Carlo. Les cellules coniques permettent d'obtenir une bonne uniformité avec des variations inférieures à +/- 1% sur l'ensemble du plateau porte-substrats mais souffrent d'une chute rapide du flux lorsque le remplissage diminue. Les cellules cylindriques munies d'un insert permettent d'atteindre une bonne stabilité du flux en intensité mais le flux devient plus directif à mesure que le niveau baisse.
APA, Harvard, Vancouver, ISO, and other styles
18

Fagot, Christophe. "Méthodes et algorithmes pour le test intégré de circuits VLSI combinatoires." Montpellier 2, 2000. http://www.theses.fr/2000MON20003.

Full text
Abstract:
Le travail presente dans cette these porte sur la recherche de structures efficaces pour le test integre de circuits vlsi combinatoires. La qualite d'une structure de test integre se juge sur le temps de test qu'elle implique, la surface de silicium qu'elle occupe, et le nombre de fautes qu'elle permet de detecter. Tout d'abord, nous presentons une methode qui permet d'initialiser un generateur de vecteurs afin que la sequence qu'il produit permette soit de faire apparaitre avec le moins d'erreurs possible un ensemble de vecteurs donnes, soit de detecter le plus de fautes possible. Nous presentons ensuite une structure de correction des vecteurs produits par ce generateur. Cette structure est un ensemble de masques utilises cycliquement pour modifier les valeurs des bits de ces vecteurs. Des algorithmes gloutons de construction d'une telle structure sont enfin proposes.
APA, Harvard, Vancouver, ISO, and other styles
19

Hu, Ruijing. "Algorithmes de dissémination épidémiques dans les réseaux à grande échelle : comparaison et adaptation aux topologies." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00931796.

Full text
Abstract:
La dissémination d'informations (broadcast) est essentielle pour de nombreuses applications réparties. Celle-ci doit être efficace, c'est à dire limiter la redondance des messages, et assurer forte fiabilité et faible latence. Nous considérons ici les algorithmes répartis profitant des propriétés des topologies sous-jacentes. Cependant, ces propriétés et les paramètres dans les algorithmes sont hétérogènes. Ainsi, nous devons trouver une manière pour les comparer équitablement. D'abord, nous étudions les protocoles probabilistes de dissémination d'informations (gossip) exécutées sur trois graphes aléatoires. Les trois graphes représentent les topologies typiques des réseaux à grande-échelle : le graphe de Bernoulli, le graphe géométrique aléatoire et le graphe scale-free. Afin de comparer équitablement leurs performances, nous proposons un nouveau paramètre générique : le fanout effectif. Pour une topologie et un algorithme donnés, le fanout effectif caractérise la puissance moyenne de la dissémination des sites infectés. De plus, il simplifie la comparaison théorique des différents algorithmes sur une topologie. Après avoir compris l'impact des topologies et les algorithmes sur les performances , nous proposons un algorithme fiable et efficace pour la topologie scale-free.
APA, Harvard, Vancouver, ISO, and other styles
20

Tomas, Jean. "Caractérisation par simulation de la métastabilité des circuits séquentiels : application à des structures VLSI." Bordeaux 1, 1988. http://www.theses.fr/1988BOR10580.

Full text
Abstract:
Le travail presente consiste en la realisation d'un logiciel d'aide a la conception de circuits unifieurs, appele remus (recherche des etats metastables dans les circuits unifieurs par simulation), en vue de leur optimisation vis-a-vis de la metastabilite. Ce programme, ecrit en pascal, implante sur micro-vax est bati autour du simulateur electrique spice. Les algorithmes implantes permettent d'obtenir la courbe d'incertitude de l'unifieur avec en temps de calcul reduit. Les resultats de sept circuits temoins sont presentes comparativement
APA, Harvard, Vancouver, ISO, and other styles
21

Veber, Philippe. "Modélisation grande échelle de réseaux biologiques : vérification par contraintes booléennes de la cohérence des données." Phd thesis, Université Rennes 1, 2007. http://tel.archives-ouvertes.fr/tel-00185895.

Full text
Abstract:
Les techniques de biologie moléculaire dites haut-débit permettent de mesurer un grand nombre de variables simultanément. Elles sont aujourd'hui couramment utilisées et produisent des masses importantes de données. Leur exploitation est compliquée par le bruit généralement observé dans les mesures, et ce d'autant plus que ces dernières sont en général trop onéreuses pour être suffisamment reproduites. La question abordée dans cette thèse porte sur l'intégration et l'exploitation des données haut-débit : chaque source de données mesurant un aspect du fonctionnement cellulaire, comment les combiner dans un modèle et en tirer des conclusions pertinentes sur le plan biologique ? Nous introduisons un critère de consistance entre un modèle graphique des régulations cellulaires et des données de déplacement d'équilibre. Nous montrons ensuite comment utiliser ce critère comme guide pour formuler des prédictions ou proposer des corrections en cas d'incompatibilité. Ces différentes tâches impliquent la résolution de contraintes à variables sur domaines finis, pour lesquelles nous proposons deux approches complémentaires. La première est basée sur la notion de diagramme de décision, qui est une structure de données utilisée pour la vérification des circuits ; la deuxième fait appel à des techniques récentes de programmation logique. L'utilisation de ces techniques est illustrée avec des données réelles sur la bactérie "E. coli" et sur la levure. Les réseaux étudiés comportent jusqu'à plusieurs milliers de gènes et de régulations. Nous montrons enfin, sur ces données, comment notre critère de consistance nous permet d'arriver à des prédictions robustes, ainsi que des corrections pertinentes du modèle étudié.
APA, Harvard, Vancouver, ISO, and other styles
22

Bühlmann, Michael. "Suivre la formation et l'évolution des structures cosmologiques à l’aide de simulations numériques." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4064.

Full text
Abstract:
Les grands relevés observationnels des dernières décennies ont conduit à imposer le modèle ΛCDM comme le modèle cosmologique privilégié pour décrire l'Univers. Dans ce modèle, la matière noire représente la principale composante de la matière de l'Univers, et sa nature inconnue représente l'un des plus grands mystères de la physique contemporaine. La modélisation dynamique de la matière noire par le biais de simulations numériques constitue désormais un outil indispensable pour contraindre ses propriétés et ses origines physiques. Dans cette thèse, nous étudions différents aspects de l’effondrement gravitationnel des perturbations dans le champ de densité initial, qui mène à une toile cosmique complexe composée de murs, filaments et halos, dans lequel les baryons se condensent et forment les riches structures que nous pouvons observer aujourd’hui. En particulier, nous utilisons des simulations cosmologiques à N-corps et employons une application Lagrangienne depuis les conditions initiales jusqu’aux positions et vitesses finales pour suivre l'évolution du fluide de matière noire. Dans un premier temps, nous utilisons les propriétés de l’espace des phases de la matière noire pour étudier l'émergence du champ de tenseur de dispersion des vitesses aux grandes échelles. Il transporte les signatures des anisotropies de l’effondrement gravitationnel, ce qui nous permet de déduire une nouvelle méthode de classification de la toile cosmique et de caractériser le champ de vitesse de la matière noire dans ces environnements effondrés. Nous montrons ensuite que l’amplitude de la dispersion de vitesse de la matière noire est en bon accord avec les vitesses aléatoires isotropes dans le gaz de baryons chauffé par chocs et traçant la distribution de matière noire. Ceci permettra d'améliorer les prédictions des températures du milieu intergalactique à partir des simulations à N-corps dans des études futures. Dans un second temps, nous nous concentrons sur l’effondrement de halos gravitationnellement liés et leur origine dans le champ de perturbation initial. Ces patchs de proto-halos jouent un rôle important pour des simulations zoom, c’est-à-dire des simulations qui concentrent les ressources de calculs sur un objet spécifique et requièrent ainsi une connaissance précise du patch Lagrangien depuis lequel cet objet se forme. Dans ce cadre nous avons développé une application Web qui permet aux utilisateurs de sélectionner des objets cibles en vue d'être re-simulés dans des catalogues de halos extraits de diverses simulations récentes, de récupérer les conditions initiales compatibles à différents codes de simulations raffinées sur leurs proto-halos associé, et de référencer ces conditions initiales dans les publications scientifiques. Enfin, nous utilisons les jeux de données disponibles de halos et proto-halos associés pour étudier la connexion entre les perturbations initiales, les propriétés intrinsèques des objets effondrés et l’influence de l’environnement à grande échelle
Observational efforts during the last decades have led to the establishment of the ΛCDM model as the standard model of our Universe. In this model, dark matter represents the majority of the matter content of the Universe, whose unknown nature poses one of the largest mysteries in physics today. A key ingredient for constraining its properties and physical origin from astronomical observations is the modeling of dark matter in cosmological simulations to understand the formation of structures and create accurate predictions. In this thesis, we study various aspects of the gravitational collapse of perturbations in the initial density field, which leads to an intricate web composed of walls, filaments, and halos, in which baryons condense and form the rich structures that we can observe today. In particular, we use cosmological Nbody simulations and exploit the Lagrangian mapping from coordinates in the initial conditions to the late time positions and velocities to follow the evolution of the dark matter fluid. In a first part, we use the phase-space properties of dark matter to study the emergence of the largescale velocity dispersion tensor field. It carries the anisotropic signature of gravitational collapse, allowing us to derive a new classification method of the cosmic web and characterize the velocity field of dark matter in these collapsed environments. We then show that the amplitude of the dark matter velocity dispersion is in good agreement with the isotropic random velocities in the shock-heated baryonic gas tracing the dark matter distribution. This will allow improved predictions of temperatures of the intergalactic medium from N-body simulations in future studies. In a second part, we focus on the collapse of gravitationally bound halos and their origin in the initial perturbation field. These proto-halo patches play an important role for zoom simulations, i.e. simulations that focus computational resources on an individual object of interest and thus require accurate knowledge about the Lagrangian patch from where the object forms. In this regard, we develop a web application, which allows users to find target objects for re-simulation in various halo catalogs of existing state-of-the-art simulations, to retrieve initial conditions for different simulation codes refined on their associated proto-halo, and to reference the initial conditions in scientific publications. Finally, we exploit the available dataset of halos and associated proto-halos to study the connection between the initial perturbations, intrinsic properties of the collapsed objects, and the influence of the large scale environment
APA, Harvard, Vancouver, ISO, and other styles
23

Odier, Nicolas. "Simulation numérique de jets liquides cisaillés par une phase rapide : dynamique de battement à grande échelle et intéraction avec les structures tourbillonnaires." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENI068/document.

Full text
Abstract:
L'injection d'un mélange carburant/comburant dans une chambre de combustion d'un turboréacteur ou d'un moteur-fusée fait intervenir un jet liquide, cisaillé par un gaz rapide. Le jet liquide peut être sous certaines conditions sujet à un phénomène de battement à grande échelle. Ce phénomène, dont les mécanismes de base sont aujourd'hui mal connus, peut avoir des conséquences importantes sur la combustion. Nous réalisons dans ce travail une étude numérique de jets liquides cisaillés par une phase rapide, en portant une attention particulière à l'étude de l'interaction entre les structures tourbillonnaires de la phase rapide et le jet liquide. Une nappe liquide plane cisaillée de part et d'autre par une phase rapide est analysée dans un premier temps . Les mécanismes de déstabilisation de cette nappe liquide sont étudiés, ainsi que le contrôle passif du phénomène de battement. Des jets liquides coaxiaux, cisaillés par une couronne de phase rapide, sont ensuite analysés. Les mécanismes de déstabilisation à grande échelle sont étudiés, ainsi que le contrôle passif et actif de cette déstabilisation. La simulation d'une configuration d'écoulement réaliste eau/air est enfin réalisée, en interaction avec les expérimentateurs du LEGI. Une attention particulière est portée à l'écoulement se produisant au sein de la buse d'injection
Fuel injection in an aircraft engine or in a rocket engine involves a liquid jet sheared by a high-velocity gas. The liquid jet can display, under some specific conditions, a flapping motion. This flapping motion, the basic mechanisms of which are still poorly understood, can significantly impact the combustion process. We perform in this work a numerical study of liquid jets interacting with a high-speed stream and focus on the interactions between the vortical structures in this high-speed stream and the liquid jet. A plane liquid jet surrounded by two high-speed streams is first analysed. The mechanisms leading to the flapping motion are studied, as well as the passive control of this instability. A liquid coaxial jet, sheared by an annular high speed stream, is next analysed. The mechanisms leading to the flapping motion are also analysed, as well as passive and active strategies for controlling this instability. Finally, we perform simulations of an experimental set-up studied at LEGI, focusing on the flow inside the nozzle
APA, Harvard, Vancouver, ISO, and other styles
24

Erez, Giacomo. "Modélisation du terme source d'incendie : montée en échelle à partir d'essais de comportement au feu vers l'échelle réelle : approche "modèle", "numérique" et "expérimentale"." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0189.

Full text
Abstract:
Le recours à la simulation numérique peut être précieux pour un investigateur cherchant à évaluer une hypothèse dans le cadre de la recherche des causes et circonstances d'un incendie. Pour utiliser cet outil, il est primordial de définir précisément le terme source, c'est-à-dire la quantité d'énergie ou de gaz combustibles que le foyer va dégager au cours du temps. Il peut être déterminé par des essais en échelle réduite ou réelle. La première approche est souvent préférée car plus facile à mettre en œuvre et moins coûteuse. Dans ce cas, il est ensuite nécessaire de transposer les résultats vers l'échelle réelle : pour cela, plusieurs types de modèles ont été proposés. Les plus complets reposent sur des modèles de pyrolyse, qui décrivent le comportement au feu à partir des réactions chimiques dans la phase condensée. Toutefois, ils ne sont pour l'instant pas mûrs pour les applications en investigation. C'est pourquoi une autre famille de modèles, dits thermiques, a été choisie dans l'étude présentée ici. Ces modèles visent à prédire le terme source en fonction de la sollicitation thermique uniquement. Les travaux sont divisés en deux parties principales, à savoir une caractérisation approfondie des transferts de chaleur au sein d'une flamme et une investigation de leur influence sur la décomposition des matériaux. Pour le premier sujet, l'accent est mis sur les transferts radiatifs car ils jouent un rôle prédominant dans l'entretien de la combustion et la propagation. Le rayonnement des flammes a donc été caractérisé pour plusieurs combustibles (kérosène, gazole, heptane, mousse polyuréthane et bois) et de nombreuses tailles de foyer (de 0,3 m à 3,5 m de côté). Les mesures, incluant de l'imagerie visible mais aussi un dispositif d'opacimétrie multispectral et un spectromètre infrarouge, ont permis de décrire la forme et l'émission des flammes. Ces données ont ensuite été utilisées dans un modèle (méthode de Monte-Carlo) pour prédire les flux thermiques reçus à différentes positions. Ces prédictions reproduisent bien les valeurs mesurées lors des essais, ce qui montre que les principaux phénomènes contrôlant le rayonnement ont été identifiés et pris en compte, pour toutes les tailles de foyer. Étant donné que l'objectif final est de fournir un outil de simulation complet, il a été choisi d'évaluer Fire Dynamics Simulator (FDS) afin de déterminer si le code permet de décrire correctement ces transferts radiatifs. Ce travail a été fait grâce aux données et connaissances acquises précédemment et montre que le code prédit correctement les flux reçus. Il a donc été choisi, pour la suite des travaux, de se reposer sur le modèle de rayonnement déjà incorporé dans FDS, pour profiter de son couplage avec le reste des modèles utiles à la simulation incendie. Concernant le second thème de l'étude, à savoir l'effet du rayonnement sur la décomposition, un travail expérimental a été mené sur la mousse polyuréthane au cône calorimètre, afin de lier la vitesse de perte de masse (MLR, pour Mass loss rate) au flux thermique imposé. Ces données ont permis de construire un modèle prédisant le MLR en fonction du temps et de l'éclairement, ce qui représente bien l'approche thermique évoquée précédemment. Des essais à plus grande échelle ont servi à caractériser la propagation du feu à la surface du combustible mais aussi à l'intérieur des échantillons de mousse, en employant différents moyens de mesure (imagerie visible, thermométrie, photogrammétrie). En plus des connaissances acquises, cette étude indique que l'utilisation de données obtenues à petite échelle est possible pour prédire le comportement au feu à échelle réelle. C'est donc ce qui a été fait, en modifiant le code source de FDS, pour intégrer une approche thermique en utilisant les données du modèle décrivant le MLR en fonction du temps et de l'éclairement. Les premières simulations montrent des résultats encourageants, et seront complétées par l'étude de géométries plus complexes
Numerical simulations can provide valuable information to fire investigators, but only if the fire source is precisely defined. This can be done through full- or small-scale testing. The latter is often preferred because these tests are easier to perform, but their results have to be extrapolated in order to represent full-scale fire behaviour. Various approaches have been proposed to perform this upscaling. An example is pyrolysis models, which involve a detailed description of condensed phase reactions. However, these models are not ready yet for investigation applications. This is why another approach was chosen for the work presented here, employing a heat transfer model: the prediction of mass loss rate for a material is determined based on a heat balance. This principle explains the two-part structure of this study: first, a detailed characterisation of heat transfers is performed; then, the influence of these heat transfers on thermal decomposition is studied. The first part focuses on thermal radiation because it is the leading mechanism of flame spread. Flame radiation was characterised for several fuels (kerosene, diesel, heptane, polyurethane foam and wood) and many fire sizes (from 0.3 m up to 3.5 m wide). Measurements included visible video recordings, multispectral opacimetry and infrared spectrometry, which allowed the determination of a simplified flame shape as well as its emissive power. These data were then used in a model (Monte-Carlo method) to predict incident heat fluxes at various locations. These values were compared to the measurements and showed a good agreement, thus proving that the main phenomena governing flame radiation were captured and reproduced, for all fire sizes. Because the final objective of this work is to provide a comprehensive fire simulation tool, a software already available, namely Fire Dynamics Simulator (FDS), was evaluated regarding its ability to model radiative heat transfers. This was done using the data and knowledge gathered before, and showed that the code could predict incident heat fluxes reasonably well. It was thus chosen to use FDS and its radiation model for the rest of this work. The second part aims at correlating thermal decomposition to thermal radiation. This was done by performing cone calorimeter tests on polyurethane foam and using the results to build a model which allows the prediction of MLR as a function of time and incident heat flux. Larger tests were also performed to study flame spread on top and inside foam samples, through various measurements: videos processing, temperatures analysis, photogrammetry. The results suggest that using small-scale data to predict full-scale fire behaviour is a reasonable approach for the scenarios being investigated. It was thus put into practice using FDS, by modifying the source code to allow for the use of a thermal model, in other words defining the fire source based on the model predicting MLR as a function of time and incident heat flux. The results of the first simulations are promising, and predictions for more complex geometries will be evaluated to validate this method
APA, Harvard, Vancouver, ISO, and other styles
25

Federici, Dominique. "Simulation de fautes comportementales de systèmes digitaux décrits à haut niveau d'abstraction en VHDL." Corte, 1999. http://www.theses.fr/1999CORT3039.

Full text
Abstract:
L’étude présentée dans ce mémoire entre dans le cadre de la conception des systèmes digitaux à très haute échelle d’intégration. Le but de notre travail est la définition et le développement d'un simulateur de fautes pour des systèmes digitaux décrits à haut niveau d'abstraction selon un point de vue comportemental. Pour accomplir cette tache, nous avons développé une approche intégrant les quatre étapes suivantes : - étude d'une modélisation adéquate explicitant les concepts de base des descriptions comportementales, en particulier la séparation données/commande. - choix d'un modèle de fautes comportementales. - définition d'un principe de simulation de fautes comportementales : notre méthode consiste à propager des listes de fautes à travers les éléments de base du modèle du système étudié - implémentation de ce principe : ces travaux ont été réalisés à partir des concepts de la théorie des objets offrant ainsi la possibilité d’élaborer un outil évolutif. La validation de notre approche est mise en oeuvre à travers l’étude d'un exemple : le registre 8-bit.
APA, Harvard, Vancouver, ISO, and other styles
26

Antri-Bouzar, Riad. "Du cablâge à la micro-programmation : le micro-programme câblé." Toulouse, INPT, 1998. http://www.theses.fr/1998INPT019H.

Full text
Abstract:
Dans ce mémoire, nous présentons tout d'abord un panorama de méthodologies existantes dans le domaine de la conception VLSI, puis nous passons à la description de notre méthode de conception (spécification, démarche de la méthodologie) ainsi que les outils de CAO utilisés pour la synthèse. Nous appliquons ensuite la méthode développée pour le traitement d'un exemple réaliste, et nous montrons que partant d'un algorithme en langage de haut niveau, on peut de façon très systématique, aboutir à un éventail de six représentations, allant d'une solution strictement câblée, et aboutissant à une solution constituant une sorte de micro-controleur maison dans lequel le chemin de données est classiquement câblé, mais dans lequel l'enchaînement des opérations est lui aussi câblé dans un circuit de contrôle au lieu d'être réglé par un séquenceur exploitant un micro-programme. Nous terminons par la comparaison des performances en terme de taille et de rapidité pour les différentes solutions du câblage à la micro-programmation.
APA, Harvard, Vancouver, ISO, and other styles
27

Wang, Guoda. "Simulation numérique sur des feux de nappe de kérosène de grande échelle soumis à un vent traversier avec prise en compte d'un aéronef." Phd thesis, ISAE-ENSMA Ecole Nationale Supérieure de Mécanique et d'Aérotechique - Poitiers, 2014. http://tel.archives-ouvertes.fr/tel-01011242.

Full text
Abstract:
Le feu est une des préoccupations majeures des avionneurs et des compagnies aériennesétant donnée la grande quantité de combustibles hautement inflammables à bord. De plus, lamenace au feu augmente par l'allègement grâce à la substitution de l'aluminium par dematériaux composites inflammables. La simulation numérique des grandes échelles estappliquée à un feu de nappe de kérosène de grande échelle soumis à un vent traversier avecprise en compte d'un aéronef de type d'aluminium et celui composite. La combustion esttraitée à l'aide d'une réaction globale et une hypothèse de chimie infiniment rapide, choixvalables tant que le feu est dans un régime de sur-ventilation où la combustion est contrôléepar le mélange des réactifs. L'interaction entre la combustion et la turbulence est traitée parune approche de type EDC (Eddy Dissipation Concept). L'équation des transferts radiatifs estrésolue à l'aide de la méthode des volumes finis. Les propriétés radiatives du milieu sontestimées à l'aide d'un modèle à larges bandes donnant une bonne approximation ducoefficient d'absorption par rapport aux calculs spectraux. Les suies sont modélisées par unmodèle semi-empirique de type Smoke-Point tenant compte du processus de formation dessuies par nucléation. Pour l'instant, le modèle de pyrolyse simple, contrôlée par latempérature, est utilisé à travers d'une approche du nombre de transfert de masse. Desanalyses spécifiques ont été menées par nos soins sur la forme de flamme, ainsi que sur lesflux thermiques, les champs de vitesse, de température et des espèces chimiques. Les résultatsobtenus sur les feux à une échelle intermédiaire sont en accord avec les résultatsexpérimentaux. Ils sont par contre difficilement comparables aux résultats expérimentaux surles feux à une échelle plus importante tridimensionnelle car l'instrumentation dans le domaineen aéronautique est très difficile. Quelques soient la taille de foyer et l'intensité de vent, leflux de chaleur maximal venant de nappe de kérosène semble inférieur à 340 kW/m2.
APA, Harvard, Vancouver, ISO, and other styles
28

Marcon, Didier. "Étude de faisabilité d'un processeur matériel spécialisé pour la simulation concurrente de fautes." Montpellier 2, 1986. http://www.theses.fr/1986MON20174.

Full text
Abstract:
Une architecture multiprocesseurs, une organisation pipeline dans chaque processeur, et enfin la realisation physique avec des circuits specialises constituent les trois solutions qui ont ete utilisees dans cette etude pour obtenir de bonnes performances quant a la duree de la simulation
APA, Harvard, Vancouver, ISO, and other styles
29

Oussama, Chikhaoui. "Simulations des grandes échelles et modélisations hybrides RANSE/LES pour le calcul d'écoulements turbulents de grande complexité." Nantes, 2007. http://www.theses.fr/2007NANT2143.

Full text
Abstract:
Au cours de ce travail de thèse, on s’intéresse aux simulations des grandes échelles et aux modèlisations hybrides RANSE/LES. Les capacités du solveur ISIS-CFD initialement conçu pour la résolution des équations Navier-Stokes en moyenne de Reynolds, ont été étendues à ces différentes méthodes en intégrant différents modèles de turbulence de façon à envisager un code de calcul complet capable de traiter une large gamme de problèmes complexes de nature académique ou industrielle. Les modèles et les méthodes numériques choisis et implémentés ont été justifiés et validés sur plusieurs cas test académiques et ont fait l’objet de comparaisons concluantes avec d’autres codes de calcul dans les contextes LES et hybrides. Les méthodes hybrides étudiées ont montré une bonne capacité à retrouver les solutions escomptées tout en permettant une grande économie en résolution de maillage. Un critère basé sur l’évaluation du résidu du budget de quantité de mouvement de l’écoulement moyen a également été proposé comme indicateur des erreurs numériques commises dans les simulations LES et hybrides. Finalement, des simulations d’écoulements turbulents complexes utilisant des modélisations hybrides ont été entreprises. L’utilisation des modélisations hybrides pour le calcul de l’écoulement autour d’un modèle simplifié de voiture en dérapage (corps de Willy) permet de reproduire, avec fidélité et à moindre coût, les observations expérimentales d’un écoulement turbulent de grande complexité
This PhD thesis deals with the Large Eddy Simulation and the hybrid RANSE/LES modelization. The abilityof ISIS-CFD flow solver, originally designed for solving Reynolds-Averaged Navier-Stokes equations, was extended to these different methods by integrating different turbulence models in order to provide a computing code able to deal with a wide range of academic and industrial complex problems. The models and numerical methods chosen and implemented were justified and validated over several academic test cases and comparisons of LES and hybrid simulations using different flow solvers have been successful. Hybrid methods studied showed a good ability to find expected solutions allowing a large saving in mesh resolution. A criterion based on the assessment of the residual of the momentum budget of the averaged flow is also proposed as an indicator of the numerical errors committed in LES and hybrid simulations. Finally, the simulation of complex turbulent flows using hybrid models have been undertaken. The use of RANS/LES models for the computation of the flow around a skidding simplified car model can reproduce faithfully and cheaply, the experimental observations of a turbulent flow of great complexity
APA, Harvard, Vancouver, ISO, and other styles
30

Joulin, Pierre-Antoine. "Modélisation à fine échelle des interactions entre parcs éoliens et météorologie locale." Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0135.

Full text
Abstract:
Le développement des énergies éoliennes, encouragé par le projet de Programmation Pluriannuelle de l’Énergie, soulève de nouvelles questions. Certains parcs s’orienteront vers des terrains montagneux et offshore. Pour prévoir la production énergétique et tenter de l’optimiser, une meilleure compréhension de l’écoulement du vent au sein des fermes sur ce type de terrains est nécessaire. Par ailleurs, les éoliennes offshore, de plus en plus grandes, seront amenées à interagir plus fortement avec la météorologie locale. Il semble alors important de caractériser ces interactions. Pour répondre à cet enjeu industriel et environnemental, un nouvel outil numérique a été créé au cours de ces travaux de thèse. La première partie de ce manuscrit se concentre sur les notions, les concepts et les modèles théoriques de la Couche Limite Atmosphérique (CLA) ainsi que des éoliennes. L’intérêt se porte notamment sur le modèle météorologique Meso-NH, utilisant la méthode Large Eddy Simulation (LES) et sur des modélisations simplifiées d’éoliennes : l’Actuator Disk (AD) rotatif et non-rotatif puis l’Actuator Line (AL). La deuxième partie se consacre au développement et à la validation de l’outil couplé. En implémentant les méthodes AD et AL au sein de Meso-NH, il devient possible de simuler la présence des éoliennes dans une couche limite atmosphérique réaliste. Une première étape de validation se base sur une expérience en soufflerie, mettant en jeu cinq éoliennes sur une colline, pour analyser le couplage avec l’Actuator Disk non rotatif. Une seconde se focalise sur l’expérience MextNext, concernant une petite éolienne en soufflerie, pour étudier le couplage avec l’Actuator Line. Les résultats obtenus sont très satisfaisants. La troisième partie se concentre sur l’impact potentiel des fermes éoliennes sur la météorologie locale. La capacité de l’outil à reproduire des interactions météorologiques complexes a été démontrée en simulant le cas des photos de Horns Rev 1. La formation nuageuse obtenue par le couplage numérique témoigne du potentiel de l’outil développé. Ensuite, pour tenter de caractériser les interactions des futurs parcs offshore avec la météorologie locale, de très grandes éoliennes plongées dans une fine couche limite atmosphérique ont été simulées. Un cas de temps clair et un cas nuageux ont été examinés. Il conviendra de mener des études complémentaires pour approfondir l’analyse de ces derniers résultats, encore préliminaires. Ainsi, de nouvelles paramétrisations de Meso-NH permettent maintenant de représenter des éoliennes dans une atmosphère réaliste, en élargissant le champ des possibles des simulations CFD pour les parcs éoliens
The development of wind energy, encouraged by the french Multiannual Energy Program, raisesnew questions. Some parks will be located on mountainous and offshore terrains. To forecast the energy production and try to optimize it, a better understanding of the flow within wind farm on thattype of terrain is needed. In addition, modern offshore wind turbines are getting larger and willinteract more strongly with local weather. It seems important to characterize these interactions. To respond to this industrial and environmental challenge, a new digital toolwas created during this thesis work. The first part of this manuscript focuses on the concepts andtheoretical models of the Atmospheric Boundary Layer (ABL) and wind turbines. In particular, theMeso-NH meteoro- logical model, used in the Large-Eddy Simulation (LES) framework, andsimplified models of wind turbines have been investigated : Actuator Disk (AD) with and without rotation and the Actuator Line (AL). The second part is devoted to the development and validation of the coupled tool. By implementing the AD and AL methods within Meso-NH, it becomes possible to simulate the presence of wind turbines in a realistic atmospheric boundary layer. A firstvalidation step is based on a wind tunnel experiment, involving five wind turbines on a hill, toanalyze the coupling with the non-rotating Actuator Disk. A second focuses on the MextNext experiment of a small wind turbine, to study the coupling with the Actuator Line. All the resultsobtained are very satisfactory. The third part focuses on the potential impact of wind farms on localweather. The ability of the tool to reproduce complex meteorological interactions has been demonstrated by simulating the case of the Horns Rev 1 photos. The cloud development obtainedby the coupled system demonstrates the potential of the developed tool. In order to characterizethe impact of future offshore parks on the local meteorology, large wind turbines immersed in a thin atmospheric boundary layer were simulated. A clear weather case and a cloudy one wereexamined. Additional studies will be needed to complement these preliminary results. Thus, newMeso-NH parameterizations make now possible to represent wind turbines in a realistic atmosphere, widening the scope of possible CFD simulations for wind farms
APA, Harvard, Vancouver, ISO, and other styles
31

Bolze, Raphaël. "Analyse et déploiement de solutions algorithmiques et logicielles pour des applications bioinformatiques à grande échelle sur la grille." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2008. http://tel.archives-ouvertes.fr/tel-00344249.

Full text
Abstract:
Cette thèse présente un ensemble d'objectifs dont le fil conducteur est le programme Décrypthon (projet tripartite entre l'AFM, le CNRS et IBM) où les applications et les besoins ont évolué au fur et à mesure de l'avancée de nos travaux. Dans un premier temps nous montrerons le rôle d'architecte que nous avons endossé pour la conception de la grille Décrypthon. Les ressources de cette grille sont supportées par les cinq universités partenaires (Bordeaux I, Lille I, ENS-Lyon, Pierre et Marie Curie Paris VI et Orsay), ainsi que le réseau RENATER (Réseau National de Télécommunications pour l'Enseignement et la Recherche), sur lequel est connecté l'ensemble des machines. Le Centre de ressources informatiques de Haute Normandie (CRIHAN) participe également au programme, il héberge les données volumineuses des projets scientifiques. Nous présenterons ensuite les expériences que nous avons effectuées sur l'intergiciel DIET afin de tester ses propriétés de façon à explorer sa stabilité dans un environnement à grande échelle comme Grid'5000. Nous nous sommes intéressés, en outre, au projet "Help Cure Muscular Dystrophy", un des projets sélectionnés par le programme Décrypthon. Nous avons conduit des expériences dans le but de préparer la première phase de calcul sur la grille de volontaires "World Community Grid". Nous dévoilerons l'ensemble des étapes qui ont précédées et suivies la première phase calculatoire qui a demandé quelques 80 siècles de temps processeur. Pour terminer, nous avons développé une fonctionnalité à l'intergiciel DIET, le rendant capable de gérer l'exécution de tâches ayant des dépendances. Nous nous sommes intéressés à développer des algorithmes prenant en compte plusieurs applications qui demandent l'accès aux mêmes ressources de manière concurrente. Nous avons validé cette fonctionnalité avec des applications issues des projets du programme Décrython. Ces travaux ont nécessité un développement logiciel important, d'une part sur les applications du Décrypthon elles-mêmes et sur leur portage afin de rendre transparente leur utilisation sur la grille Décrypthon, mais aussi au niveau de l'intergiciel DIET et son écosystème : DIET_Webboard, VizDIET, GoDIET, LogService, MA_DAG, etc. Les résultats présentés ont été obtenus sur trois grilles mises à notre disposition: la grille universitaire du Décrypthon, la grille d'internautes (World Community Grid) et la grille expérimentale Grid'5000.
APA, Harvard, Vancouver, ISO, and other styles
32

Fuchs, Frank. "Contribution à la reconstruction du bâti en milieu urbain, à l'aide d'images aériennes stéréoscopiques à grande échelle : étude d'une approche structurelle." Paris 5, 2001. http://www.theses.fr/2001PA058004.

Full text
Abstract:
L'institut géographique national poursuit ses efforts de recherche visant à automatiser la saisie de bases de données localisées. Dans ce cadre, nous abordons le thème du bâti dont nous cherchons une reconstruction des toits dite grande échelle, i. E. Comprenant leur structure interne. Nous utilisons des outils de calcul de modèle numérique d'élévation (MNE) à partir d'images aériennes à forte résolution (10 à 20 cm). Le MNE produit permet de focaliser les travaux de reconstruction sur des surfaces de taille raisonnable. L'approche proposée est structurelle. Elle s'appuie sur une base de modèles exprimée de manière déclarative ce qui confère une certaine souplesse à l'approche. La stratégie générale se compose de trois étapes. La première étape consiste à détecter dans les données initiales, des objets tridimensionnels simples, appelés primitives : segments de droites, portions de plan, façades. La seconde étape consiste à reconstruire un bâtiment à l'aide d'un modèle. Un modèle est un graphe relationnel attribue. Il est mis en correspondance avec un graphe appuie sur les primitives, grâce a des techniques récentes de calcul d'isomorphisme de sous-graphes avec tolérance d'erreur. Celles-ci utilisent le formalisme de distance d’Edition, qui permet d'intégrer une fonction de ressemblance entre un modèle et les primitives détectées. L'emploi d'une grammaire de graphe est proposé, afin de réduire la combinatoire du problème d'appariement. Après mise en correspondance, une reconstruction finale est réalisée. La troisième étape consiste à choisir, parmi les reconstructions effectuées à l'aide de différents modèles, celle qui est la plus adaptée aux données. Le mémoire présente des résultats obtenus en exploitant la méthode sur des scènes aériennes réelles. Il propose également une évaluation de la méthode, dans un cadre automatique. Enfin, après avoir dressé un bilan de la méthode, ce mémoire propose des extensions de ces travaux.
APA, Harvard, Vancouver, ISO, and other styles
33

Lapointe-Thériault, David. "Vers une résolution numérique du vent dans la couche limite atmosphérique à micro-échelle avec la méthode de simulation des grandes échelles (LES) sous OpenFOAM." Mémoire, École de technologie supérieure, 2012. http://espace.etsmtl.ca/1123/1/LAPOINTE%2DTH%C3%89RIAULT_David.pdf.

Full text
Abstract:
À l’aide de modélisation mathématique avancée de la turbulence et de ressources informatiques modernes, une amélioration des simulations numériques des écoulements atmosphériques est envisageable. Un avancement significatif dans ce domaine aurait un impact positif sur la recherche en énergie éolienne. Afin d’y contribuer, le présent ouvrage propose de s’attarder sur la conception d’un solveur numérique micro-échelle basé sur la méthode des Simulations aux Grandes Échelles (LES) avec loi de paroi à l’aide du progiciel à code source libre OpenFOAM. Des conditions atmosphériques neutres avec frontière rigide ou avec inversion de température potentielle comme frein à la progression verticale de la couche limite, un terrain plat, un fluide incompressible, une approximation de la flottabilité par Boussinesq et une turbulence horizontalement homogène sont les hypothèses de travail. Pour y parvenir, un réaménagement important du code est proposé. De nouvelles conditions frontières de vitesse et de température potentielle, un terme source dédié à satisfaire les lois de paroi et une modification à l’algorithme de résolution PISO permettant de stabiliser la couche d’inversion de température potentielle ont entre autres été créés. Grâce à ces ajouts, le nouveau solveur conçu est en mesure d’obtenir un comportement moyen proche de la similarité de Monin-Obukhov lorsque les simulations se retrouvent dans la Zone de Haute Précision. Il se démarque par sa capacité à résoudre des cas en présence de stratification thermique tout en conservant une forte compatibilité avec les différentes librairies de la distribution officielle d’OpenFOAM. Lorsque comparé avec d’autres solveurs d’organisations professionnelles (notamment MC2), les résultats obtenus sont prometteurs. Il est néanmoins recommandé de poursuivre le raffinement du code. Il est estimé qu’un renforcement plus stricte du couplage de résolution vitesse-pression-température et qu’une correction de la discrétisation linéaire des opérateurs différentielles du champ de vitesse en région proche-paroi amélioreraient davantage la qualité des simulations.
APA, Harvard, Vancouver, ISO, and other styles
34

Erny, Julien. "Modélisation du traitement de l'information cérébrale dans les réseaux à grande échelle : une approche fondée sur la similarité et la logique floue." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/378/.

Full text
Abstract:
Dans le cadre de la modélisation du traitement de l'information dans les réseaux cérébraux, un formalisme original est présenté. Par sa flexibilité, il permet de modéliser à différentes échelles de grandeur, offrant une approche intermédiaire entre modèles cognitifs et modèles connexionnistes. Son caractère hybride apparaît aussi dans la représentation de l'information qui est duale : numérique et symbolique. Le formalisme des ensembles flous est utilisé pour prendre en compte les interactions entre ces deux composantes. Deux applications du formalisme sont proposées : une modélisation de l'effet McGurk et une modélisation du réseau impliqué dans la résolution du Wisconsin Card Sorting Test, un test neuropsychologique. Ces deux modèles sont confrontés à des données expérimentales permettant de les comparer avec les comportements observés chez l'homme
In the context of modelisation of cerebral information processing, an original framework is suggested. Its polyvalence allows it to cope with different scales of modelisation, offering an intermediary approach between cognitive and connexionist models. Its hybrid nature appears also in the way information is formalised in a dual way~: numerically and symbolically. Fuzzy set theory is used ta take into account interactions between these two componants. Two applications of this framework are presented~: a modelisation of McGurk effect and and a modelisation a the network involved in the solving of the Wisconson Card Sorting Test, a neuropsychological test. Both models are confronted to experimental results involving real subjects
APA, Harvard, Vancouver, ISO, and other styles
35

Ruiz, Cristian. "Méthodes et outils pour des expériences difficiles sur Grid 5000 : un cas d'utilisation sur une simulation hybride en électromagnétisme." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM056/document.

Full text
Abstract:
Dans le domaine des systèmes distribués et du calcul haute performance, la validation expérimentale est de plus en plus utilisée par rapport aux approches analytiques. En effet, celles-ci sont de moins en moins réalisables à cause de la complexité grandissante de ces systèmes à la fois au niveau logiciel et matériel. Les chercheurs doivent donc faire face à de nombreux challenges lors de la réalisation de leurs expériences rendant le processus coûteux en ressource et en temps. Bien que de larges plateformes parallèles et technologies de virtualisation existent, les expérimentations sont, pour la plupart du temps, limitées en taille. La difficulté de passer une expérimentation à l'échelle représente un des grands facteurs limitant. Le niveau technique nécessaire pour mettre en place un environnement expérimentale approprié ne cesse d'augmenter pour suivre les évolutions des outils logiciels et matériels de plus en plus complexes. Par conséquent, les chercheurs sont tentés d'utiliser des méthodes ad-hoc pour présenter des résultats plus rapidement et pouvoir publier. Il devient alors difficile d'obtenir des informations sur ces expérimentations et encore plus de les reproduire.Une palette d'outils ont été proposés pour traiter cette complexité lors des expérimentations. Ces outils sont motivés par le besoin de fournir et d'encourager des méthodes expérimentales plus construites. Cependant, ces outils se concentrent principalement sur des scénarios très simple n'utilisant par exemple qu'un seul noeud ou client/serveur. Dans le contexte des systèmes distribués et du calcul haute performance, l'objectif de cette thèse est de faciliter la création d'expériences, de leur contrôle, répétition et archivage.Dans cette thèse nous proposons deux outils pour mener des expérimentations nécessitant une pile logicielle complexe ainsi qu'un grand nombre de ressources matérielles. Le premier outil est Expo. Il permet de contrôler efficacement la partie dynamique d'une expérimentation, c'est à dire l'enchaînement des tests expérimentaux, la surveillance des taches et la collecte des résultats. Expo dispose d'un langage de description qui permet de mettre en place une expérience dans un contexte distribué avec nettement moins de difficultés. Contrairement aux autres approches, des tests de passage à l'échelle et scénarios d'usage sont présentés afin de démontrer les avantages de notre approche. Le second outil est appelé Kameleon. Il traite les aspects statiques d'une expérience, c'est à dire la pile logicielle et sa configuration. Kameleon est un logiciel qui permet de décrire et contrôler toutes les étapes de construction d'un environnement logiciel destiné aux expérimentations. La principale contribution de Kamelon est de faciliter la construction d'environnements logiciels complexes ainsi que de garantir de futur reconstructions
In the field of Distributed Systems and High Performance Computing experimental validation is heavily used against an analytic approach which is not feasible any more due to the complexity of those systems in terms of software and hardware.Therefore, researchers have to face many challenges when conducting their experiments, making the process costly and time consuming. Although world scale platforms exist and virtualization technologies enable to multiplex hardware, experiments are most of the time limited in size given the difficulty to perform them at large scale.The level of technical skills required for setting up an appropriate experimental environment is risen with the always increasing complexity of software stacks and hardware nowadays. This in turn provokes that researchers in the pressure to publish and present their results use ad hoc methodologies.Hence, experiments are difficult to track and preserve, preventing future reproduction. A variety of tools have been proposed to address this complexity at experimenting. They were motivated by the need to provide and encourage a sounder experimental process, however, those tools primary addressed much simpler scenarios such as single machine or client/server. In the context of Distributed Systems and High Performance Computing, the objective of this thesis is to make complex experiments, easier to perform, to control, to repeat and to archive. In this thesis we propose two tools for conducting experiments that demand a complex software stack and large scale. The first tool is Expo that enable to efficiently control the dynamic part of an experiment which means all the experiment workflow, monitoring of tasks, and collection of results.Expo features a description language that makes the set up of an experiment withdistributed systems less painful. Comparison against other approaches, scalability tests anduse cases are shown in this thesis which demonstrate the advantage of our approach.The second tool is called Kamelon which addresses the static part of an experiment,meaning the software stack and its configuration.Kameleon is a software appliance builderthat enables to describe and control all the process ofconstruction of a software stack for experimentation.The main contribution of Kameleon is to make easy the setup of complex software stacks andguarantee its post reconstruction
APA, Harvard, Vancouver, ISO, and other styles
36

Pinto, Brijesh. "Wavelet-based multiscale simulation of incompressible flows." Thesis, Poitiers, 2017. http://www.theses.fr/2017POIT2272/document.

Full text
Abstract:
Cette thèse se concentre sur le développement d'une méthode précise et efficace pour la simulation des grandes échelles (LES) des écoulements turbulents. Une approche de la LES basée sur la méthode variationnelle multi-échelles (VMS) est considérée. La VMS applique aux équations de la dynamique des fluides une séparation d'échelles a priori sans recours à des hypothèses sur les conditions aux limites ou sur l'uniformité du maillage. Afin d'assurer effectivement une séparation d'échelles dans l'espace des nombres d'onde associé, nous choisissons d'utiliser les ondelettes de deuxième génération (SGW), une base polynomiale qui présente des propriétés de localisation spatiale-fréquence optimales. A partir de la séparation d'échelles ainsi réalisée, l'action du modèle sous-maille est limitée à un intervalle de nombres d'onde proche de la coupure spectrale. Cette approche VMS-LES basée sur les ondelettes est désignée par WAVVMS-LES. Elle est incorporée dans un solveur d'ordre élevé pour la simulation des écoulements incompressibles sur la base d'une méthode de Galerkin discontinue (DG-FEM) stabilisée pour la pression. La méthode est évaluée par réalisation de LES sur des maillages fortement sous-résolus pour le cas test du tourbillon de Taylor-Green 3D à deux nombres de Reynolds différents
This thesis focuses on the development of an accurate and efficient method for performing Large-Eddy Simulation (LES) of turbulent flows. An LES approach based upon the Variational Multiscale (VMS) method is considered. VMS produces an a priori scale-separation of the governing equations, in a manner which makes no assumptions on the boundary conditions and mesh uniformity. In order to ensure that scale-separation in wavenumber is achieved, we have chosen to make use of the Second Generation Wavelets (SGW), a polynomial basis which exhibits optimal space-frequency localisation properties. Once scale-separation has been achieved, the action of the subgrid model is restricted to the wavenumber band closest to the cutoff. We call this approach wavelet-based VMS-LES (WAV-VMS-LES). This approach has been incorporated within the framework of a high-order incompressible flow solver based upon pressure-stabilised discontinuous Galerkin FEM (DG-FEM). The method has been assessed by performing highly under-resolved LES upon the 3D Taylor-Green Vortex test case at two different Reynolds numbers
APA, Harvard, Vancouver, ISO, and other styles
37

Kessler, Philippe. "Simulation des grandes échelles d’écoulements compressibles en géométrie complexe." Grenoble INPG, 1996. http://www.theses.fr/1996INPG0201.

Full text
Abstract:
La transition a la turbulence d'ecoulements en geometrie complexe est etudiee par simulation numerique compressible bidimensionnelle et tridimensionnelle. On presente une simulation des grandes echelles d'un jet rond d'air, comparee a une experience en laboratoire et a une autre simulation numerique incompressible. Cette comparaison nous a permis de valider notre outil numerique. Nous montrons un bon accord entre les resultats experimentaux et notre simulation numerique en zone transitionnelle. On applique notre outil numerique a une geometrie complexe et industrielle: l'entree d'air en incidence. Cette etude est effectuee avec un code a gestion multi-domaine des transferts d'informations par methode aux caracteristiques. Les resultats sont compares a ceux d'une experience faite au ceat de poitiers. Nous avons mis en evidence les tourbillons de kelvin-helmholtz, ainsi que les tourbillons longitudinaux, responsables des fluctuations de pression au niveau du premier etage du compresseur. Enfin, on a reproduit une experience magnetohydrodynamique faite au laboratoire madylam, en geometrie bidimensionnelle ronde. L'influence du champ magnetique sur un ecoulement de mercure soumis aux forces de laplace cree un cisaillement au niveau de l'electrode. On presente une evolution temporelle de la vorticite et de la pression, ainsi que les statistiques obtenues en regime permanent. Nous montrons des resultats qualitatifs satisfaisants, mais par contre sur les statistiques, nous surestimons les valeurs moyennes et fluctuantes. Nous montrons que les caracteristiques de l'ecoulement ne sont pas bidimensionnelles, mais doivent etre tridimensionnelles
APA, Harvard, Vancouver, ISO, and other styles
38

Pinède, Pascale. "Conception, réalisation et validation du simulateur concurrent de fautes LOFSCATE." Montpellier 2, 1988. http://www.theses.fr/1988MON20132.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Allali, Lahcen. "Conception et réalisation du préprocesseur du simulateur concurrent de fautes LOFSCATE." Montpellier 2, 1987. http://www.theses.fr/1987MON20111.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Daher, Petra. "Analyse spatio-temporelle des structures à grande échelle dans les écoulements confinés : cas de l'aérodynamique interne dans un moteur à allumage commandé." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMR100/document.

Full text
Abstract:
Les mécanismes d’évolution spatio-temporelle des structures turbulentes instationnaires tridimensionnelles, et en particulier ceux rencontrés aux plus grandes échelles, sont à l’origine de phénomènes d’instabilité qui conduisent très souvent à une diminution de la performance des systèmes énergétiques. C’est le cas des variations cycle-à-cycle dans le moteur à combustion interne. Malgré les progrès substantiels réalisés par la simulation numérique en mécanique des fluides, les approches expérimentales demeurent essentielles pour l’analyse et la compréhension des phénomènes physiques ayant lieu. Dans ce travail de thèse, deux types de vélocimétrie par image de particules (PIV) ont été appliqués et adaptés au banc moteur optique du laboratoire Coria pour étudier l’écoulement en fonction de six conditions de fonctionnement du moteur. La PIV Haute Cadence 2D2C a permis d’abord d’obtenir un suivi temporel de l’écoulement dans le cylindre durant un même cycle moteur ainsi qu’identifier ces variations cycliques. La PIV Tomographique 3D3C a permis ensuite d’étendre les données mesurées vers l’espace tridimensionnel. La Tomo-PIV fait intervenir 4 caméras en position angulaire visualisant un environnement de géométrie complexe, confinée, ayant un accès optique restreint et introduisant des déformations optiques importantes. Cela a nécessité une attention particulière vis-à-vis du processus de calibration 3D des modèles de caméras. Des analyses conditionnées 2D et 3D de l’écoulement sont effectuées en se basant principalement sur la décomposition propre orthogonale (POD) permettant de séparer les différentes échelles de structure et le critère Γ permettant l’identification des centres des tourbillons
The unsteady evolution of three-dimensional large scale flow structures can often lead to a decrease in the performance of energetic systems. This is the case of cycle-to-cycle variations occurring in the internal combustion engine. Despite the substantial advancement made by numerical simulations in fluid mechanics, experimental measurements remain a requirement to validate any numerical model of a physical process. In this thesis, two types of particle image velocimetry (PIV) were applied and adapted to the optical engine test bench of the Coria laboratory in order to study the in-cylinder flow with respect to six operating conditions. First, the Time-Resolved PIV (2D2C) allowed obtaining a temporal tracking of the in-cylinder flow and identifying cyclic variabilities. Then tomographic PIV (3D3C) allowed extending the measured data to the three-dimensional domain. The Tomo-PIV setup consisted of 4 cameras in angular positioning, visualizing a confined environment with restricted optical access and important optical deformations. This required a particular attention regarding the 3D calibration process of camera models. 2D and 3D conditional analyses of the flow were performed using the proper orthogonal decomposition (POD) allowing to separate the different scales of flow structures and the Γ criterion allowing the identification of vortices centres
APA, Harvard, Vancouver, ISO, and other styles
41

Bodoc, Virginel. "Modélisation de l'évaporation de gouttes multicomposants." Toulouse, ISAE, 2011. http://www.theses.fr/2011ESAE0022.

Full text
Abstract:
L’objectif de cette thèse a été d’étudier l’évaporation d’un brouillard multi-composant à l’aide d’approches expérimentale et numérique. Deux axes de recherche ont été privilégiés. Une base de données expérimentales a tout d’abord été créée en utilisant différentes techniques optiques de mesure. Une attention particulière a été accordée à la technique Arc-en-Ciel Global (ACG), utilisée pour la mesure de la température des gouttes. Ensuite des simulations numériques ont été réalisées pour des brouillards mono et bi-composant en évaporation. Dans la première phase de cette recherche, les investigations expérimentales et numériques ont été conduites pour un brouillard polydisperse, non-confiné et en refroidissement. Cette configuration offre l’avantage de pouvoir étudier l’évaporation sous une faible influence de la phase gazeuse. Pour un liquide bicomposant, l’effet de la variation de concentration sur les mesures ACG a été analysé à l’aide d’un couplage entre la technique expérimentale et la simulation numérique. Après avoir validé les modèles d’évaporation sur le brouillard non-confiné, une configuration plus complexe se rapprochant des conditions réelles d’une chambre de combustion a été étudiée (montage IMFT). En ce qui concerne la simulation numérique, la phase gazeuse a été caractérisée en utilisant une approche de type LES. La phase dispersée constituée des gouttes mono-composant est prise en compte dans le calcul. La nature très instationnaire de l’écoulement diphasique a été mise en évidence. La comparaison entre l’expérience et la simulation numérique a permis d’évaluer l’intérêt de la technique ACG pour la mesure de la température des gouttes
The objective of this thesis was to study the vaporization of a multicomponent spray with both experimental and numerical approaches. To achieve this objective, the effort was guided in two directions. Firstly, an experimental database has been created using different optical measurement techniques. A special attention was focused onto the application of Global Rainbow Refractometry (GRR), used for the measurement of droplets temperature. Secondly, numerical simulations were performed for mono and bi-component sprays in evaporation. In the first part of this study, experimental and numerical tests were carried out on a polydisperse nonconfined and cooling spray. This configuration was adopted because it allows the study of the vaporization with a reduced influence from the gaseous phase. For a bi-component liquid, the effect of the composition variation on the GRR measurements was analysed within a coupling between the experimental technique and the numerical simulation. In the second part, experimental investigations and numerical simulation were performed for a more complex configuration that consists in a spray evolving in a heated and confined medium. The gaseous phase was computed with a LES approach while the dispersed phase, always mono-component, was solved with a Lagrangian tracking approach. The unsteady nature of the flow was demonstrated and the interest of the GRR technique for the droplets temperature measurement was proved
APA, Harvard, Vancouver, ISO, and other styles
42

SALINAS, VAZQUEZ MARTIN. "Simulation des grandes échelles d'écoulements dans les canaux de refroidissement de moteur fusée." Grenoble INPG, 1999. http://www.theses.fr/1999INPG0185.

Full text
Abstract:
On presente des resultats de simulation des grandes echelles appliquee aux ecoulements turbulents compressibles sur une paroi chauffee. On se concentre principalement sur les ecoulements dans les conduits de section carree ou rectangulaire. On considere successivement le cas ou les quatre parois du conduit sont a la meme temperature et le cas ou une temperature plus elevee est imposee sur l'une des parois. De facon a pouvoir simuler ces ecoulements en conduit avec fort flux de chaleur, le travail a tout d'abord consiste en le developpement d'un code de calcul simulant les equations de navier-stokes compressibles tridimensionnelles base sur des coordonnees curvilignes dans les trois directions d'espace. Une des caracteristiques de l'ecoulement moyen dans les conduits carres ou rectangulaires est l'apparition de flux secondaire correspondant a une vitesse moyenne transverse a l'ecoulement de base. Meme si l'intensite de ces flux reste faible, ces derniers jouent un role primordial dans la dynamique de l'ecoulement. On observe egalement sur les contraintes de reynolds une dissymetrie sur les contraintes normales et la generation de contraintes tangentielles secondaires. L'imposition du chauffage a une forte influence sur les mecanismes d'ejections a partir de la paroi chauffee. De forts flux secondaires sont associes a un transport de fluide froid du centre du canal vers la paroi chauffee qui, par des mecanismes d'expansion, implique une intensification des ejections qui se concentrent au voisinage du plan median de la paroi chauffee. Les ejections sont associees a la formation de point d'inflexion generalise qui par instabilite donne naissance a des tourbillons en epingle a cheveux sont etires par l'ecoulement moyen et qui sont concentres autour du plan median. L'ejection transporte du fluide chaud vers le centre du conduit, tandis que les flux secondaires injectent eux, vers la paroi chaude, du fluide froid provenant de la partie centrale du conduit. L'interaction entre ces gaz a differentes temperatures est a l'origine d'importants phenomenes de transfert de chaleur. Finalement, on a fait une simulation des grandes echelles d'un conduit carre dans lequel l'ecoulement se developpe spatialement. La condition d'entree est generee par un calcul temporel, qui presente l'avantage d'une entree realiste possible avec des structures turbulentes developpees. Meme s'il existe encore certains problemes de conditions de frontiere, ce type de calculs nous a permis d'observer l'effet sur la turbulence d'un flux de chaleur qui est allume dans un endroit donne.
APA, Harvard, Vancouver, ISO, and other styles
43

Latif, Imran. "Méthodologies pour l'évaluation de performance système à grand échelle avec applications au système LTE." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0044/document.

Full text
Abstract:
L'objectif de cette thèse est de souligner l'importance de l'abstraction de la couche physique (PHY abstraction) dans l'évaluation des systèmes LTE (Long Term Evolution). Cette thèse propose une approche pragmatique pour l'utilisation de PHY abstraction dans les simulateurs des systèmes LTE. PHY abstraction est un outil très important pour l'évaluation des systèmes LTE à grande échelle car il est efficace, pratique et à complexité réduite . Dans cette thèse, nous prouvons que, à part son objectif principal et qui consiste à fournir un indicateur instantané de la qualité de liaison pour l'évaluation du système, le PHY abstraction peut aussi: améliorer le feedback de l'indicateur sur la qualité de canal (CQI) en se basant sur les différentes configurations d'antennes, et la prédiction de la performance des réseaux LTE en se basant sur des mesures de canal réelles. Cette thèse est principalement divisée en deux parties: méthodologies et applications. La première partie présente la conception complète et la méthodologie de validation des systèmes de captage PHY pour différentes configurations d'antennes correspondant à des différentes modes de transmissions en LTE. La validation est effectuée en utilisant des simulateurs de niveau de liaison. Nous soulignons aussi les astuces de calibrage nécessaires pour que la production PHY soit précise dans la prédiction de la performance de capacité réalisant turbo-codes
The main focus of this thesis is to highlight the importance of PHY abstraction for the system level evaluations in the framework of 3GPP Long Term Evolution (LTE) networks. This thesis presents a pragmatic approach towards the use of PHY abstraction in LTE based system level simulators. PHY abstraction is an extremely valuable low complexity tool for efficient and realistic large scale system evaluations. This thesis shows that apart from the primary purpose of PHY abstraction of providing instantaneous link quality indicator for the purpose of system level evaluations, it can be further used for an improved channel quality indicator (CQI) feedback based on the different antenna configurations and for the performance prediction of LTE networks based on the real life channel measurements. This thesis is mainly divided into two parts; methodologies and applications. The first part presents the complete design and validation methodology of PHY abstraction schemes for various antennaconfigurations corresponding to different transmission modes in LTE. The validation is performed using link level simulators and it also highlights the calibration issues necessary for the PHY abstraction to be accurate in predicting the performance of capacity achieving turbo codes
APA, Harvard, Vancouver, ISO, and other styles
44

Ferrigno, Julie. "Caractérisation de circuits intégrés par émission de lumière statique et dynamique." Thesis, Bordeaux 1, 2008. http://www.theses.fr/2008BOR13719/document.

Full text
Abstract:
Les circuits VLSI (”Very Large Scale Integration”) et ULSI (”Ultra Large Scale Integration”) occupent une grande place dans le monde des semi-conducteurs. Leur complexi?cation croissante est due à la demande de plus en plus fortes des grands domaines d’application, de la micro-informatique au spatial. Cependant, la complexité engendre de nombreux défauts que l’on doit prévoir ou détecter et analyser de manière à ne pas les voir se multiplier. De nombreuses techniques d’analyse de défaillance ont été développées et sont toujours largement utilisées dans les laboratoires. Cependant, nous nous sommes attachés à intégrer une nouvelle approche au processus de défaillance : la simulation de fautes dans les circuits VLSI et ULSI de technologie CMOS. Ce type d’approche permet d’aborder une analyse plus rapidement plus facilement, mais joue également un rôle prédictif de défaut dans les structures de transistors MOS
VLSI (”Very Large Scale Integration”) et ULSI (”Ultra Large Scale Integration”) take the most important place in semi-conductor domain. Their complexi?cation is growing and is due to the bigger and bigger request from the manufacturers such as automotive domain or space application. However, this complexicity generates a lot of defects inside the components. We need to predict or to detect and analyze these defects in order to stop these phenomena. Lot of failure analyzis techniques were developped inside the laboratories and are still used. Nevertheless, we developped a new approach for failure analysis process : the faults simulation for CMOS integrated circuits. This particular kind of approach allows us to reach the analysis in more e?ective and easier way than usual. But the simulations play a predictive role for structures of MOS transistors
APA, Harvard, Vancouver, ISO, and other styles
45

Trombini, Marion. "Couplage endommagement-grandes déformations dans une modélisation multi-échelle pour composites particulaires fortement chargés." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2015. http://www.theses.fr/2015ESMA0002/document.

Full text
Abstract:
Cette thèse traite de la modélisation multi-échelle de composites particulaires fortement chargés. La méthode d’estimation, qualifiée d’“Approche Morphologique” (A.M.), repose sur une double schématisation géométrique et cinématique du composite permettant de fournir la réponse aux deux échelles. Afin d’évaluer les capacités prédictives de l’A.M. en élasticité linéaire avec évolution de l’endommagement, l’A.M. est testée vis-à-vis de ses aptitudes à rendre compte des effets de taille et d’interaction de particules sur la chronologie de décohésion. Pour cela, différentes microstructures périodiques simples, aléatoires monomodales et bimodale générées numériquement sont considérées. Les résultats obtenus sont cohérents avec les données de la littérature : la décohésion des grosses particules précède celle des plus petites et est d’autant plus précoce que le taux de charges est important. Puis, l’objectif est de coupler deux non-linéarités traitées séparément dans deux versions antérieures de l’A.M : l’endommagement par décohésion charges/matrice et les grandes déformations. La formulation du problème de localisation-homogénéisation est reprise à la source de manière analytique. Le critère de nucléation de défauts est étendu en transformations finies. Le problème obtenu, fortement non-linéaire, est résolu numériquement via un algorithme de Newton-Raphson. Les étapes sous-jacentes à la résolution (calcul de la matrice tangente, codage en langage Python®) sont explicitées. Des évaluations progressives (matériaux sain et endommagé)permettent de valider la mise en oeuvre numérique. Les effets de taille et d’interaction sont alors restitués en transformations finies
This study is devoted to multi-scale modeling of highly-filled particulate composites.This method, the “Morphological Approach” (M.A.), is based on a geometrical and kinematicalschematization which allows the access to both local fields and homogenized response. In order toevaluate the predictive capacities of the M.A. considering a linear elastic behavior for the constituentsand evolution of damage, analysis is performed regarding the ability of the M.A. to accountfor particle size and interaction effects on debonding chronology. For that purpose, simple periodic,random monomodal and bimodal microstructures are considered. The results are consistent withliterature data : debonding of large particles occurs before the one of smaller particles and thehigher the particle volume fraction, the sooner the debonding. Finally, the objective is to operatethe coupling of two non linearities which were separately studied in previous versions of the M.A. :debonding between particles and matrix, and finite strains. The whole analytical background of theapproach is reconsidered in order to define the localization-homogenization problem. The nucleationcriterion is extended to the finite strains context. The final problem, strongly non linear, is numericallysolved through a Newton-Raphson algorithm. The different solving steps (jacobian matrix,coding with Python®) are developed. Progressive evaluations (sound and damage materials) allowthe validation of numerical implementation. Then, size and interaction effects are reproduced infinite strains
APA, Harvard, Vancouver, ISO, and other styles
46

Robert, Michel. "Contribution au développement du compilateur structurel P. R. I. N. T : algorithmes d'évaluation des performances temporelles des structures CMOS." Montpellier 2, 1987. http://www.theses.fr/1987MON20219.

Full text
Abstract:
Dans le cadre du developpement d'un compilateur structurel (print), les algorithmes d'evaluation des performances temporelles des chemins de donnees de structures cmos sont presentes et valides. La mise en evidence, dans la formulation obtenue, des parametres technologiques, environnementaux et structurels a permis de definir des regles de choix structurels a priori, ainsi que les premiers criteres d'optimisation. Un exemple d'application de la methodologie de compilation a la realisation d'un circuit integre specifique, est donne
APA, Harvard, Vancouver, ISO, and other styles
47

Tahawy, Hazem el. "FIDEL un langage de description et de simulation des circuits VLSI /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37610093d.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Rosdahl, Karl Joakim. "Cosmological RHD simulations of early galaxy formation." Thesis, Lyon 1, 2012. http://www.theses.fr/2012LYO10075/document.

Full text
Abstract:
Avec l’essor actuel de la sophistication et de l’efficacité des codes de cosmologie hydrodynamique,il est devenu possible d’inclure le transfert radiatif (RT) des photons ionisants dansles simulations cosmologiques, soit en post-traitement, soit en simulations couplées rayonnement+hydrodynamique (RHD). Malgré de nombreux obstacles, il y a eu cette derniéredécennie beaucoup de recherches menées sur les différentes stratégies et implémentations,dû au fait qu’un nombre de problèmes intéressants peuvent être désormais abordés par laRT et RHD, par exemple comment et quand l’Univers s’est réionisé, comment l’émissionradiative des étoiles et des noyaux actifs de galaxies se comportent pour réguler la formationdes structures à des échelles petites et grandes, et quelles prédictions et interprétationsnous pouvons faire des phénomènes observés, tels que la forêt Lyman-alpha et des sourcesdiffuses de rayonnement.Cela coïncide avec l’avènement du télescope spatial James Webb (JWST) et d’autresinstruments de pointe qui sont sur le point de nous donner un aperçu sans précédent sur lafin des âges sombres de l’Univers, quand le cosmos est passé d’un état froid et neutre à unétat chaud et ionisé, à la suite de l’apparition des sources radiatives.Notre préoccupation principale étant les rétroactions radiatives des premieres structures,nous avons mis en place une version RHD du code cosmologique Ramses, que nous appelonsRamsesRT, basée sur la méthode des moments. Ce code nous permet d’étudier les effets durayonnement ionisant dans les simulations cosmologiques RHD qui tirent pleinement profitdes stratégies de raffinement adaptif de grille et de parallélisation de Ramses. Pour rendreauto-cohérent le RHD nous avons également mis en oeuvre une thermochimie hors-équilibreincluant des espèces de l’Hydrogène et de l’Hélium qui interagissent avec le rayonnementtransporté.Je présente dans cette thèse une description détaillée de RamsesRT et de nombreux testscontribuant à sa validation.Jusqu’à présent nous avons utilisé RamsesRT pour étudier l’émission Lyman-alpha decourants d’accrétion, qui sont prédits à grand redshift par les simulations cosmologiques,mais n’ont jamais été clairement identifiés par les observations. Nous avons également étudiéle chauffage gravitationnel dans ces courants pour déterminer si ce dernier pouvait être lasource motrice principale des Lyman-alpha blobs, un phénomène observé qui a été beaucoupétudié et débattu au cours de la dernière décennie. Cet étudie nous permet de conclure queles Lyman-alpha blobs peuvent, en principe, être alimentés par le chauffage gravitationnel,et que d’autre part, les courants d’accrétion sont sur le point d’être directement détectablesavec des instruments à venir.Mes intentions futures sont d’utiliser RamsesRT dans les simulations cosmologiques àhaute résolution, de la formation des premiéres galaxies jusqu’à l’époque de la réionisation,et ainsi étudier comment la rétroaction radiative affecte la formation et l’évolution de cesgalaxies et de faire des prévisions d’observation qui peuvent être testées avec des instrumentssophistiqués tels que le JWST
With the increasing sophistication and efficiency of cosmological hydrodynamics codes, ithas become viable to include ionizing radiative transfer (RT) in cosmological simulations,either in post-processing or in full-blown radiation-hydrodynamics (RHD) simulations. Inspite of the many hurdles involved, there has been much activity during the last decade or soon different strategies and implementations, because a number of interesting problems canbe addressed with RT and RHD, e.g. how and when the Universe became reionized, howradiation from stars and active galactic nuclei plays a part in regulating structure formationon small and large scales, and what predictions and interpretations we can make of observedphenomena such as the Lyman-alpha forest and diffuse sources of radiation.This coincides with the advent of the James Webb space telescope (JWST) and otherstate-of-the-art instruments which are about to give us an unprecedented glimpse into theend of the dark ages of the Universe, when the cosmos switched from a cold and neutralstate to a hot and ionized one, due to the turn-on of ionizing radiative sources.With a primary interest in the problem of radiative feedback in early structure formation,we have implemented an RHD version of the Ramses cosmological code we call RamsesRT,which is moment based and employs the local M1 Eddington tensor closure. This code allowsus to study the effects of ionizing radiation on-the-fly in cosmological RHD simulationsthat take full advantage of the adaptive mesh refinement and parallelization strategies ofRamses. For self-consistent RHD we have also implemented a non-equilibrium chemistry ofthe atomic hydrogen and helium species that interact with the transported radiation.I present in this thesis an extensive description of the RamsesRT implementation andnumerous tests to validate it.Thus far we have used the RHD implementation to study extended line emission fromaccretion streams, which are routinely predicted to exist at early redshift by cosmologicalsimulations but have never been unambiguously verified by observations, and to investigatewhether gravitational heating in those streams could be the dominant power source ofso-called Lyman-alpha blobs, an observed phenomenon which has been much studied anddebated during the last decade or two. Our conclusions from this investigation are thatLyman-alpha blobs can in principle be powered by gravitational heating, and furthermorethat accretion streams are on the verge of being directly detectable for the first time withupcoming instruments.My future intent is to use RamsesRT for high-resolution cosmological zoom simulations ofearly galaxy formation, up to the epoch of reionization, to study how radiative feedbackaffects the formation and evolution of those galaxies and to make observational predictionsthat can be tested with upcoming instruments such as the JWST
APA, Harvard, Vancouver, ISO, and other styles
49

Ruiz, Anthony. "Unsteady Numerical Simulations of Transcritical Turbulent Combustion in Liquid Rocket Engines." Thesis, Toulouse, INPT, 2012. http://www.theses.fr/2012INPT0009/document.

Full text
Abstract:
Ces cinquantes dernières années, la majorité des paramètres de conception des moteurs cryotechniques ont été ajustés en l'absence d'une compréhension détaillée des phénomènes de combustion, en raison des limites des diagnostiques expérimentaux et des capacités de calcul. L'objectif de cette thèse est de réaliser des simulations numériques instationnaires d'écoulements réactifs transcritiques de haute fidélité, pour permettre une meilleure compréhension de la dynamique de flamme dans les moteurs cryotechniques et finalement guider leur amélioration. Dans un premier temps, la thermodynamique gaz-réel et son impact sur les schémas numériques sont présentés. Comme la Simulation aux Grandes Echelles (SGE) comporte des équations filtrées, les effets de filtrages induits par la thermodynamique gaz-réel sont ensuite mis en évidence dans une configuration transcritique type et un opérateur de diffusion artificiel, spécifique au gaz réel, est proposé pour lisser les gradients transcritiques en SGE. Dans un deuxième temps, une étude fondamentale du mélange turbulent et de la combustion dans la zone proche-injecteur des moteurs cryotechniques est menée grâce à la Simulation Numérique Directe (SND). Dans le cas non-réactif, les lâchers tourbillonnaires dans le sillage de la lèvre de l’injecteur jouent un rôle majeur dans le mélange turbulent et provoquent la formation de structures en peigne déjà observées expérimentalement dans des conditions similaires. Dans le cas réactif, la flamme reste attachée à la lèvre de l'injecteur, sans extinction locale, et les structures en peigne disparaissent. La structure de flamme est analysée et différents modes de combustion sont identifiés. Enfin, une étude de flamme-jet transcritique H2/O2, accrochée à un injecteur coaxial avec et sans retrait interne, est menée. Les résultats numériques sont d'abord validés par des données expérimentales pour l'injecteur sans retrait. Ensuite, la configuration avec retrait est comparée à la solution de référence sans retrait et à des données experimentales pour observer les effets de ce paramètre de conception sur l'efficacité de combustion
In the past fifty years, most design parameters of the combustion chamber of Liquid Rocket Engines (LREs) have been adjusted without a detailed understanding of combustion phenomena, because of both limited experimental diagnostics and numerical capabilities. The objective of the present thesis work is to conduct high-fidelity unsteady numerical simulations of transcritical reacting flows, in order to improve the understanding of flame dynamics in LRE, and eventually provide guidelines for their improvement. First real-gas thermodynamics and its impact on numerical schemes are presented. As Large-Eddy Simulation (LES) involves filtered equations, the filtering effects induced by real-gas thermodynamics are then highlighted in a typical 1D transcritical configuration and a specific real-gas artificial dissipation is proposed to smooth transcritical density gradients in LES. Then, a Direct Numerical Simulation (DNS) study of turbulent mixing and combustion in the near-injector region of LREs is conducted. In the non-reacting case, vortex shedding in the wake of the lip of the injector is shown to play a major role in turbulent mixing, and induces the formation of finger-like structures as observed experimentally in similar operating conditions. In the reacting case, the flame is attached to the injector rim without local extinction and the finger-like structures disappear. The flame structure is analyzed and various combustion modes are identified. Finally, a LES study of a transcritical H2/O2 jet flame, issuing from a coaxial injector with and without inner recess, is conducted. Numerical results are first validated against experimental data for the injector without recess. Then, the recessed configuration is compared to the reference solution and to experimental results, to scrutinize the effects of this design parameter on combustion efficiency
APA, Harvard, Vancouver, ISO, and other styles
50

Moule, Yann. "Modélisation et Simulation de la Combustion dans les Écoulements Rapides. Applications aux Superstatoréacteurs." Phd thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2013. http://tel.archives-ouvertes.fr/docs/00/80/22/65/PDF/These_MOULE_2013.pdf.

Full text
Abstract:
Dans le domaine des systèmes propulsifs, le statoréacteur classique possède de bonnes performances propulsives. Néanmoins, celles-ci se dégradent notablement lorsque les valeurs du nombre de Mach augmentent. Dans le régime hypersonique (au-delà de Mach 6), l'utilisation d'un statoréacteur à combustion supersonique, ou superstatoréacteur, doit permettre de surmonter ces difficultés. La simulation numérique est un des moyens d'étude de la combustion dans ces régimes d'écoulements rapides. Elle doit alors être capable de restituer des effets spécifiques aux écoulements à grand nombre de Mach, pour lesquels les temps caractéristiques chimiques et de mélange aux petites échelles peuvent être du même ordre de grandeur. Ce travail de thèse est consacré à l'amélioration des outils de simulation de la combustion dans les écoulements rapides en prenant en compte les effets de chimie finie et de micro-mélange sur la base d'une approche de réacteur partiellement prémélangé. La modélisation UPaSR ainsi proposée est validée sur la base du calcul d'une flamme jet supersonique. Les simulations numériques correspondantes conduisent à des résultats encourageants qui confirment l'importance, pour ce type de conditions, des effets cinétiques d'une part, et des effets compressibles d'autre part. Enfin, le modèle UPaSR est appliqué à l'analyse d'une configuration plus complexe de superstatoréacteur (RESTM12) étudiée expérimentalement à l'Université du Queensland. Deux méthodes différentes sont utilisées et comparées afin d'obtenir les principaux indices de performance
Classical ramjet engines feature high propulsive performances but drastically decreasing for increasing values of the flight Mach number. In the hypersonic regime (above Mach 6), the use of a supersonic combustion ramjet - a. K. A scramjet - may remedy this limitation. Computational fluid dynamics is one of the tools used for the study of such high-speed turbulent reactive flows. It must take into account the specificities of high Mach number reactive flows, which feature chemical reaction time scales with the same order of magnitude as flow time scales. The present study focuses on the improvement of a CFD tool by taking finite-rate chemistry and micro-mixing effects into account within the framework of the partially stirred reactor concept. In a first step of the validation procedure, the UPaSR closure hence proposed is applied to the numerical simulation of supersonic reactive co-flowing jets. The corresponding numerical results proved to be very encouraging, confirming the essential influence of both finite-rate chemical kinetics and compressibility effects for such conditions. Finally, the UPaSR closure is retained to analyse a full-scale scramjet geometry (RESTM12) experimentally studied at the University of Queensland. Two different approaches are applied and compared to evaluate the main performance indices
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography