Dissertations / Theses on the topic 'Climat – Simulation par ordinateur'

To see the other types of publications on this topic, follow the link: Climat – Simulation par ordinateur.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Climat – Simulation par ordinateur.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Labarre, Vincent. "Représentation des processus sous-mailles dans les modèles simplifiés de climat : maximisation de la production d'entropie et modélisation stochastique." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASJ001.

Full text
Abstract:
Comme tout modèle numérique, les modèles usuellement utilisés pour simuler le système climatique ont une résolution finie, liée à la taille des mailles de la grille sur laquelle on intègre les équations du modèle. Pour une grande partie des problèmes soulevés en climatologie, la taille des mailles reste, et restera sûrement, bien supérieure à la plus petite échelle nécessaire pour l'intégration des équations. Ce problème apparaît en particulier dans la représentation des plus petits tourbillons des écoulements atmosphériques et océaniques. Pour corriger les effets indésirables liés au manque de résolution, il faut introduire un modèle qui représente les phénomènes sous-mailles. Les approches usuelles introduisent généralement des paramètres qui sont difficiles à calibrer dans le contexte de l'étude du climat, et ne parviennent pas toujours à être en accord avec les observations. Une des questions centrales de la simulation numérique du système climatique est donc de trouver la(es) bonne(s) méthode(s) de modélisation sous-maille. On envisage ici deux approches pour tenter de résoudre ce problème.La première est la construction de modèles simplifiés de climat basés sur le bilan d'énergie et la Maximisation de Production d'Entropie (MEP) en hypothèse de fermeture. Cette approche présente la particularité de ne pas introduire de paramètres supplémentaires pour les processus représentés par MEP. On montre qu'une description minimale de la dynamique dans un modèle radiatif-convectif utilisant l'hypothèse MEP permet de représenter les aspects les plus importants de la convection atmosphérique. Le formalisme de MEP est étendu pour représenter des problèmes dépendant du temps en appliquant cette hypothèse uniquement aux composantes rapides du système. Ce résultat ouvre la perspective d'utilisation de MEP dans des modèles simplifiés du cycle saisonnier.La seconde approche consiste à mettre en oeuvre une méthode d'analyse et de modélisation sous-maille dans un système simple : un gaz sur réseaux diffusif. La variation temporelle du flux de particules à gros-grain à différentes échelles est analysée avant d'être représentée par des méthodes de physique statistique. Le modèle sous-maille, construit sans ajout de paramètre supplémentaire, est basé sur une équation de relaxation stochastique locale du courant de particule. La méthode d'analyse est ensuite employée pour étudier la dynamique de la vorticité dans l'écoulement de Von-Karman
Like any numerical model, the models usually used to simulate the climate system have a finite resolution, linked to the size of the grid cells on which the model equations are integrated. For a large part of the problems raised in climatology, the mesh size remains, and will surely remain, much larger than the smallest scale necessary for the integration of the equations. This problem appears in particular in the representation of the smallest vortices of atmospheric and oceanic flows. To correct the undesirable effects linked to the lack of resolution, it is necessary to introduce a model for the sub-grid phenomena. The usual approaches generally introduce parameters which are difficult to calibrate in the context of the study of the climate and do not always manage to agree with the observations. One of the central questions of the numerical simulation of the climate system is therefore to find the right sub-grid modeling method(s). Two approaches are investigated to resolve this problem.The first is the construction of simplified climate models based on the energy balance and the Maximization of Entropy Production (MEP) as the closure hypothesis. This approach has the particularity to not introduce additional parameters to represent the processes modeled with MEP. We show that a minimal description of the dynamics in a radiative-convective model using the MEP hypothesis allows us to represent the most important aspects of atmospheric convection. The MEP hypothesis is extended to represent time-dependent problems by applying this hypothesis only to the fast components of a system. This result opens the possibility of using this type of model to represent the seasonal cycle.The second approach consists in implementing a sub-grid analysis and modeling method in a simple system: a diffusive lattice-gas. The temporal variation of the coarse-grained flow of particles at different scales is analyzed before being modeled by statistical physics methods. The sub-grid model, constructed without adding any additional parameters, is based on a local stochastic relaxation equation of the particle current. The analysis method is then used to study the dynamics of vorticity in the Von-Karman flow
APA, Harvard, Vancouver, ISO, and other styles
2

Houmed-Gaba, Abdourahman. "Hydrogéologie des milieux volcaniques sous climat aride : caractérisation sur site expérimental et modélisation numérique de l'aquifère basaltique de Djibouti (Corne de l'Afrique)." Poitiers, 2009. http://www.theses.fr/2009POIT2266.

Full text
Abstract:
L'aquifère de Djibouti est formé par des basaltes fissurés et des scories datés de 1 à 9 Ma, intercalés des niveaux sédimentaires. Il est localisé en zone côtière sous un climat semi-aride. Cet aquifère revêt une importance capitale pour la ville de Djibouti qui exploite cette ressource à hauteur de 15 Millions de m3/an. Un Site Expérimental Hydrogéologique constitué de 11 forages repartis sur 1 hectare, a été implanté. Les logs de conductivités électriques des forages ont montré un niveau d'eau douce superficiel surmontant un niveau d'eau saumâtre. La lithologie a montré des scories surmontées par des basaltes. Les slug tests effectués sur les basaltes fissurés ont été interprétés à l'aide des solutions de Hvorslev (1951) et Bouwer & Rice (1976). Des perméabilités très faibles de 10-8 m/s ont été obtenues. Les pompages d'essais exécutés sur des scories ont donné des perméabilités très élevées de l'ordre de 10-2 m/s. Au niveau du SEH, les scories se comportent comme un milieu semi-captif avec une drainance à partir des basaltes, conformément au modèle de Hantush-Jacob (1955). Les résultats des analyses chimiques des eaux de l'aquifère, traités par des outils de classification statistique (analyses factorielle de correspondances) ont montré trois types d'eau : le type chloruré, le type sulfaté et le type bicarbonaté. Un modèle numérique de l'aquifère, en régime permanent a été élaboré par la méthode des points pilotes combinée aux fonctionnalités de paramétrisation non-linéaire et de régularisation du logiciel d'inversion PEST. Les résultats du modèle montrent que l'exploitation de cet aquifère a atteint une limite cruciale
The Djibouti aquifer is constituted by fractured basalts and scoria of 1 to 9My old, intercalated by sediments layers. It is localised in a coastal area under semi-arid conditions. This aquifer is exploited over 15 millions m3/year for Djibouti town water supply. A hydrogeological research site which includes by now 11 wells was set up on the aquifer, over 1 hectare area. Lithological logs of the wells show scoria underlying fractured basalt. Electrical conductivity profiles performed on the research site wells show fresh groundwater overlying at places brackish water. Slug tests were conducted on the fractured basalts, using Hvorslev (1951) and Bouwer & Rice (1976) solutions. Long term pumping tests were conducted to characterise the scoria. An estimation of the average hydraulic conductivity is thus obtained for the fractured basalts (K=10-8m/s) and for the scoria (K=10-2m/s). The long term tests have been interpreted using the semi-confined Hantush-Jacob model (1955) which showed that the scorias are under leaky conditions. The chemical analyses results, using multivariate statistical tools (factorial analysis) show three types of water, chloride water, sulphate group and bicarbonate type. A numerical modelling is elaborated using the pilot points methodology in conjunction with the PEST non-linear parameter estimation and regularisation functionality. The water balance showed that the exploitation of this aquifer has reached a crucial limit and cannot be increased without serious risks of degrading its resources
APA, Harvard, Vancouver, ISO, and other styles
3

Prianto, Eddy. "Modélisation des écoulements et analyse architecturale de performances de l'espace habitable en climat tropical humide." Nantes, 2002. http://www.theses.fr/2002NANT2037.

Full text
Abstract:
La compréhension de la relation entre l'architecture et l'ambiance a montré que la connaissance du climat n'est pas seulement du ressort des climatologues. Construire avec le climat n'est pas une idée véritablement nouvelle et le rôle important du climat dans l'architecture impose sa prise en considération dans la conception architecturale. En climat tropical humide, la climatisation naturelle de l'habitat constitue la solution la plus fiable et la plus économique pour améliorer le confort. Du point de vue de la problématique architecturale, on peut souvent utiliser la ventilation naturelle de façon optimale pour assurer le confort de l'occupant. Dans cette étude nous avons utilisé le type de modélisation dite phénoménologique (N3S) pour constituer une base de données sur l'influence des paramètres architecturaux sur le coefficient de la vitesse de l'air intérieur (Cv) et la sensation du confort thermique à l'intérieur en région tropicale humide (PMV*). . .
APA, Harvard, Vancouver, ISO, and other styles
4

Bossuet, Cécile. "Étude du transport vertical de quantité de mouvement dans le modèle troposphérique-stratosphérique ARPEGE-climat." Toulouse, INPT, 1998. http://www.theses.fr/1998INPT004H.

Full text
Abstract:
L'objet de cette thèse porte sur les transports verticaux de quantité de mouvement dans le modèle de circulation générale de Météo-France ARPEGE-climat. [. . . ] L'analyse de la climatologie du modèle ARPEGE-climat met en évidence quelques biais systématiques dont les plus significatifs sont : une circulation excessivement zonale, une circulation d'Est à l'équateur trop importante, un transfert vertical d'humidité trop faible dans les basses couches. Dans un premier temps, nous étudions le transfert vertical de quantité de mouvement par les ondes de gravité excitées par les mouvements convectifs de petites échelles. Processus qui est negligé dans les modèles de circulation générale, bien que son importance dans les zones de fortes activités convectives (équateur, tropiques) soit maintenant reconnue. La paramétrisation du déferlement des d'ondes de gravité convectives proposée suit la même méthode linéaire que celle appliquée aux ondes de gravité orographiques, qui est dans un premier temps exposée. L'introduction de cette paramétrisation permet de réduire le biais d'Est à l'équateur. [. . . ] Puis nous nous sommes intéressés au point de vue dynamique en étudiant l'influence de la résolution verticale sur cette nouvelle paramétrisation. [. . . ] Un passage de 31 à 41 niveaux verticaux représente un bon compromis [. . . ] Différentes résolutions verticales sont considérées, de façon à privilégier soit la troposphère, soit la stratosphère. Cette étude est menée d'abord pour un traitement eulérien des équations primitives et montre, par une faible sensibilité, la robustesse des paramétrisations. [. . . ] Dans le cadre semi-lagrangien, le modèle se révèle plus sensible à la résolution verticale. [. . . ] Puis nous nous concentrons sur la couche planétaire où les transports verticaux de quantité de mouvement sont assurés par la turbulence. Un nouveau schéma de diffusion verticale, issu de la méso-échelle, prenant en compte l'énergie cinétique turbulente, est appliquée au modèle global ARPEGE-climat. [. . . ] Les résultats sont encourageants, avec une augmentation des échanges verticaux dans les basses couches.
APA, Harvard, Vancouver, ISO, and other styles
5

Nahon, Raphaël. "Modélisation des échanges radiatifs à l'échelle urbaine pour un urbanisme bioclimatique." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10130/document.

Full text
Abstract:
L’objectif de cette thèse est de permettre une meilleure évaluation du bioclimatisme d’un projet d’aménagement urbain dès les premières étapes de la conception: de sa capacité à capter la lumière naturelle à l’intérieur des bâtiments, de l’efficacité énergétique de ces derniers et du confort thermique des espaces extérieurs. Une première esquisse de la géométrie extérieure d’un projet est proposée dès la phase concours, dans le plan masse. A ce stade, les bâtiments sont généralement assimilés à des prismes droits, avec éventuellement des toitures inclinées. Les détails architecturaux tels que la forme et la position des fenêtres, le cloisonnement intérieur ou la composition des parois ne sont pas définis, et il est donc impossible de modéliser l’éclairage naturel à l’intérieur des locaux ou encore le comportement thermique des enveloppes dans le plan masse. Nous montrons qu’il est toutefois possible d’identifier dès cette étape les sources de rayonnement extérieures les plus favorables au bioclimatisme des bâtiments. Nous introduisons notamment les notions de luminances utiles et suffisantes, qui traduisent la part d’une année pour laquelle une source de lumière permet un éclairement adapté à l’intérieur des locaux, et de températures radiantes, qui traduisent l’impact des sources de rayonnement de grandes et courtes longueurs d’ondes sur le réchauffement des surfaces et le confort thermique extérieur. Nous analysons leur distribution sur la voûte céleste et mettons en évidence sa variabilité sous différents climats. L’objectif final de ce travail est de proposer un outil de modélisation à même de guider les aménageurs dans leur recherche de formes urbaines bioclimatiques, dès le plan masse
The main objective of this work is to evaluate the bioclimatism of an urban project at its early stages: its capacity to harness daylight, the energy efficiency of the projected building and the thermal comfort of the outdoor environment. A first proposal for the exterior geometry is made in the mass plan. At this stage, buildings are commonly represented as mass blocks. Architectural details, such as windows shapes, interior coatings or wall composition are not defined, and daylighting inside the buildings or thermal behavior of their envelope are impossible to model. Nevertheless, we show that it is possible to evaluate as soon as in the mass plan the impact of the exterior radiative sources on the bioclimatism of the project. The concepts of sufficient and useful luminances and radiant temperatures are introduced. The first two criteria traduce the percentage of the year in which an outside luminous source induces a convenient illuminance inside the buildings; the third one traduces the impact of an outside radiative source on the heating and cooling of the outside surfaces and the outdoor thermal comfort. We analyze their distribution on the sky vault and highlight its variability under different climates. The final objective of this thesis is to propose a software likely to lead the urban planners in their search of bioclimatic urban forms: ensuring daylight access inside the buildings, energy efficiency and outdoor thermal comfort
APA, Harvard, Vancouver, ISO, and other styles
6

Touzé-Peiffer, Ludovic. "Paramétrisation de la convection atmosphérique dans les modèles numériques de climat - Pratiques et enjeux épistémologiques." Electronic Thesis or Diss., Sorbonne université, 2021. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2021SORUS539.pdf.

Full text
Abstract:
Historiquement, les modèles de circulation générale ont joué un rôle crucial pour avertir les décideurs et le grand public des changements climatiques à venir. Pourtant, depuis quelques années, des débats agitent la communauté scientifique sur le paradigme dominant sur lequel ont été développés de tels modèles: en particulier, les paramétrisations, censées représentées l'ensemble des processus pertinents pour le climat qui ne sont pas résolus à l'échelle de la grille des modèles, sont parfois remises en cause. L'objectif de notre travail de thèse est de mener une analyse épistémologique des paramétrisations, en nous centrant tout particulièrement sur les paramétrisations utilisées pour modéliser la convection atmosphérique. Ces dernières reposent parfois sur la distinction entre un environnement et certaines structures atmosphériques cohérentes que nous appellerons “objets”. Nous nous intéressons tout d'abord à l'utilisation de tels objets en sciences de l'atmosphère et à leur rôle dans notre compréhension de la convection. Nous étudions ensuite les paramétrisations en elles-mêmes, et expliquons dans quel contexte elles sont apparues, quelles furent leurs motivations historiques, et comment il est possible de justifier et d'interpréter aujourd'hui leur formalisme. Nous nous interrogeons également sur le statut et le rôle de l'ajustement des paramètres libres contenus dans les paramétrisations. Nous étendons enfin notre réflexion à la comparaison de plusieurs modèles de circulation générale dans le cadre du projet d'intercomparaison de modèles couplés CMIP. Le rôle historique et les effets structurels que CMIP a eu sur les recherches en sciences du climat sont analysés
Historically, general circulation models have played a crucial role in warning policy makers and the general public of future climate change. However, in recent years, there has been a growing debate in the scientific community about the dominant paradigm on which these models have been developed: in particular, parameterizations, which are supposed to represent climate-relevant processes that are not resolved at the scale of the model grid, are sometimes questioned. The objective of our thesis is to conduct an epistemological analysis of parameterizations, focusing on the parameterizations used to represent atmospheric convection. The latter are sometimes based on the distinction between an environment and certain coherent atmospheric structures that we will call ``objects". We first look at the use of such objects in atmospheric science and at their role in our understanding of convection. We then focus on parametrizations themselves, and explain in which context convective parameterizations emerged, what were their historical motivations and how their formalism can be interpreted and justified today. We also question the status and the role of the tuning of free parameters contained in parameterizations. Finally, we expand our reflection to the comparison of several general circulation models in the Coupled Model Intercomparison Project (CMIP). The historical role and structural effects CMIP has had on climate research are analyzed
APA, Harvard, Vancouver, ISO, and other styles
7

Niane, Papa Massar. "Modélisation de la méningite bactérienne dans l'interface Environnement-Climat-Société par approche multi-agents : cas d'application au Sénégal." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS535.

Full text
Abstract:
La méningite bactérienne présente un réel défi de modélisation pour la communauté scientifique en raison de son caractère multiscalaire, des facteurs de différentes natures à prendre en compte (climat, environnement, facteurs démographiques, sociétaux et biologiques à l’échelle de l’individu). Dans le cadre de cette thèse, nous avons développé un modèle appelé MenAfriSIM™ qui prend en compte la température, la poussière à travers un COefficient of Meningitis Invasion and Development for Environmental eXposure (COMIDEX) qui prend de la donnée environnementale spatialisée issue de télédétection et de modèle. Il s'agit de la première fois qu'un coefficient pouvant englober plusieurs facteurs climatiques et environnementaux est proposé dans le but de les intégrer dans un modèle de transmission pour la méningite. Le modèle dispose également d'un modèle d'interaction spatiale qui prend en compte la mobilité interurbaine. MenAfriSIM™ est un modèle explicatif des cas de méningite à l'échelle interurbaine dans un contexte de Sahel occidental marqué par une relative baisse du risque de méningite comme le cas du Sénégal. La modélisation d'un système aussi complexe que la méningite permet d'adopter d'une approche multi-agents. Le modèle a été testé sur la saison 2012 dont l'analyse des données sanitaires issues du ministère de la santé confirme le caractère particulier de cette saison avec un nombre de cas record. L'évaluation du modèle a montré une bonne performance de celui-ci avec plus de la moitié de la variabilité totale des cas de méningite expliquée par le modèle (R2 = 0.53) et près d'un tiers de la variabilité des cas (R2 = 0.29) expliqué la température et la poussière. Le modèle a montré que le nombre de cas de méningite reste fortement corrélé à la démographie autrement les communes les plus touchées par la méningite se trouvent dans les communes les plus peuplées alors que le risque de méningite est plus présent dans les zones où l'empreinte climatique et environnementale est dominante. Les zones où le risque de méningite est plus important sont le nord du pays. La "trizone de la méningite" traduit le gradient nord-sud du risque de méningite qui diminue en passant par le centre du pays. Ces résultats ont été confortés par la littérature sur les domaines climatiques du pays et par l'exploration du modèle effectuée sur la saison 2013. Cependant des études supplémentaires devront être envisagées sur une période plus longue. Les résultats suggèrent une surveillance accrue de la partie nord du pays, point de départ du risque de méningite et une prise en compte du zonage et du temps de propagation de la méningite d'une zone à l'autre (2 à 3 semaines) dans les systèmes d'alerte précoce
Bacterial meningitis presents a real modeling challenge for the scientific community due to its multiscalar nature, factors of different natures to be taken into account (climate, environment, demographic, societal and biological factors at the individual level). As part of this thesis, we have developed a model called MenAfriSIM™ which takes into account temperature, dust through a COefficient of Meningitis Invasion and Development for Environmental eXposure (COMIDEX) which takes spatialized environmental data from remote sensing and of model. This is the first time that a coefficient that can encompass several climatic and environmental factors has been proposed with the aim of integrating them into a transmission model for meningitis. The model also has a spatial interaction model that takes into account interurban mobility. MenAfriSIM™ is an explanatory model of meningitis cases at the interurban scale in a western Sahel context marked by a relative reduction in the risk of meningitis, as in the case of Senegal. The modeling of a system as complex as meningitis makes it possible to adopt a multi-agent approach. The model was tested during the 2012 season, the analysis of health data from the Ministry of Health confirming the particular nature of this season with a record number of cases. The evaluation of the model showed a good performance of this one with more than half of the total variability of the cases of meningitis explained by the model (R2 = 0.53) and almost a third of the case variability (R2 = 0.29) explained temperature and dust. The model showed that the number of cases of meningitis remains strongly correlated with demography otherwise the municipalities most affected by meningitis are found in the most populated municipalities while the risk of meningitis is more present in areas where the footprint climatic and environmental is dominant. The areas where the risk of meningitis is greater are the north of the country. The "meningitis trizone" reflects the north-south gradient of the risk of meningitis which decreases through the center of the country. These results have been confirmed by the literature on the country's climatic domains and by the exploration of the model carried out over the 2013 season. However, additional studies should be considered over a longer period. The results suggest increased surveillance of the northern part of the country, the starting point of the risk of meningitis and consideration of zoning and the spread time of meningitis from one area to another (2 to 3 weeks) in early warning systems
APA, Harvard, Vancouver, ISO, and other styles
8

Voldoire, Aurore. "Prise en compte des changements de végétation dans un scénario climatique du XXIème siècle." Toulouse 3, 2005. http://www.theses.fr/2005TOU30024.

Full text
Abstract:
Le but principal de cette thèse était de réaliser une simulation du climat du XXIème siècle, en tenant compte non seulement des émissions de gaz à effet de serre et d'aérosols produites par l'activité humaine, mais aussi des changements de végétation résultant du développement démographique et économique et des rétroactions climatiques. Pour réaliser cette simulation, il a été décidé d'utiliser le modèle d'impact intégré IMAGE2. 2 (développé au RIVM, en Hollande) qui simule l'évolution de la concentration des gaz à effet de serre et de la végétation, et de le coupler au modèle climatique de circulation générale ARPEGE/OPA, disponible au CNRM. Avant de réaliser la simulation couplée proprement dite, des expériences de sensibilité de chacun des deux modèles au forçage produit par l'autre ont été réalisées. Finalement, la simulation couplée a montré qu'à l'échelle du siècle les interactions entre le climat et la végétation sont relativement peu importantes
The main objective of this work has been to run a climate simulation of the 21st century that includes not only greenhouse gases and aerosols emitted by human activity but also land-use and land-cover changes. To achieve this goal, the integrated impact model IMAGE2. 2 (developed at RIVM, The Netherlands) was used, which simulates the evolution of greenhouse gases concentrations as well as land-cover changes. This model has been coupled to the general circulation model ARPEGE/OPA provided by the CNRM. Before coupling the models, sensitivity experiments with each model have been performed to test their respective sensitivity to the forcing of the other. Ultimately, a simulation with the two models coupled together has shown that interactions between climate and vegetation are not of primary importance for century scale studies
APA, Harvard, Vancouver, ISO, and other styles
9

Guillemot, Hélène. "La modélisation du climat en France des années 1970 aux années 2000 : histoire, pratiques, enjeux politiques." Paris, EHESS, 2007. http://www.theses.fr/2007EHES0149.

Full text
Abstract:
Notre thèse porte sur l'histoire de la modélisation du climat de la fin des années 1960 aux années 2000, abordée à partir des pratiques de modélisation dans les deux centres développant un modèle de climat en France : le Laboratoire de Météorologie Dynamique (LMD) du CNRS (ainsi que l'Institut Pierre Simon Laplace, fédération de laboratoires de la région parisienne) et l'organisme national de prévision météorologique, Météo-France. Après un retour sur les premiers modèles numériques de climat, nous retraçons l'évolution de la modélisation au LMD et à Météo-France, et comparons les institutions, les trajectoires des chercheurs et les façons de travailler très différentes de ces organismes, déterminées par les cultures institutionnelles. Nous décrivons quelques pratiques de modélisation, notamment les paramétrisations et les validations des modèles par les données, et analysons les spécificités de ces pratiques scientifiques liées à l'usage de l'ordinateur. Revenant sur un moment charnière de l'histoire de la modélisation en France, le début des années 1990 où ont eu lieu des recompositions institutionnelles et scientifiques qui ont permis d'aborder les couplages des modèles et les simulations du climat futur, nous analysons la façon dont les modélisateurs français se sont confrontés à la question du changement climatique, et notamment à la participation aux prévisions climatiques du GIEC. Enfin, nous abordons l'extension de la modélisation du climat à celle du « Système -Terre », intégrant d'autres milieux, cycles et interactions, pour nous interroger sur les mutations que ces changements induisent dans les pratiques des modélisateurs
Our thesis relates to the history of climate modelling from the end of the nineteen sixties to the beginning of this century, focusing on the modelling practices in the two centres developing a climate model in France: the Laboratoire de Météorologie Dynamique (LMD) from the CNRS (and the Institut Pierre Simon Laplace, a fédération of laboratories in and around Paris) and the national organism for vveather forecast, Météo-France. Starting with the first numerical climate models, we trace the évolution of modelling at LMD and Météo-France, and compare the institutions, the carecrs of the researchers and the very différent ways of working in thèse two organisms, determined by their institutional cultures. We describe several modelling practices, in particular the parametrization and validation of models by data, and we analyse the specificities of the scientific practices related to the use of computer. Returning to a critical transitional period in the history of modelling in France, the beginning of the nineties, whcn institutional and scientific reconfigurations allowed coupling of models and simulations of future climate, we analyse the way French modellers confronted the problem of climate change, especially the contribution to IPCC climate prévisions. Finally, we address the expansion of climate modelling to « Earth System », integrating other environments, cycles and interactions, and we discuss the mutations that thèse changes are generating in the working practices of modellisers
APA, Harvard, Vancouver, ISO, and other styles
10

Sicard, Marie. "Modéliser les évolutions du climat de l'Arctique et de la calotte groenlandaise pendant le dernier interglaciaire pour en comprendre les mécanismes." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASJ017.

Full text
Abstract:
Le dernier interglaciaire, qui s'étend de 129 000 à 116 000 ans avant notre ère, est l’une des périodes les plus chaudes de ces 800 000 dernières années. Cette période se caractérise par une distribution saisonnière et latitudinale de l’insolation différente de l’actuel, se manifestant par une hausse des températures dans les hautes latitudes de l’hémisphère nord par rapport à la période pré-industriel (1850). Durant cette période, l’élévation du niveau marin (+ 6 à 9 m par rapport au niveau actuel) indique que les calottes polaires étaient moins volumineuses qu'aujourd'hui. Le dernier interglaciaire est donc un sujet d'étude important étant donnés les risques de fonte des calottes glaciaires sous l'influence du réchauffement actuel et à venir. C’est aussi un bon cas d’étude pour identifier et quantifier les mécanismes à l’origine de l’amplification polaire dans un contexte de climat chaud.Dans le cadre de l’exercice d’intercomparaison de modèles CMIP6-PMIP4, j’ai analysé la simulation à climat constant lig127k réalisée au LSCE, à partir du modèle climatique IPSL-CM6A-LR. En Arctique (60-90°N), les variations d’insolation induisent un réchauffement annuel de 0,9°C par rapport à la période pré-industrielle, pouvant atteindre jusqu’à 4,0°C en automne. L’étude du bilan énergétique de la région Arctique a mis en évidence les rôles fondamentaux des variations de la couverture de glace de mer, du stockage de chaleur dans l’océan, ainsi que des changements des propriétés optiques des nuages sur le réchauffement de l’Arctique il y a 127 000 ans.En réponse au changement climatique du dernier interglaciaire, le modèle de calottes GRISLI simule une perte de 10,7 à 57,1% du volume de glace au Groenland. Ce recul de la calotte groenlandaise se traduit par 1) une hausse maximale du niveau marin estimée entre 0,83 et 4,35 m et 2) des interactions climat-calotte engendrant un réchauffement additionnel maximal de 0,2°C à l’échelle de la région arctique. Ces estimations illustrent bien le rôle important des calottes dans le système climatique et rappellent l’importance de coupler les modèles climatiques aux modèles de calottes. Dans ce cadre, une étude préliminaire a été menée à l’aide du modèle atmosphérique ICOLMDZOR v7, utilisant le nouveau cœur dynamique DYNAMICO développé à l’IPSL. Elle a montré que l’utilisation de champs atmosphériques à haute résolution améliorait le calcul du bilan de masse à la surface des calottes polaires. Elle encourage également le couplage asynchrone entre le modèle climatique de l’IPSL, le modèle ICOLMDZOR v7 et le modèle de calotte GRISLI.Enfin, l’analyse du bilan énergétique de la région Arctique à partir d’une expérience idéalisée, dans laquelle la concentration en CO2 atmosphérique augmente de 1% par an, a révélé que des processus similaires sont l'origine du réchauffement de l’Arctique au dernier interglaciaire et celui d’un futur proche
The Last Interglacial (129 -116 ka BP) is one of the warmest periods in the last 800 ka at many locations. This period is characterized by a strong orbital forcing leading to a different seasonal and latitudinal distribution of insolation compared to today. These changes in insolation result in a temperature increase in the high latitudes of the Northern Hemisphere and a rise in sea level of 6 to 9 m above present. Therefore, the Last Interglacial represents a good case study given the risks of melting ice sheets under the influence of current and future warming. It is also an opportunity to identify and quantify the mechanisms causing polar amplification in a warmer climate than today.Within the framework of the CMIP6-PMIP4 model intercomparison project, I analyzed the lig127k snapshot run with the IPSL-CM6A-LR climate model. In the Arctic region (60-90°N), the insolation variations induce an annual warming of 0.9°C compared to the pre-industrial period (1850) reaching up to 4.0°C in autumn. Investigate changes in the Arctic energy budget relative to the pre-industrial period highlights the crucial roles of changes in the sea ice cover, ocean heat storage and clouds optical properties in the Last Interglacial Arctic warming.As a result of climate change over the Last Interglacial, the GRISLI ice sheet model simulates a Greenland ice loss of 10.7-57.1%, corresponding to a sea level rise of 0.83-4.35 m and a 0.2°C additional warming in the Arctic region. These estimates illustrate the crucial role of polar ice sheets in the climate system. To better assess ice sheet-climate feedbacks in the Arctic, I have therefore carried out a preliminary study using the ICOLMDZOR model that includes the new dynamical core DYNAMICO developed at the IPSL. This study shows that the use of high-resolution atmospheric fields improves the calculation of the surface mass balance in Greenland.Finally, the comparison between past and future Arctic energy budget reveals that the processes causing Arctic warming during the Last Interglacial and the near future are similar
APA, Harvard, Vancouver, ISO, and other styles
11

Torres, Olivier. "Représentation des flux turbulents à l’interface air-mer et impact sur les transports de chaleur et d’eau dans un modèle de climat." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLV002.

Full text
Abstract:
Les flux turbulents à l’interface air-mer représentent le lien entre l’océan et l’atmosphère et jouent donc un rôle majeur dans le système climatique. Dans les modèles de climat, les processus turbulents sont des processus sous-maille, non résolus explicitement, et doivent donc être paramétrés. Ils sont estimés à partir des variables d’états atmosphériques et océaniques au moyen de modèles mathématiques qu’on nomme « paramétrisations bulk ». Ce travail de thèse a pour objectif de caractériser et comprendre les liens entre la représentation des flux turbulents à l’interface air-mer et le fonctionnement d’un modèle de climat à différentes échelles de temps dans les régions tropicales. Pour étudier ces liens, j’ai développé une stratégie de modélisation utilisant un modèle 1D atmosphérique (SCM), un modèle de circulation générale océanique (OGCM) où atmosphérique (AGCM) et un modèle couplé (GCM). L’analyse des simulations SCM permet d’étudier la réponse directe d’un modèle à la modification de la paramétrisation des flux turbulents. On montre que cette dernière régule la quantité d’eau, d’énergie et de quantité de mouvement disponible pour le système et donc son fonctionnement. Elle représente plus de 60% des différences de flux de chaleur latente simulées entre deux modèles de climat dans les périodes convectives. L’impact spatial de la paramétrisation des flux turbulents est étudié au travers des simulations AGCM. Elles mettent en évidence le lien entre la paramétrisation, son effet sur les gradients d’humidité et de température à grande échelle, et donc son influence sur la circulation atmosphérique. L’étude des simulations OGCM souligne quant à elle le rôle principal du vent pour le fonctionnement des océans tropicaux. Si le vent pilote les variations de SST dues à son impact sur la dynamique océanique et principalement sur le sous-courant équatorial, l’humidité, la température et les flux radiatifs n’influencent quant à eux que la surface océanique et sont donc d’une moindre importance. Enfin, l’analyse des simulations GCM met en évidence les rétroactions et l’ajustement engendrés par la modification des flux turbulents. Lors du couplage des deux composantes l’océan agi comme un tampon et absorbe la modification des flux turbulents ce qui entraine une modification de la SST. L’ajustement qui se produit entraine une modification des variables atmosphériques qui amène à un nouvel état d’équilibre du système. La paramétrisation des flux turbulents de surface agit au premier ordre sur l'équilibre énergétique d'un modèle couplé et peut donc amener à des climats simulés différents. Cette étude étant centrée sur les tropiques, une perspective intéressante serait d’étendre l’étude de la représentation des flux turbulents à d’autres échelles spatio-temporelles (i.e. zones extratropicales/fréquence journalière). Cela permettrait de valider le fonctionnement systématique des paramétrisations définies dans cette thèse à l’échelle globale
The turbulent fluxes at the air-sea interface represent the link between the ocean and the atmosphere and therefore play a major role in the climate system. In climate models, turbulent processes are subgrid scale processes, not explicitly resolved, and must therefore be parameterized. They are estimated from atmospheric and oceanic state variables using mathematical models called “bulk parameterizations”. This thesis aims to characterize and understand the links between the representation of turbulent fluxes at the air-sea interface and the behavior of a climate model at different time scales in tropical regions. To study these links, I developed a modeling strategy using an atmospheric 1D model (SCM), an oceanic (OGCM) or atmospheric (AGCM) general circulation model and a coupled model (GCM). The analysis of SCM simulations allows us to study the direct response of a model to modifications of the turbulent fluxes parameterization. It is shown that it regulates the amount of water, energy and momentum available to the system and therefore its behavior. It can thus represent more than 60% of simulated latent heat flux differences between two climate models in convective periods. The spatial impact of the parameterization of turbulent fluxes is studied through AGCM simulations. They highlight the link between parameterization, its effect on large-scale moisture and temperature gradients, and thus its influence on atmospheric circulation. The study of OGCM simulations underlines the main role of the wind for the behavior of the tropical oceans. If the wind drives changes in SST due to its impact on ocean dynamics and mainly on the equatorial undercurrent, humidity, temperature and radiative flux only influence the ocean surface and are therefore of lesser importance. Finally, the analysis of GCM simulations highlights the feedbacks and the adjustment generated by the modification of turbulent fluxes. When coupling the two components, the ocean acts as a buffer and absorbs the modification of the turbulent fluxes, which leads to a modification of the SST. The adjustment that occurs causes a modification of the atmospheric variables which leads to a new state of equilibrium of the system. The parameterization of surface turbulent fluxes acts at first order on the energy equilibrium of a coupled model and can therefore lead to different simulated climate state. Since this study is focused on the tropics, an interesting perspective would be to extend the study of the turbulent fluxes representation to other spatio-temporal scales (i.e. extra-tropical areas / daily frequency). This would make it possible to validate the systematic behavior of the parameterizations defined in this thesis on a global scale
APA, Harvard, Vancouver, ISO, and other styles
12

Abdelkader, di Carlo Isma. "Lien entre la variabilité tropicale aux échelles interannuelles à multi-décennales et l'évolution du climat moyen au cours de l'Holocène." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASJ005.

Full text
Abstract:
L'océan Pacifique tropical constitue le cœur d'action d'ENSO, le principal mode de variabilité climatique tropical. Malgré l'incertitude de l'impact du changement climatique sur son évolution, des indices suggèrent que le système climatique moyen exerce une influence sur sa variabilité. Les observations ne permettent pas d'étudier les liens entre les changements des caractéristiques du climat moyen et de changements à long terme. Je me suis intéressée à l'évolution d'ENSO sur les derniers 6000 ans. Pour cette période, de nombreuses archives climatiques à haute résolution (coraux, spéléothèmes, bivalves) permettent d'étudier ces changements de variabilité. Des simulations transitoires issues de modèles, les mêmes que ceux utilisés pour les projections futures, offrent de nouvelles possibilités d'étudier les changements long-termes.J'ai porté un intérêt particulier à la rétroaction de la thermocline, qui pourrait expliquer la faible variabilité d'ENSO à l'Holocène. J'ai employé un outil lagrangien qui m'a permis d'identifier les variations de trois sources majeures alimentant la thermocline du Pacfique équatorial, principalement issues du Pacifique sud. Contrairement aux hypothèses avancées, l'évolution de la température de ces sources n'a pas semblé suffisante pour expliquer le changement observé dans la thermocline équatoriale Pacifique au cours de l'Holocène.Une autre partie de ma thèse a porté sur l'examen de la diversité d'ENSO. En utilisant des méthodes distinctes pour caractériser les événements El Niño de l'est (EP) et du centre (CP) Pacifique, des résultats opposés ont été obtenus concernant l'évolution sur 6000 ans du ratio de variance de EP sur CP. Les métriques de diversité d'ENSO, lorsqu'elles sont correctement interprétées, ont révélé une augmentation de la variance d'ENSO au cours de l'Holocène, avec une expansion spatiale à l'ouest et à l'est du Pacifique. Les différences entre métriques sont à l'origine de résultats contradictoires dans la littérature.Ensuite, j'ai exploré les changements de téléconnexions avec l'océan Indien, en examinant particulièrement l'interaction entre ENSO et le dipôle de l'océan Indien (IOD) en prenant en compte les variations de l'orbite terrestre, les gaz à effet de serre et les calottes glaciaires. En analysant une simulation transitoire sur deux millions d'années, j'ai montré une corrélation négative entre la variabilité d'ENSO et de l'IOD en fonction de la longitude du périhélie. Pendant les périodes de forte variabilité d'ENSO et de l'IOD, l'état moyen et principalement la saisonnalité influence le développement de chaque mode de variabilité. De plus, j'ai établi que l'ouest de l'océan Indien avait sa propre réponse à l'insolation, et que l'est de l'océan Indien dominait la variabilité de l'IOD.Je suis revenue à l'Holocène dans la dernière partie de ma thèse, avec cinq simulations transitoires. J'ai confirmé comment la variabilité d'ENSO évolue en lien avec les changements d'état moyen et ai montré que les résultats sont plus incertains dans le secteur indonésien. Je trouve une plus forte cohérence dans les résultats de changements de téléconnexion par l'atmosphère au cours des derniers 6000 ans, via la circulation de Walker et la zone de convergence intertropicale (ITCZ). La comparaison avec des spéléothèmes dans le secteur indonésien montre un accord avec les changements dans la position de l'ITCZ. Les interprétations des changements hydrologiques des coraux ont souligné la complexité régionale du secteur indonésien.En conclusion, les différents volets abordés dans cette thèse mettent en évidence l'importance de considérer la variabilité dans un contexte d'état moyen changeant, soulignant le rôle crucial des simulations transitoires pour comprendre les changements chaotiques au fil du temps. Les résultats ouvrent de nouvelles portes pour analyser la variabilité climatique dans le long terme en tenant compte des particularités de chaque reconstruction climatique
The center of action of ENSO, the main mode of tropical interannual variability, is located in the tropical Pacific Ocean. Despite the uncertainty regarding the impact of climate change on its evolution, indications suggest that the climate mean state influences its variability. Observations do not allow for the study of connections between changes in mean climate characteristics and long-term changes. I focused on the evolution of ENSO over the last 6000 years. For this period, numerous high-resolution climate archives (corals, speleothems, bivalves) allow for the study of these variability changes. Transient simulations from models, the same ones used for future projections, offer new possibilities to study long-term changes.I paid particular attention to the thermocline feedback, which could explain the reduced ENSO variability in the Holocene. I used a Lagrangian tool that allowed me to identify variations in three major sources feeding the equatorial Pacific thermocline, mainly from the South Pacific. Contrary to the hypotheses put forth, the temperature evolution of these sources did not seem sufficient to explain the observed change in the Pacific equatorial thermocline during the Holocene.Another part of my thesis focused on examining the diversity of ENSO. Using distinct methods to characterize El Niño events in the eastern (EP) and central (CP) Pacific, opposing results were obtained regarding the evolution over 6000 years of the EP to CP variance ratio. When properly interpreted, ENSO diversity metrics revealed an increase in ENSO variance during the Holocene, with spatial pattern that expands to the west and east of the Pacific. Differences between metrics are the source of contradictory results in the literature.Next, I explored teleconnection changes with the Indian Ocean, particularly examining the interaction between ENSO and the Indian Ocean Dipole (IOD), taking into account variations in Earth's orbit, greenhouse gases, and ice sheets. Analyzing a transient simulation over two million years, I showed a negative correlation between ENSO and IOD variability based on the longitude of the perihelion. During periods of strong ENSO and IOD variability, the mean state and primarily seasonality influenced the development of each variability mode. Furthermore, I established that the western Indian Ocean had its own response to insolation, and the eastern Indian Ocean drove IOD variability on orbital timescales.I returned to the Holocene in the last part of my thesis, with five transient simulations. I confirmed how ENSO variability evolves in connection with changes in the mean state and showed that results are more uncertain in the Indonesian sector. I found greater consistency in the results of atmospheric teleconnection changes over the last 6000 years, via the Walker circulation and the Intertropical Convergence Zone (ITCZ). Comparison with speleothems in the Indonesian sector showed agreement with changes in the position of the ITCZ. Interpretations of coral hydrological changes emphasized the regional complexity of the Indonesian sector.In conclusion, the various aspects addressed in this PhD thesis highlight the importance of considering variability in a changing mean state context, emphasizing the crucial role of transient simulations in understanding chaotic changes over time. The results open new avenues for analyzing long-term climate variability, taking into account the specificities of each climate reconstruction
APA, Harvard, Vancouver, ISO, and other styles
13

Quilcaille, Yann. "Retour sur les scénarios climatiques et d'émissions à l'aide d'un modèle compact du système Terre." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLV041.

Full text
Abstract:
Cette thèse met en perspective un ensemble d’éléments des scénarios socio-économiques sous l’angle de la modélisation du climat. Ces éléments contribuent à améliorer la compréhension de l’état actuel des sciences du climat en ce qui concerne les scénarios. En parallèle, ces éléments montrent le potentiel du récent modèle compact du système Terre OSCAR v2.2.Le premier élément concerne l’incertitude des émissions. Bien que les inventaires d’émissions soient incertains, nous ignorons dans quelle mesure ces incertitudes affectent les projections climatiques. Nous quantifions cet impact pour les émissions des énergies fossiles, la principale cause du changement climatique. Nous montrons que ces incertitudes dans les émissions sont amenées à augmenter avec l’utilisation des énergies fossiles non-conventionnelles, mais qu’elles n’augmentent pas de manière significative l’incertitude dans les projections climatiques. Ceci est vrai pour la majeure partie des variables, comme l’augmentation de la température moyenne de surface, mais pas pour certaines qui sont d’intérêt pour la qualité de l’air.Le second élément est une analyse climatique des récents scénarios Shared Socio-Economic Pathways. Nous identifions des failles dans la base de données, que nous comblons. Sur cette base, nous calculons les projections climatiques des scénarios SSP. Nous montrons la présence d’incohérence dans l’utilisation des émissions CO2 dues à l’utilisation des terres (LUC) calculées par les modèles intégrés (IAMs) et des variables associées à l’utilisation des terres. Nous identifions des compromis dans les réductions d’émissions pour l’atténuation du changement climatique. Nous réévaluons de manière plus robuste les budgets carbone. Les incertitudes dans les élévations de températures sont examinées en détail.Le troisième élément concerne les émissions négatives. La plupart des scénarios qui limitent le changement climatique bien en dessous de 2°C par rapport au préindustriel, respectant ainsi l’Accord de Paris, utilisent des émissions négatives. A l’aide d’une version développée de OSCAR v2.2, nous calculons les implications pour le système Terre de plusieurs aspects des techniques d’absorption de dioxyde de carbone (CDR). Nous identifions les réversibilités des différentes parties du système terre, et évaluons le potentiel de refroidissement de ces techniques. Nous montrons aussi que la reforestation pourrait être moins apte à atténuer le changement climatique, du fait du changement dans l’albedo de surface. Par ailleurs, le potentiel d’alcalinisation des eaux de surfaces pour atténuer le changement climatique pourrait être inférieur à celui initialement estimé.Dans l’ensemble, cette thèse identifie des défauts dans le développement actuel des scénarios. Certains ne constituent pas un problème pour les projections climatiques, comme les incertitudes dans le calcul des émissions. D’autres nécessitent une attention particulière, comme le calcul des émissions CO2 dues au LUC par les IAMs ou l’éventuelle surestimation des capacités des techniques de CDR. Ce travail renforce l’urgence du besoin d’atténuation du changement climatique
This thesis puts into perspective different elements of socio-economic scenarios from a climate change modelling point of view. These elements contribute at improving the comprehension of the current state of climate sciences regarding the scenarios. In the meantime, these elements demonstrate the potential of the recent reduced-form Earth System Model OSCAR v2.2.The first element concerns the uncertainty of emissions. Although emission inventories are uncertain, we ignore what impact on climate change have these uncertainties. We quantify this impact for fossil-fuel emissions, the major contributor to climate change. We show that the uncertainties in emissions are expected to increase with the use of non-conventional fuels, but that they do not increase significantly the uncertainty from Earth system modelling in variables, such as the increase in global surface temperature.The second element is a climate assessment of the recent Shared Socio-economic Pathways (SSP) scenarios. We identify loopholes in the SSP database, and we complete it to calculate the climate projections under these scenarios. Our conclusions suggest inconsistencies in CO2 emissions from Land Use Change (LUC) calculated by the Integrated Assessment Models and in the associated land variables. We identify trade-offs between greenhouse gases in the mitigation of climate change. Using a robust assessment, new carbon budgets are proposed. The uncertainties in increases in global surface temperature are discussed.The third element concerns the negative emissions. Most climate scenarios limiting global warming well below 2°C above preindustrial levels, thus respecting the Paris Agreement, use negative emissions. Using a developed version of OSCAR v2.2, we evaluate the implications for the Earth system of different aspects of different Carbon Dioxide Removal (CDR) technologies. We identify the reversibility in the different components of the Earth system and calculate the cooling potential of carbon dioxide removal technologies. We also show that the potential of afforestation/reforestation techniques may be impeded by the change in albedo, and that the potential of oceanic enhanced weathering may be lower than expected.Overall, this thesis identifies loopholes in the current development of scenarios. Some do not hinder current conclusions regarding climate change, such as the uncertainties in emission inventories. Others call for further analysis, such as the inconsistencies in the use of CO2 emissions from LUC or the eventual overestimation of the potential of some CDR technologies. It emphasizes the need for an urgent mitigation of climate change
APA, Harvard, Vancouver, ISO, and other styles
14

Torres, Olivier. "Représentation des flux turbulents à l’interface air-mer et impact sur les transports de chaleur et d’eau dans un modèle de climat." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLV002/document.

Full text
Abstract:
Les flux turbulents à l’interface air-mer représentent le lien entre l’océan et l’atmosphère et jouent donc un rôle majeur dans le système climatique. Dans les modèles de climat, les processus turbulents sont des processus sous-maille, non résolus explicitement, et doivent donc être paramétrés. Ils sont estimés à partir des variables d’états atmosphériques et océaniques au moyen de modèles mathématiques qu’on nomme « paramétrisations bulk ». Ce travail de thèse a pour objectif de caractériser et comprendre les liens entre la représentation des flux turbulents à l’interface air-mer et le fonctionnement d’un modèle de climat à différentes échelles de temps dans les régions tropicales. Pour étudier ces liens, j’ai développé une stratégie de modélisation utilisant un modèle 1D atmosphérique (SCM), un modèle de circulation générale océanique (OGCM) où atmosphérique (AGCM) et un modèle couplé (GCM). L’analyse des simulations SCM permet d’étudier la réponse directe d’un modèle à la modification de la paramétrisation des flux turbulents. On montre que cette dernière régule la quantité d’eau, d’énergie et de quantité de mouvement disponible pour le système et donc son fonctionnement. Elle représente plus de 60% des différences de flux de chaleur latente simulées entre deux modèles de climat dans les périodes convectives. L’impact spatial de la paramétrisation des flux turbulents est étudié au travers des simulations AGCM. Elles mettent en évidence le lien entre la paramétrisation, son effet sur les gradients d’humidité et de température à grande échelle, et donc son influence sur la circulation atmosphérique. L’étude des simulations OGCM souligne quant à elle le rôle principal du vent pour le fonctionnement des océans tropicaux. Si le vent pilote les variations de SST dues à son impact sur la dynamique océanique et principalement sur le sous-courant équatorial, l’humidité, la température et les flux radiatifs n’influencent quant à eux que la surface océanique et sont donc d’une moindre importance. Enfin, l’analyse des simulations GCM met en évidence les rétroactions et l’ajustement engendrés par la modification des flux turbulents. Lors du couplage des deux composantes l’océan agi comme un tampon et absorbe la modification des flux turbulents ce qui entraine une modification de la SST. L’ajustement qui se produit entraine une modification des variables atmosphériques qui amène à un nouvel état d’équilibre du système. La paramétrisation des flux turbulents de surface agit au premier ordre sur l'équilibre énergétique d'un modèle couplé et peut donc amener à des climats simulés différents. Cette étude étant centrée sur les tropiques, une perspective intéressante serait d’étendre l’étude de la représentation des flux turbulents à d’autres échelles spatio-temporelles (i.e. zones extratropicales/fréquence journalière). Cela permettrait de valider le fonctionnement systématique des paramétrisations définies dans cette thèse à l’échelle globale
The turbulent fluxes at the air-sea interface represent the link between the ocean and the atmosphere and therefore play a major role in the climate system. In climate models, turbulent processes are subgrid scale processes, not explicitly resolved, and must therefore be parameterized. They are estimated from atmospheric and oceanic state variables using mathematical models called “bulk parameterizations”. This thesis aims to characterize and understand the links between the representation of turbulent fluxes at the air-sea interface and the behavior of a climate model at different time scales in tropical regions. To study these links, I developed a modeling strategy using an atmospheric 1D model (SCM), an oceanic (OGCM) or atmospheric (AGCM) general circulation model and a coupled model (GCM). The analysis of SCM simulations allows us to study the direct response of a model to modifications of the turbulent fluxes parameterization. It is shown that it regulates the amount of water, energy and momentum available to the system and therefore its behavior. It can thus represent more than 60% of simulated latent heat flux differences between two climate models in convective periods. The spatial impact of the parameterization of turbulent fluxes is studied through AGCM simulations. They highlight the link between parameterization, its effect on large-scale moisture and temperature gradients, and thus its influence on atmospheric circulation. The study of OGCM simulations underlines the main role of the wind for the behavior of the tropical oceans. If the wind drives changes in SST due to its impact on ocean dynamics and mainly on the equatorial undercurrent, humidity, temperature and radiative flux only influence the ocean surface and are therefore of lesser importance. Finally, the analysis of GCM simulations highlights the feedbacks and the adjustment generated by the modification of turbulent fluxes. When coupling the two components, the ocean acts as a buffer and absorbs the modification of the turbulent fluxes, which leads to a modification of the SST. The adjustment that occurs causes a modification of the atmospheric variables which leads to a new state of equilibrium of the system. The parameterization of surface turbulent fluxes acts at first order on the energy equilibrium of a coupled model and can therefore lead to different simulated climate state. Since this study is focused on the tropics, an interesting perspective would be to extend the study of the turbulent fluxes representation to other spatio-temporal scales (i.e. extra-tropical areas / daily frequency). This would make it possible to validate the systematic behavior of the parameterizations defined in this thesis on a global scale
APA, Harvard, Vancouver, ISO, and other styles
15

Batton-Hubert, Mireille. "Intégration d'une simulation spatio-temporelle à un modèle topologique et numérique de terrain." Paris 6, 1993. http://www.theses.fr/1993PA066116.

Full text
Abstract:
L'intégration d'une simulation à un modèle de terrain nécessite l'élaboration d'un modèle topologique et numérique reposant sur les concepts mathématiques des graphes et des hypergraphes, ainsi qu'une structuration orientée objet grâce à l'outil HBDS. Sa réalisation est donnée en 2d et 3d et couvre les thèmes suivants : la topographie, la géologie, l'hydrologie, la végétation et le climat. Le temps est la dimension nécessaire à l'évolution du modèle sous la contrainte de phénomènes divers tels que l'érosion et la propagation d'un flux sur un réseau hydrographique. Un phénomène est appréhendé par un ensemble de processus discrets. Le modèle de terrain se transforme en modèle dynamique de terrain. Son évolution utilise une simulation discrète de processus gérés en quasi-parallélisme, transcrivant les interactions et le déroulement simultané pour chaque phénomène naturel considéré. L'élaboration d'une animation en 3d est nécessaire pour visualiser l'état du modèle à tout moment.
APA, Harvard, Vancouver, ISO, and other styles
16

Coron, Laurent. "Les modèles hydrologiques conceptuelssont-ils robustes face à un climat en évolution ? Diagnostic sur un échantillon de bassins versants français et australiens." Electronic Thesis or Diss., Paris, AgroParisTech, 2013. http://www.theses.fr/2013AGPT0030.

Full text
Abstract:
Les hydrologues sont questionnés au sujet de l’évolution à moyen et long terme de la ressource en eau. Pour répondre à ces questions, ils ont recours à des modèles hydrologiques. Une quantification des incertitudes associées à leurs projections leur est souvent demandée et pose la question de la robustesse de ces modèles conceptuels, notamment dans le contexte d’un climat en évolution. En effet, l’utilisation d’un modèle dans des conditions différentes de celles où il a été calé repose sur une hypothèse de transférabilité des paramètres, c’est-à-dire la possibilité d’utiliser les paramètres d’un modèle dans des conditions différentes de celles de saconstruction. Nous traitons cette problématique en tentant d’apporter des éléments de réponse aux questions suivantes :• Quel est le niveau de robustesse des modèles hydrologiques conceptuels face à des conditions climatiques variables ?• Quelles sont les causes des situations de manque de robustesse et y a-t-il des façons de s’en prémunir ?Nous y répondons à travers l’étude des performances de modèles conceptuels lors de nombreux tests de transfert temporel de leurs paramètres. Les résultats montrent des corrélations entre les problèmes de robustesse et les écarts de conditions climatiques entre les périodes de calage et de validation des modèles. Des situations de biais systématiques corrélés à des changements de température de l’air ressortent en particulier de ces analyses. Une hétérogénéité existe cependant sur notre échantillon, les variables climatiques ou le type d’erreurs associées aux problèmes détectés pouvant varier d’un bassin à un autre.L’étude des biais de simulation sur les bassins où les modèles ne sont pas robustes montre des alternances de phases de sous-estimation et surestimation des débits, le biais sur le module décennal pouvant atteindre 20%. Nos travaux révèlent que des comportements très similaires sont obtenus pour diverses périodes et méthodes de calage. Pour les modèles conceptuels utilisés dans ces travaux, les problèmes de robustesse détectés ne résultent pas simplement de quelques "mauvais" calages conduisant à la sélection de paramètres inadaptés pour reproduire le comportement du bassin considéré. Ils semblent plutôt découler de difficultés générales de ces outils de modélisation à reproduire convenablement les bilans moyens de façon simultanée sur différentes périodes.Ces travaux ouvrent des pistes de réflexion sur la capacité insuffisante de certains modèles hydrologiques conceptuels à reproduire des dynamiques basse fréquence et sur le rôle des erreurs d’estimation des forçages, notamment les variations temporelles de l’évapotranspiration, dans les situations de modélisation incorrecte
Hydrologists are asked to estimate the medium- and long-term evolutions of water resources. To answer these questions, they commonly use conceptual models. In addition, they are often required to provide an estimate of the uncertainties associated with model projections. This raises the question of the robustness of conceptual models, especially in the context of climate evolution. Indeed, using a model in conditions different from those of calibration is based on the hypothesis of parameter transferability, i.e. the possibility to use model parameters in conditions different from those used for the model set-up. We focus on this issue with the aim of answering the following questions:• What is the robustness level of conceptual hydrological models in the context of changing climatic conditions?• What are the causes for the lack of robustness, and are there ways to prevent it?We answer these questions by studying the performance of conceptual models through multiple tests of temporal transfer of their parameters. Results show the existence of correlations between the robustness problems and the difference in climate conditions between model calibration and validation periods. The analysis especially points out the situations of systematic bias correlated to differences in air temperature. However, results are heterogeneous in our catchment set, and climate variables or error type associated with the identified problems vary between catchments.The analysis of simulation biases on catchments where the models are not robust shows alternating phases of flow under- or overestimation, with a possible bias in the mean flow up to 20% over a ten-year period.Our work reveals that very similar results can be obtained for various periods or calibration methods. The robustness issues faced by conceptual models used in this study do not solely stem from inadequate calibrations leading to the selection of parameters unable reproduce the catchment behavior. They seem to be the consequence of overall difficulties for models to satisfactorily simulate water balances simultaneously on various periods.This work opens reflections on the limited capacity of some hydrological models to reproduce low-frequency dynamics and raises questions on the role of inputs estimates errors in model failures, especially the temporal variations of evapotranspiration
APA, Harvard, Vancouver, ISO, and other styles
17

Truong, Chi Quang. "Integrating cognitive models of human decision-making in agent-based models : an application to land use planning under climate change in the Mekong river delta." Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066580.

Full text
Abstract:
L'objectif initial de cette thèse est d'apporter une solution à ce problème en proposant, premièrement, une approche cognitive basée sur le paradigme appelé Belief-Desire-Intention (BDI) pour représenter les processus de prise de décision des acteurs humains, et deuxièmement, une validation de cette approche dans le contexte d'un modèle complet de changement d'usage des sols dans lequel la plupart des facteurs cités ci-dessus sont également simulés. Le résultat de ce travail est une approche générique qui a été validée sur un modèle intégrant le changement d'usage des sols d'une région située dans le Delta du Mékong au Vietnam. Nos contributions principales sont les suivantes : Intégration d’une architecture BDI au sein d'une plateforme de modélisation à base d'agents (GAMA) ;Conception d’un cadre générique baptisé « Multi-Agent Based Land-Use Change » (MAB-LUC) permettant de modéliser et de simuler les changements d’usage des sols en prenant en compte les décisions des agriculteurs ;Proposition d’une solution permettant d’intégrer et d’évaluer les facteurs socio-économiques et environnementaux dans le cadre de la planification agraire et d’intégrer MAB-LUC dans le processus existant proposé par la FAO.Ce travail, au-delà du cas d’étude concernant le Delta du Mékong, a enfin été conçu de façon générique afin que la méthodologie utilisée puisse être généralisée à la modélisation de systèmes socio-écologiques où les facteurs humains doivent être représentés avec précision
The initial goal of this thesis has been then to address this problem by proposing, on one hand, a cognitive approach based on the Belief-Desire-Intention (BDI) paradigm to represent the decision-making processes of human actors in agent-based models and, on the second hand, a validation of this approach in a complete land-use change model in which most of the factors cited above have also been simulated.The outcome of this work is a generic approach, which has been validated in a complex integrated land-use change model of a small region of the Vietnamese Mekong Delta. Our main contributions have been:The integration of the BDI architecture within an agent-based modeling platform (GAMA); The design of the Multi-Agent Based Land-Use Change (MAB-LUC) framework that can take into account the farmers’ decision-making in the land-use change processes;The proposal of a solution to assess the socio-economic and environmental factors in land-use planning and to integrate the MAB-LUC framework into the land-use planning process of. I conclude by showing that this work, designed in a generic fashion, can be reused and generalized for the modeling of complex socio-ecological systems where individual human factors need to be represented accurately
APA, Harvard, Vancouver, ISO, and other styles
18

Feng, Yang. "Study of the climate variability and the role of volcanism in the North Atlantic-Mediterranean sector during the last millennium." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS038.

Full text
Abstract:
La thèse vise à étudier le rôle du volcanisme ainsi ses impacts sur la variabilité climatique hivernale (spécialement l'ONA) dans le secteur Atlantique Nord-Méditerranée à l'échelle interannuelle. La première partie est consacrée à la caractérisation du signal d'ONA en hiver à la suite d'éruptions volcaniques stratosphériques grâce à trois simulations transitoires du dernier millénaire (500-1849 CE) par IPSL-CM6A-LR dans le cadre de PMIP4. La robustesse et la sensibilité de réponse liée à la latitude, la saison et la magnitude des éruptions sont ainsi explorées. La deuxième partie étend plus loin pour décrypter le mécanisme concernant différentes composantes radiatives du forçage volcanique (le refroidissement de la surface et le réchauffement du stratosphère). Le travail est axé sur trois 25-membres ensembles de simulation par IPSL-CM6A-LR suivant le protocole VolMIP sur l'éruption tropicale Mt. Pinatubo (Philippines, juin 1991), la meilleure observée. Les expériences de sensibilité indiquent que la signature d’ONA positive de surface dans nos expériences de modèle est principalement attribuée au réchauffement dans la basse stratosphère tropicale qui génère des vents zonaux subtropicaux plus forts à travers le bilan de vent thermique et accélère le vortex polaire. Les propagations d'ondes planétaires stationnaires jouent également des effets de modulations indispensables
The PhD work aims at studying the role of volcanism in influencing winter climate variability (especially, NAO) over the North Atlantic-Mediterranean sector at inter-annual scale. The first part is devoted to characterizing the simulated NAO signal in winters following stratospheric volcanic eruptions using three long transient simulations of the past millennium (500-1849 CE) by IPSL-CM6A-LR in the frame of PMIP4. The robustness and sensitivity of the response related to the latitude, season and strength of the eruptions are also explored. The second part extends further to decrypt the physical mechanism regarding different components of volcanic radiative forcing (the surface cooling and stratospheric warming). The work focuses on three 25-members ensemble simulations by IPSL-CM6A-LR following the VolMIP protocol for the well observed Mt. Pinatubo tropical eruption (Philippines, June 1991). Sensitivity experiments indicate that the surface positive NAO signature in our model experiments is primarily attributable to heating in the lower tropical stratosphere which generates stronger subtropical zonal winds through the thermal wind balance and accelerates the polar vortex. Stationary planetary wave propagations are also playing indispensable modulations effects
APA, Harvard, Vancouver, ISO, and other styles
19

Coron, Laurent. "Les modèles hydrologiques conceptuelssont-ils robustes face à un climat en évolution ? Diagnostic sur un échantillon de bassins versants français et australiens." Phd thesis, AgroParisTech, 2013. http://pastel.archives-ouvertes.fr/pastel-00879090.

Full text
Abstract:
Les hydrologues sont questionnés au sujet de l'évolution à moyen et long terme de la ressource en eau. Pour répondre à ces questions, ils ont recours à des modèles hydrologiques. Une quantification des incertitudes associées à leurs projections leur est souvent demandée et pose la question de la robustesse de ces modèles conceptuels, notamment dans le contexte d'un climat en évolution. En effet, l'utilisation d'un modèle dans des conditions différentes de celles où il a été calé repose sur une hypothèse de transférabilité des paramètres, c'est-à-dire la possibilité d'utiliser les paramètres d'un modèle dans des conditions différentes de celles de saconstruction. Nous traitons cette problématique en tentant d'apporter des éléments de réponse aux questions suivantes :* Quel est le niveau de robustesse des modèles hydrologiques conceptuels face à des conditions climatiques variables ?* Quelles sont les causes des situations de manque de robustesse et y a-t-il des façons de s'en prémunir ?Nous y répondons à travers l'étude des performances de modèles conceptuels lors de nombreux tests de transfert temporel de leurs paramètres. Les résultats montrent des corrélations entre les problèmes de robustesse et les écarts de conditions climatiques entre les périodes de calage et de validation des modèles. Des situations de biais systématiques corrélés à des changements de température de l'air ressortent en particulier de ces analyses. Une hétérogénéité existe cependant sur notre échantillon, les variables climatiques ou le type d'erreurs associées aux problèmes détectés pouvant varier d'un bassin à un autre.L'étude des biais de simulation sur les bassins où les modèles ne sont pas robustes montre des alternances de phases de sous-estimation et surestimation des débits, le biais sur le module décennal pouvant atteindre 20%. Nos travaux révèlent que des comportements très similaires sont obtenus pour diverses périodes et méthodes de calage. Pour les modèles conceptuels utilisés dans ces travaux, les problèmes de robustesse détectés ne résultent pas simplement de quelques "mauvais" calages conduisant à la sélection de paramètres inadaptés pour reproduire le comportement du bassin considéré. Ils semblent plutôt découler de difficultés générales de ces outils de modélisation à reproduire convenablement les bilans moyens de façon simultanée sur différentes périodes.Ces travaux ouvrent des pistes de réflexion sur la capacité insuffisante de certains modèles hydrologiques conceptuels à reproduire des dynamiques basse fréquence et sur le rôle des erreurs d'estimation des forçages, notamment les variations temporelles de l'évapotranspiration, dans les situations de modélisation incorrecte.
APA, Harvard, Vancouver, ISO, and other styles
20

Béraud, Nicolas. "Fabrication assistée par ordinateur pour le procédé EBM." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAI052/document.

Full text
Abstract:
Le procédé de fabrication par fusion de poudre à l'aide d'un faisceau d'électrons est appelé procédé Electron Beam Melting (EBM). Il permet la fabrication de pièces métalliques à partir de poudres. Grâce au niveau de qualité (géométrique et mécanique) des pièces produites, le procédé peut être utilisé afin de produire des pièces fonctionnelles et non plus uniquement des prototypes. Ce procédé, ainsi que les autres procédés additifs métalliques, permettent d'envisager le passage de l'impression 3D à la fabrication additive métallique.L'utilisation de la fabrication additive dans un contexte industriel impose le respect de critères en termes de qualité, coût et délai des pièces produites. L'ensemble des étapes numériques de mise en production d'une pièce constitue la chaîne numérique. Cette dernière a un impact fort sur l'ensemble de ces trois critères. Ainsi, cette thèse apporte une réponse à la question suivante :Comment la fabrication assistée par ordinateur peut-elle améliorer le triptyque qualité, coût, délai du procédé de fabrication EBM?Le problème est abordé par la question sous-jacente suivante :Quelles caractéristiques doit posséder un environnement de fabrication assistée par ordinateur adapté au procédé EBM ?Pour répondre à cette question, la chaîne numérique actuelle est analysée . Les principales limites identifiées sont :- l'utilisation de fichiers au format STL- l’impossibilité d’optimiser le procédé à différentes échelles- l’impossibilité de simuler le procédé EBMAfin de résoudre l'ensemble des problèmes énoncés, un environnement de FAO est proposé. Celui-ci permet de centraliser l'ensemble des opérations de mise en production au sein d'un environnement unique. Il autorise le travail avec l'ensemble des formats de fichiers reconnus comme les formats natifs des logiciels de CAO ou le format STEP. Des développements informatiques permettent de concrétiser l’environnement proposé.L'implémentation de l'environnement de FAO a mis en évidence le rôle fondamental de la simulation au sein de celui-ci. Il a donc fallu répondre à la question :Comment obtenir une simulation du procédé EBM permettant sa mise au point hors ligne en temps raisonnable ?Bien que la simulation du procédé EBM est largement traitée dans la littérature scientifique, les études proposées reposent sur la méthode des éléments finis et le temps de calcul nécessaire n'est pas compatible avec une utilisation au sein d'un environnement de FAO. Un type de simulation alternatif a donc été créé : une simulation par abaques. Elle est constituée d’une simulation par la méthode des éléments finis qui permet d'obtenir des cartes de températures pour des cas de chauffes et de refroidissements standards. Ces cartes de températures sont ensuite transformées en abaques. La simulation par abaques est vue comme la succession d'une multitude de cas standards. Ainsi l'algorithme de simulation par abaques cherche l'abaque le plus proche de la situation simulée, afin d’estimer les températures au pas de temps suivant.Cette méthode de simulation a permis une réduction des temps de calcul tout en gardant une précision suffisante pour pouvoir être utilisée pour optimiser les paramètres de fabrication.Grâce à une telle simulation, un outil d'optimisation des stratégies de fusion a pu être créé. Il permet d’améliorer la qualité des pièces produites en calculant des stratégies de fusion respectant certains critères thermiques.Les apports majeurs de ces travaux de thèses sont :- l'établissement d'un cahier des charges pour une chaîne numérique performante en EBM- le développement d'un environnement de FAO adapté au procédé EBM- la mise au point d'une simulation rapide du procédé EBM basée sur des abaques- la création d'un outil d'optimisation des stratégies de fusion
The Electron Beam Melting (EBM) process allows to build metallic parts from powder. Thanks to the geometric and mechanical quality of the parts produced, the EBM process can be used to manufacture functional parts and not only prototypes. This process, with other additive metallic processes, make it possible to consider a transition from 3D printing to metallic additive manufacturing.The use of additive manufacturing in an industrial environment requires compliance with quality, cost and time criteria for the parts produced. The production of manufactured parts involves a series of numerical stages which is called the numerical chain. The numerical chain has a significant impact on the three criteria mentioned above. Thus, this thesis provides an answer to the following question:How Computer Aided Manufacturing can improve the quality, cost and time of the EBM manufacturing process?This problem is addressed through the following underlying question:What are the required characteristics for a Computer Aided Manufacturing system adapted to the EBM process?In order to answer this question, the current numerical chain is analyzed. Three main limitations are found:- the use of STL files format- the process cannot be optimized at different scales- the process cannot be simulatedTo solve these issues, a CAM environment is proposed. It allows the centralization of all numerical operations in a single environment. All supported formats can be used within this environment, such as native CAD file formats or STEP format. Software developments are done to prove the feasibility of such an environment.The CAM environment implementation reveals the crucial role of simulation in this system. It is therefore necessary to answer this second question:How to obtain an EBM process simulation allowing the development of parameters, virtually?Although EBM simulation is a recurrent subject in scientific literature, existing studies are based on the finite elements method but the calculation time needed is too important to be used in an CAM environment. Thus, an alternative type of simulation is created in this thesis: a simulation based on abacus. It is composed of a finite elements model, that allows heat maps generation for standards cases of heating and cooling. These heat maps are then transformed in abacus. The simulation algorithm based on abacus search the nearest abacus from the simulated situation in order to estimate the temperatures at the next time step.This simulation method was used to reduce the calculation time while keeping a sufficient precision to optimize process parameters.With the simulation based on abacus, a tool for the optimization of melting strategies is developed. This tool allows quality improvement for the produced parts through the calculation of melting strategies according to thermic criteria.To summarize, the main contributions of this work are:- the definition of requirements specifications of a powerful numerical chain for the EBM process- the development of a CAM environment adapted to the EBM process- the proposal of a fast simulation for the EBM process, based on abacus- the development of a tool for the optimization of melting strategies
APA, Harvard, Vancouver, ISO, and other styles
21

Djian, Francis. "Modélisation thermique des thermostats pour oscillateurs à quartz et applications." Besançon, 1991. http://www.theses.fr/1991BESA2021.

Full text
Abstract:
Pour remédier à la sensibilité aux perturbations thermiques des oscillateurs à quartz très stables on utilise des enceintes thermostatées. L'étude réalisée dans cette thèse à pour objet la modélisation thermique de ces dispositifs. L'approche développée est celle des constantes localisées : la structure thermique est modélisée par un réseau de résistances thermiques et de capacités calorifiques. Les méthodes analytiques et expérimentales d'évaluation des coefficients thermiques ont été étudiées en tenant compte des échanges par conduction, rayonnement et convection. Le modèle permet de simuler les variations de température et de déterminer les fonctions de transfert entre les différents éléments de la structure thermique: oscillateur à quartz, sont d'asservissement, milieu ambiant. . . Ces méthodes ont été appliquées à une enceinte thermostatée commerciale et à une structure de test. Un programme de simulation et un dispositif expérimental ont été développés et ont montré la validité de la modélisation et ses limites. Grace aux techniques de modélisation développées, la possibilité d'une amélioration de la régulation à peu être étudiée. Elle consiste à compenser les effets des perturbations thermiques sur l'oscillateur à quartz par action sur la température de consigne, la méthode de synthèse de cette compensation à été décrire et appliquée avec succès à une enceinte thermostatée commerciale
APA, Harvard, Vancouver, ISO, and other styles
22

Louin, Jean-Charles. "Effets d'hétérogénéités de teneur en carbone sur les cinétiques de transformations de phase et sur la genèse des contraintes internes lors du refroidissement d'aciers." Vandoeuvre-les-Nancy, INPL, 2003. http://www.theses.fr/2003INPL077N.

Full text
Abstract:
Lors de la fabrication d'une pièce industrielle, le traitement thermique est une opération qui nécessite de maîtriser à la fois les microstructures obtenues et les contraintes et déformations résiduelles. La simulation numérique est un outil précieux pour une meilleure optimisation de ces traitements. Dans ce contexte, l'objectif de notre étude a été de contribuer au développement d'un outil de calcul permettant de prévoir les microstructures, les déformations et les contraintes au cours du traitement thermique de pièces en acier pouvant contenir des hétérogénéités de composition chimique en particulier de teneur en carbone. Nous avons d'abord développé le modèle de calcul des cinétiques de transformation de phases des aciers existant au laboratoire pour prendre en compte l'effet de l'enrichissement en carbone de l'austnite lors de sa décomposition partielle en ferrite sur les transformations ultérieures. Des calculs thermiques, métallurgiques et mécaniques couplés ont ensuite permis une analyse détaillée de l'effet de gradients de teneur en carbone à l'échelle macroscopique sur la genèse des microstructures et des contraintes internes au cours du refroidissement. Nous avons en particulier quantifié les effets possibles de macro et mésoségrégations de solidification dans des cylindres très massifs de taille proche de celle d'un lingot. Une validation expérimentale des résultats de simulation numérique a été mise en place pour des éprouvettes cylindriques supposées homogènes en composition chimique (acier 40CrMnMo8) puis pour une éprouvette chimiquement hétérogène spécialement conçue et fabriquée pour notre étude. Au préalable, les caractérisations expérimentales de l'acier ont permis de construire le jeu de données complet nécessaire aux simulations. Les résultats expérimentaux et calculés ont permis de bien mettre en évidence le rôle de l'hétérogénéité chimique. Enfin, une bonne corrélation calcul- expérience a été obtenue pour la déformation au cours du refroidissement d'une éprouvette 3D en forme de croissant
Heat treatment is a process that needs the control of both final microstructures and residual stresses and deformations. Numerical simulation is a useful tool for a better optimization of this process. The aim of our work was to contribute to the development of a numerical tool for the prediction of microstructures, stresses and strains during cooling of pieces that may contain chemical heterogeneities, particularly carbon content heterogeneities. Firstly, an existing model for the prediction of transformation kinetics in steels has been further developped in order to take into account the effects of the carbon content enrichment of austenite due to a partial ferritic transformation on the subsequent transformations. Coupled thermal, metallurgical, mechanical calculations have then been performed to study the effects of carbon content gradients on the microstructural evolutions and on the residual stresses development during cooling. Particularly, the possible effects of solidification macro and mesosegregations have been quantified in massive cylinders with sizes close to the size of an ingot. Secondly, experimental validations have been performed for homogeneous cylindrical specimen (40CrMnMo8 steel) and for a chemically heterogeneous specimen specifically designed for our study. The complete set of input data necessary for the simulations has been established from experimental characterizations of the steel. The role of chemical heterogeneity has been analysed through the experimental and calculated results. Finally, a good correlation has been obtained between measurements and calculation of the deformation during cooling of a 3D "croissant" shaped specimen
APA, Harvard, Vancouver, ISO, and other styles
23

Sech, Nicolas Le. "Photocathodes à base de nanotubes de carbone sur substrats semi-conducteurs de type III-V. Application aux amplificateurs hyperfréquence." Palaiseau, Ecole polytechnique, 2010. http://pastel.archives-ouvertes.fr/docs/00/50/14/43/PDF/These_N_Le_Sech.pdf.

Full text
Abstract:
On trouve sur la plateforme de théses en lignes Tel le résuma suivant : Ce travail de thèse porte sur l'étude et le développement de sources électroniques à base de nanotubes de carbone modulées par voie optique appelées photocatodes. L'objectif de ces dernières est de les utiliser dans les tubes à ondes progressives, en remplacement des sources thermoïoniques actuelles, qui émettent un faisceau d'électrons continu. Ce nouveau type de dispositif permettrait de développer une nouvelle génération d'amplificateurs hyperfréquence large bande, plus compacts, plus légers et ayant un fort rendement pour les satellites de communication. Ces sources modulées reposent sur l'association de nanotubes de carbone avec des photodiodes P-i-Ns. Les photodiodes agissent comme des sources de courant tandis que les nanotubes jouent le rôle d'émetteurs d'électrons. Une modulation optique des photodiodes induit ainsi une émission modulée du faisceau d'électrons. Des études théoriques, couplées à des simulations, ont abouti à la compréhension détaillée du fonctionnement des photocathodes et à la connaissance de leurs performances. Par ailleurs, des résultats traitent de la fréquence de coupure qui limite le dispositif mais apportent néanmoins des perspectives d'améliorations. La fabrication des photocathodes a été menée à terme grâce à la mise au point de trois nouveaux procédés technologiques : une passivation des photodiodes InP-InGaAs-InP par une bi-couche de Slice/Nitrure de Silicium empêchant toute gravure ionique du substrat pendant la croissance des nanotubes. Une technique de croissance de nanotubes de carbone à basse température (550 °C-600 °C) limitant la diffusion des dopants dans les matériaux semiconducteurs de type III-V. Un recuit LASER des nanotubes de carbone améliorant leur qualité cristalline et diminuant leur résistivité. Enfin, les caractérisations du courant en fonction de la tension et les mesures fréquentielles des échantillons ont confirmé les résultats annoncés par la théorie. Une modulation du faisceau électronique contrôlée par voie optique a pu être mesurée jusqu'à 1. 1 GHz, même si la fréquence de coupure actuelle se limite à 400 MHz. La réalisation des photocatodes a ainsi pu être démontrée. De surcroît, les résultats prometteurs aux vues des perspectives d'évolutions, permettent d'envisager une intégration proche des photocathodes dans un tube à ondes progressives.
APA, Harvard, Vancouver, ISO, and other styles
24

Fauchet, Gauthier. "Modélisation en deux points de la turbulence isotrope compressible et validation à l'aide de simulations numériques." Lyon 1, 1998. http://www.theses.fr/1998LYO10027.

Full text
Abstract:
Cette etude s'inscrit dans la continuite de travaux menes au laboratoire de mecanique des fluides et d'acoustique sur la modelisation spectrale de la turbulence isotrope compressible (marion (1988), bataille (1994)). Le modele precedemment developpe (modele e. D. Q. N. M. ) predit des dependances avec le mach turbulent (m#t) des quantites compressibles (telles que l'energie compressible et la dissipation dilatationnelle) en m#2#t. Or une etude du systeme des equations servant a deriver le modele montre une dependance en m#4#t de ces quantites (en accord avec la theorie pseudo-son de ristorcelli (1995)). Ceci nous a amene a remettre en cause la forme retenue par l'e. D. Q. N. M. Pour la decorrelation temporelle des champs (en exp(-t)) et a retenir une forme en exp(-t#2). Cette modelisation conduit a des dependances avec le mach turbulent coherentes avec le systeme initial. De plus, des comparaisons avec des simulations numeriques directes permettent de valider le modele. Un developpement analytique du modele, pour une faible compressibilite, est propose. Celui-ci permet de donner la forme et le niveau du spectre compressible en fonction des quantites caracteristiques de la turbulence incompressible. Il conduit a une relation liant la dissipation dilatationnelle a la dissipation solenoidale, relation susceptible d'etre utilisee au niveau des modeles en un point. Cette etude permet egalement de donner une forme analytique de la production acoustique. Cette forme est en accord avec les theories existant en acoustique. En particulier, la puissance totale rayonnee est trouvee proportionnelle a #s m#5#t. Enfin, des extensions du modele sont etudiees : un modele prenant en compte la convection de la masse volumique et un modele exprime en termes de spectres d'energie sont proposes.
APA, Harvard, Vancouver, ISO, and other styles
25

Menezla, Rabea. "Réalisation d'un logiciel de résolution de l'équation de poisson à trois dimensions : Simulation numérique tridimensionnelle du claquage des composants à jonctions P-N." Ecully, Ecole centrale de Lyon, 1990. http://www.theses.fr/1990ECDL0027.

Full text
Abstract:
Les simulations numeriques sont couramment utilisees au moment de la conception des dispositifs electroniques pour etudier leur comportement sous certaines conditions d'environnement. La modelisation du fonctionnement du systeme a etudier au moyen d'equations mathematiques representant son comportement physique est a la base de tout programme de simulation. Cette these a porte sur la realisation d'un simulateur numerique tridimensionnel de la tenue en tension des composants electroniques discrets ou integres, realises dans une technologie de type planar. Le logiciel concu traite particulierement les effets de courbure apparaissant aux bordures des masques de diffusions et entrainant un claquage de type spherique ou cylindrique. Son objectif est d'etudier le claquage par avalanche survenant dans les dispositifs a jonctions p-n polarisees en inverse (en particulier le claquage spherique), et de donner la distribution de potentiel dans le volume du dispostif d'etude. Les tests de validation du logiciel numerique tridimensionnel clac3 ont porte essentiellement sur l'etude du claquage des diodes a jonctions p-n et des jonctions drain-substrat des transistors pmos
APA, Harvard, Vancouver, ISO, and other styles
26

Joly, Cécile. "Simulations numériques d'un jet rond turbulent et de son interaction avec un tourbillon de sillage." Université de Marne-la-Vallée, 2002. http://www.theses.fr/2002MARN0147.

Full text
Abstract:
Le contexte général de cette étude concerne l’impact des traînées de condensation, ces fameux panaches blancs fréquemment observés dans le sillage des avions, sur l’atmosphère. D’un point de vue aérodynamique, la formation des traînées de condensation se caractérise par l’interaction entre un jet turbulent et un tourbillon de sillage. L’objectif de cette thèse est de contribuer à une meilleure compréhension des phénomènes thermiques et dynamiques mis en jeu dans cet écoulement. Ce travail repose sur la résolution numérique des équations de Navier-Stokes, et de conservation de l’énergie, formulées pour le cas d’un écoulement tridimensionnel, instationnaire et compressible. Deux approches sont considérées: la simulation numérique directe et la simulation des grandes échelles. Une simulation temporelle de la transition à la turbulence d’un jet rond non-isotherme est effectuée sans tenir compte du champ tourbillonnaire. A l’issue de cette simulation, un modèle de tourbillon de sillage est superposé à l’écoulement de jet. La première partie de cette thèse présente les deux approches, les différents modèles de sous-maille choisis pour les simulations des grandes échelles, ainsi que les méthodes numériques employées. La deuxième partie est consacrée à la simulation de l’écoulement de jet, et ici, l’objectif est de déterminer le modèle de sous-maille approprié à cette configuration d’écoulement. La troisième partie est dédiée à la simulation de l’interaction entre le jet et le tourbillon de sillage. Les résultats sont comparés à ceux issue d’une campagne d’essais. Les simulations ont démontré le développement de grosses structures de la turbulence autour du cœur tourbillonnaire, dans lesquelles se concentre le champ de température
The general context of this study concerns the impact of contrails, these famous white plumes frequently observed in the aircraft wake, on the atmosphere. From an aerodynamic point of view, the formation of the contrails is characterised by the interaction between a turbulent jet and a wing-tip vortex. The aim of this thesis is to contribute to a better understanding of the thermal and dynamic phenomena involved in this flow. This work is based on the numerical resolution of the three-dimensional, unsteady and compressible Navier-Stokes and energy conservation equations. Two approaches are considered: the direct numerical simulation and the large eddy simulation. A temporal simulation of the transition to turbulence of a non-isothermal jet is performed without accounting for the vortex flow field. A the end of this simulation, a vortex model is superimposed on the jet flow field. The first part of this thesis describes the two approaches, the different subgrid models chosen for the large eddy simulations, and the numerical techniques employed. The second part is devoted to the jet flow simulation, and here the objective is to determine the subgrid model appropriated to this flow configuration. The third part is dedicated to the simulation of interaction between the jet and the vortex. Results are compared to experimental data. The simulations have demonstrated the development of large scale structures all around the vortex core. The temperature field concentrates in the large scale structures
APA, Harvard, Vancouver, ISO, and other styles
27

Quatravaux, Thibault. "Évolution de la modélisation du procédé VAR : contribution à la description de la dispersion inclusionnaire dans le puits liquide et à la prévention de défauts de solidification." Vandoeuvre-les-Nancy, INPL, 2004. http://www.theses.fr/2004INPL037N.

Full text
Abstract:
Cette thèse s'articule autour de la modélisation du procédé de refusion à l'arc sous vide (V AR) à l'aide du code de calcul SOLAR. Le premier objectif de l'étude concerne l'amélioration de la description de certains phénomènes physiques au cours de l'élaboration, afin d'étendre les applications du logiciel aux simulations de refusions d'aciers. L'évolution de la modélisation des phénomènes de transfert dans le lingot secondaire comprend trois améliorations principales: - la modélisation du transfert thermique latéral, afin de tenir compte du phénomène de retrait entre la paroi du lingot et la lingotière, de la possibilité d'y injecter un gaz neutre et du réchauffement de l'eau dans le circuit de refroidissement en fonction de son débit, - une amélioration de la modélisation de la turbulence, le modèle k-E simplifié initialement implémenté dans le code ne permettant pas de décrire correctement l'écoulement du métal liquide dans le puits, - une nouvelle méthode de simulation de la croissance du lingot, reposant sur une opération cyclique de scission puis de croissance/migration des volumes de contrôle, qui respecte l'aspect continu de la croissance du lingot secondaire et autorise un affinement du maillage près de la surface libre. Le modèle amélioré a pu être finalement validé par comparaison avec des résultats expérimentaux issus de quatre refusions réalisées sur site industriel. Le second objectif vise à caractériser la qualité des produits élaborés en termes de propreté inclusionnaire et de risque de présence de veines ségrégées. Pour décrire le comportement inclusionnaire dans le puits liquide, un modèle trajectographique adapté aux écoulements turbulents a été validé puis implémenté dans le code. Différents comportements de particules ont été mis en évidence. Une éttlde sur le risque d'apparition de freckles a permis de retenir un critère particulièrement bien adapté au procédé. Une généralisation de ce critère, proposée dans ce travail, permettrait d'indiquer l'orientation privilégiée de ces canaux de ségrégation
This thesis deals with the modelling of Vacuum Arc Remelting process (VAR) using the numerical software SOLAR. The first aim of the study is a better description of several physical phenomena which occur during melting, in order to extend the application of the software to simulate the remelting of steel. The evolution in the modelling of transport phenomena in the secondary ingot is based on three major improvements: - lateral thermal transfer modelling, in order to take into account the formation of a gap between the ingot and the mould walls, a possible injection of a neutral gas, and the heating of water in the coolant circuit, according to its flow, - a better turbulence model, since the k-E model implemented previously in the numerical code was not accurate enough to correctly descri~ the flow of the liquid metal in the pool, - a new method to simulate the ingot growth, based on a cyclic operation of splitting and growth/migration of control volumes, which reproduces the continuous growth of the secondary ingot and allows for the refinement of the mesh close to the free surface. Finally, the improved model has been validated by comparison with experimental results provided from four remeltings carried out on full-scale furnaces. The second objective is the characterization of the quality of the manufactured products in terms of inclusion cleanliness and risk of freckles segregated channel generation. Ln order to describe the behaviour of inclusions in the liquid pool, a trajectory model, adapted to account for turbulent flows, was validated and then implemented in the code. Various particle behaviours were distinguished. A study on the risk of freckles generation led to the establishment of a criterion particularly weIl adapted to the process. A generalization of this criterion, suggested in this work, would allow the prediction of the probable orientation of such segregated channels
APA, Harvard, Vancouver, ISO, and other styles
28

Ribot, Bénédicte. "Modélisation numérique d'un système de ventilation d'un tunnel routier par une trappe de désenfumage dans le cas d'un incendie." Lyon 1, 1999. http://www.theses.fr/1999LYO10195.

Full text
Abstract:
L'etude presentee dans ce memoire porte sur la modelisation numerique par la methode des volumes finis d'ecoulements tridimensionnels, turbulents, stationnaires, compressibles en milieux confines comme le sont ceux generes par les systemes de ventilation dans les tunnels routiers en cas d'incendie. L'objectif est de developper et valider des methodes de calcul pour representer les phenomenes physiques intervenant lors d'une aspiration par une trappe de desenfumage d'une nappe stratifiee. L'ensemble des travaux donne des informations et indications sur les conditions de modelisation d'aspiration de fumees par des trappes de desenfumage de tunnels routiers et sur les performances du code cfxf3d pour predire ces ecoulements. L'independance du maillage, l'effet de la nature de la condition limite pour traduire une extraction et l'influence de certains parametres (debit d'aspiration et le nombre de trappes) sont examines. Une etude phenomenologique des ecoulements au sein du tunnel est aussi traitee caracterisant la structure des fumees soumises a un courant d'air longitudinal. Un modele simplifie permettant de reproduire les effets induits par une trappe d'aspiration sur l'ecoulement au sein du tunnel et base sur la notion de puits (de masse, de quantite de mouvement et d'enthalpie) est propose. L'elaboration de ce modele et l'evaluation de ses performances sont effectuees en prenant en compte une trappe d'aspiration, puis trois trappes. Les temps de calcul sont alors fortement reduits. Ces etudes sont completees par une confrontation entre resultats numeriques et experimentaux. Les essais selectionnes ont ete realises sur une maquette de tunnel a l'echelle 1/20 e m e. Des informations interessantes sur la validation des modeles employes et des hypotheses faites sont obtenues. Notamment, il est montre que le modele de turbulence k- standard reproduit correctement les phenomenes d'aspiration de fumees sans ajustement particulier des valeurs des constantes.
APA, Harvard, Vancouver, ISO, and other styles
29

Pignolet-Tardan, Florence. "Milieux thermiques et conception urbaine en climat tropical humide : Modélisation thermo-aéraulique globale." Lyon, INSA, 1996. http://www.theses.fr/1996ISAL0066.

Full text
Abstract:
Afin de réduire les erreurs d'aménagement du tissu urbain, sources d'inconfort pour les usagers, les ingénieurs et urbanistes sont demandeurs de connaissances sous forme de régies expertes, que le code présenté est susceptible de produire. Conçu pour devenir, à terme, un outil d'aide à la conception, le code de calcul CODYFLOW permet de simuler le microclimat généré par un ensemble bâti. Le point initial de nos travaux a consisté dans la définition de l'objet d'étude, le tissu urbain présentant culturellement et historiquement une grande diversité. La modélisation in fine des mécanismes thermophysiques conduisant à de très gros codes, nous avons convenu de ne pas traiter l'îlot urbain dans sa globalité mais de nous limiter à des unités urbaines élémentaires (rue, place) qu'une étude urbanistique a permis de décrire de manière exhaustive. Une approche systémique de l'objet étudié a permis de construire l'organisation générale du code de calcul qui se présente sous la forme d'un assemblage de modules décrivant chacun le comportement thermique d'une partie du système physique. Chacun des sous-systèmes ainsi déterminés est sollicité par les contraintes climatiques : température d'air, écoulements aérauliques, rayonnements solaires directs et diffus, humidité de l'air. La réponse observée est le champ de vitesse, de température et d'humidité caractéristiques du microclimat généré par l'unité urbaine. Ces variables permettent la prédiction de la sensation de confort ou d'inconfort ressentie par un usager de l'espace urbain
In order to reduce design error in urban planning, source of discomfort for the users, designers of urban spaces are looking for expert knowledge and skilled rules that may be achieved by the presented calculation code. Built to become a helpful conceiving code, CODYFLOW allows to simulate the micro-climate in the vicinity of the buildings. The first purpose of our work was to define the subjects studied; the urban fabric of Reunion Island presenting a cultural and historical diversity. The modelisation of thermal and aeraulic exchanges leading to heavy code, instead of dealing with the urban island as a whole, we have focused our study on the elementary urban unit wich compound it (street, square). These urban units were described by an exhaustive way, thanks to an urbanistic study. A systemic approach allows us to build the general structure of the calculation code, which is shown as an assembling of units, each of them describing the thermal behaviour of a part of the physical system. Each of these units is solicited by climatic factors: air temperature, wind, sunshine, humidity. The observed response is the field of temperature, speed and humidity, characterizing the micro-climate generated by the urban unit. These parameters allow us to predict the confort or discomfort sensation felt by the user
APA, Harvard, Vancouver, ISO, and other styles
30

Yu, Qizhi. "Modèles de rivières animées pour l'exploration intéractive de paysages." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0126.

Full text
Abstract:
Dans cette thèse, nous avons proposé un modèle multi-échelle pour l'animation de rivière. Nous avons présenté un nouveau modèle pour chaque échelle. A l'échelle macro, nous avons proposé une méthode procédurale permettant de générer une rivière réaliste à la volée. A l'échelle méso nous avons amélioré un modèle phénoménologique basé sur une représentation vectorielle des ondes de choc près des obstacles, et proposé une methode pour la reconstruction adaptative de la surface de l'eau. A l'échelle micro, nous avons présenté une méthode adaptative pour texturer des surfaces de grande étendue avec des performances indépendantes de la scène. Nous avons également propos é une méthode d'advection de texture. Ces deux modèles reposent sur notre schéma d'échantillonnage adaptatif. En combinant ces modèles, nous avons pu animer des rivières de taille mondiale en temps réel, tout en étant contr?olable. Les performances de notre système sont indépendantes de la scène. La vitesse procédurale et l'échantillonage en espace écran permettent à notre système de fonctionner sur des domaines illimités. Les utilisateurs peuvent observer la rivière de très près ou de très loin à tout moment. Des vagues très détaillées peuvent être affichées. Les différents parties des rivières sont continues dans l'espace et dans le temps, même lors de l'exploration ou de l'édition de la rivière par un utilisateur. Cela signifie que l'utilisateur peut éditer les lits des rivières ou ajouter des îles à la volée sans interrompre l'animation. La vitesse de la rivière change dès que l'utilisateur en édite les caractéristiques, et l'utilisateur peut auss modifier son apparence avec des textures
Rivers are ubiquitous in nature, and thus are an important component of the visual simulation of nature scenes. In nature, rivers are dynamic, therefore animation of rivers is necessary in these visual simulation applications. However, animation of rivers is a challenging problem. It incorporates multi-scale surface details and flow motion, and many phenomena involved have complex underlying physical causes. River animation is particular difficult in emerging interactive applications like Google Earth or games, which allow users to explore a very large scene and observe rivers at a very small scale or a very large scale at any moment. Controlling the design of water simulations is another hard problem. The goal of this dissertation is to achieve real-time, scalable, and controllable river animation with a detailed and space-time continuous appearance. To achieve this goal, we break down the river animation problem into macro-, meso-, and micro-scale subproblems from coarse to fine. We propose appropriate models for each scale that capture relevant surface details and fluid motion. In the macro-scale, we propose a procedural method that can compute velocities of rivers with curved banks, branchings and islands on the fly. In themeso-scale, we propose an improved featured-based simulationmethod to generate the crests of the quasi-stationary waves that obstaclesmake. We also propose a method for constructing an adaptive and feature-aligned water surface according to the given wave crests. In the micro-scale, we propose the use of wave sprites, a sprite-based texture model, to represent advected details with stationary spectrum properties on flow surfaces. Armed with wave sprites and a dynamic adaptive sampling scheme, we can texture the surface of a very large or even unbounded river with scene-independent performance. In addition, we propose a Lagrangian texture advection method that has other applications beyond river animation. We demonstrate that combining our models in three scales helps us incorporate visually convincing animated rivers into a very large terrain in real-time interactive applications
APA, Harvard, Vancouver, ISO, and other styles
31

Diener, Julien. "Acquisition et génération du mouvement de plantes." Grenoble INPG, 2009. http://www.theses.fr/2009INPG0080.

Full text
Abstract:
Le but principal de ma thèse a été de développer des techniques innovantes pour l'animation de plantes. Deux approches ont été explorés : la reproduction du mouvement réel et la simulation temps réel. Premièrement, j'ai combiné des méthodes de suivi par ordinateur avec une interface utilisateur dans le but d’extraire des données fiables à partir de vidéos. Ensuite, une méthode statistique a été conçue pour estimer une structure hiérarchique de branches qui est utilisée pour reproduire le mouvement sur un large éventail de modèles virtuels. Deuxièmement, j'ai développé une nouvelle technique d'animation pour calculer la réponse des plantes à un vent contrôlable interactivement. La contribution principale a été de montrer que de simples approximations du modèle de charge aérodynamique mène à une réduction considérable du coût de la simulation. L'algorithme obtenu profite pleinement des capacités offertes par les cartes graphiques permettant l'animation de milliers d'arbres en temps réel
The primary goal of my Ph. D. Has been to develop innovative animation techniques for virtual plants. Two main approaches have been explored: the reproduction real motion and real-time simulation. First, I have mixed vision algorithms and user interface in order to extract reliable motion data from videos. An innovative method has then been designed to estimate a valid hierarchical structure of branches using statistical study which is used to retarget the video movement on a wide range of virtual plants. Second, I have developed new animation method that computes the response of plants to interactively controllable wind. The main contribution has been to show that simple approximations of the wind load model leads to a drastic reduction of the run-time computations. The simulation algorithm takes full advantage of the parallel processing capabilities of computer graphics cards allowing the animation of thousand trees in real-time
APA, Harvard, Vancouver, ISO, and other styles
32

Chen, Haifeng. "Système de simulation de spectres de masse assisté par ordinateur." Paris 7, 2003. http://www.theses.fr/2003PA077143.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Benchamma, Mérièm. "Réalisation d'un simulateur d'étude et de faisabilité pour la radiothérapie externe dynamique." Aix-Marseille 3, 1995. http://www.theses.fr/1995AIX30013.

Full text
Abstract:
Afin de concentrer une dose homogene sur la tumeur tout en minimisant l'irradiation des structures anatomiques saines par l'utilisation de faisceaux non-coplanaires, un simulateur-entraineur prefacant un futur systeme de conduite de protocoles d'irradiations dynamiques a ete realise pour etudier la faisabilite therapeutique de cette technique et en preparer l'utilisation clinique. Limitee au probleme balistique d'irradiation d'un volume cible approche par une sphere, la definition des positions de la source d'irradiation est obtenue par visualisation interactive des intersections des faisceaux et du volume cible. Les contraintes cliniques, conduisant a la recherche d'une concentration uniforme des radiations dans le volume cible tout en epargnant au mieux les organes critiques et les tissus sains, et les contraintes d'anti-collision des elements du dispositif d'irradiation lors des mouvements constituent les regles a satisfaire par les faisceaux candidats. Les differents faisceaux retenus peuvent egalement etre ajustes en deplacant independamment les machoires du collimateur et en effectuant des rotations de ce dernier. Egalement, pour limiter les zones des structures anatomiques saines exposees aux radiations, le contour de la region a proteger peut-etre dessine sur la coupe scanographique passant par l'isocentre afin de permettre le calcul et la transmission a une table tracante via la liaison serie rs 232 de la forme du cache pour y etre dessinee a l'echelle reelle
APA, Harvard, Vancouver, ISO, and other styles
34

Farissier, Pierre. "Etude d'un modèle cartographique adapté à la simulation des écoulements en rivières." Lyon 1, 1993. http://www.theses.fr/1993LYO10278.

Full text
Abstract:
Le but de cette these est d'etudier un modele cartographique de l'ensemble de la vallee d'une riviere et tel que la surface generee puisse servir de support a des simulations d'ecoulement. Ce modele cartographique est independant des differentes modelisations hydrauliques, assure la coherence hydraulique de la surface de la vallee reconstituee et peut servir de pre et post-processeur pour des codes de calculs hydrauliques. Les donnees requises sont un ensemble reduit de sections en travers du cours d'eau. La surface de la vallee est consideree comme provenant d'un morphogenese purement hydraulique. Cette hypothese permet de definir cette surface comme un ensemble de trajectoires d'ecoulement, ces trajectoires s'appuyant sur des sections en travers. On obtient un modele de surface biparametrique. La surface de la vallee est construite en trois etapes: interpolation des sections en travers de donnees, reparametrage de ces sections pour definir les points d'appuis des trajectoires d'ecoulement et interpolation de ces trajectoires. La surface obtenue est alors discretisee sous la forme d'un maillage qui conserve la topologie de la vallee. Le modele cartographique extrait les donnees geometriques necessaires aux codes de calculs hydrauliques puis utilise les resultats des simulations d'ecoulement pour determiner les zones inondees. La validation du modele cartographique a ete faite sur plusieurs rivieres
APA, Harvard, Vancouver, ISO, and other styles
35

Bonelli, Stéphane. "Contribution à la résolution de problèmes élastoplastiques de mécanique des sols et d'écoulements non saturés par la méthode des éléments finis." Aix-Marseille 2, 1993. http://www.theses.fr/1993AIX22038.

Full text
Abstract:
Cette étude s'est déroulée au sein de l'équipe "Modèles Numériques" de l'institut méditerranéen de technologie. Elle s'inscrit dans la motivation actuelle de la communauté scientifique, dont le CEMAGREF, a pouvoir bien simuler un ouvrage de type barrage en terre. Le choix d'un bon modèle de sol (difficulté majeure) n'est pas discute dans ce travail. L'effort est essentiellement porté sur les outils numériques permettant de dégager plus de temps sur la pré- ou post-étude (le vrai problème d'ingénierie), en réalisant des simulations fortement non linéaires avec un confort appréciable et une précision satisfaisante. L'écriture des lois de bilan d'un milieu poreux déformable polyphasique permet de lister les hypothèses sous-jacentes des modeles usuels, d'introduire les outils de travail heuristiques (principe de Terzaghi, loi de Darcy), et de mettre en évidence les lacunes actuelles de compréhension, de modélisation et d'identification. On tente une approche unifiée des outils classiques utilises en élastoplasticité pour décrire le comportement mécanique des sols satures parfaitement draines. Le modèle CJS (Cambou/Jafari/Sidoroff) pour les sols non cohérents est expose. L'étude formelle des lois élastoplastiques multimécanismes non standard est réalisée: après une rapide analyse de l'existence et de l'unicité en vitesse de variables internes pour une vitesse de déformation donnée, on met le problème sous la forme connue d'une équation différentielle ordinaire ou algébrique. La résolution numérique de problèmes aux limites de type élastoplastique ou écoulement non sature est exposée; elle est mise en oeuvre dans le code aux éléments finis SIC. 2 developpé a l'université de technologie de Compiègne. On propose plusieurs méthodes originales, que l'on compare a d'autres codes de calcul, a des résultats expérimentaux ou a des relevés in situ.
APA, Harvard, Vancouver, ISO, and other styles
36

Reimeringer, Michael. "Une méthodologie et des outils pour concevoir en tenant compte de la simulation." Reims, 2009. http://www.theses.fr/2009REIMS001.

Full text
Abstract:
Les progrès effectués dans les modèles et les logiciels et la puissance des matériels font de la simulation un outil incontournable de la conception. Il est en effet indéniable que l'utilisation des logiciels de simulation, sous toutes leurs formes, apportent des avantages importants: études de solutions alternatives, optimisation des produits, réduction voire disparition des prototypes physiques, évaluation de modes de fabrication, diminution des coûts et des délais. Si l'on ne peut plus imaginer de conception sans appels fréquents à la simulation, l'intégration des calculs dans le processus de conception ne peut se faire sans définir les étapes et les liaisons entre les différents logiciels. Aujourd'hui cette étape de liaison entre ces différents outils n'est pas ou n'est encore que très partielle et l'aspect méthodologique est très souvent occulté
Simulation becomes incontrovertible due to the many advancement made in model, software and material. The use of simulation tools supply many advantages: study of alternative solutions, optimization of product, decrease or disparition of physical prototypes, assessment of manufacturing process, and reduction of cost and delay. Nowadays design is often done without considering subsequent step like simulation. However this step is indispensable
APA, Harvard, Vancouver, ISO, and other styles
37

Chaillat, Stéphanie. "Méthode multipôle rapide pour les équations intégrales de frontière en élastodynamique 3-D : application à la propagation d’ondes sismiques." Paris Est, 2008. http://pastel.paristech.org/5233/01/these_chaillat.pdf.

Full text
Abstract:
La simulation de la propagation d’ondes pour des configurations 3D est un domaine de recherche très actif. Le principal avantage de la BEM est de ne discrétiser que les frontières du domaine. Elle est ainsi bien adaptée aux domaines infinis. Cependant, la BEM classique conduit à des matrices pleines et donc à des coûts de calcul et mémoire importants. La FMM a permis d’augmenter de manière significative les capacités de la BEM dans beaucoup de domaines d’application. Dans ce travail, la FMM est étendue aux équations de l’élastodynamique 3D dans le domaine fréquentiel, pour des domaines homogènes puis, grâce à une stratégie de couplage BE-BE, aux problèmes multi-domaines. D’autres améliorations de la méthode sont aussi présentées: préconditionnement, réduction du nombre de moments, développement multipôle pour les fonctions de Green du demiespace. Des applications en sismologie sont présentées pour des modèles canoniques ainsi qu’au modèle de la vallée de Grenoble
Simulating wave propagation in 3D configurations is becoming a very active area of research. The main advantage of the BEM is that only the domain boundaries are discretized. As a result, this method is well suited to dealing with unbounded domains. However, the standard BEM leads to fully-populated matrices, which results in high computational costs in CPU time and memory requirements. The Fast Multipole Method (FMM) has dramatically improved the capabilities of BEMs for many areas of application. In this thesis, the FMM is extended to 3D frequencydomain elastodynamics in homogeneous and piecewise-homogeneous media (using in the latter case a FMM-based BE-BE coupling). Improvements of the present FM-BEM are also presented: preconditioning, reduction of the number of moments, and formulation of a multipole expansion for the half space fundamental solutions. Seismological applications are given for canonical problems and the Grenoble valley case
APA, Harvard, Vancouver, ISO, and other styles
38

Charentenay, Julien de. "Simulation numérique d'écoulements réactifs instationnaires à faibles nombres de Mach." Châtenay-Malabry, Ecole centrale de Paris, 2002. http://www.theses.fr/2002ECAP0724.

Full text
Abstract:
Au cours de ce travail, l'étude du front de flamme est réalisée grâce à la simulation d'écoulements réactifs multi-espèces. Dans ce cadre, deux codes de simulation numérique directe bases respectivement sur les équations compressibles et sur l'hypothèse des faibles nombres de MAachsont comparés sur trois cas de complexité croissante. Le post-traitement des résultats obtenus montre que les flammes obtenues avec l'approche des faibles nombres de mach sont très similaires à celles obtenues avec l'approche compressible, tout en réduisant sensiblement le temps de calcul. Le code de simulation numérique directe base sur la formulation des faibles nombres de Mach a permis d'étudier l'influence des modelés de transport dans le cas des flammes prémélangées turbulentes. Les simulations d'interactions flammes / tourbillons et flammes / turbulence ont mis en évidence que les flammes obtenues en prenant en compte l'effet Soret sont plus plissées que lorsque l'on néglige cet effet. Toutefois, le traitement statistique de ces résultats n'a pas permis d'identifier avec certitude l'impact des modèles de transport détaillés sur la modélisation de ces flammes. Afin de confronter simulations et expériences, les méthodes numériques utilisées dans les codes de simulation numérique directe ont été modifiées pour utiliser des maillages lâches et irréguliers et de grands pas de temps. L'impact de ces modifications est identifié sur deux cas-tests simples : l'erreur observée est de l'ordre de 7%. La comparaison des simulations et des mesures expérimentales dans le cas d'une flamme a structures cohérentes montre que la fréquence des instabilités est parfaitement reproduite par ce calcul simplifie, mais que la taille de ces structures est sous-estimée par la simulation. Le processus de combustion est globalement très bien reproduit, comme le montrent les profils de température et d'espèces.
APA, Harvard, Vancouver, ISO, and other styles
39

Dubois, Jean-Luc. "L'abstraction fonctionnelle des parties contrôles des circuits pour l'accélération de simulateurs générés : une contribution au développement d'outils de C.A.O. de l'architecture matérielle." Lille 1, 1991. http://www.theses.fr/1991LIL10037.

Full text
Abstract:
L'accroissement incessant de complexité des circuits nécessite la définition de méthodes et d'outils, en particulier de simulation, toujours plus puissants. La génération de simulateurs, c'est-à-dire la traduction de la description d'un circuit en un programme écrit dans un langage de haut niveau, permet d'ajouter la portabilité à l'avantage majeur des méthodes de compilation qui est l'efficacité. L'inconvénient de cette technique réside dans l'importance de la taille des simulateurs produits et est dû à l'emploi du schéma trop classique de traduction d'un algorithme en un autre. Ce problème est évité grâce à la transformation des parties contrôles de circuits avant la génération. Le modèle résultant est alors constitué d'une partie contrôle essentiellement sous forme de données et d'une partie opérative sous forme algorithme. L'emploi de cette méthode, qui ne dépend pas du langage de description utilisé, permet a la fois la réduction de la taille des simulateurs et l'accélération de leur exécution
APA, Harvard, Vancouver, ISO, and other styles
40

Boyère, Emmanuel. "Contribution à la modélisation numérique thermomécanique tridimensionnelle du forgeage." Paris, ENMP, 1999. http://www.theses.fr/1999ENMP0915.

Full text
Abstract:
Le developpement des methodes industrielles et de la recherche appliquee ont fait passer la forge d'une technique transmise par l'experience a l'etat de technologie. Parmi les modeles qui puissent decrire la forge, la thermomecanique des milieux continus, alliee au calcul numerique par la methode des elements finis, s'est averee depuis vingt ans un outil de plus en plus puissant, au fur et a mesure de la croissance des moyens informatiques. On est donc parti du code elements finis forge3 developpe au cemef et deja employe dans les bureaux d'etude de forges francaises et etrangeres. L'objectif etait de developper quelques points du logiciel pour le rendre encore plus industriel. L'etude a conduit a la programmation d'un module de post-traitement des calculs pour suivre le deplacement de points materiels lors du forgeage et permettre l'examen visuel de la deformation de marquages dessines dans la matiere. Elle a permis l'ajout au code d'une procedure d'integration temporelle, dite rk2, d'ordre 2 en temps. On a montre que c'est un point de passage oblige pour la simulation de procedes tels que le laminage circulaire. Une methode de calcul global du probleme couple des deformations dans la piece et du deplacement des outils flottants, qui ne sont pas pilotes par le forgeron, a ete programmee et etudiee dans le code. Enfin une methode de point fixe iterative a ete introduite dans le logiciel pour le calcul des temperatures d'outils dans la perspective de passer a une resolution globale du probleme thermique.
APA, Harvard, Vancouver, ISO, and other styles
41

Jamme, Stéphane. "Étude de l'interaction entre une turbulence homogène isotrope et une onde de choc." Toulouse, INPT, 1998. http://www.theses.fr/1998INPT046H.

Full text
Abstract:
Ce travail met en lumière l'ensemble des mécanismes physiques fondamentaux caractéristiques du phénomène d'interaction entre une turbulence homogène isotrope libre et une onde de choc droite. Un outil numérique permettant la simulation directe de cette configuration d'écoulement est d'abord développé. Différents calculs sont ensuite conduits, donnant lieu à une compréhension précise et détaillée des évolutions observées pour les principales grandeurs statistiques de l'écoulement turbulent au cours de l'interaction avec le choc. L'influence de la nature de la turbulence incidente sur son comportement à travers la discontinuité est également mise en évidence. Nous utilisons pour cela la décomposition modale de Kovasznay qui permet de dégager les effets de la compressibilité sur le processus d'interaction. Une approche théorique est par ailleurs réalisée en s'appuyant sur une analyse linéaire non visqueuse du phénomène. Des comparaisons avec les résultats de simulation numérique directe sont effectuées et d'avèrent très convaincantes sur le plan qualitatif. La majorité des mécanismes fondamentaux inhérents au phénomène d'interaction choc / turbulence sont mis en évidence avec cette approche théorique qui se révèle ainsi très performante pour la configuration étudiée. Au bilan, on dispose d'une base de données susceptible d'être confrontée aux modèles classiques de turbulence compressible. Ce travail constitue également un point de départ indispensable à l'étude de configurations plus complexes telles que l'interaction choc / couche limite turbulente.
APA, Harvard, Vancouver, ISO, and other styles
42

Albaki, Rachida. "Contribution à l'étude des propriétés dynamiques des métaux liquides simples par simulation numérique et modèles analytiques." Metz, 2002. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2002/Albaki.Rachida.SMZ0205.pdf.

Full text
Abstract:
Le but de ce travail est de fournir une description du comportement structural et dynamique des métaux liquides simples. Les résultats présentés se rapportent aux métaux alcalins et alcalino-terreux. Une première partie de l'étude consiste à mettre au point et à tester la description des interactions interatomiques dans ces métaux. La transférabilité de l'état solide à̧ l'état liquide du pseudopotentiel de Fiolhais a ainsi été démontré. En effet, les résultats de dynamique moléculaire pour la structure statique des éléments étudiés sont en accord avec l'expérience. Dans une deuxième partie, les propriétés dynamiques individuelles (fonction d'autocorrélation des vitesses, densité spectrale, fonction mémoire, coefficient d'autodiffusion) obtenues par simulation sont comparées à des modèles analytiques et aux mesures expérimentales, lorsqu'elles existent. L'influence sur ces propriétés de la température et de la densité est discutée. Quant aux propriétés dynamiques collectives (facteur de structure dynamique, fonction de duffusion intermédiaire), elles sont étudiées en utilisant des modèles analytiques tels les modèles viscoélastique et hydrodynamique, ainsi que celui du couplage des modes. Ces modèles sont discutés par rapport à l'expérience.
APA, Harvard, Vancouver, ISO, and other styles
43

Gassenbauer, Václav. "Illumination coherence for ligh transport simulation." Rennes 1, 2011. http://www.theses.fr/2011REN1S098.

Full text
Abstract:
Simulation of light transport in a scene is an essential task in realistic image synthesis. However, an accurate simulation of light as it bounces in the scene is time consuming. It has been shown that a key to speeding up light transport simulation algorithms is to take advantage of the high degree of spatial, angular, and temporal coherence. In this thesis we make three contributions in this area. First, we propose spatial directional radiance caching (SDRC) for accelerating the light transport simulation in scenes with glossy surfaces. The SDRC algorithm takes advantage of the smoothness of shading on glossy surfaces by interpolating the indirect illumination from a set of sparsely distributed radiance samples that are both spatially and directionally close. In the next part of the thesis, we propose an efficient and accurate local principal component analysis (LPCA) algorithm for dimensionality reduction and data compression of large data sets. To achieve efficiency our new algorithm, called SortCluster-LPCA, passes various information from previous iteration to the next. Improved accuracy is achieved through better initial seeding of cluster centroids in LPCA. Finally, we describe a work in progress focusing on the development of an algorithm for interactive relighting of animation sequences with indirect illumination. We formulate the relighting problem as a large 3D array expressing light propagation in a scene over multiple frames. We suggest an adaptive algorithm to make the pre-computation tractable exploiting coherence in light transport
La simulation de la propagation de la lumière dans une scène est une tâche essentielle en synthèse d'images réalistes. Cependant, une simulation correcte de la lumière ainsi que ses différents rebonds dans la scène reste couteuse en temps de calcul. Premièrement, nous proposons l'algorithme de cache de luminance spatial et directionnel SDRC. L'algorithme SDRC tire parti du fait que les variations d'éclairage sont douces sur les surfaces brillantes. L'éclairage en un point de la scène est alors calculé en interpolant l'éclairage indirect connu pour un ensemble d'échantillons de luminance spatialement proches et de directions similaires. Dans la partie suivante, nous présentons un algorithme efficace et précis d'analyse locale en composantes principales LPCA pour réduire la dimension et compresser un grandensemble de données. Pour améliorer l'efficacité de notre nouvel algoritme celui-ci propage les informations issues d'une itération à une itération suivante. En choisissant une meilleure graine initiale pour les centroïdes des clusters dans LPCA, la précision de la méthode est améliorée et produit une meilleure classification des données. Enfin, nous décrivons des travaux en cours de réalisation concernant une méthode de ré-éclairage interactif d'une séquence animée en prenant en compte l'éclairage indirect. Le problème de ré-éclairage est représenté sous la forme d'une grande matrice 3D représentant la propagation de la lumière dans la scène pour plusieurs images de la séquence. Un algorithme adaptatif pré-calcule la propagation de la lumière en exploitant les cohérences potentielles
APA, Harvard, Vancouver, ISO, and other styles
44

Zhang, Xiao Hui. "Simulation avancée des circuits micro-ondes." Paris 12, 1989. http://www.theses.fr/1989PA120040.

Full text
Abstract:
Les objectifs de cette these sont les suivants: 1) realiser une etude theorique de la ligne de transmission aux multiconducteurs dans les multicouches dielectriques. Selon l'approximation quasi-tem, un systeme d'equations differentielles est formule en construisant une fonction de green dans l'espace equivalent homogene, et en le considerant comme un probleme de champs electrostatiques. La methode des moments est utilisee pour sa resolution. Ce travail a conduit a un nouveau logiciel d'aide a la conception microline. Microline est integre dans le progiciel de simulation et d'optimisation des circuits micro-ondes esope, en lui donnant un atout special pour pouvoir traiter des mmics; 2) realiser une etude de simulation des reseaux electroniques non lineaires dans le domaine tempo-frequentiel et mettre au point un algorithme a la fois efficace et robuste du point de vue du calcul non lineaire, et adapte aux structures d'un simulateur de circuits lineaires existant, dans le but de le transformer en un simulateur de circuits micro-ondes non lineaires. Une nouvelle implantation de la methode harmonic balance est proposee ainsi qu'un nouvel algorithme de resolution bgsnl (bloc gauss seidel newton like) qui a conduit a la realisation d'un progiciel industriel de simulation de circuits micro-ondes non lineaires esope non lineaire
APA, Harvard, Vancouver, ISO, and other styles
45

Vettorel, Thomas. "Polymer crystallization studies by computer simulation." Université Louis Pasteur (Strasbourg) (1971-2008), 2005. https://publication-theses.unistra.fr/public/theses_doctorat/2005/VETTOREL_Thomas_2005.pdf.

Full text
Abstract:
Les polymères semi-cristallins sont des systèmes d'un grand intérêt industriel de par leur très nombreuses applications, et constituent également un riche sujet d'étude du fait de la complexité des structures formées au cours de la cristallisation, ainsi que des mécanismes à l'œuvre lors de celle-ci. Nous avons étudié la cristallisation des polymères par simulation numérique de plusieurs façons différentes : des simulations détaillées à l'échelle atomique nous ont permis de reproduire la structure cristalline de chaînes courtes d'alcanes à basse température, dont la simulation lors d'un réchauffement permet de retrouver une phase transitoire bien caractérisée expérimentalement. Le même modèle a été utilisé pour simuler le processus de cristallisation à partir du fondu au cours d'un refroidissement; ce type de simulations réaliste ne permet pas de reproduire des structures cristallines en un temps de simulation restreint. Afin de pouvoir reproduire efficacement des structures semi-cristallines aux caractéristiques réalistes, nous avons utilisé un autre type de simulations numériques nous permettant de considérer des échelles de longueur et de temps plus importantes : ce modèle coarse-grained a permis d'étudier le phénomène de cristallisation en détail, à l'aide de différents paramètres d'ordre caractérisant le cristal et son évolution au cours du temps. Nous avons aussi procédé à une étude détaillée des facteurs de structure du fondu de polymères à haute température de manière à déterminer quelle est l'influence de la structure du liquide sur la formation du cristal. Ces différentes études permettent une meilleure compréhension de l'influence sur le phénomène de cristallisation des différents paramètres utilisés dans la définition des modèles de simulation numérique
Semi-crystalline polymers are of great interest for industrial purposes, and the complex structures they involve as well as the mechanisms leading to the formation of crystals make their study very challenging. We investigated polymer crystallization by computer simulation via different methods: An atomisticly detailed model was used to reproduce the crystalline structure of short alkanes at low temperature, and continuous heating simulations gave rise to a transient phase that is well characterized in experiments. The same realistic model was used to simulate continuous cooling of the melt, but could not yield crystalline structures in a limited simulation time. In order to reproduce efficiently the characteristic features of semi-crystalline polymers, we used another simulation model which addresses larger length and time scales: This coarse-grained model allowed us to study the crystallization phenomenon in detail with several order parameters to characterize the crystal and its time evolution. The detailed study of the structure factors of the high-temperature melt has also been investigated so as to determine the influence of the liquid phase structure on crystal formation. These different studies yield a better understanding of the influence on crystallization of the various parameters entering the definitions of the simulation models
APA, Harvard, Vancouver, ISO, and other styles
46

Brocail, Julien. "Analyse expérimentale et numérique du contact à l'interface outil-copeau lors de l'usinage à grande vitesse des métaux." Valenciennes, 2009. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/6c282378-ea86-4bf0-8c06-48498e37e0da.

Full text
Abstract:
L'étude porte sur la caractérisation de l'interface outil-copeau lors de l'usinage à grande vitesse des métaux. Des études récentes montre que la modélisation de l'usinage grande vitesse nécessite la détermination d'une loi d'interface tenant compte des paramètres de contact (la pression de contact, la vitesse de glissement et la température d'interface) pour décrire plus précisément les paramètres du procédé (les efforts de coupe et la forme du copeau). Des essais de caractérisation basse vitesse, reproduisant les conditions mécaniques et thermiques du contact en pointe de l'outil lors d'une opération d'usinage grande vitesse, sont réalisés avec le test de compression-translation. Le banc a été adapté pour permettre une étude thermomécanique du contact. De nouveaux lopins et de nouveaux contacteurs ont permis de répondre aux exigences de cette étude. Une loi d'interface, dépendante de la pression de contact, de la vitesse de glissement et de la température d'interface a été définie pour le couple tribologique acier AISI 1045 / Carbure non revêtu. Cette loi implémentée dans un modèle numérique de la coupe orthogonale (développé sur Abaqus) offre des améliorations intéressantes. Une étude de sensibilité, menée avec ce modèle, a permis de déterminer les tolérances maximales d'identification des paramètres rhéologiques de la loi de Johnson-Cook, ou des paramètres de contact. Des expériences réalisées sur les aciers AISI 1045 et AISI 304L ont permis de déterminer les paramètres thermiques de contact tels que le coefficient de partage  et la résistance thermique de contact RTC. Le modèle numérique du test montre l'influence de ces paramètres sur le coefficient de frottement
The study relates to the characterization of the tool-chip interface during the high-speed machining of metals. The existing numerical approaches do not generate good correlations of the process variables, such as the cutting forces and the shape of the chip. Recent studies show that the determination of an interfacial law according to the contact parameters (contact pressure, sliding velocity and interfacial temperature) is necessary to describe more precisely the process parameters. Experiments were carried out on the upsetting sliding test that reproduces the mechanics and thermals contact conditions of the HSM process at the tool tip. This specific device has been adapted and the antagonists have been modified for this study. A friction law according to the contact pressure, the sliding velocity, and the interfacial temperature was defined for the tribological system AISI 1045 steel / uncoated carbide. This law implemented in a numerical model of orthogonal cutting (developed in Abaqus) offers interesting improvements
APA, Harvard, Vancouver, ISO, and other styles
47

Mohamed, Kamel. "Simulation numérique en volume finis, de problèmes d'écoulements multidimensionnels raides, par un schéma de flux à deux pas." Paris 13, 2005. http://www.theses.fr/2005PA132020.

Full text
Abstract:
Cette thèse est consacrée à la simulation numérique de problèmes d'écoulements de fluides raides régis par des systèmes de lois de bilan non homogènes, dans des configurations monodimensionnelles et bidimensionnelles. La méthode numérique utilisee est une extension d'un schéma à deux pas (SRNH), comportant un paramètre ajustable, propose par le professeur F. Benkhaldoun dans un cadre monodimensionnel. Ainsi, en un premier temps on a introduit une variante S RN H R, obtenue en remplaçant la vitesse numérique par la vitesse de Rusanov locale, en vue de l'extension du schéma au cas bidimensionnel. Par la suite, une analyse de stabilité du schéma, révèle que celui-ci peut être d'ordre 1 au 2 selon la valeur du paramètre Une stratégie de variation de ce paramètre, basée sur la théorie des limiteurs a alors été adoptée. Le schéma peut ainsi être rendu d'ordre 1 dans les zones a forte variation de l'écoulement, et d'ordre 2, la ou l'écoulement est régulier, Ensuite on a établi les conditions pour que ce schéma respecte la propriété exacte introduite par Bermudez et Vazquez, Une étude d'implémentation des conditions aux limites, adaptée a ce schéma, a également été menée en se basant sur les invariants de Riemann. Dans la deuxieme partie de la thèse, on a appliqué ce schéma à des systèmes monophasiques homogènes et non homogènes. Par exemple on a réalisé la simulation des problèmes de rupture de barrage sur une marche, pour des configurations ID et 2D, en menant en particulier une étude de convergence numérique via la détermination des courbes d'erreurs. Enfin, on a utilisé le schéma pour la simulation numérique de systèmes diphasiques ( Ransom ID et 2D)
This thesis is devoted to the numerical simulation of stiff fluid flows, governed by sys¬tems of conservation laws with source terms (non homogeneous systems). Both one dimensional and two-dimensional configurations are considered. The numerical method used is an extension of the two steps flux scheme (SRNH), which depends on a local adjustable parameter aj+i and which has been proposed by professor F. Benkhaldoun in the one dimensional framework. In a first part of the work, aiming to extend the scheme to the two-dimensional case, we introduce an alternative scheme (SRNHR), which is obtained from SRNH by replacing the numerical velocity, by the local physical Rusanov velocity. Thereafter, the stability analysis of the scheme, shows that the new scheme can be of order 1 or 2 according to the value of the parameter 0j+1. A strategy of variation of this parameter, based on limiters theory was then adopted. The scheme can thus be turned to order 1 in the regions where the flow has a strong variation, and to order 2 in the regions where the flow is regular. After this step, we established the conditions so that this scheme respects the exact C-property introduced by Bermudez and Vazquez. A study of boundary conditions, adapted to this kind of two steps schemes, has also been carried out using the Riemann invariants. In the second part of the thesis, we applied this new scheme to homogeneous and non¬homogeneous monophasic systems. For example, we performed the numerical simulation of shallow water phenomena with bottom topography in both one and two dimensions. We also carried out a numerical convergence study by plotting the error curves. Finally, we used the scheme for the numerical simulation of two phase flow models (Ransom ID and 2D)
APA, Harvard, Vancouver, ISO, and other styles
48

Dridi, Samia. "Essais de caractérisation des structures tissées." Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0041/these.pdf.

Full text
Abstract:
Dans ce travail, on s'intéresse à l'étude et la modélisation de comportement mécanique de structure tissée. On commence par présenter les propriétés des matériaux testés grâce aux essais de caractérisation. Une base des données expérimentales est constituée afin d'analyser le comportement mécanique du tissu sous certaines sollicitations, et en particulier le cisaillement, moyennant la technique de corrélation d'image. Ensuite, en adoptant une approche hyperélastique, un modèle simplifié est développé permettant d'étudier numériquement l'influence de rapport des rigidités de traction et de cisaillement sur le comportement mécanique tissu suite à une extension à 45. Enfin, en se basant sur approche phénoménologique, une loi de comportement hyperélastique en puissance est proposée. Ce modèle est implanté dans une routine Vumat d'Abaqus/Explicit. Il est identifié à partir des essais de traction et de cisaillement et validé par certains cas de mise en forme des renforts tissés
In this work, we interested to the study and the modelling of mechanical behaviour of weave structure. We begin by presenting the properties of tested materials thanks to tests of characterization. An experimental data base is established to analyze the mechanical behaviour of fabric under some solicitations, in particular the shear, using the technique of digital image correlation. Then, by adopting a hyperelastic approach, a simplified model is developed allowing to study numerically the influence of the report of tensile and shearing rigidities on the mechanical behaviour of woven fabric, further to an extension in 45. Finally, by basing on phenomenological approach, a hyperelastic behaviour law is proposed. This model is implanted in a routine Vumat. It is identified from the tensile and the shearing tests and validated by certain cases of composite reinforcement forming
APA, Harvard, Vancouver, ISO, and other styles
49

Barrero, Daniel. "Simulation et visualisation de phénomènes naturels pour la synthèse d'images." Toulouse 3, 2001. http://www.theses.fr/2001TOU30001.

Full text
Abstract:
Les phenomenes naturels sont omnipresents dans notre environnement et leurs comportements se rappelent a nous tous les jours. La plupart du temps ils sont visibles a l'il nu et comprennent une serie de phenomenes tres divers dont les plus connus sont ceux correspondant a des milieux participants. Ce sont ceux auxquels on a affaire le plus souvent dans notre vie quotidienne : le brouillard matinal, l'evolution des nuages, la fumee de cigarette ou le feu dans la cheminee. Ainsi, il va de soi, que lorsqu'on veut recreer une scene quelconque a l'aide de l'ordinateur, il est essentiel que les phenomenes naturels soient pris en compte. En consequence, dans le domaine de la synthese d'images, le developpement d'un modele convaincant des phenomenes naturels est devenu l'un des problemes les plus attirants. Etant donne la diversite et la complexite de ces phenomenes, la plupart des modeles existants ne concernent que les phenomenes les plus courants, dont les milieux participants plus specialement. En effet, vu l'ubiquite de ces derniers depuis quelques annees il y a eu un interet croissant pour reproduire de facon plus precise les milieux participants et leurs comportements dans le but de generer des images de plus en plus realistes. Comme resultat, differentes approches avec plusieurs degres de compromis vis a vis des modeles physiques ont ete proposes pour essayer de les representer. Le travail de cette these s'inscrit dans cette perspective. Ainsi, dans un premier temps, nous avons developpe un nouveau modele pour la representation des milieux participants turbulents permettant de representer les differents phenomenes optiques et dynamiques s'y deroulant de facon tres realiste. La technique developpee pour representer le comportement
APA, Harvard, Vancouver, ISO, and other styles
50

Guilminot, Virginie. "La synthèse d'image animée : au-delà d'une simulation réaliste." Paris 8, 1996. http://www.theses.fr/1996PA081159.

Full text
Abstract:
L'esthétique réaliste très marquée d'une grande partie des images de synthèse en a peu à peu fait son principal signe de qualité. Cette thèse mixte vise, d'une part à comprendre la présence prononcée du réalisme au sein d'images entièrement fabriquées par ordinateur et, d'autre part à proposer des alternatives à cette esthétique dominante. De nombreux modèles scientifiques, inspirés de la réalité, hantent les logiciels d'animation 3D. L'auteur d'images de synthèse a un rôle prépondérant à jouer dans le combat de ces modèles : sa sensibilité et son intuition peuvent lui permettre d'échapper au moule "réaliste" imposé par l'outil. C'est là mon hypothèse principale. Le réalisme règne sur les domaines de prédilection de la synthèse d'image 3D : la recherche, la TV, le cinéma, sont atteints mais aussi, la fiction, les écoles et même souvent la création. Pourtant, des auteurs ont réussi à y échapper. Il sont peu nombreux, mais ce sont les pionniers. Citons trois d'entre eux : Joan Staveley, Tamás Waliczky, Michel Bret. Leur démarche sont différentes dans leur forme mais semblables dans leur volonté de sortir, et même sauver, l'infographie de la simulation réaliste. Mon désir est identique. Durant l'élaboration de cette thèse mixte, j'ai réalisé et fabriqué trois films courts, en images de synthèse tridimensionnelles. Mon but a été de privilégier la sensibilité plutôt que la prouesse technologique perpétuellement tournée vers les défis réalistes. Il est possible d'éviter le piège du réalisme. En narguant les critères des diffuseurs et en manipulant effrontément les logiciels, il est possible d'obtenir des images de synthèse différentes. Peu à peu, une nouvelle façon de penser les outils apparaît, et peut-être avec elle, des films et des auteurs qui vont bousculer l'ordre établi de la simulation réaliste
A majority of 3d films and computer graphics respect a realistic aesthetic. On one hand, I will analyse why such totally made images initiate a film or reality and on the other hand, I will try to offer alternativity in order to create an other aesthetic, not being realistic. Softwares need numerous scientific formulas, therefore the author, while manipuling it, will be the main actor to change the situation. This is the main point. Realism exists in every 3d application, such as research, tv, cinema, fiction, school and even often in creation. A few artists managed to escape from realism, i. E. : Joan Stavely, Tamas Waliczky or Michel Bret. Each has its own way of working but they all aim at the same: not to reach realistic simulation. I agree on this point and illustrate my thinking, I made three 3d films with more sensitivity than technical challenge. It is possible to avoid the trap of realism. Indeed, by manipulating and divert the software, one can obtain different 3d computer graphics. Step by step, a new approach to handle and to develop tools apears, and thanks to this, authors can create films other than realistic.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography