Dissertations / Theses on the topic 'Physique de l'atmosphère – Méthodologie'

To see the other types of publications on this topic, follow the link: Physique de l'atmosphère – Méthodologie.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Physique de l'atmosphère – Méthodologie.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Herig, Coimbra Pedro Henrique. "A whirlwind journey of wavelet turbulent flux mapping : estimation of spatialized turbulent flux on tall towers and its uncertainties." Electronic Thesis or Diss., université Paris-Saclay, 2024. https://theses.hal.science/tel-04637523.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le climat et l'activité humaine sont étroitement liés. Les émissions de gaz à effet de serre (GES) impactent la dynamique climatique et la qualité de l'air, affectant des millions de personnes dans le monde. La surveillance efficace des GES est essentielle pour des décisions politiques éclairées, mais elle est complexe en raison de la variabilité des sources et puits, ainsi que du transport atmosphérique. Les réseaux de surveillance abordent cette variabilité en déployant des capteurs dans des lieux géographiques divers, échantillonnant en continu sur le temps.Les zones urbaines sont des points d'émission clés. Cependant, directement surveiller les changements de GES sur > 5 km2 avec des sources variées et des zones végétalisées manque d'une méthode standard. La méthode de covariance turbulente (eddy covariance, EC) offre une surveillance directe et continue du flux net de GES. L'EC basée sur les ondelettes fonctionne sur les mêmes principes mais ne nécessite pas de stationnarité, laissant plus de données exploitables pour l'analyse, ce qui est particulièrement bénéfique dans les environnements urbains complexes.Démêler les composantes anthropiques et biogéniques d'un flux net de CO2 est reconnu comme un problème clé à résoudre dans les zones urbanisées. Les modèles écosystémiques conventionnels utilisés pour partitionner la productivité primaire brute (GPP) et la respiration de l'écosystème (Reco) ne sont pas appropriés pour les zones urbanisées. La partition directe en utilisant des corrélations haute fréquence entre les gaz traceurs peut aider à surmonter les limitations des méthodes de partitionnement standard.Bien que l'EC reste la norme pour les études locales, l'estimation des flux de surface à plus grande échelle implique souvent d'assimiler des mesures de concentration de fond à des estimations antérieures à l'aide de modèles de transport. Les méthodes d'inversion utilisant les données de flux de tour sont encore rares et il serait intéressant de les tester dans les zones urbanisées.L'objectif de cette thèse était d'évaluer l'EC basée sur les ondelettes combinée à des méthodes d'inversion bayésiennes pour la cartographie des flux de CO2. Au cours de la thèse, j'ai découvert une nouvelle méthode de partitionnement direct qui a été utilisée pour améliorer l'inversion globale dans la zone suburbaine du plateau de Saclay.Dans le premier article de la thèse, nous avons proposé la nouvelle méthode de partitionnement direct basée sur l'analyse en quadrants des flux décomposés en fréquence de CO2 et de vapeur d'eau. Nous avons montré que cette méthode pouvait fournir des estimations impartiales de GPP et Reco. Nous avons également constaté que l'EC basée sur les ondelettes a gardé jusqu'à ~30% plus des données exploitables.Dans le deuxième article, nous avons utilisé une grande tour équipée d'analyseurs à haute précision mais lents. Malgré des fréquences d'acquisition plus lentes, l'atténuation était limitée à ~20 % par une plus faible contribution de hautes fréquences à cette hauteur. Les résultats encouragent une collaboration entre les réseaux atmosphériques et écosystémiques.Dans le troisième article, nous avons combiné la méthode de partitionnement proposée dans le premier article avec les instruments d'une tour atmosphérique du deuxième article. Le flux de CO2 partionné en biogéniques et anthropiques ont été assimilé dans des estimations spatialisées des flux à quelques km2. Les cartes de flux obtenues offrent l'avantage de reposer sur des mesures de flux directes à l'échelle du paysage et peuvent être utilisées pour informer les inversions à grande échelle à des échelles plus larges.Les résultats centrés sur la région parisienne fournissent des bases pour les mesures de flux à l'échelle du paysage et à definir des stratégies de surveillance des émissions. Ces avancées contribuent à la compréhension et à la résolution des défis environnementaux aux échelles temporelles et spatiales où les décisions sont prises
Climate and human activity are closely linked. Greenhouse gas (GHGs) emissions impact climate dynamics and air quality, affecting millions globally. Effective GHG monitoring is essential for informed policy decisions, yet it is complex due to spatial and temporal variability of sources and sinks, and atmospheric transport. Monitoring networks address this variability by deploying sensors across diverse geographic locations sampling continuously over time.Urban areas are key emission points, driving climate change. However, monitoring direct GHG changes over >5 km2 with varied sources and vegetated areas lacks a standard method. Eddy Covariance (EC) offers direct, continuous GHG net flux monitoring. Wavelet-based EC operates on the same principles as the standard method but calculates covariance using frequency decomposed time series. This approach does not require stationarity, leaving more data available for analysis, particularly beneficial in complex urban environments where non-stationary fluxes are common.Disentangling anthropogenic and biogenic components of a net CO2 flux is recognised as a key issue yet to be resolved in urbanised areas. Conventional ecosystem models used to partition gross primary productivity (GPP) and ecosystem respiration (Reco) are not appropriate for urbanised areas. Direct partitioning using high-frequency correlations between tracer gases may help overcoming the limitations of standard partitioning methods.While Eddy Covariance remains standard for local studies, estimating larger-scale surface fluxes often involves assimilating background concentration measurements to prior estimations using transport models. The progress in satellite imagery and detailed inventories provides a new basis that helps improve these methods. However, inversion methods using tower flux data are still sparse and would be interesting to test in urbanised areas.The objective of this PhD was to evaluate wavelet-based EC combined with Bayesian inversion methods for CO2 flux mapping. During the course of the PhD I discovered a new direct partitioning method that was used with a combination of CH4 and CO to improve the overall inversion in the suburban area of the Saclay plateau.In the first paper of the PhD, we hypothesised that decomposing concentration and wind signals by frequency can capture individual gusts within each frequency, typically mixed in the original signal. We leveraged this feature to propose a new parameter-free direct partitioning method based on quadrant analysis of CO2 and water vapour frequency decomposed fluxes. We showed that this method could indeed provide unbiased estimates of GPP and Reco at a crop and a forest ecosystem site near Paris. We also found that wavelet eddy covariance further saved up to 30% of the non-stationary data in these sites.In the second paper, we proposed using tall towers equipped with high-precision but slow analysers for measuring fluxes. Despite slower acquisition frequencies, attenuation was limited to 20 % by a lower contribution of high frequencies at this height. Results encourage further collaboration between atmospheric and ecosystem networks for in-situ measurements.In the third paper, we combined the partitioning method proposed in the first paper with the flux from the second paper, including now more gases measured to partition CO2 fluxes in biogenic and anthropogenic components and assimilate them in previous spatially-explicit estimations of fluxes at few km2. The obtained flux maps offer the advantage of relying on direct flux measurements at the landscape scale and may be used to informing large-scale inversions at broader scales.Results focused on the Parisian region provide valuable insights for flux measurements at the landscape scale and beyond, and contributing to emission monitoring strategies. These advancements contribute to understanding and addressing environmental challenges at the temporal and spatial scales where decisions are made
2

Chichery, Arnaud. "Analyse des spectres infrarouges haute résolution des formes isotopiques de l'ozone. Application aux études atmosphériques." Reims, 2000. http://www.theses.fr/2000REIMS019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Outre son interet fondamental pour la comprehension de la dynamique intramoleculaire, l'etude de la molecule d'ozone s'avere etre tres importante compte tenu de son impact sur la physico-chimie de l'atmosphere terrestre. Les travaux presentes ici s'inscrivent dans le cadre de l'analyse exhaustive du spectre infrarouge de cette molecule et de ses derives isotopiques, conduisant ainsi aux parametres spectroscopiques de 57 etats vibrationnels. A l'aide du spectrometre par transformee de fourier de l'universite de reims, de nombreux spectres ont ete enregistres pour les molecules 1 6o 3, 1 8o 3, ainsi que pour les isotopes monosubstitues en 1 6o et 1 8o. Leur analyse a conduit a l'interpretation d'un grand nombre de bandes vibrationnelles utilisant tres souvent un modele d'interaction en polyade, tenant compte des resonances anharmoniques et de coriolis. Les molecules 1 6o 3 et 1 8o 3 (variete isotopique totalement substituee) presentent les memes proprietes de symetrie et ont, par consequent, des structures spectrales similaires. En outre, les resonances observees presentent des caracteristiques communes : dans les deux cas, les schemas de resonances lies a la proximite 1 3 qui permettent de decrire les etats inferieurs, ne semblent pas directement extrapolables aux etats excites : certains couplages deviennent negligeables tandis que de nouvelles resonances accidentelles doivent etre introduites dans les modeles. L'etude des bandes des isotopes monosubstitues en 1 6o et 1 8o est rendue tres delicate du fait de la presence de l'ensemble de ces especes dans la cellule. C'est pourquoi l'objectif a le plus souvent ete limite a la determination des centres de bandes afin de completer les informations necessaires a la determination
3

Guedje, François Kossi. "Détermination des propriétés microphysiques et optiques de l'atmosphère par traitement analytique de signaux Lidar." Perpignan, 2008. http://www.theses.fr/2008PERP0909.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les nuages constituent l'une des composantes essentielles du système climatologique de la Terre. De nouvelles techniques de télédétection permettent de mieux comprendre leurs propriétés et leurs effets. Dans cette thèse, nous menons une étude des propriétés physiques macroscopiques et microscopiques de l’atmosphère en utilisant sa réponse à une excitation laser générée par un LIDAR (Light Detection And Ranging). La réception des photons diffusés par les molécules d’air et par les particules atmosphériques conduit à un signal qui renseigne sur le profil de l’atmosphère traversée. Nous étudions d’abord la réponse à une excitation électromagnétique monochromatique, en fonction de l’altitude, en modélisant plus particulièrement la réponse des perturbations. Nous montrons que la densité de probabilité Lorentzienne représente correctement l’évolution de la densité des particules dans les nuages. Nos modèles théoriques, par ajustement des paramètres, décrivent bien les signaux expérimentaux. Nous déduisons des renseignements sur l’état instantané de l’atmosphère et la caractérisons en déterminant d’importantes constantes physiques. Nous étendons cette étude en considérant d’autres lois de probabilités susceptibles de représenter des cas particuliers. Ainsi, nous avons pu prendre en compte, avec précision, la dissymétrie observée quelquefois dans la réponse d’un nuage. Enfin, nous proposons une nouvelle formulation du signal Lidar qui tient compte désormais de l’influence de la longueur d’onde de l’onde excitatrice sur toutes les composantes de l’atmosphère. Nous en déduisons une bonne estimation du rayon moyen des particules dans les nuages et leur densité.
4

Faivre, Michaël. "Etude par imagerie stéréoscopique et par interférométrie des structures dynamiques de la haute atmosphère." Besançon, 2004. http://www.theses.fr/2004BESA2062.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Haj, kacem Mohamed Amine. "Contribution au développement d'une méthodologie de diagnostic des systèmes Cyber-Physique." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT119.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes industriels recouvrent de nombreuses formes. Aujourd'hui, ils sont le plus souvent organisés en réseaux. Les nouvelles technologies de l'information et de la communication apportent un ensemble de moyens supplémentaires pour réaliser des applications ayant un intérêt majeur pour renforcer l'exploitation sûre de ces systèmes et la sécurité des personnes.Parmi ces systèmes industriels, on peut citer les systèmes cyber-physiques (CPS) caractérisés par un grand nombre de variables, des non linéarités et des incertitudes. Leur décomposition en sous-systèmes, permet de les rendre plus facilement gérables et organisés de façon hiérarchique, est fondamentale. Chacun des sous-systèmes est constitué de différents composants remplaçables interconnectés qui réalisent différentes fonctions.Dans cette optique, nous proposons une approche de diagnostic basée sur quatre types de connaissances : fonctionnelle, structurelle, topologique et comportementale.Cette approche qui inclut la détection et la localisation, exploite la représentation des différentes connaissances pour détecter et isoler la source de défaillance. Afin de lever toute ambigüité de localisation, l’adjonction d’un automate temporisé permet, grâce à une analyse temporelle, d’identifier efficacement le ou les composants défectueux. L’approche multimodèle proposée est agencée autour de trois algorithmes.La modélisation et d’analyse des défaillances est illustrée sur un système cyber-physique : le robot de téléprésence "RobAIR". Les différents modèles de connaissances ont été établis avec une démarche d’analyse ainsi que la construction du diagnostiqueur basée sur des signatures préalablement définies.L‘implémentation des algorithmes de détection, d’isolation sous Simulink/ Stateflow de Matlab a permis de construire le diagnostiqueur selon la méthodologie proposée et valider ainsi notre approche par simulation du fonctionnement avec injection de façon aléatoire de différentes défaillances.La méthode d’analyse proposée a été appliquée aux tests de démarrage du robot RobAIR avec une attention particulière sur la partie déplacement. Le test de l’ensemble des fonctionnalités du robot est réalisé par la programmation de la carte Arduino. Pour cette application, les algorithmes de détection et d’isolation ont été complétés par la détection d’obstacle et l’identification du mode défaillance
Industrial systems cover many forms. Today, they are most often organized in networks. The new information and communication technologies provide a set of additional means to realize applications of major interest to strengthen the safe operation of these systems and the safety of people.Among these industrial systems, we can cite cyber-physical systems (CPS) characterized by a large number of variables, nonlinearities and uncertainties. Their decomposition into subsystems, making them more manageable and hierarchically organized, is fundamental. Each of the subsystems consists of different interconnected replaceable components that perform different functions.With this in mind, we propose a diagnostic approach based on four types of knowledge: functional, structural, topological and behavioral.This approach, which includes detection and localization, exploits the representation of different knowledge to detect and isolate the source of failure. In order to eliminate any ambiguity of location, the addition of a timed automat allows, thanks to a temporal analysis, to efficiently identify the defective component(s). The proposed multimodel approach is organized around three algorithms.Modeling and failure analysis is illustrated on a cyber-physical system: the "RobAIR" telepresence robot. The different knowledge models were established with an analysis approach as well as the construction of the diagnostician based on previously defined signaturesThe implementation of Matlab's Simulink / Stateflow isolation and detection algorithms made it possible to build the diagnoser according to the proposed methodology and thus validate our approach by simulating the operation with random injection of various failures.The proposed analysis method was applied to the RobaIR robot's start-up tests with particular attention to the displacement part. The testing of all the robot's functionalities is done by programming the Arduino board. For this application, the detection and isolation algorithms have been supplemented by obstacle detection and failure mode identification
6

Leclair, de Bellevue Jimmy. "Analyse et modélisation des échanges verticaux induits par les systèmes convectifs des latitudes tropicales : effets sur l'ozone troposphérique." La Réunion, 2006. http://tel.archives-ouvertes.fr/tel-00468500/fr/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif était d'approfondir notre connaissance sur les mécanismes d'échanges, près des zone s de convection profonde, plus particulièrement en périphérie des cyclones tropicaux en explorant les liens entre la convection tropicale et l'ozone troposphérique. Une approche climatologique a montré que l'influence de l'occurence fréquente de ces systèmes convectifs sur l'ozone troposphérique est double. L'analyse d'un cas de transfert subsident intense le 6 avril 1995 à la Réunion, alors à l'ouest du système Marlène, a permis de caractériser cet échange stratosphère-troposphère. L'examen du modèle idéalisé de cyclone tropical Hurricane a apporté des compléments dynamiques et a généralisé cette étude de mécanismes. De manière complémentaire au cas Marlène, trois situations météorologiques distinctes ou une forte interaction entre les dynamiques de la convection, du système jet-front et des ondes de Rossby induisent des échanges stratosphère-troposphère sont documentées
The objective was to perform our knowledge on the mechanisms 'exchanges, close to the zone S of major convection, more particularly in periphery of the tropical cyclones by exploring the bonds between tropical convection and tropospheric ozone. A climatological approach showed that the influence of the occurrence attends these systems convectifs on tropospheric ozone is double. The analysis of a case of transfer intense subsident on April 6th, 1995 in Reunion, then on the West of the system Marlène, allowed to characterize this exchange stratosphere-troposphere. The examination of the model idealized by tropical cyclone Hurricane brought dynamic complements and generalized this study of mechanisms. In a additional way in the case Marlène, three different synoptic situations or a strong interaction between convection, jet-front system and Rossby waves induce stratosphere-troposphere exchanges have been documented
7

Faduilhe, Denis. "Détermination des profils lidar de température et d'aérosols par rétrodiffusions élastique et Raman : application à l'étude climatologique de la zone sud subtropicale à partir des données de la Réunion, 21°S, 55°E." La Réunion, 2006. http://elgebar.univ-reunion.fr/login?url=http://thesesenligne.univ.run/06_03-fadhuile.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La station lidar de la Réunion permet depuis 1994 de déterminer des profils de température atmosphérique par le biais d'un code d'inversion. Une analyse d'intercomparaison a montré le bon comportement de ce code. L'implémentation d'une voie supplémentaire d'acquisition lidar en 1999 a permis une meilleur estimation de la température atmosphérique. Cependant, une correction est nécessaire lors de contaminations par des milieux denses de particules. Les signaux lidar nécessitent donc une attention particulière d'autant qu'ils portent des signatures d'ondes de gravité dont l'énergie, calculée , varie suivant les mois de l'année. La climatologie en température de la moyenne atmosphère au dessus de la Réunion et sa comparaison avec différents modèles climatologiques ont mis en évidence des écarts attendus du fait du nombre pas assez élevé de mesures quotidiennes de bonnes résolutions dans l'hémisphère sud et notamment dans la zone subtropicale
Since 1994, Réunion lidar station has got technique to estimate atmospheric temperature profiles using an inversion code. An intercomparison analysis showed good performance of this code. In 1999, implementation of raman channel allowed us to estimate best values of higher tropospheric and the lower stratospheric temperature data. However, a correction is required to resolve good quality data during contamination of data due to dense media of particules. This observation is needed to take into account to identify small scales structure as gravity waves that energy changes according to the latitude and the season. The temperature climatology of the middle atmosphere over la Reunion and its comparison with different model climatologies highlighted some expected deviations due to the lack of reliability in daily measurements with a good resolution over the sub-tropical zone in the southern hemisphere
8

Ndjountche, Njiki Georges. "Contribution a la méthodologie de formulation des bétons de ciment poreux et drainants." Lyon, INSA, 1994. http://www.theses.fr/1994ISAL0039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Parmi les technologies alternatives à l'assainissement urbain, les chaussées poreuses occupent une place prépondérante. Cette étude contribue à l'élaboration d'une méthodologie de formulation des bétons de ciment poreux et drainants, destinés à la construction des chaussées poreuses urbaines (C. P. U). L'utilisation de liant composé "CP ARP-Pouzzolane" et d'un adjuvant approprié montre que les propriétés rhéologiques et physico-chimiques du liant constituant la matrice cimentaire du béton ont, en plus du choix du squelette granulaire, une influence sur les caractéristiques mécaniques, hydrauliques, et sur la durabilité du matériau. La connaissance des propriétés de la matrice cimentaire permet une meilleure appréhension du vieillissement des structures en béton de ciment poreux
Porous road surfaces are of primary importance amongst the vanous alternative technologies for urban drainage. This thesis is a contribution towards the specification technics with regard to the composition of porous cernent concrete for use as an urban paving materiel. The usage of a composite binder "High Performance Ordinary Portland Cement Pozzolanna" and an appropriate additive shows that the rheologic , physical and chernical properties of the links which make up the cernent matrix of the concrete, like the choice of grain size spectrum, have an influence on the mechanical and drainage characteristics of the material and its durability. A knowledge of the properties of the cernent matrix allow better prediction of the ageing of porous cernent concrete structures
9

Ymele, Jean-Pierre. "Le statut de l'observateur en physique classique : études sur la constitution d'une pensée de l'observation et de l'objectivité." Paris 7, 2006. http://www.theses.fr/2006PA070023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La conception courante de l'objectivité dans ses rapports à l'observation repose sur un rapport dualiste entre le sujet de la connaissance et un objet donné possédant des propriétés intrinsèques et indépendantes. Cette thèse, à la lumière d'une enquête dans quelques pages de l'histoire de la physique classique, montre comment la pensée de l'observation et de l'objectivité s'est constituée en partant de cette conception héritée de Descartes, pour s'orienter progressivement vers une dynamique de relations ou d'interactions dans laquelle le rapport du sujet à l'objet est désormais pensé au travers des médiations par lesquels ce dernier est construit. En effet, depuis le corps et les sens jusqu'aux outils pratiques et conceptuels, une chaîne de médiations lie le sujet à l'objet. De l'évacuation de ces médiations dans la mécanique rationnelle, on montre comment leur pensée s'est ensuite progressivement imposée, et est devenue alors la démarche première d'objectivation. On montre comment le statut de l'observateur fluctue entre l'extériorité qui définit l'objet et l'intériorité qui définit le sujet. L'analyse de l'optique montre comment la lumière oscille entre le statut d'objet du regard et celui d'outil du regard, les deux s'éclairant mutuellement. L'objet n'est plus qu'un objectif auquel l'accès est possible, mais au travers d'une pensée continuelle de ces médiations. Mais l'objet n'est pas pour autant dissout dans cette dialectique ; il est un objectif programmatique vers lequel le regard du sujet est pointé, mais dans le champ duquel, la pensée, en partant des médiations et des interactions, cherche cependant, et sans doute cherchera toujours, à neutraliser ces dernières
The common conception of objectivity in relation to observation depends on a dual relationship between the subject and an object with intrinsic and independent properties. This Thesis sets out to investigate through some pages of the history of classical physics how the thought of observation and objectivity have been built, from Descartes dualistic conception according to which attention is focussed on an object, it moved continuously towards a dynamic of relations and interactions through which the object is constructed. From the body and the senses right down to practical and conceptual tools, the object is known through a mediation chain. From the evacuation of these mediations in the field of rational mechanics, we see how their thought is portrayed. The thought of instruments and these tools of knowledge thus become the first step towards objectivation. An analysis of the role of light in the area of knowledge reveals how light oscillates between thé statute of the object and that of the tool, both of them brighten one another mutually. The object becomes an objective which can be attained through a continuous thought of these mediations. The object is however not dissolve in this dialectics; it becomes a programmatic objective towards which attention is focussed, but in the shot of which the thought, through mediations an interactions, tries and will continue to try to neutralise the latter
10

Benec'h, Sébastien. "Modélisation des coefficients d'élargissement collisionnel des molécules du type toupie-symétrique impliquées dans la physico-chimie de l'atmosphère." Angers, 2002. http://www.theses.fr/2002ANGE0054.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, les coefficients d'élargissement des raies de la bande fondamentale de vibration du monoxyde d'azote (NO) perturbé par N2 ont été calculés au travers du modèle de la trajectoire exacte appliquée, pour la première fois, au cas de molécules du type toupie-symétrique. Ces coefficients d'élargissement ont été calculés pour les branches R et P des sous-bandes diamagnétiques, 2II1/2, et paramagnétique, 2II3/2, dans la gamme de températures 163 K - 296 K présentant un intérêt atmosphérique. En combinant les résultats de ce travail avec ceux d'une étude similaire, portant sur le calcul des coefficients d'élargissement des raies de NO perturbé par O2, nous avons analysé la dépendance en température de l'élargissement collisionnel des raies de NO perturbé par l'air. Dans un deuxième temps, nous avons calculé l'élargissement des raies d'absorption associées aux transitions micro-ondes, entre les deux composantes du doublet [Lambda], et aux transitions purement rotationnelles dans le cas du radical libre OH perturbé par N2, O2 et Ar. Ces calculs ont été réalisés dans le cadre du modèle de la trajectoire exacte, pour des températures comprises entre 194 K et 300 K, dans l'approximation du cas (a) de Hund ; cette dernière s'avère être une approximation judicieuse pour les faibles valeurs du nombre quantique ratationnel J expérimentalement étudiées. Dans la dernière partie, nous avons enregistré, du côté Stokes, le spectre Raman anisotrope de la bande [nu]1 de vibration du CO2, et ceci jusque dans l'aile lointaine du spectre. L'analyse théorique de cette étude a été effectuée dans le cadre de l'approche ECS non Markovienne.
11

Bouarar, Idir. "Impact de la mousson africaine sur la composition chimique de l'atmosphère en Afrique équatoriale." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00767800.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des quantités importantes de gaz réactifs et de particules sont émises en Afrique équatoriale par l'activité humaine et naturellement par les écosystèmes forestiers, les éclairs et les sols. Les différents processus de transport qui caractérisent cette région pendant la saison de la mousson (e.g. Jets d'Est Africain et Tropical, convection profonde) peuvent conduire à la redistribution de ces émissions en dehors du continent Africain et influencer ainsi aussi bien le bilan régional que global de l'ozone (O3). Le but de mes travaux de thèse est d'améliorer notre compréhension sur l'impact de ces émissions et de ces processus de transport sur la composition chimique de l'atmosphère en Afrique équatoriale. Les données mesurées pendant la campagne AMMA qui a eu lieu en été 2006 en Afrique de l'ouest ainsi que les données du programme MOZAIC sont analysées et confrontées aux résultats du modèle global LMDz_INCA. Cela permet d'évaluer les performances de ce modèle au dessus de l'Afrique équatoriale d'une part et, d'autre part, d'analyser l'influence des différentes émissions et des différents processus de transport qui caractérisent cette région pendant la saison de la mousson sur le bilan régional de l'ozone. Une description et une validation des résultats du modèle LMDz_INCA avec des observations satellitaires sont présentées dans la première partie de cette thèse. La deuxième partie est consacrée à l'impact du transport convectif et des oxydes d'azote (NOx) émis par les éclairs sur l'ozone et ses précurseurs. L'analyse de l'impact des émissions par les feux de biomasse depuis l'Afrique centrale est ensuite présentée. La dernière partie traite de la contribution des émissions africaines et asiatiques au bilan de l'ozone en Afrique équatoriale.
12

Gazeaux, Julien. "Méthodes probabilistes d'extraction de signaux cachés appliquées à des problèmes de sciences de l'atmosphère." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00747464.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse est consacré à la problématique de l'extraction de signaux dans le domaine des sciences de l'atmosphère. Le point commun des problèmes considérés est la notion de détection et d'estimation de signaux cachés. L'approche par la modélisation probabiliste s'est avérée y être bien adaptée. Nous nous sommes attachés à répondre à différentes questions telles que : quel type d'information s'attend-on à trouver dans un jeu de données ? Le signal supposé caché se trouve-t-il réellement dans les données d'étude ? Comment détecter l'instant d'occurrence d'un phénomène, comment le caractériser (timing, amplitude ...) ? Si un tel signal est détecté, quelle (in)certitude est associée à cette détection ? Nous répondons à ces différentes questions au travers du développement de différents modèles probabilistes de détection d'évènements cachés. Nous nous sommes intéressés à différents modèles non stationnaires, dont deux sont notamment présentés dans un cadre multivarié. Au travers de trois modèles probabilistes décrivant des signaux cachés divers (rupture de variance, signaux éruptifs et changement de moyenne), nous avons aussi développé des méthodes associées de détection. Le premier modèle est appliqué à la détection de nuages stratosphériques polaires dans des profils lidar, le deuxième à des éruptions volcaniques dans des séries chronologiques de sulfate et enfin le troisième est appliqué à la détection de la date de l'onset de la mousson Africaine dans des données géophysiques liées à la dynamique atmosphérique et aux précipitations. Les différentes méthodes mises en place font appel à une variété de techniques de modélisation probabiliste allant de la maximisation de rapport de vraisemblance associée à des tests d'hypothèses à la résolution de filtres de Kalman dans un cadre non stationnaire et non linéaire pour la décomposition de séries multivariées couplée à la détection des signaux cachés. Les difficultés techniques liées à l'extraction de signaux cachés sont analysées et les performances des différents algorithmes sont évaluées. Les résultats obtenus confirment l'intérêt des méthodes probabilistes appliquées à ces problématiques de signaux cachés en sciences de l'atmosphère.
13

Larrechea, Michel. "Méthodologie de modélisation des connaissances dans le domaine du diagnostic technique." Bordeaux 1, 1995. http://www.theses.fr/1995BOR10651.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail expose dans cette these se situe dans le domaine des systemes a base de connaissances appliques au diagnostic technique des systemes complexes. L'objectif est de definir une methodologie de modelisation cognitive pour le developpement de systemes a base de connaissances de seconde generation, pour l'aide aux depanneurs. Dans ce but, nous montrons l'utilite de recourir a une modelisation complete des deux types de connaissances utilisees par de tels systemes. Ainsi, nous proposons plusieurs modeles, d'une part, du systeme physique objet du diagnostic, et d'autre part, de l'expertise structuree en fonction des methodes de resolution de problemes (mrp) utilisees. Nous definissons ainsi un cadre de modelisation conceptuel base sur une structuration des connaissances en trois niveaux interdependants. Deux d'entre eux sont dependants de la mrp utilisee, alors que le troisieme contient les connaissances specifiques a une application et notamment les differents modeles precites du systeme physique. L'un d'entre eux est central, il predit son comportement grace a l'utilisation combinee d'informations quantitatives et qualitatives. Ce cadre constitue notre apport principal. Nous lui associons une demarche de mise en uvre
14

Haeffelin, Martial. "Etude des performances de sondes radiométriques et des protocoles d'interprétation des données du bilan radiatif de la Terre." Lille 1, 1996. http://www.theses.fr/1996LIL10088.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Deux aspects des études du bilan radiatif de la terre et de l'impact des nuages sur notre système climatique sont considérés dans cette thèse: l'instrumentation et l'interprétation des données. Des modèles numériques ont été développés pour caractériser le comportement optique et radiatif, la réponse dynamique électrothermique et les phénomènes thermiques transitoires de la structure de sondes radiométriques. Ces modelés, appliques a un radiomètre à balayage embarque sur satellite, sont utilisés pour déterminer la réponse spatiale a une source ponctuelle, la fonction de transfert de modulation, et l'éventuelle contamination du signal due au rayonnement parasite et à l'émission thermique propre de l'instrument. Les possibilités de ces modelés sont démontrées en simulant l'observation de scènes terrestres au cours d'un balayage. Le modèle optique et radiatif est également utilise au cours du développement d'un radiomètre infrarouge de terrain pour interpréter les résultats expérimentaux de caractérisation de l'instrument. Le modèle a notamment permis de définir la sensibilité de la réponse du radiomètre aux incertitudes de montage. Le traitement des données permet la conversion des mesures radiométriques en estimations de flux au sommet de l'atmosphère. Les principales sources d'erreurs proviennent des méthodes utilisées pour compenser les données non échantillonnées. L'algorithme d'interpolation temporel applique a un faible nombre de mesures peut produire des estimations de flux moyens mensuels contenants des biais significatifs. Un protocole d'interpolation diurne utilisant des données corrélatives de couverture nuageuse isccp est développé pour compenser le faible échantillonnage temporel des mesures du bilan radiatif de la terre. Les bais sont considérablement réduits sur les régions ou les variations de la nébulosité sont bien prises en compte par les données isccp.
15

Pariat, Etienne. "Injection de flux et d'hélicité magnétiques dans l'atmosphère solaire." Phd thesis, Université Paris-Diderot - Paris VII, 2006. http://tel.archives-ouvertes.fr/tel-00108682.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La quasi-totalité des phénomènes constituant l'activité solaire trouvent leur origine dans la présence d'intenses champs magnétiques coronaux. Les tubes de flux magnétique, générés et intensifiés au sein de l'intérieur solaire, doivent être transportés vers l'atmosphère solaire. Mon travail de thèse s'est principalement concentré sur les mécanismes d'émergence lors de la traversée de la photosphère, étape critique pour l'émergence du champ magnétique, et sur l'étude de l'hélicité magnétique, une des rares quantités invariante en magnétohydrodynamique (MHD).
Après avoir introduit cette problématique, à partir d'observations multi-longueurs d'onde (FGE, TRACE, SoHO, THEMIS), je montre pourquoi les tubes de flux magnétiques adoptent une forme ondulée au niveau de la photosphère et que des reconnexions magnétiques sont nécessaires à la progression des tubes de flux dans l'atmosphère solaire. Je présente ensuite les résultats d'une simulation numérique MHD 3D portant sur l'étude des conditions topologiques du déclenchement de la reconnexion magnétique. Enfin j'expose mes travaux analytiques sur la densité de flux d'hélicité magnétique, et leurs applications aux observations solaires.
Cette étude permet de faire le lien entre la génération de l'hélicité magnétique dans l'intérieur solaire, son injection et sa redistribution dans la couronne solaire et son éjection dans le milieu interplanétaire.
16

Dubuisson, Philippe. "Simulation du signal satellitaire en atmosphère nuageuse." Lille 1, 1993. http://www.theses.fr/1993LIL10071.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les nouveaux capteurs satellitaires, destinés à l'observation et à l'étude de l'atmosphère, ont souvent une résolution spectrale très élevée. Pour interpréter les observations de ces appareils, il faut simuler le signal observé à une résolution comparable à celle de l'instrument. Pour cela, l'absorption par les gaz atmosphériques peut être calculée avec précision à l'aide d'un modèle dit raie par raie, qui permet d'obtenir les coefficients d'absorption monochromatiques à partir des données spectroscopiques des raies d'absorption. La diffusion du rayonnement par les nuages et les aérosols peut être calculée précisément en résolvant l'équation de transfert du rayonnement en milieu diffusant, en considérant que l'atmosphère est découpée en couches homogènes et parallèles. Cependant, en pratique, les temps de calculs deviennent très rapidement considérables lorsque les processus d'absorption et de diffusion atmosphériques apparaissent simultanément. Nous avons donc développé une méthode rapide, mais précise, de calcul des luminances satellitaires à haute résolution, en prenant en compte de façon approximative les interactions entre les phénomènes d'absorption et de diffusion. Par rapport au calcul exact, la précision obtenue pour les luminances monochromatiques est au pire de l'ordre de 30% et en général de l'ordre de 1%. Lorsque l'on simule des résolutions du type de celles rencontrées expérimentalement, les compensations d'erreurs permettent d'atteindre une précision minimale de l'ordre de 1% pour une résolution de 0. 5 cm##1 et bien meilleure que 1% lorsque la résolution est supérieure à 5 cm##1. Cette méthode a ensuite permis de développer et de valider des modèles plus simples et d'en fixer les limites d'application
17

Martiny, Nadège. "Validation des corrections atmosphériques : application au capteur SeaWIFS en milieu côtier." Littoral, 2002. http://www.theses.fr/2002DUNK0071.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis l'espace, les concentrations relatives aux divers constituants de l'océan ne sont pas aisées à obtenir, le signal sortant de l'eau en résultant n'excédant pas 2% du signal total mesuré par les satellites. Afin d'interpréter ce signal (couleur de l'eau), il faut préalablement procéder à l'étape clé des corrections atmosphériques. Ce travail consiste à corriger le signal mesuré au sommet de l'atmosphère des effets de l'atmosphère ainsi que des divers effets de couplages. En environnement côtier, cette tache est rendue complexe par la grande diversité des aérosols rencontrés et la turbidité des eaux. Ainsi, l'application des algorithmes de corrections atmosphériques des capteurs dédiés à la couleur de l'eau en zone côtière mène souvent à la détermination de réflectances sortant de l'eau négatives aux courtes longueurs d'onde. Le but de ce travail est de valider l'algorithme de corrections atmosphériques du capteur SeaWIFS au-dessus de sites côtiers européens caractéristiques par le biais de mesures optiques atmosphériques in-situ réalisées avec des photomètres solaires CIMEL
From space, the signal emitted by the ocean surface represents no more than 2% of the total signal measured by the satellites, which makes the water constituents concentrations difficult to derive. In order to interpret this signal (ocean colour activity), the first step to overcome is the atmospheric correction task. This work is properly performed when the signal measured on top of the atmosphere by the satellite sensors has been corrected for both the atmospheric effects as well as the coupling terms. Over coastal environments, the task is complicated by both the diversity of the aerosols and the turbidity of the waters. As a consequence, the atmospheric correction algorithms of the ocean colour sensors are not well adapted over such environments. This is illustrated by the frequency of failures such as derivations of negative water leaving reflectances at short wavelengths
18

Papazzoni, Mathieu. "Caractérisation des propriétés microphysiques et radiatives des nuages de glaces dans la Mousson d'Afrique de l'Ouest à partir de données aéroportées et satellite (AMMA)." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0049.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Améliorer notre connaissance des propriétés nuageuses et des processus physiques qui gouvernent celles-ci est crucial pour minimiser les incertitudes liées aux prévisions climatiques actuelles et pour la prévision numérique du temps. En cela une meilleure compréhension du rôle prépondérant et complexe joué par les nuages de glace dans les transferts d’eau et surtout d’énergie est nécessaire. C’est dans ce but que ce travail de thèse s’attache à caractériser les propriétés des nuages de glace au sein de la mousson ouestafricaine à différentes échelles. La première partie est consacrée à une étude locale utilisant les données du radar aéroporté RASTA. A cette occasion, une méthode de restitution des propriétés dynamiques a été développée afin de mener des études de cas. Le contraste continent/océan est également observé à partir de ces données. La seconde partie exploite une approche régionale de ce phénomène avec l’établissement de climatologies annuelles et mensuelles à partir de données des satellites CloudSat et CALIPSO, permettant de caractériser les propriétés statistiques des nuages et les processus dominants en fonction de l’altitude. L’analyse de la variabilité spatio-temporelle et des fréquences d’occurrences des situations multi-couches complète ce travail
To improve our knowledge of cloud processes is crucial to reduce errors due to the representation of clouds in current climate predictions and for numerical weather prediction. That is why the complex contribution of ice clouds to the water and radiative budgets needs to be clarified. In this framework this work strives to characterize ice cloud properties in the West-African monsoon system at different scales. In the first part a local study is carried out with data from the airborne cloud radar RASTA. Dynamical properties are obtained with a method specifically developed for this instrument. The contrast between land and ocean is also investigated with this data. The second part exploits a regional view of the phenomenon. Annual and monthly climatologies are developed with satellite data from CloudSat and CALIPSO in order to characterize the statistical properties of ice clouds and the dominant microphysical processes as a function of height. The characterization of the spatio-temporal variability of these ice cloud properties and of the frequency of occurrence of multilayer situations completes this work
19

Labit, Jean-Marc. "Modélisation multiphysique des transitoires d'insertion de réactivité et méthodologie de validation appliquée au réacteur CABRI." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALI043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Par leur aspect éminemment multiphysique, les accidents de réactivité, plus communément appelés RIA (Reactivity-Initiated Accident), sont extrêmement complexes et leur modélisation présente un certain nombre de défis, en lien notamment avec la pertinence des modèles physiques mis en œuvre dans les outils de calcul scientifique (OCS) utilisés. Ils mènent à une augmentation exponentielle de puissance qui peut avoir des conséquences dramatiques si le réacteur ne dispose pas, naturellement, de contre-réactions permettant de faire diminuer la puissance.Le réacteur CABRI, situé sur le site du CEA de Cadarache a été fondé par l'IRSN dans l'objectif d'étudier le comportement du combustible au cours de ce type de transitoires. Par ses caractéristiques uniques, il offre la possibilité de valider des outils de calcul dans le cadre de la modélisation des transitoires de type RIA.Dans un premier temps, les transitoires CABRI sont étudiés sur le plan théorique par des calculs de temps caractéristiques et d'ordres de grandeur d'énergie déposée caractérisant l'occurrence des différents phénomènes. Cela permet de classer les transitoires CABRI selon une grille à deux dimensions temps-énergie et de construire un QPIRT (Quantified Phenomena Identification and Ranking Table) des transitoires CABRI. Par ailleurs, cela permet d'élaborer une démarche de validation de l'outil de calcul en fonction des mesures disponibles dans le réacteur CABRI. Cette démarche est progressive et séquentielle, pour une validation de la modélisation des différents phénomènes séparément en accord avec les mesures disponibles.La seconde partie du travail présente la réalisation de modèles nécessaires à la simulation des phénomènes physiques spécifiques aux RIA et aux transitoires CABRI. Ces différents modèles neutroniques, thermohydrauliques et thermomécaniques ont été implémentés dans l'OCS CATHARE2, au sein d'une version dédiée nommée PALANTIR. Enfin, les premiers travaux de validation sont présentés à travers les résultats obtenus pour les différents transitoires de la matrice de validation. La sensibilité aux différents modèles développés est ensuite également abordée
Regarding their multiphysic nature, the modelling of RIA (Reactivity-Initiated Accident) raises some challenges, especially on the relevance of the models used in current calculation tools. These transients lead to an exponential power evolution that comes out of control if the reactor does not have natural feedback effects able to make the power decrease.CABRI is an experimental pulse reactor, funded by the french Institute for Radiological protection and Nuclear Safety (IRSN) and operated by CEA at the Cadarache nuclear center, France. Its aim is to study and thus to better understand effects of RIA on nuclear fuels. It offers the opportunity to validate tools involving multiphysic calculation schemes on reactivity insertions transients.First, the CABRI transients are studied on a theoretical point of view, by calculating characteristic times and energy deposit inside the core needed in order to observe different physical phenomena. This allows to build a QPIRT (Quantified Phenomena Identification and Ranking Table) of CABRI transients and, on this basis, a validation methodology. This methodology is progressive and sequential and enables validating separately phenomena modelling with CABRI experiments.Then, some specific neutronic, thermal-hydraulic and thermal-mechanic models for the modelling of CABRI transients are presented. They are implemented in CATHARE2, in a dedicated version for the modelling of RIA named PALANTIR. Results obtained with this modelling are presented in accordance with the validation matrix, and the sensitivity to the models is studied on some transients
20

Perat, Olivier. "Méthodologie de caractérisation de paramètres thermomécaniques de matériaux pour la microélectronique." Toulouse, INSA, 2002. http://www.theses.fr/2002ISAT0009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les exigences en termes de performance, de fiabilité et de coût requièrent une conception optimisée des circuits électroniques. Nos recherches réalisées au sein d'un laboratoire commun, associant MOTOROLA SPS, la Région Midi-Pyrénées et le LAAS/CNRS concernent les défaillances d'origine thermomécanique des composants. Nos travaux portent sur le développement d'une méthode de caractérisation de deux paramètres thermomécaniques des matériaux en couche mince: le module d'Young et le coefficient de dilatation thermique. Basée sur une modélisation analytique des contraintes thermomécaniques, la méthode repose sur la déflection thermique de micropoutres bilames. Elle permet la détermination en température des deux paramètres avec une résolution très convenable et un mode opératoire unique. Des cantilevers bilames, réalisés en salle blanche, ont permis de valider la méthode et ont fournis d'intéressants résultats concernant l'étude de la fatigue thermique des assemblages
Optimisation of electronic circuits is mandatory to meet performance, reliability and cost requirements. Our investigation, performed in a Motorola, LAAS/CNRS, Région Midi-Pyrénées common laboratory, concerns the thermal fatigue induced failures of components. Our work deals with the development of a characterisation method of two thermomechanical parameters: the Young's modulus and the coefficient of thermal expansion. Starting from an analytical modelling of thermomechanical stresses, the method is based on the thermal deflection of bilayer cantilevers. Using a single experimental set-up, this method allows the determination of the two parameters as a function of temperature, with a fairly good resolution. Bilayer cantilevers, processed in a clean room, have led to the validation of the method and have provided interesting results concerning study of the thermal fatigue behaviour of heterogeneous assemblies
21

Lacome, Jean-Marc. "Contribution à l'étude de la modélisation physico-chimique de la basse atmosphère : cas de l'ozone et des hydrocarbures biogéniques." Toulouse 3, 1994. http://www.theses.fr/1994TOU30275.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail propose consiste a etudier par simulation numerique l'influence des emissions d'hydrocarbures naturels emis par la vegetation sur le cycle formation-destruction de l'ozone dans la couche limite atmospherique. Il a ete realise a l'aide d'un modele lagrangien de physico-chimie en phase gazeuse regroupant les cycles reactionnels des no#x, ch#4, co, hydrocarbures legers (alcanes, alcenes) et hydrocarbures biogeniques (isoprene). Dans une premiere partie le modele a ete adapte a l'experience decafe, qui s'est deroulee en afrique equatoriale, afin d'expliquer l'origine des fortes teneurs en ozone (65 ppb) observees dans la couche d'harmattan au dessus de la couche de mousson. Les resultats obtenus montrent que ces teneurs elevees sont essentiellement liees aux emissions d'hydrocarbures et de no#x en zone de savane resultant de la combustion de biomasse. En effet 77% de l'ozone de la foret dans la couche d'harmattan provient de ces combustions et 23% resulte de l'activite chimique liee aux hydrocarbures specifiques emis par la foret. Dans une deuxieme etape le modele a ete utilise pour interpreter les profils d'ozone et de no#x a l'interieur d'un couvert vegetal. A partir d'un profil de coefficient de diffusion et d'une parametrisation des differentes resistances de surface on met en evidence le role des differentes strates de vegetation sur le depot. Les resultats obtenus compares a l'experience sont satisfaisants au niveau de l'ozone et du no, en revanche les emissions biogeniques de no ne peuvent expliquer les concentrations elevees de no#2, qui peuvent provenir de phenomenes convectifs ou advectifs a partir des combustions de biomasse des zones de savane avoisinantes. Dans une troisieme partie est presentee une etude de sensibilite sur les constantes de vitesse du module chimique afin de preciser les influences des differents degres de reduction de ce module sur l'evolution de l'ozone. Cette etude est necessaire pour l'introduction ulterieure de ce module dans un modele mesoechelle n'admettant qu'un nombre limite de reactions
22

Beth, Arnaud. "Modélisation semi-analytique des exosphères planétaires : analyse de l'influence des collisions et de la pression de radiation stellaire." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2589/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La partie externe de l'atmosphère, l'exosphère, est une région encore mal connue. Les densités y sont trop faibles pour nombre d'instruments, et la modélisation de la dynamique des particules peut être complexe. Au cours de ma thèse, je me suis intéressé à deux problématiques: la production de particules " satellites " à partir des rares collisions dans la basse exosphère et l'influence de la pression de radiation sur la structure de l'exosphère. Dans la première partie de ma thèse, nous avons modélisé l'impact des rares collisions près de l'exobase sur les densités à plus haute altitude pour les cas de la Terre, Titan et Mars, au travers de la production de particules " satellites ", absentes des modèles non-collisionnels. Dans une seconde partie, j'ai étudié l'effet de la pression de radiation sur la structure de l'exosphère par une approche semi-analytique. La pression de radiation affecte les profils de densité des populations " balistiques " et induit de fortes asymétries à haute altitude. Elle augmente également le flux d'échappement thermique, que nous avons déterminé analytiquement au point subsolaire. Finalement, nous avons également étudié l'influence de la pression de radiation stellaire sur le problème à trois corps et son impact sur la stabilité des atmosphères, en particulier celles des exoplanètes de type Jupiters chauds
The external part of the atmosphere, the exosphere, is not a well-known region. The densities are too low for many instruments compared with their detection capabilities, and the modeling of the particles dynamics can be complex. During my PhD thesis, I focused on two problems: the production of "satellite" particles from the scarce collisions in the lower exosphere and the influence of the radiation pressure on the exosphere structure. In the first part of my thesis, we modeled the influence of the scarce collisions near the exobase on the density profiles at higher altitudes for the Earth, Titan and Mars, through the production of "satellite" particles, which are neglected in the collisionless models. In a second part, I studied the effect of the radiation pressure on the structure of the exosphere with a semi-analytical approach. The radiation pressure changes the ballistic particle density profiles and implies strong asymmetries at high altitudes. It increases also the thermal escaping flux, which we determined analytically at the subsolar point. Finally, we studied its influence on the Three-Body problem and on the stability of the atmospheres, in particular for hot Jupiter exoplanets
23

Ramaroson, Richard Radiela Andrianaina. "Modélisation locale, à une et trois dimensions des processus photochimiques de l'atmosphère moyenne." Phd thesis, Université Pierre et Marie Curie - Paris VI, 1989. http://tel.archives-ouvertes.fr/tel-00935265.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse a pour ultime objet la contribution à des travaux scientifiques nécessaires à l'amélioration de la connaissance des processus photochimiques, radiatifs et de transport régissant l'évolution des espèces minoritaires et de l'ozone atmosphérique. Les travaux et les résultats de recherche reportés dans ce document sont focalisés sur le développement, la mise en oeuvre, la validation de trois catégories de modèles numériques de l'atmosphère. Ils sont constitués par un modèle photochimique ou de boîte ; un modèle unidimensionnel diffusif et photochimique ; et un modèle tridimensionnel dynamique et de transport des composés chimiques avec variations diurnes à l'échelle du globe. La stratégie consiste à coupler le modèle de boîte intégrant un mécanisme cinétique approprié avec chacun des modèles. Les résultats numériques sont par la suite confrontés: aux mesures existantes de concentration des espèces chimiques obtenues dans le cadre de campagnes de lancements de ballons stratosphériques ; aux observations effectuées à partir de la surface du globe ; et finalement aux données satellitaires. Ces travaux sont complétés par l'introduction de nouvelles valeurs des sections efficaces d'absorption de quelques espèces (pour la photolyse) et de nouvelles valeurs de constantes cinétiques (pour les réactions chimiques) mesurées en laboratoire. En particulier, uns des ultimes objectifs de ce travail consistent à mettre en oeuvre le modèle tridimensionnel (3D) à variations diurnes cité précédemment, et à confronter les résultats aux observations satellitaires chimiques existantes pour une période précise. A moyen terme, le modèle 3D sera appliqué pour l'interprétation des futures observations effectuées depuis l'espace dans le cadre de la nouvelle mission spatiale UARS de la NASA (" Upper Atmospheric Research Satellite "). Le lancement du satellite, prévu en 1991, aura pour mission, l'observation des variations spatio-temporelles de la concentration des composés chimiques et de certains paramètres physiques et radiatifs dans les trois couches atmosphériques : la stratosphère, la mésosphère et la thermosphère. La mission est dédiée à l'étude des espèces ayant un rôle majeur sur la destruction de la couche d'ozone polaire et à l'évolution du climat sous l'influence des gaz à effet de serre. L'évolution temporelle de la position du satellite autour de son orbite permettra d'en extraire les variations diurnes des composés aux mêmes heures TU et aux mêmes endroits, permettant l'application et la mise en oeuvre du modèle de boîte pour la compréhension des processus. Parmi les autres objectifs de cette thèse, les points suivants sont traités en détail: 1) Le développement d'une méthode numérique novatrice pour la résolution d'un ensemble d'équations de continuité non linéaires et couplées des espèces chimiques. Par la suite, La méthode est analysée et évaluée numériquement, comparée aux techniques standard existantes et intégrée dans chacun de ces 3 modèles. La formulation de la technique numérique doit être standard et facilement adaptable à n'importe quels systèmes d'équations d'évolution des espèces associées à de mécanismes cinétiques et pour n'importe quelle partie de l'atmosphère. La méthode doit résoudre, sans paramétrisation, les variations diurnes des composés dues aux effets de l'évolution très rapide spatiotemporelle de la photolyse aux zones de coucher et lever du soleil, et parfois aux conséquences de l'évolution temporelle des quantités d'émissions chimiques rejetées par les sources sur la concentration des espèces. 2) Le développement, la mise en oeuvre et la validation d'un modèle photochimique ou " de boîte ", utilisant la méthode développée en 1). De la même manière, le modèle de boîte est conçu pour être applicable à n'importe quelles régions de l'atmosphère à savoir: la couche limite atmosphérique, la troposphère libre, la stratosphère et la mésosphère. 3) La vérification de la performance du modèle de boîte développé en 2) par l'interprétation d'un ensemble d'observations satellitaires et des mesures in situ de la concentration de certains composés chimiques par l'usage des ballons stratosphériques dans la stratosphère et par confrontation de la concentration de l'ozone mesurée par la technique micro-ondes dans la mésosphère ; 4) Le développement d'un modèle photochimique et diffusif unidimensionnel (dans la direction verticale), en incluant les variations diurnes des composés, par couplage du modèle de boîte développé en 2) avec un modèle purement de transport diffusif (également développé dans ce travail). L'ensemble est mis en oeuvre pour l'interprétation des mesures de profils verticaux de quelques composés chimiques dans la stratosphère et la mésosphère, obtenues soit à distance par de satellites soit in situ par ballons; 5) Le couplage, à chaque pas de temps, et l'intégration directe du modèle de boîte avec le modèle de circulation générale de METEO France (Emeraude) qui calcule de manière pronostique le champ dynamique et thermodynamique, les paramètres radiatifs et physiques et utilise les techniques d'assimilation des données d'observations dans l'atmosphère globale (vents, température, vapeur d'eau, nuages, flux solaires, etc.). L'ensemble constitué par le modèle Arpège et le modèle de boîte incluant un mécanisme cinétique de l'ozone stratosphérique, est mis en oeuvre pour interpréter les variations spatio-temporelles à 3 dimensions des espèces azotées et de l'ozone dans la stratosphère. En particulier, l'accent est mis sur la modélisation du phénomène appelé " Noxon Cliff ") consistant à l'apparition de gradients horizontaux des espèces azotées (NO2) lors de l'apparition du réchauffement soudain de la stratosphère moyenne, accompagné par la division du vortex polaire Nord en quelques cellules, vers la fin de l'hiver boréale. Chapitre I. Ce chapitre rappelle certaines notions des lois physiques pour l'atmosphère : la dynamique, le transport des espèces et la photochimie dans l'atmosphère et effectue une revue des différentes catégories de modèles numériques existants: photochimiques, radiatifs et dynamiques développés et mis en oeuvre durant les dernières décennies par la communauté scientifique pour explorer et étudier l'aéronomie de l'atmosphère et l'évolution du climat. Chapitre II. Dans un premier temps, le chapitre traite en détail le développement et l'analyse numérique de la " méthode novatrice " à laquelle nous avons associé la dénomination : " Semi Implicite Symétrique (SIS) ". Cette analyse numérique théorique approfondie, au sens mathématique des équations différentielles ordinaires (EDO) dont font partie les équations de continuité des espèces chimiques, consiste à explorer et à décrire son origine, sa définition, sa précision et sa stabilité, numériques. La caractéristique: " conservation du nombre d'atomes (CNA) " des composés chimiques par la méthode, après la résolution numérique des systèmes d'équations, est démontrée et comparée à celle des autres techniques de même objectif. La notion de CNA ne peut être confondue à celle de " conservation de la masse " de matière, condition appliquée aux méthodes de résolution des équations de transport (advection ou autres). D'autres caractéristiques de la méthode sont aussi explorées ; par exemple la possibilité de l'apparition de concentration faiblement négatives. Pour pallier ce petit inconvénient, un traitement numérique spécial très efficient, basé sur l'analyse de la caractéristique des espèces participant aux réactions chimiques " incriminées " est proposé. Dans un deuxième temps, une mise en oeuvre du modèle de boîte appliqué à un cas photochimique, défini par un mécanisme cinétique de l'ozone sous des conditions stratosphériques, est réalisée afin d'évaluer en profondeur la performance numérique du modèle et sa capacité à interpréter les observations. Le chapitre II contient différents paragraphes traitant en détail les points essentiels suivants en utilisant ce même cas: a) les caractéristiques numériques et la performance des autres méthodes couramment utilisées par la communauté scientifique depuis plus d'une décennie pour la résolution des équations cinétiques non linéaires dans les modèles, sont comparées à celles de la méthode SIS. Les avantages et inconvénients de chacune des méthodes sont soulignés. En particulier SIS conserve strictement le nombre d'atomes, et est absolument stable (ou sans condition de stabilité) contrairement aux autres méthodes classiques. b) En 1971, le mathématicien Gear a publié deux méthodes numériques très bien adaptées aux systèmes d'équations non linéaires très raides et légèrement raides (ou " stiff " en anglais). Ces méthodes utilisant l'approche numérique prédicteur-correcteur et résolution par itérations successives, sont considérées comme des références. Un rappel de cette technique est traité dans ce travail. Par la suite, la précision, la stabilité numérique, le coût numérique ou le temps de calcul et la notion de conservation du nombre d'atomes sont inter comparées entre cette technique et SIS. c) Grâce à sa caractéristique implicite (seul le prédicteur est en explicite), la méthode de Gear conserve aussi le nombre d'atomes des composés après résolution des systèmes. La précision de SIS est égalable à celle de la méthode de GEAR avec quelques pourcents de différence au moment du coucher et du lever du soleil, associés à la raideur des systèmes photochimiques liée aux variations temporelles abruptes et très significatives de la concentration des espèces sous l'influence de la photolyse. La stabilité numérique de SIS est également démontrée. d) La résolution des équations cinétiques aboutit à l'inversion des matrices jacobiennes à chaque pas de temps successifs des modèles. Après quelques test et " benchmark ", nous avons pu identifier que cette inversion de matrices est la plus coûteuse en temps de calcul et de manière exponentielle selon le rang de la matrice (ou le nombre de composés chimiques). Après plusieurs applications et évaluations de quelques techniques d'inversion de matrices, la méthode de résolution directe de Gauss par élimination apparaît la plus adaptée et constitue un bon compromis pour la méthode SIS. En effet, ces tests d'inversion ont permis de montrer que les matrices jacobiennes issues de la cinétique, possèdent un taux de raideur très élevé (ou " stiffness ratio " en anglais. Ce taux est défini comme le rapport entre la valeur absolue des valeurs propres minimales et maximales. Plus ce rapport est élevé, moins les systèmes itératifs aboutissent à une convergence d'où l'utilisation des méthodes directes d'inversion. En conséquence en terme de coût de calcul, SIS fait apparaître un temps CPU global (" clock period unit ") largement inférieur à celui de GEAR, toute chose égale par ailleurs sauf pour le pas de temps du modèle montrant ainsi son intérêt majeur pour l'introduction de chimie plus élaborée pour de longues intégrations dans les modèles tridimensionnels. Chapitre III. L'évaluation de la performance de la méthode SIS et la validation des résultats du modèle de boîte photochimique sont effectuées par le biais de la comparaison des résultats avec des mesures de profils verticaux existants dans les bases de données d'observations de quelques composés chimiques dans la stratosphère dont : O3, OH, HO2, HNO3, N2O5 et ClO. Trois études de cas dans la stratosphère sont traitées dont deux ont fait l'objet de publication: * L'interprétation par le modèle de boîte, des mesures de profil vertical de NO3 au dessus de 30km d'altitude obtenus par lancements de ballons stratosphériques (5 missions différentes) à Aire-sur-l'Adour, France (43°42'N, 0°15'W) entre 1980 et 1985, en introduisant de nouvelles valeurs des sections efficaces d'absorption de NO3 mesurées en laboratoire. Ce travail aboutit à une publication. * L'interprétation par le modèle de boîte, des mesures des variations diurnes de NO et NO2 (une mesure la nuit, une autre le jour et une au coucher et lever du soleil) obtenues pendant la campagne MAP GLOBUS organisée à Aire-sur-l'Adour à trois niveaux d'altitude situés aux pressions atmosphériques: 18hPa, 10hPa et 7.5hPa. A chaque observation, le ballon est plafonné à l'altitude considérée pour permettre les mesures temporelles. Ce travail aboutit à une publication. * L'interprétation par le modèle de boîte des mesures de variations diurnes de l'ozone mésosphérique entre 50km et 75km d'altitude par pas de 5km, en utilisant à partir du sol un radiomètre micro-onde dans la fréquence 110.856 GHz correspondant à une raie d'émission de l'espèce ; le radiomètre étant couplé avec un spectromètre. Les résultats du modèle sont conformes aux mesures. Les analyses exploratoires soulignent l'importance de la contribution des réactions chimiques associées aux composés hydrogénés H, OH et HO2 sur la concentration de l'ozone. A ces niveaux d'altitude, la réaction chimique entre la vapeur d'eau et le métastable O1D issu de la photodissociation de l'ozone constitue la source principale de ces composés hydrogénés. Chapitre IV. Le couplage du modèle de boîte utilisant la méthode SIS avec un modèle à une dimension diffusif et stationnaire (selon la verticale du lieu) également créé dans ce travail, permet la comparaison des résultats numériques avec un ensemble de mesures satellitaires. Ces observations intègrent les profils verticaux de composés chimiques à plus longue durée de vie dont : CH4, N2O, H2O, CO, HNO3, H2, et HCl, et à plus courte durée de vie comme OH et ClO, mais aussi des espèces chimiques azotées (NO, NO2, NOy) et des espèces chlorées (ClO, Cly). Ce chapitre montre également l'applicabilité de la méthode SIS aux équations d'évolution photochimique des " Familles " azotée et chlorée : NOy, Cly. Les résultats numériques du modèle unidimensionnel sont comparables à ceux d'autres modèles de même nature développés par d'autres auteurs et sont parfaitement cohérents avec l'ensemble des observations. Chapitre V. L'objet de ce dernier chapitre consiste à développer une méthodologie novatrice de modélisation tridimensionnelle de la distribution spatio-temporelle des composés minoritaires dans l'atmosphère en introduisant pour la première fois les variations diurnes des espèces chimiques. Dans le passé, due à la complexité des mécanismes photochimiques atmosphériques et les coûts informatiques, les modèles tridimensionnels incluent seulement, soit une chimie très simplifiée, soit un système cinétique un peu plus développé mais dont les variations diurnes sont linéarisées. Grâce à ses performances inégalées par rapport aux techniques classiques et à la méthode de référence " de Gear " (précision, stabilité, conservation et coût), le modèle de boîte utilisant SIS couplé au modèle dynamique, peut alors inclure un grand nombre de composés chimiques. Cette approche innovante de modélisation tridimensionnelle avec variations diurnes chimiques, jamais abordée auparavant par la communauté scientifique, peut permettre une intégration sur du long terme, couvrant ainsi les saisons et les années. Cette intégration est indispensable à une meilleure connaissance de l'évolution spatio-temporelle de la couche d'ozone et de l'établissement de la distribution de ses précurseurs avec l'utilisation des données satellitaires issues de UARS. La faisabilité de ces longues intégrations est par ailleurs facilitée par l'apparition et de nouveaux super calculateurs puissants pour les calculs intensifs (exemple CRAY 1). * Dans un premier temps, la méthode de couplage dite " time-splitting ", à chaque pas de temps d'intégration, du modèle de boîte à variations diurnes avec le modèle de circulation générale Emeraude de Météo France, est décrite. Le modèle Emeraude inclut la dynamique, le transport des espèces, la physique de l'atmosphère, le couplage terre atmosphère, la formation des nuages et le transfert radiatif. Les espèces azotées et chlorées sont intégrées dans le mécanisme cinétique stratosphérique du modèle de boîte pour décrire la chimie de l'ozone pour l'étude de cas. * Dans un deuxième temps, l'ensemble couplé est mis en oeuvre pour calculer la distribution spatio-temporelle des espèces azotées et de l'ozone dans la stratosphère. En particulier, l'accent est mis sur la modélisation du comportement de certaines espèces chimiques lors du réchauffement stratosphérique soudain dans les régions polaires Nord vers la fin de l'hiver. Ce phénomène est régulièrement observé aux niveaux d'altitude stratosphérique de pression: 10hPa à 20hPa dans ces régions. Le vortex polaire stratosphérique Nord subit alors une division en deux ou plusieurs cellules dynamiques, accompagnée d'un réchauffement rapide du milieu. D'après les observations de Noxon en 1979, cette division du vortex stratosphérique a un effet sur la distribution horizontale du contenu intégré du dioxyde d'azote que l'auteur a dénommé le " Noxon Cliff " consistant à l'apparition de forts gradients horizontaux de concentration intégrée de NO2 autour de 50°N. Une courte simulation a été effectuée avec le modèle tridimensionnel pour le mois de février 1979, période d'observations du réchauffement soudain. Le modèle permet de vérifier les hypothèses de Noxon sur la distribution spatiale du composé NO2. * Le chapitre conclut sur la faisabilité de l'intégration des variations diurnes des espèces chimiques dans un modèle tridimensionnel sur du long terme. Le satellite UARS effectuera une série d'observations d'un ensemble de composés chimiques dans la stratosphère et la mésosphère sur une longue période étalée sur quelques années. Les variations diurnes des composés chimiques peuvent en être extraites avec leur distribution horizontale et verticale. Ce modèle 3D permettra la confrontation des mesures obtenues par UARS avec les résultats numériques et contribuera à une meilleure connaissance de la chimie de l'ozone et du phénomène de trou d'ozone observé dans l'Antarctique en incluant la chimie hétérogène réagissant sur la surface des nuages polaires stratosphériques.
24

Quérel, Arnaud. "Lessivage de l'atmosphère par la pluie : approche microphysique." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00859330.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les particules d'aérosol sont une composante essentielle de l'atmosphère, et cette importance s'amplifie lors d'une éventuelle libération dans l'atmosphère de matières radioactives sous forme particulaire. En effet, pour améliorer la connaissance autour de la contamination des sols consécutive à une émission de particules, il est important d'étudier le rabattement des particules par la pluie sous le nuage. Dans ce but, des expériences sont menées à l'échelle microphysique (expérience BERGAME) pour quantifier l'efficacité des gouttes de pluie à collecter les particules. Ceci permet au final d'améliorer la modélisation du lessivage des aérosols atmosphériques par la pluie à méso-échelle. Le modèle utilisé est DESCAM qui décrit de manière détaillée les distributions granulométriques en masse et en nombre des particules pour chaque type d'aérosol et des hydrométéores et calcule leur évolution due aux processus microphysiques nuageux. L'expérience BERGAME a été dimensionnée et construite pour mesurer l'efficacité de collecte car les mesures de ce paramètre se sont avérées en désaccord avec les modèles classiques de la littérature pour les gouttes de pluie d'un diamètre supérieur au millimètre. Un montage optique a été imaginé pour tenter de comprendre quels mécanismes de collecte sont négligés dans les modèles standards. Un nouveau modèle d'efficacité de collecte pour les gouttes d'un diamètre de 2 mm est alors proposé prenant en compte pour les grosses gouttes une recirculation turbulente dans le sillage de la goutte capable d'augmenter de façon importante la capture des petites particules. Les nouvelles efficacités de collecte ainsi mesurées et paramétrées sont ajoutées au modèle de nuage DESCAM. Des modifications significatives sur la modélisation du lessivage par DESCAM sont observées, ouvrant ainsi la voie à une amélioration de la modélisation de la contamination des sols par les modèles de dispersion atmosphérique.
25

Burel, Nicolas. "Émersiologie et dynamique émotionnelle : une méthodologie d’analyse des comportements des enseignants d’éducation physique et sportive en classe." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCB028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Bien que l’enseignement soit principalement décrite comme une activité cognitive fondée sur des choix rationnels, la littérature contemporaine, majoritairement anglo-saxonne, démontre que les émotions sont au cœur de l’exercice de cette profession (Hargreaves, 1998). S’il est communément admis que le « bon » enseignant sait déclencher l’intérêt, la motivation, ou encore la confiance en soi et le plaisir de l’apprenant, parler des émotions de l’enseignant lui-même reste plus exceptionnel. Pourtant, les évaluations affectives spontanées opérées en cours de leçon au contact des élèves semblent de nature à conditionner à la fois son attitude pédagogique, et plus largement son bien-être. Dans ce travail de recherche doctoral, nous nous efforçons donc de mieux circonscrire ce champ d’étude à travers la revue des différentes définitions et mesures de l’émotion. De cet ancrage bibliographique initial situé à la fois dans les champs de la Psychologie des émotions et des Sciences de l’Éducation, l’émotion des enseignants est investiguée empiriquement à différentes échelles à travers les questions (i) de sa sédimentation dans l’expérience individuelle des enseignants, (ii) de ses effets sur le style pédagogique de l’enseignant en cours de leçon, et (iii) de la méthodologie de captation in situ de la dynamique émotionnelle à travers l’investigation de ses différentes composantes (Scherer, 2009)
Although teaching is mainly described as a cognitive activity based on rational choices, contemporary literature, mostly Anglo-Saxon, shows that emotions are at the heart of this profession (Hargreaves, 1998). While it is commonly accepted that the "good" teacher can trigger the interest, motivation, or self-confidence and enjoyment of the learner, talking about the emotions of the teacher himself is more exceptional. However, the spontaneous affective assessments made during the lesson facing the students seem likely to condition both its pedagogical attitude, and more broadly its well-being. In this Phd research work, we strive to better define this field of study through the review of different definitions and measures of emotion. From this initial bibliographic anchorage located both in the fields of the Psychology of Emotions and the Sciences of Education, the emotion of the teachers is empirically investigated on different scales through the questions of (i) its sedimentation in the experiment individual teachers, (ii) its effects on the pedagogical style of the teacher during the lesson, and (iii) the methodology of in situ capture of emotional dynamics through the investigation of its different components (Scherer, 2009)
26

Valla, Matthieu. "Etude d'un lidar doppler impulsionnel à laser Erbium fibré pour des mesures de champ de vent dans la couche limite de l'atmosphère." Paris, ENST, 2005. http://www.theses.fr/2005ENST0030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un travail de thèse a été entrepris pour la réalisation d'un anémomètre laser cohérent impulsionnel pour la mesure de champ de vent résolue en distance dans la basse atmosphère. Lors de sa propagation, l'impulsion permet de sonder graduellement l'atmosphère dans le sens ascendant. Il est ainsi possible de résoudre en distance la mesure de vitesse en découpant l'analyse du signal rétrodiffusé en multiples fenêtres temporelles. L'originalité de ce travail de thèse est l'utilisation d'une source laser fibrée 1,55 µm en régime impulsionnel nanoseconde. La technologie Erbium fibrée permet la réalisation d'instruments fiables, compacts et à sécurité oculaire. Un simulateur de performance instrumentale permet de calculer le rapport porteuse sur bruit d'un lidar mono ou bistatique, utilisant des configurations de faisceaux gaussiens tronqués avec ou sans turbulence atmosphérique. Pour la turbulence, le simulateur utilise un code de propagation par écran de phase. Le calcul exact de la borne de Cramér-Rao permet de dimensionner les performances du traitement numérique associé à l'instrument. Cette partie comporte un travail de modélisation fine du spectre du signal lidar qui met en évidence une forme de " spectral leakage " lié à la décorrélation du signal due à la nature impulsionnelle de l'instrument. La disponibilité d'une source de 20 µJ a permis la réalisation d'un prototype permettant la mesure simultanée de trois cases distances jusqu'à 130 mètres de distance et de valider par l'expérience le travail de modélisation entrepris au cours de cette thèse
A PhD work has been undertaken for the realization of an impulse coherent laser anemometer for the measurement of wind field solved in distance in the lower atmosphere. During its propagation, the pulse gradually probe the atmosphere in the ascending direction. It is thus possible to realize a distance resolved velocity measurement by cutting out the analysis of the signal retrodiffused in multiple temporal windows. The originality of this PhD work is the use of a 1. 55 µm erbium fiber amplifier in a nanosecond pulsed mode, which allows the realization of compact and reliable instruments, with ocular safety. The instrumental simulator calculates the carrier to noise ratio of a mono or bistatic lidar, using configurations of truncated Gaussian beams with or without atmospheric turbulence. In order to account for atmospheric turbulence, the simulator uses a screen phase propagation code. The exact calculation of the Cramér-Rao lower bound allows us to predict the performances of the digital processing associated with the instrument. This part contains a fine model of the spectrum of the lidar signal which highlights a form of "spectral leakage" related to the decorrelation of the signal due to the pulsed nature of the instrument. He availability of a laser able of 20 µJ pulses allowed the realization of a prototype which was able to make three simultaneous measurements at distances up to 130 meters, thus giving us the opportunity to validate by the experiment the spectrum model undertaken during this PhD work
27

Chaikh, Abdulhamid. "Méthodologie d'évaluation des impacts cliniques et dosimétriques d'un changement de procédure en radiothérapie : Aspect - Radio physique et médical." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00704361.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Introduction et objectif : La prescription des traitements en radiothérapie est basée sur l'analyse de la répartition de dose calculée par le TPS. Un changement d'algorithme de calcul doit être précédé d'une analyse dosimétrique complète, afin que les impacts cliniques soient maitrisés. Nous présentons une méthodologie de mise en œuvre d'un nouveau TPS. Matériel et méthodologie : Nous avons utilisé 5 algorithmes de calcul de dose. Nous avons comparé 6 plans de traitement avec des configurations identiques : patient, énergie, balistique. Nous avons comparé 12 localisations tumorales : 5 poumons, 1 œsophage, 1 sein, 3 ORL, 1 encéphales et 1 prostate. Le principe de méthodologie est basé sur deux critères d'analyse : 1.Critère d'analyse dosimétrique : nous avons classé les outils d'analyse en 3 catégories : analyse liée à la dose de traitement, analyse liée à la distribution de dose et analyse liée à la répartition de la dose 2.Critère d'analyse statistique : nous avons considéré que nous avons 5 séries de mesure liée à 5 algorithmes. Nous avons considéré les valeurs dosimétriques calculées par l'ancien algorithme comme valeurs de référence. Le test de comparaison statistique utilisé était un Wilcoxon pour série apparié avec un seuil de signification de 5% et un intervalle de confiance à 95%. Résultats et discussion : Nous avons trouvé des écarts pour tous les paramètres comparés dans cette étude. Ces écarts dépendent de la localisation de la tumeur et de l'algorithme de calcul. La maîtrise statistique des résultats nous permet, d'une part de diagnostiquer et interpréter les écarts dosimétriques observés et d'autre part, de déterminer si les écarts sont significatifs. Conclusion : Nous proposons une méthodologie qui permet de quantifier d'éventuels écarts dosimétriques lors d'un changement d'algorithme. L'analyse statistique permet de s'assurer que les résultats sont significatifs.
28

Ungerer, Alexandre. "Méthodologie pour la parallélisation de programmes scientifiques : conception d'une carte à processeur parallèle." Grenoble 1, 1991. http://www.theses.fr/1991GRE10089.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le traitement des donnees issues des experiences en physique des particules exige des puissances de calcul sans cesse croissantes, auxquelles les ordinateurs conventionnels ne peuvent plus repondre. La solution passe par le calcul parallele. Les calculateurs a memoire distribuee bases sur le modele de processus sequentiels communicants avec pour support le processeur transputer sont de bons candidats. L'integration dans un environnement materiel commun sur le site des experiences a permis d'evaluer l'architecture et la parallelisation, tant pour le traitement en ligne que pour le calcul hors ligne, et ainsi prouver son efficacite
29

Cantin, Audrey. "Comparaison de trois méthodes de traitement adaptatives en IMRT : le cas du cancer de la prostate." Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30681/30681.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les mouvements de la prostate relativement aux ganglions pelviens durant un traitement de radiothérapie peut affecter la qualité du traitement et limiter la protection des organes à risque. Ce projet explore trois traitements adaptatifs qui combinent à la fois l’information acquise avec un recalage osseux et un recalage fait sur les marqueurs radio-opaques implantés dans la prostate. L’efficacité de ces traitements selon les mouvements interfractionnaires prostatiques a été évaluée. Cinq patients constituent la base de données de cette étude rétrospective. Chacun possède une tomodensitométrie initiale (CT) en plus de tomodensitométries à faisceau conique (CBCT) acquises lors des jours de traitement. Pour permettre le calcul de dose, un recalage non-rigide du CT a été réalisé sur chacun des CBCT. Les résultats montrent qu’une méthode adaptative peut être choisie pour augmenter le ratio thérapeutique. Ces méthodes semblent être de bons choix pour une stratégie de traitement adaptatif simple et efficace.
30

Lambert, Jean-Christopher. "Télédétection spatiale ultraviolette et visible de l'ozone et du dioxyde d'azote dans l'atmosphère globale." Doctoral thesis, Universite Libre de Bruxelles, 2006. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210883.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Propulsé sur une orbite polaire en avril 1995 par l’Agence Spatiale Européenne, l’instrument Global Ozone Monitoring Experiment (GOME) est le précurseur d’une nouvelle génération de satellites dédiés à la mesure globale de la composition atmosphérique. Ce spectromètre hyperspectral mesure, entre 240 et 790 nm, à la résolution de 0,2-0,4 nm, la radiance diffusée par l’atmosphère et réfléchie par la surface terrestre et les nuages au nadir du satellite. La technique de spectroscopie d’absorption optique différentielle (DOAS) permet d’en inverser la concentration columnaire de l’ozone et du dioxyde d’azote atmosphériques.

Les travaux décrits dans cette thèse portent d’une part sur la caractérisation du contenu en information géophysique accessible par ce type de sondage atmosphérique, et d’autre part sur la mise au point des méthodes et algorithmes d’inversion propres à la mission GOME.

Au cours des premiers chapitres, nous établissons les propriétés pluridimensionnelles de lissage et d’échantillonnage du champ atmosphérique associées à l’observation du rayonnement diffusé. Nous explorons ensuite les problèmes posés par le cycle diurne des oxydes d’azote, ainsi que l’effet des gradients atmosphériques interférant avec le chemin optique. Nous analysons enfin les capacités des réseaux de télédétection de l’Organisation Mondiale Météorologique (OMM) pour le diagnostic des algorithmes et données des systèmes satellitaires.

Deux chapitres sont ensuite consacrés à la mise au point des méthodes et algorithmes d’inversion DOAS pour le processeur GDP, qui traite de manière opérationnelle les données radiométriques acquises par GOME. Nous abordons successivement le problème de la dépendance en température des sections efficaces d’absorption, l’évaluation du facteur d’amplification géométrique du chemin optique, l’estimation de la colonne fantôme masquée par les nuages, les effets de l’anomalie magnétique sud-atlantique des ceintures de radiation, et l’incidence du dioxyde d’azote troposphérique. Suit un diagnostic systématique de la mise au point du processeur GDP sur base des données globales fournies par les réseaux de l’OMM, ainsi qu’une critique comparée des algorithmes TOMS de la NASA.

Le dernier chapitre décrit la construction de la première climatologie globale du dioxyde d’azote stratosphérique et de ses variations harmoniques. Développée pour nos études du facteur d’amplification géométrique, cette climatologie composite est issue de l’analyse conjointe des jeux de données complémentaires acquis par différents satellites, par des réseaux au sol et par des ballons stratosphériques.


Doctorat en sciences appliquées
info:eu-repo/semantics/nonPublished

31

Ejjabraoui, Kamal. "Contribution à la conception de systèmes mécatroniques automobiles : méthodologie de pré-dimensionnement multi-niveau multi-physique de convertisseurs statiques." Paris 11, 2010. http://www.theses.fr/2010PA112381.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de cette thèse sont effectués dans le cadre du projet O2M (Outil de Modélisation Mécatronique), labellisé par les pôles de compétitivité Mov'eo et System@tic, dont l'objectif est de développer une nouvelle génération d'outils dédiés aux différentes phases de conception de systèmes mécatroniques automobiles. Nous avons montré à travers de cette thèse l'absence d'une plateforme logicielle permettant la conception de l'ensemble des éléments d'une chaine d'actionnement mécatronique avec la même finesse et d'une méthodologie globale capable de formaliser le choix d'architecture et de considérer plusieurs contraintes multi-physiques y compris des contraintes d'intégration 3D. Dans ce contexte et au sein du sous-projet "Pré-dimensionnement" dont lequel ces travaux sont principalement concentrés, nous nous sommes intéressé au développement d'une approche de pré­dimensionnement de systèmes mécatroniques réalisée en trois niveaux : choix d'architecture et de technologies des composants, optimisation sous contraintes multi-physiques et optimisation avec intégration de la simulation numérique 3D. Une évaluation sur des outils de simulation et de conception les plus répandus sur différents critères a permis de conclure qu'une plateforme logicielle mécatronique peut être une association de certains outils tels que MATLAB-SIMULINK, DYMOLA, AMESim pour les niveaux 1 et 2 de pré­dimensionnement et COMSOL pour le niveau 3. Une adaptation de la démarche proposée est réalisée sur un élément essentiel de la chaine mécatronique, le convertisseur DC-DC. Des bases de données technologiques de composants actifs et passifs sont mises en place afin d'alimenter la démarche de pré-dimensionnement. Des modèles nécessaires à la réalisation de chaque niveau de cette démarche sont développés. Ils permettent dans le premier niveau de réaliser le choix d'architecture, d'estimer rapidement le volume des composants et de faire le choix technologique des composants selon une contrainte majeure (volume dans notre cas). Ils assurent dans le deuxième niveau l'optimisation sous contraintes multi­physiques (volume, rendement, température, spectre électromagnétique et commande). Enfin, dans le troisième niveau une association de deux logiciels (COMSOL pour la simulation éléments finis et MATLAB comme environnement d'optimisation) a été mise en place en vue d'une optimisation du placement des composants de puissance sous contrainte thermique en utilisant un modèle thermique plus fin basé sur la méthode des éléments finis. La démarche est appliquée à trois cahier des charges : convertisseur Buck, convertisseur Boost et l'onduleur triphasé. Des optimisations mono-objectif (volume) et multi-objectif (volume et rendement, volume et temps de réponse) sous contraintes multi-physiques ont été réalisées. Nous avons montré à travers ces optimisations l'impact direct des contraintes liées à la commande (temps de réponse, stabilité) au même titre que celles classiquement utilisées lors de la conception des convertisseurs statiques. De plus, nous avons montré la possibilité de lever des risques d'intégration 3D très tôt dans la phase de conception de ces convertisseurs. Cette démarche de pré-dimensionnement multi-niveau, multi-physique proposée a permis de répondre à des besoins exprimés par les partenaires industriels du projet O2M en termes de méthodologie de conception de systèmes mécatroniques automobiles.
32

Vidal, Sandrine. "Méthodologie d'interprétation des paramètres réservoir à partir des mesures du monitoring sismique, intégrant l'aspect géomécanique." Paris 6, 2002. http://www.theses.fr/2002PA066369.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

D'Alexis, Christophe. "Mesures expérimentales dans les basses couches de l'atmosphère tropicale insulaire (Guadeloupe) : micro-météorologie et composition chimique des masses d'air nocturnes en zone de mangroves." Thesis, Antilles-Guyane, 2011. http://www.theses.fr/2011AGUY0438.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La présence d'obstacles rencontrés en milieu naturel par l'écoulement, influence la dispersion des polluants qu'il transporte. Cette thèse, fondée sur des mesures micro-météorologiques spatio-temporelles en région tropicale, vise à étudier la dispersion de composés émis par l'écosystème mangrove en fonction des conditions météorologiques. A l'échelle journalière, l'analyse météorologique révéle, outre la présence des Alizés, l'existence d'écoulements thermiques dont des paramètres thermodynamiques nocturnes ont été définis. L'observation terrain nous a montré que la faible intensité du vent défavorise la dispersion des composés émis durant la nuit. A une échelle plus fine, l'existence d'un trou spectral séparant les phénomènes de grande échelle de ceux liés à la turbulence a été mise en évidence. Ces derniers ont été traités par des approches spectrale et statistique pour quantifier les flux turbulents de quantité de mouvement et de chaleur sensible, pendant la nuit, pour une durée de moyenne de l'ordre de 13 minutes. L'état de stratification de la couche de surface a été pris en compte et déterminé par la théorie de similitude de Monin-Obukhov. Les mesures nocturnes effectuées et l'application de la théorie de Kolmogorov ont permis de déduire les taux de dissipation de l'énergie et la taille des tourbillons à 5,5 m d'altitude. Ce travail a également conduit, par l'analyse chromatographique en phase gazeuse couplée à la spectrométrie de masse, à l'identification, en mangrove, de composés organiques volatils soufrés, des organohalogénés, des BTEX, ... L'ensemble de ces résultats servira ultérieurement à alimenter les modèles de dispersion spécifiques liès aux écosystèmes étudiés
The presence of obstacles met in natural environment by the flow, influences the dispersion of air pollutants which it carries. This thesis, based on spatiotemporal micro-meteorological measurements in tropical region, aims at studying the dispersion of compounds emitted by the ecosystem mangrove according to the weather conditions. At a daily scale, the meteorological analysis reveals, besides the presence of Trade Winds, the existence of thermal flows of which nocturnal thermodynamic parameters have been defined. The field observation has shown that the weak intensity of the wind disadvantages the dispersion of compounds emitted during the night. At a finer scale, the existence of a spectral gap separating large scale phenomena of those related to turbulence has been demonstrated. These last ones were treated by spectral and statistical approaches to quantify the turbulent fluxes of momentum and sensible heat during the night, for an averaged duration of 13 minutes. The stratification of the surface layer has been considered and determined by Monin-Obukhov similarity theory. The measurements acquired a night and the application of Kolmogorov theory allowed us to deduct the dissipation rate of energy and the size of the vortices at 5.5 meters in height. This work has also led us, by gas chromatography coupled to mass spectrometry, to identify, in mangrove, sulphurated volatil organic compounds, organohalogen, BTEX, ... Ali these results will later serve to feed dispersion models related to the studied ecosystem
34

Pechard-Presson, Béatrice. "Méthodologie pour l'étude par analyse d'images de la microstructure de matériaux composites biphasés." Vandoeuvre-les-Nancy, INPL, 1997. http://docnum.univ-lorraine.fr/public/INPL_T_1997_PECHARD_PRESSON_B.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les matériaux composites jouent un rôle très important dans l'économie, en particulier dans les domaines de haute technicité, tel que l'aéronautique. Leurs propriétés dépendent naturellement de celles de leurs constituants, mais également des interactions entre ceux-ci. Le génie des matériaux s'intéresse à leur conception, ainsi qu'aux relations qui existent entre leur structure et leurs caractéristiques générales. L’analyse d'images permet de qualifier les microstructures visibles par microscopie optique ou électronique. Elle constitue donc un outil très intéressant pour la science des matériaux. Dans cette étude, la structure de matériaux biphasiques, utilisés pour leurs propriétés électromagnétiques en aviation militaire, a été quantifiée par analyse d'images. Des images de synthèse ont été également étudiées, ainsi que des matériaux frittés et des sols, dans le but de préciser les paramètres calculés, et d'étendre la méthodologie mise en place à d'autres types de structures. L’orientation et la dispersion des charges dans la matrice ont été étudiées, ainsi que leur distribution de taille. Leur forme, leur connexité (à partir de la théorie de la percolation) et leur fractalité ont été caractérisées. Une méthodologie adaptée à l'étude en routine de la microstructure de matériaux biphasés (i. E. à propos desquels on ne s'intéresse qu’à une phase parmi d'autres, confondues) a ainsi été mise en place.
35

Oliveira, Erico Andrade Marques de. "Le rôle de la méthode dans la constitution de la physique cartésienne." Paris 4, 2006. http://www.theses.fr/2006PA040110.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans notre thèse, nous avons essayé de repérer et de déterminer comment la physique cartésienne, surtout celle du Traité et des Principes, se constitue à partir de la mathesis. A cet égard nous avons cherché d’un côté dans la mathesis une discipline capable de remplacer les représentations ambiguës, issues de l’expérience sensible, par des codes scientifiques, tout en fournissant à ces codes une grammaire – composée des lois qui assurent la constitution d’un réseau de propositions empiriques. C’est ainsi que la mathesis a rendu possible une « figuration » de la nature en montrant à travers l’expérience la mesure de la compatibilité du réel avec le simulacre de la science. De l’autre côté, on a voulu dégager le rôle normatif de la mathesis qui contraint les sciences à disposer leurs résultats selon un ordre déductif commun qui va des propositions simples jusqu’aux plus obscures, en montrant le degré de dépendance conceptuelle entre ces propositions
In our thesis, we try to demonstrate how the Cartesian physics, specially that of the Traité and of the Principes, is constituted from the mathesis. From this angle, we tried to see in the mathesis, on the one hand, a discipline that is able to substitute ambiguous representations, originated in the sensitive experience, through scientific codes, providing these codes a grammar - composed by laws which support the building of a net of empirical propositions. Thus, the mathesis enabled a “figuration” of nature, showing through experience the size of the compatibility between the real and the simulacrum of science. On the other hand, we tried to emphasize the normative role of the mathesis that constrains the sciences to display their results according to a common deductive order, which goes from the simplest results to the most obscure ones, demonstrating the conceptual dependence grade between them
36

Bubnova, Radmila. "Pouziti souradnice "hydrostaticky tlak" pro integraci elastického modelu dynamiky atmosféry v numerickém predpovednim systému ARPEGE/ALADIN=." Toulouse 3, 1995. http://www.theses.fr/1995TOU30067.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Arpege/aladin est un modele tri-dimensionnel a domaine limite, qui fait partie du systeme integre de prevision numerique arpege/ifs. Comme son equivalent global, la version a domaine limite utilise une representation spectrale des champs horizontaux. Une version non-hydrostatique d'arpege/aladin a ete developpee en utilisant la pression hydrostatique comme variable independante. La dynamique choisie represente la version totalement elastique des equations d'euler, l'orographie etant introduite par le biais d'une coordonnee hybride epousant la surface terrestre a sa base. Le schema semi-implicite a ete adapte pour controler les ondes acoustiques comme les ondes de gravite. Il a fallu modifier l'approximation de l'epaisseur logarithmique des couches du modele, et ce pour respecter la regle de l'integration par parties dans le processus conduisant a l'equation de structure. Le schema classique est complete par une correction implicite supplementaire sur la partie non lineaire de la divergence tri-dimensionnelle: ceci implique d'iterer la solution de l'equation d'helmholtz. Tout ceci a permis de prouver pour la premiere fois la faisabilite de cette nouvelle methode. Les resultats de tests idealises dans une version bi-dimensionnelle plan vertical pour des ecoulements au dessus d'une montagne en cloche sont tres proches des solutions analytiques connues. La capacite du modele a representer les ondes de sillage non-hydrostatiques et l'influence de certains effets convectifs a aussi pu etre verifiee
37

Marciniak, Marie-Hélène. "Etude numérique à mésoéchelle du cycle diurne d'une circulation atmosphérique côtière influencée par un relief complexe (expérience LASBEK)." Toulouse 3, 1994. http://www.theses.fr/1994TOU30112.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'etude numerique a ete realisee avec le modele de l'universite du colorado developpe par pielke (1974). Des modifications ont ete apportees a la version originale concernant essentiellement le schema de turbulence, la prise en compte du forcage de grande echelle et les conditions aux limites laterales. Le modele dans sa version bidimensionnelle s'est montre capable de reproduire correctement des ecoulements idealises de brises de mer et de pente en comparaison avec des observations et des resultats obtenus a l'aide d'autres modeles numeriques. La version tridimensionnelle du modele forcee par des champs du modele du centre europeen de reading a ete utilisee pour etudier la circulation atmospherique dans la baie de monterey dans la zone cotiere californienne pour laquelle on dispose d'observations recueillies pendant la campagne lasbex. Ces observations ont mis en evidence la presence de circulations du type brise de terre brise de mer dont on modelise une sequence. Le modele est utilise pour analyser les processus complexes qui conditionnent ces circulations. Pour cela des etudes academiques sont menees afin de comprendre le role joue par le relief, le forcage de grande echelle et la forme de la ligne de cote sur les circulations aux caracteristiques tres differentes qui regissent la baie et les grandes portions de la cote quasi-rectilignes de la californie
38

Musella, Riccardo. "Ab initio simulations of MgO and MgSiO3 for planetary modelling." Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC052.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les intérieurs des exoplanètes représentent un domaine au carrefour de la planétologie, de la physique des hautes pressions et de l'astronomie. Les observations semblent indiquer que les planètes rocheuses sont les plus nombreuses. Cependant, avec les technologies actuelles, les planètes de type-Terre sont encore difficilement détectables et seuls de nouveaux programmes scientifiques pourront atteindre la précision nécessaire permettant obtenir un échantillon non biaisé de planète de type Terre. À present, les exoplanètes les plus similaires à la Terre sont presque toutes des planètes rocheuses massives, appelées super-Terres. Dans ce travail, nous avons étudié les composés MgO, MgSiO3 et Fe qui constituent les intérieurs des super-Terres et probablement les coeurs des planètes géantes. Recréer en laboratoire les conditions thermodynamiques que l'on rencontre à l'intérieur de ces corps représente un vrai défi. Dans certains cas, le seul outil disponible est fourni par les simulation numériques. Nous avons utilisé la dynamique moléculaire ab initio sur les composés MgO (jusqu'à —10 TPa) et MgSiO3 (jusqu'à —2 TPa) afin d'obtenir leurs équations d'état, courbe de fusion, métallisation etc. . . Pour Fe nous avons utilisé la dynamique moléculaire sans orbitales afin d'étendre la courbe de fusion jusqu'à —100 TPa. Les résultats que nous avons obtenus pourront donc être utilisés dans le futur pour construire des modèles de planètes plus précis. Les courbes de fusion calculées dans ce travail auront également un fort impact sur les modèles planétaires
The interiors of exosolar planets represent a new fertile field at the interface of planetary science, high pressure physics and astronomy. The observations seem to indicate that rocky planets are the most numerous. Nevertheless, with the current technology, Earth-like planets are still hardly detectable and only new scientific programs could bring enough accuracy to obtain an unbiased sample of Earth-like objects. At present time, the characterized exoplanets more similar to the Earth are massive rocky planets, dubbed super-Earths. In this thesis, we have studied MgO, MgSiO3 and Fe compounds which are the main constituents of the deep interiors of massive rocky planets and possibly of cores of giant planets. The thermodynamic conditions inside these objects are very challenging to reproduce in laboratory; numerical simulations are sometimes the only available tool to explore the phase diagram of the minerais at such extreme conditions. We used ab initio molecular dynamics to provide data on MgO (up to pressure -10 TPa) and MgSiO3 (up to pressure -2 TPa) such as the equation of state, the melting line, the metallization etc. . . For Fe we used the orbital free molecular dynamics in order to extend the iron melting line up to -100 TPa. Our ab initio EOS tables obtained for MgO and MgSiO3 could be used to improve the models of massive exoplanets including aspects such as the influences of phase transitions, of time-evolution and a complete description of the thermal state. Also, the melting lines calculated for MgO, MgSiO3 and Fe may have a strong impact on these models. What language could be considered as their own? For them, when did French cease to be a foreign language ? More generally, what remains of an author who has chosen to express himself in another language?
39

Séjourné, Arnauld. "Conception d'un hypermédia et analyses de l'influence de l'organisation des contenus sur l'activité des élèves : Le cas de "Labdoc Son et Vibrations"." Phd thesis, Université Lumière - Lyon II, 2001. http://tel.archives-ouvertes.fr/edutice-00000241.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette recherche constitue une étape dans la conception d'un hypermédia "Labdoc Son et Vibrations" dédié à l'enseignement et à l'apprentissage de la physique des phénomènes sonores (vibration, propagation des sons, hauteur et intensité) par des élèves de Seconde (âgés de 14 à 16 ans). Elle s'intéresse plus particulièrement à l'influence de l'organisation des contenus proposés sur l'activité des élèves ; son but est d'élaborer une méthode pour adapter des séquences de TP (travaux pratiques) proposées en classe "ordinaire" (par exemple des fiches de TP) sur un support informatique dans l'objectif d'aider les élèves à les réaliser d'une manière autonome en dépassant leurs difficultés et en construisant de nouvelles connaissances. Ce travail a donné lieu à la mise en place d'un cadre théorique dont l'originalité est de fournir des "outils théoriques" à la fois pour concevoir les différentes tâches et pour analyser le fonctionnement des élèves lors de leurs réalisations. Ce cadre repose sur trois axes : l'activité de modélisation, l'activité sémiotique et la théorie des situations. Nous nous sommes penchés sur trois questions de recherche dont les objectifs sont d'apprécier les connaissances mobilisées par les élèves en fonction : - de la structuration des contenus des tâches selon les niveaux de savoir en jeu dans la modélisation, - des diverses représentations des contenus, - des éléments constitutifs des situations d'enseignement. La méthodologie d'analyse utilise deux approches complémentaires : une analyse globale centrée sur la trace informatique transcrivant automatiquement certaines actions des élèves lors de l'utilisation de l'hypermédia (20 binômes) et une analyse locale élaborée à partir des transcriptions des interventions des élèves (4 binômes). L'analyse des données confirme la pertinence d'un tel cadre théorique lors de la conception de tâches sur un support informatique et l'analyse de l'activité des élèves. En particulier, la structuration, selon les niveaux de savoir, des contenus proposés aux élèves semblent être déterminante pour favoriser la sélection des informations nécessaires à la réalisation des tâches.
40

Beaurepaire, Michel. "L'observation thermique de l'atmosphère en France et dans les pays proches aux dix-septième et dix-huitième siècles : L'invention du thermomètre. Le traitement des données anciennes." Phd thesis, Université Paris-Sorbonne - Paris IV, 1994. http://tel.archives-ouvertes.fr/tel-00962194.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'utilisation des données thermiques anciennes nécessite une connaissance de l'histoire des thermomètres, des recherches effectuées par les savants, de leur exploitation et de la manière dont ils étaient reproduits et utilisés. L'histoire des thermomètres précise pour la première fois que le thermoscope fut inventé en 1608 par le médecin Sanctorius et que le thermomètre florentin apparut vers 1649-1650 à la suite de recherches souterraines. L'apparition de l'abri au milieu du dix-neuvième siècle modifia les conditions d'observation. Une étude statistique comparative des deux modes d'observation de la température de l'air, dégage les causes des principales différences. L'examen des manuscrits de la Société Royale de Médecine contenant les observations thermiques de 1776 à 1792 montre que malgré tout le sérieux des médecins, les températures ne peuvent être utilisées avant une analyse métrologique. L'esquisse du climat de cette époque faite par Le Roy Ladurie mérite d'être revue en utilisant la méthodologie proposée dans la thèse.
41

Vient, E. "Méthodologie de la calorimétrie et de la thermométrie des noyaux chauds formés lors de collisions nucléaires aux énergies de Fermi." Habilitation à diriger des recherches, Université de Caen, 2006. http://tel.archives-ouvertes.fr/tel-00141924.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Il s'agit d'une étude méthodologique critique de la calorimétrie et de la thermométrie de noyaux chauds formés lors de collisions Xe+ Sn entre 25 et 100 MeV/u. L'instrument de caractérisation physique des noyaux chauds est le multidétecteur 4 pi INDRA. Cette étude a été faite en utilisant les générateurs d'événements GEMINI, SIMON et HIPSE et un filtre informatique simulant le fonctionnement complet du multidétecteur.
Une méthode alternative de calorimétrie a été proposée et partiellement validée à l'aide du générateur d'événements HIPSE.
42

Kermarrec, Gilles. "Stratégies d'apprentisage et autorégulation en EPS [education physique et sportive] : une recherche descriptive en contexte scolaire." Rennes 2, 2002. http://www.theses.fr/2002REN20028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'@objectif est d'identifier les dífférents composants de l'autorégulation utilisés par des élèves dans une situation d'apprentissage en éducation physique et sportive. Vingt-trois participants, élèves de quatrième et de troisième de collège, sont amenés à verbaliser les stratégies effectivement mobilisées pendant une situation d'apprentissage, lors d'un entretien d'explicitation. Les données recueillies (comportements observés et verbalisations prvoquées) sont catégorisées à l'aide d'analyses thématiques de contenu. Des analyses factorielles discriminantes permettent de confirmer le modèle émergeant de l'observation des sujets. Les résultats décrivent l'autorégulation en EPS à l'aide de six stratégies d'apprentissage différentes, de sept stratégies de gestion de l'apprentissage, et de quatre types de connaissances relatives à l'apprentissage. En vue de mieux comprendre l'autorégulation, des corrélations entre les différents composants identifiés expliquent en partie l'engagement des sujets dans l'autorégulation. Les connaissances déterminent l'utilisation de stratégies d'apprentissage qui favorisent l'utilisation de stratégies de gestion. Les stratégies de gestion utilisées dans une situation d'apprentissage en EPS permettent de prédire la réusite en EPS. Des profils d'autorégulation de l'apprentissage sont mis en évidence : certains élèves caractérisés ici par leurs performances scolaires associeraient préférentiellement en EPS certaines stratégies d'apprentissage et de gestion, en relation avec leurs connaissances relatives à l'apprentissage. Enfin une étude exploratoire permet de suggérer que cet engagement préférentiel dans l'autorégulation pourrait être affecté par des facteurs motivationnels (buts, sentiment de contrôle) ou cognitifs (traitement des informations). Les différentes approches descriptives et explicatives, qualificatives et quantitatives, poursuivent l'ambition de participer à la compréhension de l'activité d'élèves en situation scolaire
@This study concerns components used to self-regulate in a learning context in physical education. Twenty-three students from third and fourth grades in french college were asked to describe their self-regulation process during a learning task. Datas (comportments and verbalisations) extracted from clarification interviews were classified with a content analysis method. A factorial analysis is used to confirm thematic categorization. Self-regulation in physical education can be described with six learning strategies, seven support strategies and four types of knowledgess about learning. Reciprocal relations between components of self-regulation were identified. Knowledges bring about using learning strategies and using learning strategies brings about using support strategies. High achieving in physical education can be significantly predicted with support strategies. Self-regulated students'models were identified : their using of self-regulation components depends on their academic school achievement. Discussing why students chose these components to take charge their own activity, an explorative study suggest that motivational (goals, perception of control) and cognitive (informations processing) factors could affect this process
43

Sridharan, Aravindan. "Laser-filament-induced condensation in sub-saturated environments." Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30535/30535.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En ce qui concerne des méthodes d’ensemencement de nuages, les filaments de laser ont des avantages particuliers par rapport à des méthodes traditionnelles. Jusqu’à présent, la condensation induite par le filament de laser a été observée uniquement dans des conditions saturées ou sursaturées. La condensation induite par le filament dans des conditions sous-saturées reste un domaine presqu’inconnu. Nous postulons que la condensation est possible dans des conditions sous-saturées dans la mesure où la cadence des impulsions femtosecondes soit élevé, et qu’une cadence élevée pourrait engendrer une turbulence plus forte, ce qui contribuerait à la condensation. Pour mieux comprendre la condensation dans une condition sous-saturée, nous utilisons une chambre à nuages inversée. Nos recherches permettent d’observer la présence d’agrégats de brume à l’oeil nu ainsi qu’au moyen d’une caméra numérique, et la croissance des gouttelettes d’eau en dessous du filament, ce qui confirme notre hypothèse.
Laser filaments have unique advantages compared to other traditional methods when it comes to cloud seeding techniques. Till now, laser filament induced condensation has been observed in saturated or super-saturated conditions alone. Filament induced condensation in sub-saturated conditions remains mostly unexplored. We postulate that condensation is possible in sub-saturated conditions if femtosecond laser pulses of high repetition rate capable of generating a turbulence strong enough to contribute to the condensation process are used. To better understand condensation in sub-saturated conditions, an inverted cloud chamber is used. In our findings, we observe mist packets with and without a digital camera, as well as growth of water droplets under the filament, which in turn confirm our hypothesis.
44

Bergot, Thierry. "Modélisation du brouillard à l'aide d'un modèle 1D forcé par des champs mésoéchelle : application à la prévision." Toulouse 3, 1993. http://www.theses.fr/1993TOU30281.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les brouillards denses sont des phenomenes meteorologiques tres dangereux, et de plus tres frequents l'hiver sur certaines regions, comme la region nord-pas de calais. Cependant, leur prevision par les services meteorologiques est delicate. Ainsi, une etude statistique menee sur les trois hivers 89-90, 90-91 et 91-92 a montre que la qualite de la prevision etait du meme ordre de grandeur que la prevision par persistance. Les cas d'erreurs se composent pour un tiers de non detection et pour deux tiers de fausses alertes. Afin d'essayer d'ameliorer la prevision des brouillards denses a courte echeance (12 heures a l'avance), une methode numerique de prevision associant un modele unidimensionnel (1d) et le modele de prevision operationnel de meteo-france peridot est testee. Le modele peridot fournit les termes mesoechelles (vent geostrophique, advections horizontales de temperature et d'humidite). Le modele 1d, appele cobel, est un modele de couche limite nocturne incluant une parametrisation microphysique implicite, une parametrisation du depot de rosee et de gelee, et une parametrisation des longueurs de melanges dans les cas stables et instables. Une etude de sensibilite a montre que le forcage mesoechelle et les conditions initiales n'avaient pas la meme influence selon le moment ou se formait le brouillard. Ainsi, en debut de nuit, periode de fort refroidissement, les termes locaux sont preponderant devant les termes mesoechelles et l'heure de formation du brouillard est peu sensible aux erreurs. Par contre, le developpement vertical du brouillard est toujours tres sensible aux termes advectifs. L'influence du depot de rosee a aussi ete mise en evidence. La simulation des cas observes lors des campagnes d'observation intensive lille88 et lille91 a permis de montrer que le modele cobel etait capable de reproduire correctement les principaux processus mis en jeu dans le brouillard et de poser les premieres limites d'applications de la methode de prevision des brouillards denses
45

Romero, Chacon Angel Enrique. "La mécanique d'Euler : prolégomènes à la pensée physique des milieux continus (principes et concepts physiques, et analytisation mathématique)." Paris 7, 2007. http://www.theses.fr/2007PA070088.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Leonhard Euler (1707-1783) est considéré comme l'un des grands continuateurs sur le Continent du programme newtonien de la mécanique, en ce sens qu'on lui attribue la systématisation des fondements et des principaux concepts de cette science tels que Newton les aurait posés. L'analyse historique et épistémologique de l'œuvre d'Euler en mécanique que nous proposons dans le présent travail fait voir, au contraire, que la conception eulérienne de la mécanique ne peut pas être vue comme une simple suite de la tradition newtonienne, mais qu'elle constitue une réorganisation conceptuelle alternative des résultats obtenus par Newton, étroitement liée aux traditions cartésienne et leibnizienne. Notre étude s'attache à suivre les recherches d'Euler sur la mécanique, dans sa structure et son développement internes, depuis ses premiers travaux de 1736 jusqu'à ceux de la maturité des années 1750. Il est possible ainsi de mieux comprendre l'évolution historique de sa pensée et de situer son œuvre de manière plus précise par rapport aux œuvres contemporaines, notamment celle de d'Alembert. Trois dimensions fondamentales de la contribution d'Euler à la science de la mécanique apparaissent ainsi en évidence : la nature et le rôle des présupposés épistémologiques qui fondent sa vision du monde et leurs effets sur son travail scientifique ; la création et la formulation de concepts physiques propres à l'analyse des fluides et des milieux continus (tels que ceux & effort et de pression interne); et la mise en œuvre, à travers l'utilisation de l'analyse, de sa conception des relations entre la physique et les mathématiques. Au terme de ce travail, une idée majeure se dégage : tant la conception qu'Euler se fait de l'espace et des corps (sous-tendue par sa vision du monde) que les modèles mathématiques dont il se sert se sont trouvés particulièrement adaptés à l'approche et à l'analyse des milieux continus tels que la physique les a développés par la suite
Leonhard Euler (1707-1783) is regarded as one of the main developers of the Newtonian paradigm at de European continent, because the systematization of the foundations and main concepts of Newton's Mechanics following Newton's conceptions are attributed to him. We intend to show in this work that, on the contrary, an historical and epistemological analysis of Euler's work on Mechanics shows that Euler's conceptions about mechanics cannot be seen as just a continuation of the Newtonian tradition but, rather, as an alternative conceptual reorganization of the results obtained by Newton closely bound to the Leibnizian and Cartesian traditions. We follow Euler's research on the inner structure and development of Mechanics from his first works of 1736 as far as those of his mature years in 1750. In so doing, it is possible better to understand the historical evolution of his thought and, thus, better and more precisely compare his work with the contemporary works on the subject, specially D'alembert's. We show three dimensions of Euler's contribution to the science of mechanics: the nature an the roll of the epistemological assumptions underlaying his world's conception and their effects on his scientiflc work; the formulation and creation of his own physical concepts for the analysis of continuous mediums (as the strength and the internal pressure); the way he implements, by using the analysis, his conceptions of the relation of Physics and Mathematics. At the end of this work an idea stand out: Euler's Conception of space and bodies and the mathematical models he uses are quite adequate for the analysis of continuous mediums, as were developed afterwards in Physics
46

Chambon, Amalia. "Le Crédit Burnup des combustibles REP-MOx français : méthodologie et conservatismes associés à l'évaluation JEFF-3.1.1." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00956580.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En règle générale, les études de sûreté-criticité concernant les combustibles usés stockés, transportés ou retraités sont très conservatives et considèrent ce combustible comme neuf donc le plus réactif possible. Le " Crédit Burn-up " (CBU) est la prise en compte de l'antiréactivité du combustible irradié par rapport au combustible neuf. Une méthodologie CBU rigoureuse, développée par le CEA en collaboration avec AREVA-NC a récemment été validée et réévaluée pour les combustibles REP-UOx. Cependant, 22 réacteurs sur les 58 que compte la France utilisent également du combustible MOx. De plus en plus d'assemblages MOx irradiés doivent donc être entreposés et transportés, ce qui conduit les industriels à s'intéresser à la prise en compte du CBU pour ces applications, dans le but de pouvoir gagner des marges en terme de dimensionnement des installations. Des publications récentes et les travaux du Groupe de Travail Français sur le CBU ont souligné l'importance de la prise en compte des 15 produits de fission stables et non volatiles les plus absorbants qui sont à l'origine de la moitié de l'antiréactivité totale apportée dans les combustibles REP-MOx. C'est pourquoi, dans le but de garantir la sous-criticité de la configuration étudiée suivant les dispositions règlementaires relatives à la sûreté des installations, les biais de calcul affectant leur bilan-matière et leur effet individuel en réactivité doivent également être pris en considération dans les études de sûreté-criticité s'appuyant sur des calculs de criticité. Dans ce contexte, une revue bibliographique exhaustive a permis d'identifier les particularités des combustibles REP-MOx et une démarche rigoureuse a été suivie afin de proposer une méthodologie CBU adaptée à ces combustibles validée et physiquement représentative, permettant de prendre en compte les produits de fission et permettant d'évaluer les biais liés au bilan-matière et à l'antiréactivité des isotopes considérés. Cette démarche s'est articulée autour des études suivantes : * détermination de facteurs correctifs isotopiques permettant de garantir le conservatisme du calcul de criticité sur la base de la qualification du formulaire d'évolution DARWIN-2.3 pour les applications REP-MOx et d'une analyse des données nucléaires des produits de fission métalliques afin de déterminer l'impact des incertitudes associées sur le calcul de leur bilan matière ; * évaluation de l'antiréactivité individuelle des produits de fission sur la base des résultats d'interprétation des expériences d'oscillation des programmes CBU et MAESTRO, réalisés dans le réacteur expérimental MINERVE à Cadarache, avec le formulaire dédié PIMS développé au SPRC/LEPh avec mise à jour des schémas de calcul pour la criticité ; * élaboration de matrices de covariances réalistes associées à la capture de deux des principaux produits de fission du CBU REP-MOx : 149Sm et le 103Rh associées à l'évaluation JEFF-3.1.1 ; * détermination des biais et incertitudes " a posteriori " dus aux données nucléaires des actinides et produits de fission considérés pour deux applications industrielles (piscine d'entreposage et château de transport) par une étude de transposition réalisée avec l'outil RIB, développé au SPRC/LECy, qui a bénéficié à cette occasion de développements spécifiques et de mises à jour des données utilisées (importation des données de covariance issues de la bibliothèque COMAC V0 associée à JEFF-3.1.1 pour les isotopes 235,238U, 238,239,240,241,242Pu, 241Am et 155Gd et prise en compte des corrélations inter-réactions pour un même isotope). * évaluation de la méthodologie proposée pour deux applications industrielles (piscine d'entreposage et château de transport), démonstration de son intérêt et de sa robustesse.
47

Caillard, Pierre. "Conception par optimisation d'une chaine de traction électrique et de son contrôle par modélisation multi-physique." Thesis, Ecole centrale de Lille, 2015. http://www.theses.fr/2015ECLI0025/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de cette thèse portent sur la méthodologie de conception par optimisation d’une chaine de traction de véhicule électrique en phase amont du développement. Dan une première partie, nous avons abordé le contexte environnemental du transport afin d poser la problématique de la conception systémique d’une chaine de traction électrique composée d’une transmission, une machine électrique asynchrone, un onduleur et un batterie. Le cas test est celui du Renault Twizy. La seconde partie explore les possibilité de modélisation puis détaille les modèles analytiques qui ont été choisis pour chaque composant. L’assemblage de ces modèles permet une estimation de l’autonomie d véhicule, au travers du calcul des pertes des composants, et du cout de la chaine d traction. La troisième partie est consacrée aux méthodes et stratégies d’optimisation afin d pouvoir exploiter le modèle système en incluant le cycle de roulage, le contrôle de l machine électrique et les différentes physiques des composants, tout en conservant de temps de calcul raisonnable. Enfin, la dernière partie présente des résultats d’optimisation en comparant différents jeux de variables et objectifs, soulignant l’importance d’un conception systémique. Des essais sur banc permettent de valider les hypothèses qui on été posées
The works of this thesis concern the optimal design methodology of an electric vehicl powertrain, in early development phase. The first part of this report introduces th environmental context of transportation in order to assess the problem of system design o an electric powertrain which includes a transmission, an induction machine, an inverter an a battery. The selected study case is a Renault Twizy. The second part deals with modelin choices and details the analytic models of the components. Then these models are pu together to get an estimate of the vehicle range, by calculating the components’ losses an the powertrain cost. The third part is devoted to methods and optimization strategies wit the objective to use the systemic model with driving cycles, electric machine control and th physics of each component, without increasing too much computing times. The final par presents results from optimal designs, by comparing several variables or objectives sets Results show how significant the systemic design is. Experiments on a test bench allow validating the hypothesis that have been made
48

Morville, Stéphane. "Analyse d'HAPs, Phénols et nitrophénols dans l'atmosphère : Evaluation de la contamination des deux phases atmosphériques (gaz et particules). Comparaison entre zones urbaines, péri-urbaine et rurale." Université Louis Pasteur (Strasbourg) (1971-2008), 2005. http://www.theses.fr/2005STR13225.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Larcher, Gwénaëlle. "Profil spectral des raies d'absorption du dioxyde de carbone en vue d'application à l'étude de l'atmosphère de la Terre par télédétection." Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail est consacré aux études théoriques et expérimentales du profil spectral des raies d'absorption du dioxyde de carbone, une espèce clé dans l'atmosphère de la Terre. Le but de ce travail est de tester les différents modèles du profil spectral des raies d'absorption de CO2. Dans un premier temps, des mesures des paramètres spectroscopiques du CO2 pur dans l'infrarouge proche en utilisant un système de diode laser à cavité externe ont été effectuées. Différents modèles de profil spectral ont été utilisés pour ajuster les spectres mesurés. Les résultats montrent que le profil de Voigt mène à de larges différences avec les spectres mesurés et qu’il est nécessaire de prendre en compte à la fois des changements de vitesse et des dépendances en vitesse des paramètres collisionnels pour décrire correctement le profil spectral. Le modèle HTP a alors été utilisé pour modéliser le profil spectral de CO2. Ce modèle a donc pu être testé et validé par cette étude. Des simulations de dynamique moléculaire pour CO2 pur et CO2 perturbé par N2 ont ensuite été effectuées afin d’étudier plus précisément les effets non-Voigt observés. Le but a été ici de déterminer l’influence de plusieurs paramètres sur ces effets. Nous avons alors pu comparer les simulations à des mesures. Pour le CO2 pur, nous avons pu montrer que le choix du potentiel intermoléculaire pour modéliser les interactions existantes n’avait pas d’influence sur l’évolution de ces effets avec la pression. Aucune dépendance rovibrationelle n’a pu être mise en évidence. Les résultats pour CO2 dans N2 ont montré une dépendance de l’évolution de ces effets en fonction du rapport de mélange utilisé
This work is devoted to the theoretical and experimental studies of the spectral shape of isolated absorption lines of carbon dioxide, a key species of the Earth's atmosphere. The objective of this PhD thesis is to test the different line-shape models that take into account various velocity effects affecting the spectral shape of CO2 absorption lines. The experimental part consists of measurements of spectroscopic parameters of pure CO2 using a tunable External Cavity Diode Laser setup. In the theoretical part, different spectral profiles were used to fit the measured spectra. The results show that the Voigt profile leads to important residuals and it is thus necessary to take into account both Dicke narrowing and the speed dependence of collisional parameters to adequately describe the experimental spectral profile. The HTP profile, developed recently, was also used to model the spectral profile of CO2 lines. This model has been validated by this study. Molecular dynamics simulations for pure CO2 and CO2 perturbed by N2 were also conducted to study more precisely the “non-Voigt” effects observed. The goal here was to determine the influence of several parameters on these effects. We compared the theoretical simulations with our measurements. For pure CO2, we could show that the intermolecular potential chosen to model the existing interactions had no influence on the evolution of these effects as a function of pressure. Furthermore, no rovibrational dependence could be found. The results for CO2 mixed in N2 showed a dependence of the evolution of these effects depending on the CO2/N2 mixing ratio
50

Houmba, Philippe. "Etude d'un matériau céramique industriel : transformations physiques et minéralogiques en fonction de la température et de l'atmosphère de cuisson." Université Louis Pasteur (Strasbourg) (1971-2008), 1987. http://www.theses.fr/1987STR13004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’étude d'un matériau céramique a base d'argiles, en fonction de la température et de l'atmosphère de cuisson, nécessite une bonne connaissance de sa composition minéralogique. Les minéraux argileux et non argileux ont été analysés qualitativement et quantitativement avant et après les traitements thermiques. Les oxydes de fer sont parmi les principaux agents de coloration des matériaux céramiques cuits non émaillés, leur étude a permis d'une part de localiser les ions fe**(2+) dans les aluminosilicates, les ions fe**(3+) dans la goethite, l'hématite et les aluminosilicates, d'autre part de montrer que la formation de la magnétite n'a pas lieu à 1250**(o)c, à moins de conditions très réductrices. Une étude des transformations minéralogiques au cours de la cuisson a permis de mettre en évidence la formation de la mullite à 1100**(o)c environ et celle de la cristobalite à 1200**(o)c environ.

To the bibliography