Dissertations / Theses on the topic 'Processus nuageux'

To see the other types of publications on this topic, follow the link: Processus nuageux.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 38 dissertations / theses for your research on the topic 'Processus nuageux.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Perroux, Hélène. "Modélisation des processus bio-physico-chimiques du milieu nuageux : devenir de la matière organique." Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAC058/document.

Full text
Abstract:
Le rôle des nuages sur la composition chimique atmosphérique est encore mal connu. Les composés chimiques présents sous forme de particules et de gaz sont transformés efficacement lors de leur passage dans le nuage par des processus photochimiques et microbiologiques. Les objectifs de ce travail de thèse étaient d’analyser l’efficacité de ces processus dans la transformation des composés chimiques à l’aide du modèle multiphasique de chimie du nuage CLEPS (CLoud Explicit Physico-chemical Scheme). Le premier travail a consisté à étudier la capacité oxydante du nuage sur la base de comparaisons entre des données expérimentales et simulées de vitesses de production du radical HO• pour des eaux nuageuses prélevées au puy de Dôme. Ces comparaisons ont montré que la photoréactivité du fer comme source de ce radical est surestimée par le modèle. Cela provient de la complexation du fer dans les échantillons naturels qui n'est pas considérée dans le modèle. Le modèle a également montré que la photolyse du peroxyde d’hydrogène représente la voie majoritaire dans la formation des radicaux HO•. Dans un second temps, les hypothèses formulées lors de la construction du nouveau mécanisme chimique en phase aqueuse CLEPS ont été validées par le biais d’expériences d’irradiation sur un composé cible, l’acide tartronique, réalisées en laboratoire et simulées avec le modèle. Le travail expérimental a confirmé la formation de l’acide glyoxylique prédite par le mécanisme en phase aqueuse du modèle. Ce dernier reproduit l’évolution temporelle des concentrations en acide tartronique et de son premier produit d’oxydation, l’acide glyoxylique mais sous-estime la formation de l’acide formique qui est un des produits finaux de l’oxydation de l’acide tartronique. Enfin, le modèle a été développé pour prendre en compte des vitesses de biodégradation mesurées en laboratoire. Le modèle permet de comparer l’efficacité des processus radicalaire et microbiologique dans la dégradation de quatre espèces chimiques en testant l’effet de paramètres environnementaux clés (température, flux actinique). L’activité biologique a été reconnue comme plus efficace dans le scénario estival que dans le cas hivernal et la contribution des microorganismes la nuit est dominante pour les deux scénarios. Un test de sensibilité a démontré que la contribution de l’activité microbienne dans la dégradation des composés chimiques est fortement accrue par rapport à la réactivité photochimique lorsque le fer est entièrement complexé
The role of clouds on the atmospheric chemical composition is still poorly known. The chemical compounds under the form of particles and gases are efficiently transformed in the cloud by photochemical and microbiological processes. The thesis objectives were to analyze the efficiency of these processes in the transformations of the chemical compounds using the multiphase cloud chemistry model CLEPS (CLoud Explicit Physico-chemical schema). The first work consisted in studying the cloud oxidizing capacity based on comparisons between HO• radical production rates for irradiated cloud water sampled at the puy de Dôme station determined experimentally in the lab data and modeled with CLEPS. These comparisons showed that the model overestimates the contribution of the iron photolysis in the production of HO• radicals. This is due to the complexation of iron in cloud water samples that is not considered in the model due to the lack of data. The model also showed that the photolysis of hydrogen peroxide represents the major source of the HO• radicals in the aqueous phase. Secondly, the new protocol for cloud aqueous phase oxidation of organic compounds developed to build the CLEPS model was validated based on irradiation experiments of a target compound, the tartronic acid that were simulated by the model. The experimental work confirmed the formation of glyoxylic acid predicted by the aqueous phase mechanism in the model. It reproduces the temporal evolution of the concentrations of tartronic acid and of its first oxidation product, the glyoxylic acid but underestimates the formation of formic acid which is one of final products of the tartronic acid oxidation. Finally, the model was developed to take into account biodegradation rates measured in the laboratory. The model allows comparing the efficiency of the chemical and microbiological processes for the degradation of four chemical species and testing the effect of key environmental parameters (temperature, actinic flow). The biological activity was recognized as more effective in the summer case than in the winter case and the contribution of microorganisms the night is dominant for both scenarios. A sensitivity test demonstrated that the contribution of the microbial activity in the degradation of the chemical compounds is strongly increased in comparison with the photochemical reactivity when the iron is supposed to be totally complexed
APA, Harvard, Vancouver, ISO, and other styles
2

Long, Yoann. "Modélisation des processus physico-chimiques nuageux : études de la réactivité de la matière organique." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00856269.

Full text
Abstract:
Dans l'atmosphère, la matière organique est omniprésente et joue un rôle important par son action sur le bilan radiatif de la Terre et par son impact sur la santé publique notamment dans les zones fortement polluées. A ce jour plus de 10000 Composés Organiques Volatils différents ont été identifiés dans l'atmosphère. Leurs propriétés physico-chimiques (solubilité, volatilité, réactivité, ...) sont variées et mal documentées. Leur distribution est perturbée par la présence de nuage qui représente un milieu réactif. L'objectif de cette thèse est d'évaluer la contribution des processus physico-chimiques sur la redistribution des COV à partir d'études numériques via le modèle de processus M2C2 (Model of Multiphase Cloud Chemistry). Les résultats sur les processus microphysiques en phase mixte ont montré que la rétention des composés chimiques dans les cristaux de glace qui grossissent principalement par givrage des gouttelettes de nuage, est un processus important dans la redistribution des espèces en phase gazeuse, comme la forme des cristaux (complexe ou sphérique). Par ailleurs, une intensité du givrage plus élevée entraîne un dégazage des composés chimiques dissous dans l'eau liquide nuageuse plus important et réparti sur une gamme de températures plus faibles dans le cas des cristaux complexes. La chimie en phase aqueuse du modèle M2C2 a été confrontée et calibrée avec des mesures effectuées lors d'expériences d'irradiations d'échantillons d'eau synthétique (i.e. de composition chimique connue). Ce travail a mis en évidence la complexité du système HxOy/fer et les incertitudes associées, notamment en présence de matière organique. Ces premières études ont montré la nécessité, dans le cas considéré, de prendre en compte la photolyse du complexe fer/oxalate à un seul ligand Fe(C2O4)+ et d'étudier expérimentalement la formation de complexes fer - acide formique en détail. Cette thèse aborde le développement de la chimie en phase aqueuse dans M2C2 en ajoutant les voies d'oxydation des composés organiques à deux atomes de carbone à partir de données expérimentales et d'analogie mécanistiques. Ce nouveau mécanisme a été testé sur un ensemble de scénarios académiques (urbain, rural et marin). Les résultats montrent, dans le cas d'un scénario urbain, que les COV influent sur l'évolution temporelle du radical hydroxyle en phase aqueuse à travers une modification importante de ses sources et de ses puits ; notamment par la présence de nouveaux complexes organiques avec le fer. Les alcools, transférés en phase aqueuse ne contribuent que très faiblement, par oxydation, aux aldéhydes dissous. Les aldéhydes sont issus principalement de la phase gazeuse. Enfin, les acides carboxyliques en phase aqueuse sont produits par oxydation des aldéhydes à un taux du même ordre de grandeur que celui de leur transfert de masse.
APA, Harvard, Vancouver, ISO, and other styles
3

Pilon, Romain. "Transport et élimination des radionucléides naturels par les processus nuageux : Mécanismes et représentation dans un modèle de climat." Paris 6, 2013. http://www.theses.fr/2013PA066151.

Full text
Abstract:
Cette thèse porte sur l’étude de la répartition des radionucléides dans l’atmosphère et de sa variabilité spatiale et temporelle. Les radionucléides objets de cette étude sont ceux mesurés par les stations du système de surveillance international (IMS) de l’Organisation du traité d’interdiction complète des essais nucléaires, et plus particulièrement les deux radionucléides naturels, 7Be et 210Pb, fréquemment utilisés dans l’étude du transport atmosphérique. L’outil principal est le modèle de circulation générale LMDz. Grâce à leur sources situées dans la haute troposphère et la stratosphère pour le 7be et dans la basse troposphère pour 210Pb, ces traceurs sont utiles pour évaluer les processus qui le redistribuent verticalement. Les tropiques constituent la région dont les concentrations à la surface sont le plus mal simulées par le modèle LDMz. Ce désaccord entre mesures et simulations met en évidence le besoin d’une meilleure représentation du transport dans les systèmes convectifs et une meilleure compréhension des processus physiques représentés dans le modèle. Nous avons développé une paramétrisation du transport des radionucléides et de leur élimination par la condensation à l’intérieur des nuages convectifs profonds et par les précipitations. Elle suit le modèle convectif d’Emanuel et a été développée dans le modèle de climat LMDz. L’analyse des différents processus affectant la distribution des traceurs dans le modèle 1D montre comment les processus convectifs et de précipitations de grande échelle combinent leurs effets. Les descentes précipitantes de la convection profonde déplacent du 7Be à la surface et en déposent peu dans la troposphère moyenne, les pluies de grande échelle éliminent le 7Be de toute la troposphère
This thesis focuses on the distribution of radionuclides in the atmosphere and of its spatial and temporal variability. Randionuclides, studied in this thesis, are thus from the International Monitoring System of the Comprehensive Nuclear-Test-Ban Treaty Organization, particularly the two natural radionuclides 7Be et 210Pb which are frequently uses for atmospheric transport study. The main tool is the LMDz climate model. Thanks to the high/low tropospheric radionuclides sources, these tracers are useful for the evaluation of processes which affect its distribution. Tropics are the region where radionuclides surface concentrations are the worst simulated by the LMDz model. The disagreement between observations nd simulations underlines the need to a better representation of transport in convective systems et a better understanding of physical processes in the model. We developed a parametrization of transport of radionuclide and its removal by incloud condensation and by precipitation by convective clouds. The scheme follows closely the Emanuel moist convection scheme and has been developed in LMDz climate model. The analysis of the different processes affecting tracers distribution in the unicolum version of LMDz show how convective and large-scale processes combine their effects to move vertically tracers. Convective precipitating downdrafts move down 7Be at the surface, with the help of the evaporation of convective and large-scale precipitation, whereas large-scale condensation removes the radionuclide from the whole troposphere
APA, Harvard, Vancouver, ISO, and other styles
4

Wang, Di. "What controls the 3D distribution of water vapor isotopic composition in East Asia?" Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS567.pdf.

Full text
Abstract:
Contrairement aux carottes de glace polaires, les variations isotopiques dans les carottes de glace tibétaines compliquent l'interprétation des signaux de température. L'une des principales raisons est que dans les régions de mousson aux latitudes basses et moyennes, les isotopes de l'eau sont influencés par des processus convectifs et nuageux. Il est nécessaire de mieux comprendre le comportement des isotopes de l'eau et les contrôles dynamiques impliqués dans la transpiration et la convection de l'humidité. Des observations in situ à grande échelle et des profils verticaux des isotopes de la vapeur pendant la convection seraient utiles, mais ces données sont rares. Le but de cette thèse a été de documenter les variations horizontales, verticales et temporelles de la mousson d'Asie de l'Est. D’abord, afin de documenter les variations horizontales près de la surface et saisonnières de la composition isotopique stable de l’eau en Chine, nous avons effectué des observations in situ des isotopes de la vapeur d'eau sur une vaste région de la Chine (plus de 10 000 km) pendant les saisons de pré-mousson et de mousson, à l'aide d'un système de mesure des isotopes de la vapeur d'eau nouvellement conçu et installé sur un véhicule. Nous avons constaté que les variations spatiales de la vapeur δ18O sont principalement contrôlées par la distillation de Rayleigh le long des trajectoires des masses d'air pendant la saison de pré-mousson, et sont fortement influencées par différentes sources d'humidité, les processus de recyclage continental et la convection le long du transport de l'humidité pendant la saison de la mousson. Ces résultats donnent un aperçu de la distribution spatiale et de la variabilité saisonnière de la composition isotopique de l'eau en Asie de l'Est et de leurs facteurs de contrôle, et soulignent la nécessité d'interpréter les enregistrements proxy dans le contexte du système régional et des sources d'humidité. Ensuite, pour mieux comprendre les processus physiques qui contrôlent la distribution verticale des isotopes de la vapeur et sa variabilité intra-saisonnière et saisonnière, nous avons observé les profils verticaux des isotopes de la vapeur de l'atmosphère jusqu'à la haute troposphère (de la surface du sol à 3856 m jusqu'à 11000 m d'altitude) de juin à octobre dans le sud-est du plateau tibétain à l'aide d'un drone spécialement conçu à cet effet. Pour l’échantillonnage, nous avons utilisé des sacs d’air, mais avons rencontré des problèmes de perméabilité généralement associés à ces sacs. Pour corriger ces problèmes, nous avons développé un modèle de diffusion et en avons calibré les paramètres avec des expériences de laboratoire. Ceci nous a permis de documenter pour la première fois que la distribution verticale des isotopes de la vapeur d'eau atmosphérique pendant toute la période de la mousson jusqu'à la haute troposphère, avec une résolution verticale et une gamme d'altitudes sans précédent. Nous constatons que les profils verticaux de la composition isotopique de la vapeur d'eau reflètent une combinaison de processus à grande échelle, en particulier la convection profonde et le recyclage continental le long des trajectoires, et les processus convectifs locaux, en particulier le détrainement convectif et la sublimation des cristaux de glace. Les variations saisonnières et intra-saisonnières observées sont généralement cohérentes verticalement, en raison du fort mélange convectif vertical et du détrainement convectif local de la vapeur provenant des basses couches, et reflètent les variations de convection profonde le long des trajectoires
Unlike polar ice core records, the isotope variations in Tibetan ice cores challenge the interpretation of temperature signals. One of the main reasons is that in monsoon regions at low and middle latitudes, water isotopes are influenced by convective and cloud processes. A deeper understanding of water isotope behavior and the dynamical controls involved in moisture transpiration and convection is needed. Large-scale in-situ observations and vertical profiles of vapor isotopes during convection would be helpful. However, such data are rare. The aim of this thesis was to document horizontal, vertical, and temporal variations in the isotopic composition of water in East Asian monsoon region. First, to document the horizontal and seasonal variations of water isotopes near the surface across China, we made in-situ observations of near-surface vapor isotopes over a large region (over 10000 km) across China in both pre-monsoon and monsoon seasons, using a newly-designed vehicle-based vapor isotope monitoring system. We found that the observed spatial variations of vapor δ18O are mainly controlled by Rayleigh distillation along air mass trajectories during the pre-monsoon period, but are significantly influenced by different moisture sources, continental recycling processes, and convection along moisture transport during the monsoon period. These results provide an overview of the spatial distribution and seasonal variability of water isotopic composition in East Asia and their controlling factors and emphasize the need to interpret proxy records in the context of the regional system and moisture sources. Second, to better understand the physical processes that control the vertical distribution of vapor isotopes and its intra-seasonal and seasonal variability, we observed the vertical profiles of atmosphere vapor isotopes up to the upper troposphere (from the ground surface at 3856m up to 11000m a.s.l.) from June to October in the southeastern Tibetan Plateau using a specially-designed unmanned-aerial-vehicle (UAV) system. For the sampling, we chose to carry air bags on UAVs as a portable sampling device, but encountered the permeability problem commonly associated with these bags. To corrected for this problem, we developed a diffusion model with diffusion parameters calibrated through laboratory experiments. This allows us to document for the first time the vertical distribution of atmospheric water vapor isotopes across the entire monsoon period up to the upper troposphere, boasting an unprecedented vertical resolution and altitude range. We find that the vertical profiles of water vapor isotopic composition reflect a combination of large-scale processes, in particular deep convection and continental recycling along trajectories, and local convective processes, in particular convective detrainment, and sublimation of ice crystals. The observed seasonal and intra-seasonal variations are generally vertically coherent, due to the strong vertical convective mixing and local convective detrainment of vapor originating from the low levels, and are mainly due to deep convection along trajectories
APA, Harvard, Vancouver, ISO, and other styles
5

Guibert, Sarah. "Validation expérimentale des paramétrisations de l'effet indirect des aérosols, via les strato-cumulus marins pour les modèles de climat." Toulouse 3, 2002. http://www.theses.fr/2002TOU30185.

Full text
Abstract:
Le travail de recherche effectué durant cette thèse s'intéresse à l'effet indirect des aérosols sur le climat. Certains aérosols, les noyaux de condensation nuageux, donnent naissance aux gouttelettes de nuage. En modifiant la nature chimique et la distribution des aérosols, on peut modifier la concentration des gouttelettes et, par conséquent, les propriétés radiatives des nuages et leur efficacité à produire des précipitations. Cet effet est particulièrement sensible dans les strato-cumulus marins. Pour modéliser cet effet dans un modèle de grande échelle, il est nécessaire de paramétrer l'interaction entre aérosols et concentration de gouttelettes nuageuses, la croissance des gouttelettes dans les nuages de couche limite et enfin l'interaction entre la microphysique et les propriétés radiatives des nuages. Cette étude porte sur la première étape : interaction aérosol/nuage. Tout d'abord, les mesures des propriétés physiques et chimiques des aérosols réalisées durant la campagne ACE-2 ont été analysées, dans le but de valider les mesures effectuées. . .
APA, Harvard, Vancouver, ISO, and other styles
6

Burnet, Frédéric. "Validation des mesures aeroportees de la microphysique nuageuse et etude des processus d'entrainement-melange dans les nuages convectifs." Toulouse 3, 1999. http://www.theses.fr/1999TOU30097.

Full text
Abstract:
Le declenchement rapide des precipitations dans les nuages convectifs est encore mal explique. La theorie de la condensation predit en effet des distributions dimensionnelles de gouttelettes etroites alors que la formation des embryons de precipitation necessite des spectres larges avec de grosses gouttelettes. La mesure in situ des distributions dimensionnelles de gouttelettes est essentielle pour mieux comprendre la microphysique nuageuse. La campagne de mesures scms etait ainsi dediee a l'etude de la formation des precipitations dans les petits cumulus chauds (sans phase glace). La premiere partie de ce manuscrit est consacree a la validation des mesures collectees pendant scms, ou de nouveaux instruments etaient utilises. La principale difficulte est qu'il n'existe pas de standard absolu pour etalonner les instruments. Notre methodologie de validation s'appuie sur la comparaison des resultats obtenus dans des conditions variees, afin d'etudier et d'identifier les limites des differents instruments bases sur des principes de mesure differents (compteur de particules, integrateur, capteur a fil chaud). Dans la seconde partie de ce travail, nous utilisons les mesures ainsi validees pour etudier la formation des grosses gouttelettes a partir des processus de melange entre l'air nuageux et son environnement plus sec. Nous developpons une nouvelle methode d'analyse pour caracteriser la nature statistique du melange, homogene ou heterogene. Il est montre que le concept heterogene fournit une description satisfaisante de ses proprietes statistiques. Nous nous appuyons sur ce resultat pour construire un modele simple d'evolution des spectres de gouttelettes dans les cellules melangees, a concentration constante. Les conditions qui favorisent la formation des gouttes suradiabatiques sont identifiees. Les resultats du modele sont ensuite confrontes aux mesures.
APA, Harvard, Vancouver, ISO, and other styles
7

Chen, Fei. "Etude numerique des processus d'electrisation d'un nuage chaud." Clermont-Ferrand 2, 1990. http://www.theses.fr/1990CLF21220.

Full text
Abstract:
Un modele unidimensionnel est developpe afin de simuler les electrisations des nuages chauds. L'originalite de ce modele reside dans le fait qu'il comporte un schema microphysique et electrique base sur la distribution conjointe de charges et de dimensions afin de simuler la distribution des charges electriques des particules nuageuses de dimensions differentes. Dans la premiere partie de cette etude, nous avons examine le temps necessaire pour le developpement de la distribution quasi equilibree de charges electriques du aux processus microphysiques. Ces simulations effectues a l'aide d'un modele 0-d montrent: 1) que la distribution quasi-equilibree de la charge electrique des gouttes s'etablit rapidement sous l'effet conjugue de la coalescence, de la collision partielle et de la rupture par collision; 2) que cette distribution peut etre normalisee par le champ electrique et la teneur en eau. Dans la seconde partie de l'etude, l'electrisation d'un nuage chaud est simulee en integrant ce schema microphysique dans un modele unidimensionnel de nuage. Les resultats de simulations ont ete analyses sous deux angles: 1) la verification de la normalisation de la charge et de la dimension sous un champ electrique evoluant avec le temps; 2) la comparaison de simulations avec les observations. Nous avons pu montrer que la normalisation de la charge electrique est possible, meme lorsque le champ electrique et la teneur en eau varient suivant le developpement du nuage: le temps caracteristique pour l'etablissement de la distribution quasi equilibree de charges electriques est plus court que celui de l'evolution des champs. La comparaison des resultats de simulations avec les donnees experimentales disponibles nous a permis de montrer: 1) que la repartition de la charge entre differents types de porteurs depend tres sensiblement du choix des mecanismes de generation de charges integres dans le modele; 2) que
APA, Harvard, Vancouver, ISO, and other styles
8

Sellegri, Karine. "Etude du processus d'activation des gouttelettes de nuage : implications en chimie multiphases." Phd thesis, Université Joseph Fourier (Grenoble), 2002. http://tel.archives-ouvertes.fr/tel-00708514.

Full text
Abstract:
Au vu de l'ampleur et de la diversité des rôles que joue le système nuageux dans l'ensemble des processus atmosphériques, le mode de formation des gouttelettes de nuage à partir de particules d'aérosols, ainsi que les mécanismes de croissance et d'interaction de ces dernières avec les composés gazeux environnants suscitent un grand intérêt au sein de la communauté scientifique. C'est dans ce cadre que cette étude s'est attachée à compléter notre connaissance des propriétés physico-chimiques des noyaux de condensation des nuages (CCN) et de leur influence sur la microphysique des gouttelettes. Une détermination expérimentale des propriétés des aérosols est en premier lieu à la base d'une classification simple des masses d'air rencontrées sur le site du puy de Dôme. Les masses d'air rencontrées sur ce site montrent une anthropisation principalement associée à une augmentation de sels inorganiques. La discrimination des familles de composés inorganiques et carbonées en diverses classes de tailles permet d'observer une répartition des espèces particulaires en mélange externe. Cette observation a des conséquences sur le comportement de ces particules lors de la formation d'un nuage. Un montage expérimental complexe (Counterflow Virtual Impactor, Round Jet Impacteur, Whole Air Inlet) permet d'observer, pour une même classe de taille, une incorporation des composés inorganiques solubles significativement plus élevée que l'incorporation des composés organiques carbonés. Une altération des aérosols à leur surface modifie plus en avant leur comportement hygroscopique. L'utilisation d'un modèle microphysique d'activation de CCN montre que l'accord entre les taux simulés et les taux mesurés sont grandement améliorés si l'hypothèse de mélange externe de particules modifiées à leur surface est prise en compte. Enfin, l'échantillonnage de la phase liquide du nuage associé aux mesures précédentes nous permet de conclure qu'aucune des phases (particulaire ou gazeuse) ne peut être négligée pour rendre compte de la composition finale des gouttelettes de nuage. Après évaporation de la gouttelette, le résidu solide est plus enrichi en nitrate qu'en sulfate par son passage dans le cycle nuageux.
APA, Harvard, Vancouver, ISO, and other styles
9

Lallement, Audrey. "Impact des processus photochimiques et biologiques sur la composition chimique du nuage." Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAC066/document.

Full text
Abstract:
Dans un contexte de réchauffement climatique, une compréhension des mécanismes atmosphériques influençant le bilan radiatif terrestre est nécessaire. Les nuages peuvent participer à un refroidissement mais des incertitudes demeurent sur ces systèmes qui sont encore mal connus (notamment la composition de leur fraction organique). Depuis toujours, seules les réactions chimiques et surtout celles radicalaires sont considérées comme importantes pour jouer sur la composition des nuages. Cependant la découverte de microorganismes métaboliquement actifs pose la question de leur rôle en tant que biocatalyseurs. Ces microorganismes sont en effet à même d'utiliser des molécules carbonées comme nutriments, de dégrader des molécules précurseur des radicaux (H2O2) et de se prémunir contre le stress oxydant. L'objectif de ce travail est de mesurer l'impact des processus photochimiques et biologiques sur la composition chimique du nuage. Pour cela, la quantification de •OH, le radical responsable de la réactivité diurne, et l’évaluation de l’impact des microorganismes sur cette concentration à l’état stationnaire ont été entreprises. Après un développement en milieu modèle, la méthode a été appliquée à des eaux atmosphériques (eaux de pluies et eaux de nuages). Les concentrations obtenues sont de l'ordre de 10-17 à 10-15 M et ne sont pas modifiées en présence de microorganismes. Ces concentrations sont plus faibles que celles obtenues dans les modèles de chimie atmosphérique, ceci peut s’expliquer par un manque de connaissance sur la matière organique. Pour mieux caractériser cette dernière, des composés aromatiques simples présents dans des eaux de nuages ont été identifiés, le phénol a été retrouvé dans les 8 échantillons analysés. Une étude approfondie sur sa dégradation a donc été entreprise. Nous avons montré que des transcrits d’enzymes intervenant dans sa biotransformation sont synthétisés par les bactéries in situ dans l’eau de nuage. De plus, 93% des souches bactériennes testées, isolées de ce milieu, dégradent le phénol. Pour évaluer l'impact relatif des processus de dégradation biotique et abiotique du phénol, une expérience de photobiodégradation avec une souche modèle (Rhodococcus erythropolis PDD-23b-28) a été entreprise. Ces deux processus interviennent avec une importance de même ordre de grandeur. Ces résultats suggèrent que les microorganismes et les radicaux interviennent dans la remédiation naturelle de l'atmosphère
In the context of global warming, more precise knowledge of atmospheric processes is needed to evaluate their impact on the Earth radiative budget. Clouds can limit the increase of temperature but this retroaction is not well understood due to a lack of knowledge of cloud media (like organic fraction composition). From the beginning of atmospheric studies, only chemical, especially radical, reactions was taken into account. However microorganisms metabolically active were found in cloud water arising questions about their role as biocatalyst. They are able to use carboxylic acids as nutriments, to degrade radical precursor (like H2O2) and to survive oxidative stress. The aim of this work is to quantify the impact of photochemical and biological processes on cloud chemistry composition. First, the concentrations of •OH, the most reactive radical, were evaluated and the influence of microorganisms on the concentrations were studied. A new method was developed in artificial medial before direct quantification of steady state •OH concentration in atmospheric waters (rain and cloud waters). Concentrations ranged from 10-17 to 10-15 M and did not change in presence of microorganisms. These measures were lower than concentrations estimated by chemical atmospheric models. A possible explanation was an underestimation of the main sink of this radical (organic matter). To better characterize this fraction, simple aromatic compounds were identified in cloud waters, phenol was found in the 8 samples analyzed. To go further, we studied phenol degradation in detail. Enzyme transcripts involved in phenol degradation were present in cloud water samples showing in situ activity of native bacteria. 93% of tested cultural strains, isolated from cloud waters, were able to degrade phenol. To quantify the relative contribution of radical versus microbial processes allowing phenol degradation, we performed photo-biodegradation experiment with a model strain (Rhodococcus erythropolis PDD-23b-28). Our results showed that these two processes participated equally to phenol degradation, suggesting that microorganisms and radicals can be involved in atmospheric natural remediation
APA, Harvard, Vancouver, ISO, and other styles
10

Bentounsi, Mohamed el Mehdi. "Les processus métiers en tant que services - BPaaS : sécurisation des données et des services." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCB156/document.

Full text
Abstract:
Malgré les avantages économiques de l’informatique en nuage (ou cloud computing) pour les entreprises et ses multiples applications envisagées, il subsiste encore des obstacles pour son adoption à grande échelle. La sécurité des données sauvegardées et traitées dans le nuage arrive en tête des préoccupations des décideurs des directions des systèmes d'information. De ce fait, l'objectif principal de nos travaux de recherche lors de cette thèse de doctorat est de poser des bases solides pour une utilisation sûre et sécurisée du nuage. Dans un premier lieu, l’externalisation des processus métiers vers le nuage permet aux entreprises de réduire les couts d’investissement et de maitriser les couts d’exploitation de leurs systèmes d’information ; Elle permet aussi de promouvoir la réutilisation des parties (ou fragments) de ses processus métiers en tant que service cloud, éventuellement par des concurrents directs, afin de faciliter le développement de nouvelles applications orientés services ‘SOA’, ainsi la collaboration à l’échelle du nuage. Néanmoins, le fait de révéler la provenance d’un fragment réutilisé est considérée comme une brèche dans la vie privée et risque d’être dommageable pour l’entreprise propriétaire de ce fragment. Les techniques d’anonymisation des données ont fait leurs preuves dans le domaine des bases de données. Notre principale contribution dans cette partie est la proposition d’un protocole basée sur l’anonymisation des fragments de processus métiers afin de garantir à la fois, la vie privée de leurs propriétaires et la disponibilité de ces fragments pouvant être réutilisés dans le nuage. Les systèmes d’authentification biométriques permettent une authentification des individus avec une garantit suffisante. Néanmoins, le besoin en ressources informatiques ‘calcul et stockage’ de ces systèmes et le manque de compétences au sein des organismes freinent considérablement leurs utilisations à grande échelle. Le nuage offre la possibilité d’externaliser à la fois le calcul et le stockage des données biométriques à moindre cout et de proposer une authentification biométrique en tant que service. Aussi, l’élasticité du nuage permet de répondre aux pics des demandes d’authentifications aux heures de pointes. Cependant, des problèmes de sécurité et de confidentialité des données biométriques sensibles se posent, et par conséquent doivent être traité afin de convaincre les institutions et organismes à utiliser des fragments externes d'authentification biométriques dans leurs processus métiers. Notre principale contribution dans cette partie est un protocole léger ‘coté client’ pour une externalisation (sur un server distant) de la comparaison des données biométriques sans révéler des informations qui faciliteraient une usurpation d’identité par des adversaires. Le protocole utilise une cryptographie légère basée sur des algorithmes de hachage et la méthode de 'groupe de tests combinatoires', permettant une comparaison approximative entre deux données biométriques. Dans la dernière partie, nous avons proposé un protocole sécurisé permettant la mutualisation d’un Hyperviseur (Outil permettant la corrélation et la gestion des événements issus du SI) hébergé dans le nuage entre plusieurs utilisateurs. La solution proposée utilise à la fois, le chiffrement homomorphique et la réécriture de règles de corrélation afin de garantir la confidentialité les évènements provenant des SI des différents utilisateurs. Cette thèse a été réalisée à l'Université Paris Descartes (groupe de recherche diNo du LIPADE) avec le soutien de la société SOMONE et l'ANRT dans le cadre d'une convention CIFRE
Cloud computing has become one of the fastest growing segments of the IT industry. In such open distributed computing environments, security is of paramount concern. This thesis aims at developing protocols and techniques for private and reliable outsourcing of design and compute-intensive tasks on cloud computing infrastructures. The thesis enables clients with limited processing capabilities to use the dynamic, cost-effective and powerful cloud computing resources, while having guarantees that their confidential data and services, and the results of their computations, will not be compromised by untrusted cloud service providers. The thesis contributes to the general area of cloud computing security by working in three directions. First, the design by selection is a new capability that permits the design of business processes by reusing some fragments in the cloud. For this purpose, we propose an anonymization-based protocol to secure the design of business processes by hiding the provenance of reused fragments. Second, we study two di_erent cases of fragments' sharing : biometric authentication and complex event processing. For this purpose, we propose techniques where the client would only do work which is linear in the size of its inputs, and the cloud bears all of the super-linear computational burden. Moreover, the cloud computational burden would have the same time complexity as the best known solution to the problem being outsourced. This prevents achieving secure outsourcing by placing a huge additional overhead on the cloud servers. This thesis has been carried out in Université Paris Descartes (LIPADE - diNo research group) and in collaboration with SOMONE under a Cifre contract. The convergence of the research fields of those teams led to the development of this manuscrit
APA, Harvard, Vancouver, ISO, and other styles
11

CHAUMAT, LAURE. "Etude experimentale des processus de condensation dans les nuages convectifs : elargissement des spectres et distribution spatiale des gouttelettes." Clermont-Ferrand 2, 1999. http://www.theses.fr/1999CLF21118.

Full text
Abstract:
La formation rapide des precipitations dans les cumulus est un phenomene encore mal explique. Plusieurs hypotheses ont ete avancees dont la contribution de noyau ultra geants, une efficacite de collison entre gouttelettes renforcee et l'elargissement des spectres de gouttelettes. Notre etude est consacree plus particulierement a la caracterisation des distributions dimensionnelles de gouttelettes dans les regions de nuage non melangees, a leur elargissement et a l'analyse de la distribution spatiale des gouttelettes a micro-echelle, source potentielle d'elargissement. De recentes mesures in-situ montrent que les spectres de gouttelettes dans les cellules adiabatiques sont plus larges que ceux prevus par la theorie classique de croissance par diffusion de vapeur. Une telle particularite implique que le champ de sursaturation n'est pas uniforme dans les ascendances non melangees. Un grand echantillon d'observations effectuees dans de telles regions est analyse et l'elargissement spectral est represente par la fonction de densite de probabilite de l'integrale de la sursaturation. Il est montre que la dispersion dans cette fonction augmente lineairement avec la valeur moyenne, et une parametrisation simple de l'elargissement des spectres est proposee. Cette variabilite dans l'integrale de la sursaturation peut provenir des heterogeneites dans la distribution spatiale des gouttelettes. Des mesures a tres fine echelle sont analysees pour caracteriser la statistique du comptage des particules. Celle-ci montre que les gouttelettes sont distribuees aleatoirement dans l'espace. Les effets des heterogeneites resultantes sur l'elargissement spectral sont estimes avec un modele conceptuel qui prouve qu'ils ne sont significatifs que pour des valeurs irrealistes du temps de vie des heterogeneites. De recentes simulations numeriques des effets inertiels des gouttelettes dans les structures de micro-echelle de la turbulence sont alors testees. Il est montre que le modele qui produit un elargissement significatif genere des repartitions spatiales de gouttelettes dont les proprietes statistiques sont irrealistes. Nos resultats indiquent que la concentration preferentielle des gouttelettes ne contribue pas a l'elargissement des spectres, du moins tel qu'il est decrit actuellement par les modeles numeriques.
APA, Harvard, Vancouver, ISO, and other styles
12

Guesmi, Asma. "Spécification et analyse formelles des politiques de sécurité dans un processus de courtage de l'informatique en nuage." Thesis, Orléans, 2016. http://www.theses.fr/2016ORLE2010/document.

Full text
Abstract:
Les offres de l’informatique en nuage augmentent de plus en plus et les clients ne sont pas capables de lescomparer afin de choisir la plus adaptée à leurs besoins. De plus, les garanties de sécurité proposées parles fournisseurs restent incompréhensibles pour les clients. Cela représente un frein pour l'adoption dessolutions de l’informatique en nuage.Dans cette thèse, nous proposons un mécanisme de courtage des services de l’informatique en nuage quiprend en compte les besoins du client en termes de sécurité.Les besoins exprimés par le client sont de deux natures. Les besoins fonctionnels représentent lesressources et leurs performances. Les besoins non-fonctionnels représentent les propriétés de sécurité etles contraintes de placement des ressources dans le nuage informatique. Nous utilisons le langage Alloypour décrire les offres et les besoins. Nous utilisons l'analyseur Alloy pour l'analyse et la vérification desspécifications du client. Le courtier sélectionne les fournisseurs qui satisfont les besoins fonctionnels et nonfonctionnelsdu client. Il vérifie ensuite, que la configuration du placement des ressources chez lesfournisseurs respecte toutes les propriétés de sécurité exigées par le client.Toutes ces démarches sont effectuées avant le déploiement des ressources dans le nuage informatique.Cela permet de détecter les erreurs et conflits des besoins du client tôt. Ainsi, on réduit les vulnérabilités desressources du client une fois déployées
The number of cloud offerings increases rapidly. Therefore, it is difficult for clients to select the adequate cloud providers which fit their needs. In this thesis, we introduce a cloud service brokerage mechanism that considers the client security requirements. We consider two types of the client requirements. The amount of resources is represented by the functional requirements. The non-functional requirements consist on security properties and placement constraints. The requirements and the offers are specified using the Alloy language. To eliminate inner conflicts within customers requirements, and to match the cloud providers offers with these customers requirements, we use a formal analysis tool: Alloy. The broker uses a matching algorithm to place the required resources in the adequate cloud providers, in a way that fulfills all customer requirements, including security properties. The broker checks that the placement configuration ensures all the security requirements. All these steps are done before the resources deployment in the cloud computing. This allows to detect the conflicts and errors in the clients requirements, thus resources vulnerabilities can be avoided after the deployment
APA, Harvard, Vancouver, ISO, and other styles
13

Champeau, François. "Paramétrisation des processus physico-chimiques de formation des nuages et étude de leurs impacts sur l'évolution de la composition chimique atmosphérique." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2007. http://tel.archives-ouvertes.fr/tel-00717866.

Full text
Abstract:
Ce travail porte sur le développement d'un module microphysique de nuages liquides et glacés dans un modèle de chimie multiphase (Leriche et al., 2001). Le modèle complet a été appliqué afin d'évaluer le rôle de ces nuages sur les teneurs en polluants atmosphériques. Les nuages modulent le transport horizontal et vertical des polluants ainsi que leur lessivage via les précipitations, ils sont aussi le siège de réactions chimiques complexes. En paramétrisant la répartition des polluants entre les différentes phases du nuage via des processus comme le givrage, la croissance des cristaux par dépôt de vapeur, la fonte et la collection des hydrométéores, il est montré l'importance de la phase glace et de la morphologie des cristaux dans l'évolution chimique du nuage. Des scénarios de formation nuageuse sont définis à partir de masses d'air continentale et / ou marine, pour voir l'influence de la capacité du nuage à précipiter sur la composition chimique des hydrométéores. Des tests sur la rétention et l'enfouissement pilotant les échanges avec la phase glacée lors du givrage et de la croissance par dépôt de vapeur respectivement ont été menés pour conclure au rôle majeur joué par la glace dans le bilan des espèces traces
APA, Harvard, Vancouver, ISO, and other styles
14

Rosinosky, Guillaume. "Élasticité de l’exécution des processus métier." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0003/document.

Full text
Abstract:
La disponibilité de plateformes middleware dans le cloud, avec un passage à l'échelle transparent est un vrai progrès pour les développeurs et les intégrateurs logiciels. Ils peuvent développer et déployer leurs applications sans s'inquiéter des détails opérationnels. Cependant, le coût d'exploitation d'une infrastructure dans le cloud peut devenir rapidement important. Les fournisseurs doivent disposer de méthodes pour le réduire en adaptant la taille des ressources aux besoins des clients. Dans cette thèse, nous nous focalisons sur les applications Web multi-tenant transactionnelles, plus particulièrement les moteurs d'exécution de processus métiers. Nous proposons des méthodes permettant d'optimiser les coûts opérationnels d'un fournisseur d'exécution de processus "en tant que service" (BPMaaS) tout en assurant un niveau suffisant de qualité de service. Ce type d'applications ne passe pas facilement à l'échelle à cause de sa couche persistance et de la nature transactionnelle des opérations. Il faut distribuer les installations des clients de manière à optimiser les coûts et éventuellement les déplacer en fonction de l'évolution de la charge. Ces déplacements (ou migrations) ont un impact sur la qualité de service et il faut les limiter. Dans un premier temps, nous proposons une méthode de mesure de la capacité des ressources du cloud en termes de débit d'exécution de tâches BPM, puis nous proposons une méthode de mesure de l'impact des migrations que nous avons évalué, ceci confirmant nos hypothèses. Ensuite, nous proposons plusieurs modèles d'optimisation linéaire, ainsi que des heuristiques d'allocation de ressources et de distribution des clients prenant en compte le coût de l'infrastructure, la capacité des ressources et les besoins des clients, tout en limitant les nombres de migrations. Ces modèles sont fondés sur la connaissance de l'évolution de la charge des clients par unité de temps. Nous avons expérimenté les trois méthodes que nous avons proposées sur la solution BPM Bonita, et montré qu'elles permettent des gains substantiels sur l'exploitation de l'infrastructure par rapport à une méthode basique
The availability of middleware platforms in the cloud, with "transparent" scalability, is a progress for software developers and integrators. They can develop and deploy their applications without worrying about technical details. However, the exploitation cost of a cloud infrastructure can quickly become important. Providers requires methods to reduce this cost by adapting the size of ressources to the needs of the customers. In this thesis, we focus on multi-tenant transactional web applications, more precisely on business processes execution engines. We propose methods allowing to optimize the operational costs of providers of business process execution "as a Service" (BPMaaS) while ensuring a sufficient level of quality of service. This type of application do not scale well because of its persistence tier and of the transactional nature of operations. One must distribute the customers installations in order to optimize the cost, and sometimes move them depending of the needs of the customers. These moves (or migrations) have an impact on the quality of service and they must be limited. First, we propose a method for measuring the size of resources in terms of BPM tasks throughput, and then a method for measuring the impact of migrations we evaluate, thus confirming our hypothesis. We also propose several linear optimization models and heuristics targeting resouce allocation and distribution of customers, while limiting the number of migrations. These models are based on the knowledge of the needs of customers per time slot. We have experimented our three methods on the BPM solution Bonita, and demonstrated that they provide substantial savings on the infrastructure exploitation compared to a basic method
APA, Harvard, Vancouver, ISO, and other styles
15

Suhre, Karsten. "Modelisation couplee du transport et de la chimie du dimethyl de soufre dans la couche limite marine nuageuse : impact climatique et etude de processus." Toulouse 3, 1994. http://www.theses.fr/1994TOU30067.

Full text
Abstract:
Le dimethyl de soufre (dms) joue un role cle dans le cycle du soufre dans la couche limite marine. C'est la principale source de sulfates et de noyaux de condensation nuageux (ccn). Recemment, charlson et al. (1987) ont propose le dms et son oxydation comme element majeur dans une boucle de retroaction climatique correlant la production du dms par le phytoplancton marin et l'albedo des nuages. Dans cette etude, nous nous sommes plus particulierement interesses a la chaine de processus dans cette boucle, qui traite de l'emission du dms a la surface de la mer, son transport turbulent et son oxydation dans la couche limite jusqu'a la formation des sulfates (precurseurs des ccn). La premiere partie de ce travail est consacree a la modelisation numerique de l'impact de la turbulence sur l'oxydation du dms dans la phase gazeuse, ainsi qu'au role de l'oxydation heterogene du dioxyde de soufre (so#2) dans les gouttes nuageuses. A cette fin, un module de chimie a ete mis au point et couple avec le modele de meteorologie a mesoechelle (salsa) du laboratoire d'aerologie. Dans une deuxieme etape, ce modele couple a ete applique dans sa version uni-dimensionnelle a l'etude d'un processus evoque recemment en tant que court-circuit possible dans l'hypothese dms-nuages-climat (sievering et al. , 1992), a savoir l'oxydation du so#2 dans les embruns marins. Dans ce travail nous avons utilise les donnees experimentales de l'experience meteor 15/3 qui a eu lieu en fevrier/mars 1991 dans l'atlantique sud. Nous avons propose une parametrisation des embruns marins pour tenir compte de ce puits du soufre dans les simulations numeriques. L'etude preliminaire d'un scenario bi-dimensionnel de brise de mer avec un systeme reactionnel idealise pouvant servir ulterieurement dans l'evaluation des sites de mesure de dms en regions cotieres, termine ce travail
APA, Harvard, Vancouver, ISO, and other styles
16

Amziani, Mourad. "Modeling, evaluation and provisioning of elastic service-based business processes in the cloud." Thesis, Evry, Institut national des télécommunications, 2015. http://www.theses.fr/2015TELE0016/document.

Full text
Abstract:
Le Cloud Computing est de plus en plus utilisé pour le déploiement et l'exécution des applications métiers et plus particulièrement des applications à base de services (AbSs). L'élasticité à différents niveaux est l'une des propriétés fournies par le Cloud. Son principe est de garantir la fourniture des ressources nécessaires et suffisantes pour la continuité de l'exécution optimale des services Cloud. La fourniture des ressources doit considérer la variation de la demande pour éviter la sous-utilisation et la surutilisation de ces dernières. Il est évident que la fourniture d'infrastructures et/ou de plateformes élastiques n'est pas suffisante pour assurer l'élasticité des applications métiers déployées. En effet, il est aussi nécessaire de considérer l'élasticité au niveau des applications. Ceci permet l'adaptation dynamique des applications déployées selon la variation des demandes. Par conséquent, les applications métiers doivent être fournies avec des mécanismes d'élasticité permettant leur adaptation tout en assurant les propriétés fonctionnelles et non-fonctionnelles désirées. Dans nos travaux, nous nous sommes intéressés à la fourniture d'une approche holistique pour la modélisation, l'évaluation et la mise en oeuvre des mécanismes d'élasticité des AbSs dans le Cloud. En premier lieu, nous avons proposé un modèle formel pour l'élasticité des AbSs. Pour cela, nous avons modélisé les AbSs en utilisant les réseaux de Petri et défini deux opérations d'élasticité (la duplication et la consolidation). En outre, nous avons proposé de coupler ces deux opérations avec un contrôleur d'élasticité. Pour assurer l'élasticité des AbSs, le contrôleur analyse l'exécution des AbSs et prend des décisions sur les opérations d'élasticité (duplication/consolidation). Après la définition de notre modèle pour l'élasticité des AbSs, nous nous sommes intéressés à l'évaluation de l'élasticité avant de l'implémenter dans des environnements Cloud réels. Pour cela, nous avons proposé d'utiliser notre contrôleur d'élasticité comme un Framework pour la validation et l'évaluation de l'élasticité en utilisant des techniques de vérification et de simulation. Enfin, nous avons mis en oeuvre l'élasticité des AbSs dans des environnements Cloud réels. Pour cela, nous avons proposé deux approches. La première approche encapsule les AbSs non-élastiques dans des micro-conteneurs, étendus avec nos mécanismes d'élasticité, avant de les déployer sur des infrastructures Cloud. La seconde approche intègre notre contrôleur d'élasticité dans une infrastructure autonomique afin de permettre l'ajout dynamique des fonctionnalités d'élasticité aux AbSs déployées sur des plateformes Cloud
Cloud computing is being increasingly used for deploying and executing business processes and particularly Service-based Business Processes (SBPs). Among other properties, Cloud environments provide elasticity at different scopes. The principle of elasticity is to ensure the provisioning of necessary and sufficient resources such that a Cloud service continues running smoothly even when the number or quantity of its utilization scales up or down, thereby avoiding under-utilization and over-utilization of resources. It is obvious that provisioning of elastic infrastructures and/or platforms is not sufficient to provide elasticity of deployed business processes. In fact, it is also necessary to consider the elasticity at the application scope. This allows the adaptation of deployed applications during their execution according to demands variation. Therefore, business processes should be provided with elasticity mechanisms allowing their adaptation to the workload changes while ensuring the desired functional and non-functional properties. In our work, we were interested in providing a holistic approach for modeling, evaluating and provisioning of elastic SBPs in the Cloud. We started by proposing a formal model for SBPs elasticity. To do this, we modeled SBPs using Petri nets and defined two elasticity operations (duplication / consolidation). In addition, we proposed to intertwine these elasticity operations with an elasticity controller that monitors SBPs execution, analyzes monitoring information and executes the appropriate elasticity operation (duplication/consolidation) in order to enforce the elasticity of SBPs. After facing the challenge of defining a model and mechanisms for SBPs elasticity, we were interested in the evaluation of elasticity before implementing it in real environments. To this end, we proposed to use our elasticity controller as a framework for the validation and evaluation of elasticity using verification and simulation techniques. Finally, we were interested in the provisioning of elasticity mechanisms for SBPs in real Cloud environments. For this aim, we proposed two approaches. The first approach packages non-elastic SBPs in micro-containers, extended with our elasticity mechanisms, before deploying them in Cloud infrastructures. The second approach integrates our elasticity controller in an autonomic infrastructure to dynamically add elasticity facilities to SBPs deployed on Cloud platforms
APA, Harvard, Vancouver, ISO, and other styles
17

Berger, Alexandre. "Modélisation multi-échelles de la composition chimique des aérosols : impacts des processus physico-chimiques sur la formation d'aérosols organiques secondaires dans les nuages." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/3060/.

Full text
Abstract:
Les aérosols atmosphériques jouent un rôle majeur dans les questions environnementales liées au climat, à la qualité de l'air et à la santé humaine. Les aérosols organiques (AO) constituent une part importante de la masse particulaire totale. Or les mécanismes de formation des AO sont mal connus. En particulier, un enjeu actuel reste la définition des composés organiques semi-volatils (COSV) issus de l'oxydation dans l'atmosphère de composés organiques volatils (COV) qui vont condenser sur ou au sein des aérosols préexistants pour former les aérosols organiques secondaires (AOS). De récentes études en laboratoire ont montré la contribution des COV oxygénés (COVO) dans la formation de composés organiques faiblement volatils en phase aqueuse. Ces études restent cependant incomplètes et il y a un besoin urgent de mieux comprendre la photochimie en phase aqueuse des espèces polyfonctionnelles et d'étudier l'influence des paramètres pertinents pour l'atmosphère (pH, concentrations initiales, présence de composés inorganiques) sur les processus de formation des AOS. Ces voies de formation d'AOS doivent être prises en compte dans les modèles atmosphériques. L'objectif de ce travail est d'évaluer la formation potentielle d'AOS produits lors d'un évènement nuageux observé à la station du Puy de Dôme à l'aide de simulations réalisées avec le modèle Méso-NH. Le réalisme des simulations pour la formation des AOS dépend de l'intégration, dans le schéma chimique en phase gazeuse, des espèces chimiques pertinentes, notamment les COV et leurs produits. Le mécanisme ReLACS2 répond à cette exigence et prend en compte à la fois les précurseurs de l'ozone et la formation des AOS. Ce dernier mécanisme est couplé avec le module ORILAM-SOA qui intègre le partitionnement gaz/particule des espèces inorganiques et organiques et les processus de nucléation, de condensation/évaporation, d'activation et de dynamique des aérosols. Dans un premier temps, ce couplage est évalué sur trois cas d'études réels sur l'Europe dans des conditions météorologiques contrastées. Un exercice d'inter-comparaison des modèles Méso-NH et WRF/CHEM ainsi qu'une comparaison de ces modèles avec les observations in-situ sont réalisés. Dans un deuxième temps, un premier travail de développement conduit à inclure les COVO, solubles et légers (jusqu'à 4 carbones), et la réactivité en phase associée, dans le mécanisme ReLACS2, avant de considérer la formation des AOS en phase aqueuse. Un nouveau mécanisme chimique, ReLACS3, est crée. Parallèlement, un second développement permet d'inclure la part des noyaux de condensation nuageux (CCN) dans la chimie de la goutte d'eau pour obtenir un couplage entre la phase gazeuse, aqueuse et particulaire. Avant de tester ces développements, une simulation 2D idéalisée d'un nuage orographique, observé lors d'une campagne de mesures intensives à la station du puy-de-Dôme durant l'été 2011, est réalisée. Cette étude permet de mettre en évidence le potentiel impact de la réactivité en phase aqueuse et de l'activation des CCN sur la formation des AOS
Atmospheric aerosols play a major role in environmental issues related to climate, air quality and human health. Organic aerosols (OA) are an important fraction of total particulate mass. However, formation mechanisms of OA are poorly understood. In particular, a current challenge remains the definition of semi-volatile organic compounds (SVOC) from atmospheric oxidation of volatile organic compounds (VOC) that will condense on or within existing aerosols to form secondary organic aerosols (SOA). Recent studies in laboratory have shown the contribution of oxygenated VOC (OVOC) in the formation of low volatile organic compounds in aqueous phase. However, these studies still incomplete and there is an urgent need for better understanding photochemistry in aqueous phase of polyfunctional species and to study the influence of the relevant parameters for the atmosphere (pH, initial concentrations, the presence of inorganic compounds) on SOA processes. Moreover, these pathways of SOA formation should be taken into account in atmospheric models. The objective of this thesis is to evaluate the potential SOA production during a cloud event observed at the puy-de-Dôme station with simulations performed using the Meso-NH model. The realism of these simulations for forming SOA depends on the integration, in the chemical gaseous phase scheme, of the relevant chemical species including VOC and their products. The ReLACS2 mechanism meets this requirement and takes into account both ozone precursors and formation of SOA. This latter mechanism is coupled with the ORILAM-SOA module that integrates gas/particle partitionning of inorganic and organic species, and nucleation, evaporation/condensation, activation and dynamic aerosol processes. Firstly, this coupling is tested on three real cases over Europe in contrasted standart meteorological conditions. An exercise of inter-comparison of Meso-NH and WRF/CHEM models and a comparison of these models with in-situ observations over Europe are performed. Secondly, a first work consists in including COVO, short and soluble (up to 4 carbons), and the associated aqueous phase reactivity, in the ReLACS2 mechanism, in order to consider SOA formation in aqueous phase. A new chemical mechanism, ReLACS3, is created. In parallel, a second work consists in including the part of cloud condensation nuclei (CCN) into the chemistry of the water droplets for a complete coupling between the gas, aqueous and particulate phases. To test these developments, an 2D idealized simulation of an orographic cloud, observed during an intensive campaign at the puy-de-Dôme station which occured in summer 2011, is performed. This study highlighted the potential impact of the aqueous phase reactivity and activation of CCN on SOA formation
APA, Harvard, Vancouver, ISO, and other styles
18

HICKS, ELIZABETH. "Etude des processus d'entrainement et de melange : leur role sur le developpement des precipitations dans les nuages chauds des latitudes temperees et tropicales." Clermont-Ferrand 2, 1990. http://www.theses.fr/1990CLF2E421.

Full text
Abstract:
Des donnees obtenues a l'aide de mesures aeroportees dans des nuages chauds continentaux et des nuages chauds maritimes sont analysees pour etudier les processus d'entrainement et de melange ainsi que leur role sur l'evolution des caracteristiques dynamiques, thermodynamiques et plus particulierement microphysiques du nuage. Les sites d'entrainement sont determines a partir de diagrammes thermodynamiques. Le type d'entrainement predominant est lateral dans les nuages maritimes et sommital dans les nuages continentaux. Cette difference est liee a celle qui regle dans le degre d'humidite et le degre d'instabilite des deux types de masse d'air. Le comportement de certaines caracteristiques spectrales des particules nuageuses en fonction de leur degre de dilution revele que le processus de melange est respectivement heterogene dans les nuages continentaux et homogene dans les nuages maritimes. L'etude des effets des differentes combinaisons de types d'entrainement et de processus de melange observes sur la production de grosses gouttelettes, capables d'initialiser le processus de croissance par collision et coalescence, montre que ce sont les particules a degre de dilution intermediaire qui developpent les plus grosses gouttelettes comparativement aux particules non diluees, soulignant ainsi l'importance de la dilution dans la genese des precipitations chaudes
APA, Harvard, Vancouver, ISO, and other styles
19

Yongsiriwit, Karn. "Modeling and mining business process variants in cloud environments." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL002/document.

Full text
Abstract:
De plus en plus les organisations adoptent les systèmes d'informations sensibles aux processus basés sur Cloud en tant qu'un environnement pour gérer et exécuter des processus dans le Cloud dans l'objectif de partager et de déployer leurs applications de manière optimale. Cela est particulièrement vrai pour les grandes organisations ayant des succursales opérant dans des différentes régions avec des processus considérablement similaires. Telles organisations doivent soutenir de nombreuses variantes du même processus en raison de la culture locale de leurs succursales, de leurs règlements, etc. Cependant, le développement d'une nouvelle variante de processus à partir de zéro est sujet à l'erreur et peut prendre beaucoup du temps. Motivés par le paradigme "la conception par la réutilisation", les succursales peuvent collaborer pour développer de nouvelles variantes de processus en apprenant de leurs processus similaires. Ces processus sont souvent hétérogènes, ce qui empêche une interopérabilité facile et dynamique entre les différentes succursales. Une variante de processus est un ajustement d'un modèle de processus afin de s'adapter d'une façon flexible aux besoins spécifiques. De nombreuses recherches dans les universités et les industries visent à faciliter la conception des variantes de processus. Plusieurs approches ont été développées pour aider les concepteurs de processus en recherchant des modèles de processus métier similaires ou en utilisant des modèles de référence. Cependant, ces approches sont lourdes, longues et sujettes à des erreurs. De même, telles approches recommandent des modèles de processus pas pratiques pour les concepteurs de processus qui ont besoin d'ajuster une partie spécifique d'un modèle de processus. En fait, les concepteurs de processus peuvent mieux développer des variantes de processus ayant une approche qui recommande un ensemble bien défini d'activités à partir d'un modèle de processus défini comme un fragment de processus. Les grandes organisations multi-sites exécutent les variantes de processus BP dans l'environnement Cloud pour optimiser le déploiement et partager les ressources communes. Cependant, ces ressources Cloud peuvent être décrites en utilisant des différents standards de description des ressources Cloud ce qui empêche l'interopérabilité entre les différentes succursales. Dans cette thèse, nous abordons les limites citées ci-dessus en proposant une approche basée sur les ontologies pour peupler sémantiquement une base de connaissance commune de processus et de ressources Cloud, ce qui permet une interopérabilité entre les succursales de l'organisation. Nous construisons notre base de connaissance en étendant les ontologies existantes. Ensuite, nous proposons une approche pour exploiter cette base de connaissances afin de supporter le développement des variantes BP. De plus, nous adoptons un algorithme génétique pour allouer d'une manière optimale les ressources Cloud aux BPs. Pour valider notre approche, nous développons deux preuves de concepts et effectuons des expériences sur des ensembles de données réels. Les résultats expérimentaux montrent que notre approche est réalisable et précise dans des cas d'utilisation réels
More and more organizations are adopting cloud-based Process-Aware Information Systems (PAIS) to manage and execute processes in the cloud as an environment to optimally share and deploy their applications. This is especially true for large organizations having branches operating in different regions with a considerable amount of similar processes. Such organizations need to support many variants of the same process due to their branches' local culture, regulations, etc. However, developing new process variant from scratch is error-prone and time consuming. Motivated by the "Design by Reuse" paradigm, branches may collaborate to develop new process variants by learning from their similar processes. These processes are often heterogeneous which prevents an easy and dynamic interoperability between different branches. A process variant is an adjustment of a process model in order to flexibly adapt to specific needs. Many researches in both academics and industry are aiming to facilitate the design of process variants. Several approaches have been developed to assist process designers by searching for similar business process models or using reference models. However, these approaches are cumbersome, time-consuming and error-prone. Likewise, such approaches recommend entire process models which are not handy for process designers who need to adjust a specific part of a process model. In fact, process designers can better develop process variants having an approach that recommends a well-selected set of activities from a process model, referred to as process fragment. Large organizations with multiple branches execute BP variants in the cloud as environment to optimally deploy and share common resources. However, these cloud resources may be described using different cloud resources description standards which prevent the interoperability between different branches. In this thesis, we address the above shortcomings by proposing an ontology-based approach to semantically populate a common knowledge base of processes and cloud resources and thus enable interoperability between organization's branches. We construct our knowledge base built by extending existing ontologies. We thereafter propose an approach to mine such knowledge base to assist the development of BP variants. Furthermore, we adopt a genetic algorithm to optimally allocate cloud resources to BPs. To validate our approach, we develop two proof of concepts and perform experiments on real datasets. Experimental results show that our approach is feasible and accurate in real use-cases
APA, Harvard, Vancouver, ISO, and other styles
20

Bouazzouni, Mohamed Amine. "Processus sécurisés de dématérialisation de cartes sans contact." Phd thesis, Toulouse, INPT, 2017. http://oatao.univ-toulouse.fr/19488/1/BOUAZZOUNI_MohamedAmine.pdf.

Full text
Abstract:
Au fil des années, la technologie sans contact NFC s'est imposée dans notre quotidien au travers des différents services proposés. Les cas d'utilisation sont nombreux allant des cartes de fidélité, des cartes de transport, des cartes de paiement sans contact jusqu'aux cartes de contrôle d'accès. Cependant, les premières générations des cartes NFC ont une sécurité minimale reposant sur l'hypothèse de leur non-clonabilité. De multiples vulnérabilités ont été découvertes et leur exploitation a permis des copies frauduleuses. Afin de remédier à ces vulnérabilités, une nouvelle génération de cartes à la sécurité augmentée a vu le jour. Ces cartes permettent une authentification avec un lecteur basée sur des algorithmes de chiffrements symétriques tels qu'AES, DES, et 3DES. Elles sont plus robustes que la première génération mais ont subi des également une attaque en reverse-engineering. Pour garantir et améliorer le niveau de sécurité du système de contrôle d'accès, nous proposons dans le cadre de l'opération neOCampus, la dématérialisation sécurisée de la carte sans contact sur un smartphone muni de la technologie NFC. Cette dématérialisation nous permet d'exploiter la puissance de calcul et la capacité de stockage du smartphone afin de déployer des algorithmes d'authentification plus robustes. Cependant, l'OS du smartphone ne peut être considéré comme un environnement de confiance. Afin de répondre à la problématique du stockage et du traitement sécurisés sur un smartphone, plusieurs solutions ont été proposées : les Secure Elements (SE), les Trusted Platform Module (TPM), les Trusted Execution Environment (TEE) et la virtualisation. Afin de stocker et de traiter de manière sécurisée les données d'authentification, le TEE apparait comme la solution idéale avec le meilleur compromis sécurité/performances. Cependant, de nombreux smartphones n'embarquent pas encore de TEE. Pour remédier à cette contrainte, nous proposons une architecture basée sur l'utilisation de TEEs déportés sur le Cloud. Le smartphone peut le contacter via une liaison Wi-Fi ou 4G. Pour se faire, un protocole d'authentification basé sur IBAKE est proposé. En plus de ce scénario nominal, deux autres scenarii complémentaires ont été proposés permettant d'accompagner le développement et la démocratisation des TEE non seulement dans le monde des smartphones mais aussi sur des dispositifs peu onéreux comme le Raspberry Pi 3. Ces architectures déploient le même algorithme d'authentification que le scénario nominal. Nous proposons aussi une architecture hors ligne permettant à un utilisateur de s'authentifier à l'aide d'un jeton de connexion en cas d'absence de réseaux sans fil. Cette solution permet de relâcher la contrainte sur la connectivité du smartphone à son Cloud. Nous procédons à une évaluation de l'architecture de dématérialisation et de l'algorithme d'authentification en terme de performances et de sécurité. Les opérations cryptographiques du protocole d'authentification sont les plus coûteuses. Nous avons alors procédé à leur évaluation en nous intéressant en particulier aux opérations de chiffrement IBE et à la génération de challenges ECC. Nos implémentations ont été évaluées pour l'infrastructure Cloud et l'environnement mobile. Nous avons ensuite procédé à une validation du protocole d'authentification sur les trois architectures sélectionnées à l'aide de l'outil Scyther. Nous avons montré, que pour les trois scenarii, la clé de session négociée via le protocole d'authentification restait secrète durant tout le protocole. Cette caractéristique nous garantit que les données d'authentification chiffrées avec cette clé resteront secrètes et que la phase d'identification de la personne est protégée tout en préservant l'ergonomie du système existant.
APA, Harvard, Vancouver, ISO, and other styles
21

Ouedraogo, Wendpanga Francis. "Gestionnaire contextualisé de sécurité pour des « Process 2.0 »." Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0132/document.

Full text
Abstract:
Compte tenu de l’environnement économique globalisé et de plus en plus concurrentiel, les entreprises et en particulier les PME/PMI, pour rester compétitif,doivent développer de nouvelles stratégie de collaborations (intra et inter-entreprises) et se restructurer pour rendre leur organisation et le système d’information agile. Alors que jusqu'à présent le Web 2.0 permettait de collaborer sur les données elles-mêmes, nous proposons de passer à une logique de « process 2.0 » permettant de rechercher / composer sémantiquement des services existants pour collaborer directement en partageant des fonctionnalités et non plus seulement des données. Couplé au développement du Cloud Computing, facilitant l’hébergement, une telle stratégie permettrait de coupler plus fortement les niveaux SaaS et PaaS. Toutefois, ceci pose d’évidents problèmes de gestion des contraintes de sécurité. Le développement de stratégies de sécurité est usuellement basé sur une analyse systématique des risques afin de les réduire en adoptant des contre-mesures. Ces approches sont lourdes, complexes à mettre en œuvre et sont souvent rendues caduques car les risques sont évalués dans un monde « fermé », ce qui n’est pas le cas d’une approche par composition de services métier réutilisable où le contexte d’utilisation des différents services au niveau métier et plateforme est inconnu a priori. Dans ce type d’approche, le contexte au niveau métier évoque à la fois les fonctionnalités apportées par chaque service, l’organisation (Qui fait à quoi ?) et l’enchainement de ces services ainsi que les types de données (d’ordre stratégique ou pas,..) que manipulent ces services. Au niveau plateforme, le contexte dépend de l’environnement (privé, public,..) dans lequel les services vont s’exécuter. C’est donc sur la base de l’analyse du contexte que l’on peut définir les contraintes de sécurités propres à chaque service métier, pouvoir spécifier les politiques de sécurités adéquates et mettre en œuvre les moyens de sécurisation adaptés. En outre, il est aussi nécessaire de pouvoir propager les politiques de sécurités sur tout le processus afin d’assurer la cohérence et une sécurité globale lors de l’exécution du processus. Pour répondre à ces enjeux, nous proposons d’étudier la définition des politiques de sécurité à base de « patrons » apportant une réponse graduée en fonction de la confiance que l’on a sur l’environnement. Ainsi des patrons de sécurité qui répondent à des besoins de sécurité métiers et à des besoins de sécurité plateforme seront définis et permettront d’exprimer l’ensemble des politiques de sécurité. La sélection et de mise en œuvre de ces politiques de sécurités se feront à partir de patrons de contexte. Notre proposition simple à appréhender par des non spécialistes, permettra, par des transformations de modèles, d’intégrer ces politiques au niveau technologique afin de garantir un niveau de qualité de protection constant quel que soit l’environnement de déploiement
To fit the competitive and globalized economic environment, companies and especially SMEs / SMIs are more and more involved in collaborative strategies, requiring organizational adaptation to fit this openness constraints and increase agility (i.e. the ability to adapt and fit the structural changes). While the Web 2.0 allows sharing data (images, knowledge, CV, micro-blogging, etc...) and while SOA aims at increasing service re-using rate and service interoperability, no process sharing strategies are developed. To overcome this limit, we propose to share processes as well to set a "process 2.0" framework allowing sharing activities. This will support an agile collaborative process enactment by searching and composing services depending on the required business organization and the service semantics. Coupled with the cloud computing deployment opportunity, this strategy will lead to couple more strongly Business, SaaS and PaaS levels. However, this challenges security constraints management in a dynamic environment. The development of security policies is usually based on a systematic risks analysis, reducing them by adopting appropriate countermeasures. These approaches are complex and as a consequence difficult to implement by end users. Moreover risks are assessed in a "closed" and static environment so that these methods do not fit the dynamic business services composition approach, as services can be composed and run in different business contexts (including the functionalities provided by each service, the organization (Who does what?), the coordination between these services and also the kind of data (strategic or no...) that are used and exchanged) and runtime environment (public vs private platform…). By analyzing these contextual information, we can define specific security constraints to each business service, specify the convenient security policies and implement appropriate countermeasures. In addition, it is also necessary to be able to propagate the security policies throughout the process to ensure consistency and overall security during the process execution. To address these issues, we propose to study the definition of security policies coupling Model Driven Security and Pattern based engineering approach to generate and deploy convenient security policies and protection means depending on the (may be untrusted) runtime environment. To this end, we propose a set of security patterns which meet the business and platform related security needs to set the security policies. The selection and the implementation of these security policies will be achieved thank to context-based patterns. Simple to understand by non-specialists, these patterns will be used by the model transformation process to generate these policies in a Model@Runtime strategy so that security services will be selected and orchestrated at runtime to provide a constant quality of protection (independent of the deployment)
APA, Harvard, Vancouver, ISO, and other styles
22

Coutris, Pierre. "Analyse des propriétés dimensionnelles et massiques des cristaux de glace pour l’étude des processus microphysiques dans les systèmes convectifs à méso-échelle." Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAC007/document.

Full text
Abstract:
L’étude des propriétés et processus microphysiques caractérisant la phase glace permet de mieux définir le rôle des nuages dans le cycle de l’eau et sur bilan radiatif de l’atmosphère. Les modèles atmosphériques et les codes d’inversion des données de télédétection utilisent des paramétrisations établies à partir de mesures in situ. Ces mesures servent également des besoins industriels en lien avec la problématique du givrage en aéronautique. L’étude présentée se base sur les données de deux campagnes aéroportées réalisées dans le cadre de la collaboration internationale HAIC-HIWC, ciblant les zones à fort contenu en glace que l’on peut observe rau sein des systèmes convectifs à méso-échelle (MCS) tropicaux. Sur la question des relations « masse-diamètre » (m - D) d’abord, une nouvelle approche est présentée. Basée sur la résolution d’un problème inverse, elle permet de restituer la masse des cristaux à partir de mesures colocalisées classiques en s’affranchissant de la traditionnelle hypothèse de loi puissance, et montre que cette dernière ne permet pas de représenter correctement les propriétés massiques de populations de cristaux hétérogènes (morphologie et tailles différentes) typiques des MCS. La variabilité horizontale des distributions de tailles permet d’étudier le vieillissement de l’enclume d’un point de vue microphysique et de souligner le rôle essentiel du processus d’agrégation dans l’élimination des petits cristaux apportés dans la haute troposphère par la convection profonde et dans la formation d’agrégats supra-millimétriques, précurseurs glacés des précipitations stratiformes. Les relations m - D restituées permettent d’identifier des régimes microphysiques distincts et ouvre la voie aux développement d’une paramétrisation de la masse volumique des hydrométéores en fonction de critères environnementaux
The detailed characterization of ice cloud microphysics is key to understand their role in theEarth’s hydrological cycle and radiation budget. The developement of atmospheric models and remote sensingalgorithms relies on parametrisations derived from in situ measurements. These measurements are also usedby the aviation industry to handle the problem of ice crystal icing. This PhD work presents an analysis of themass and size properties of ice crystals observed in high ice water content areas embedded in tropical mesoscaleconvective systems (MCS) during two airborne field campaigns of the HAIC-HIWC international project.A new approach is developped to derive mass-size relationships (m - D) from size distributions and icewater contents. The retrieval is formulated as an inverse problem which waives the power law constraint, aclassical assumption that proves to be an oversimplification when applied to heterogeneous populations of iceparticules typical of MCS anvils.The horizontal variability of size distributions and the aging of MCS anvils is described in terms of microphysicalprocesses. The importance of the aggregation growth process is emphasized as it efficiently removessmall ice particles brought into the upper troposphere by deep convection and significantly contributes to theformation of large agregates, precusor of the stratiform precipitations. The analysis of mass properties revealsthat distinctive microphysical regimes may be identified from the m-D relationship retrieved in various conditions.It paves the way toward a statistical model of the effective density of ice particles as a function of environmentalparameters
APA, Harvard, Vancouver, ISO, and other styles
23

Ben, Halima Kchaou Rania. "Cost optimization of business processes based on time constraints on cloud resources." Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAS014.

Full text
Abstract:
Motivé par le besoin "d'optimiser le coût de déploiement des processus métier" les organisations externalisent certaines de leurs opérations vers le cloud computing. Les fournisseurs cloud proposent des stratégies de tarification compétitives (par exemple, à la demande, réservée, ponctuelle) spécifiées en fonction des contraintes temporelles pour répondre aux demandes de changement et de dernières minutes des utilisateurs. En outre, les processus métier ont des contraintes temporelles et toute violation de ces contraintes pourrait entraîner des conséquences sévères. Par conséquent, il est nécessaire de vérifier formellement que l’allocation des ressources cloud dans le processus métier est temporellement correcte. Cependant, en l'absence d'une définition formelle des stratégies de tarification, spécifiée en langage naturel, la consistance temporelle de l'allocation des ressources cloud ne peut pas être vérifiée dans le contexte de gestion de processus métier. En outre, la variété des ressources cloud, des stratégies de tarification et des exigences des activités ne permettent pas au concepteur du processus métier de trouver facilement le coût optimal de déploiement d’un processus métier. Dans cette thèse, nous visons à: (i) améliorer le support, dans un processus métier, des contraintes temporelles des activités, des disponibilités temporelles des ressources cloud ainsi que les stratégies de tarification, (ii) minimiser le coût de déploiement des processus métier dans les ressources cloud. Pour ce faire, nous proposons une spécification formelle des ressources cloud, des stratégies de tarification et des contraintes temporelles des activités. Cette spécification est utilisée pour vérifier formellement la consistance temporelle de l’allocation des ressources cloud dans un processus métier enrichi par des contraintes temporelles. Ensuite, nous proposons deux modèles de programmation linéaire, un programme linéaire binaire et un programme mixte en nombres entiers, pour trouver le coût optimal de déploiement d’un processus métier dans les ressources cloud
Motivated by the need of "optimizing the deployment cost of business processes" organizations outsource some of their operations to cloud computing. Cloud providers offer competitive pricing strategies (e.g., on-demand, reserved, and spot) specified based on temporal constraints to accommodate users' changing and last-minute demands. Besides, the organizations' business processes are time constrained and any violation to these constraints could lead to serious consequences. Therefore, there is a need to formally verify that the cloud resource allocation in a business process is temporally correct. However, due to the lack of a formal definition of cloud pricing strategies, specified in natural language, the temporal correctness of cloud resource allocation in a business process management context can not be verified. Furthermore, the variety of cloud resources, pricing strategies, and activities requirements do not help the business process designer to easily find the optimal business process's deployment cost. In this thesis, our objectives are to: (i) improve the business processes support of temporal constraints on activities and cloud resources, as well as pricing strategies and (ii) minimize the business process deployment cost. To this end, we propose a formal specification for cloud resources, pricing strategies, and activities' temporal constraints. This specification is used to formally verify the temporal correctness of cloud resource allocation in time-aware business processes. Then, we propose two linear program models, binary linear program and mixed integer program, to find the optimal deployment cost of time-aware business processes in cloud resources
APA, Harvard, Vancouver, ISO, and other styles
24

Hadded, Leila. "Optimization of autonomic resources for the management of service-based business processes in the Cloud." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLL006/document.

Full text
Abstract:
Le Cloud Computing est un nouveau paradigme qui fournit des ressources informatiques sous forme de services à la demande via internet fondé sur le modèle de facturation pay-per-use. Il est de plus en plus utilisé pour le déploiement et l’exécution des processus métier en général et des processus métier à base de services (SBPs) en particulier. Les environnements cloud sont généralement très dynamiques. À cet effet, il devient indispensable de s’appuyer sur des agents intelligents appelés gestionnaires autonomiques (AMs), qui permettent de rendre les SBPs capables de se gérer de façon autonome afin de faire face aux changements dynamiques induits parle cloud. Cependant, les solutions existantes sont limitées à l’utilisation soit d’un AM centralisé, soit d’un AM par service pour gérer un SBP. Il est évident que la deuxième solution représente un gaspillage d’AMs et peut conduire à la prise de décisions de gestion contradictoires, tandis que la première solution peut conduire à des goulots d’étranglement au niveau de la gestion du SBP. Par conséquent, il est essentiel de trouver le nombre optimal d’AMs qui seront utilisés pour gérer un SBP afin de minimiser leur nombre tout en évitant les goulots d’étranglement. De plus, en raison de l’hétérogénéité des ressources cloud et de la diversité de la qualité de service (QoS) requise par les SBPs, l’allocation des ressources cloud pour ces AMs peut entraîner des coûts de calcul et de communication élevés et/ou une QoS inférieure à celle exigée. Pour cela, il est également essentiel de trouver l’allocation optimale des ressources cloud pour les AMs qui seront utilisés pour gérer un SBP afin de minimiser les coûts tout en maintenant les exigences de QoS. Dans ce travail, nous proposons un modèle d’optimisation déterministe pour chacun de ces deux problèmes. En outre, en raison du temps nécessaire pour résoudre ces problèmes qui croît de manière exponentielle avec la taille du problème, nous proposons des algorithmes quasi-optimaux qui permettent d’obtenir de bonnes solutions dans un temps raisonnable
Cloud Computing is a new paradigm that provides computing resources as a service over the internet in a pay-per-use model. It is increasingly used for hosting and executing business processes in general and service-based business processes (SBPs) in particular. Cloud environments are usually highly dynamic. Hence, executing these SBPs requires autonomic management to cope with the changes of cloud environments implies the usage of a number of controlling devices, referred to as Autonomic Managers (AMs). However, existing solutions are limited to use either a centralized AM or an AM per service for managing a whole SBP. It is obvious that the latter solution is resource consuming and may lead to conflicting management decisions, while the former one may lead to management bottlenecks. An important problem in this context, deals with finding the optimal number of AMs for the management of an SBP, minimizing costs in terms of number of AMs while at the same time avoiding management bottlenecks and ensuring good management performance. Moreover, due to the heterogeneity of cloud resources and the diversity of the required quality of service (QoS) of SBPs, the allocation of cloud resources to these AMs may result in high computing costs and an increase in the communication overheads and/or lower QoS. It is also crucial to find an optimal allocation of cloud resources to the AMs, minimizing costs while at the same time maintaining the QoS requirements. To address these challenges, in this work, we propose a deterministic optimization model for each problem. Furthermore, due to the amount of time needed to solve these problems that grows exponentially with the size of the problem, we propose near-optimal algorithms that provide good solutions in reasonable time
APA, Harvard, Vancouver, ISO, and other styles
25

Desboeufs, Karine. "Processus de dissolution des aérosols atmosphériques au sein des gouttes d'eau nuageuses." Phd thesis, Université Paris-Diderot - Paris VII, 2001. http://tel.archives-ouvertes.fr/tel-00005175.

Full text
Abstract:
Les nuages sont des éléments essentiels de notre atmosphère qui agissent à la fois sur le bilan radiatif terrestre et sur sa capacité oxydante en transformant chimiquement une grande variété d'espèces solubles. Ces nuages se forment par la condensation de vapeur d'eau sur des particules d'aérosols, appelés noyaux de condensation. La fraction soluble de ces particules conditionne l'hygroscopie des particules et détermine ainsi la taille des gouttes du nuage. Ce paramètre est déterminant pour définir les propriétés optiques des nuages. De plus, la dissolution des particules est la source primaire en phase aqueuse de différentes espèces dont les métaux de transition. Ces éléments sont impliqués dans divers processus d'oxydoréduction et en particuliers dans les processus responsables de la formation des pluies acides. Il est par conséquent très important de connaître, de manière fiable, les processus aboutissant à la solubilisation de l'aérosol dans les gouttes d'eau nuageuses. Le principal objectif de ce travail a donc été de développer un outil expérimental puis une approche de modélisation afin de comprendre et de simuler la dissolution des particules piégées dans une phase nuageuse liquide. Dans un premier temps, ce travail a consisté à mettre en oeuvre un dispositif expérimental, comportant un réacteur de dissolution en circuit ouvert, qui permet de suivre la cinétique de dissolution dans des conditions proches des conditions nuageuses. Cet outil expérimental a ensuite été utilisé pour une caractérisation systématique des différents facteurs d'influence recensés jusqu'alors sur la dissolution, c'est à dire le pH, la nature des aérosols, leur degré d'altération... mais également sur des facteurs jusqu'alors non expérimentés que sont la force ionique, la nature des acides et les cycles d'évapocondensation nuageuse. Les expériences de dissolution menées sous ces différentes conditions nuageuses ont permis de mettre en avant et de quantifier l'effet important des ions H+ et OH- sur la dissolution, ainsi que du degré de solubilisation de la particule. Ces observations ont ensuite été utilisées pour l'élaboration d'un mécanisme de dissolution des particules en phase aqueuse. Une quantification de ce mécanisme a enfin été réalisée en paramétrisant les principaux facteurs impliqués dans la dissolution. La comparaison des résultats calculés et expérimentaux montre une assez bonne adéquation, validant la paramétrisation effectuée. Finalement ce travail permet d'apporter des informations qualitatives et surtout quantitatives des interactions entre l'eau et les particules d'aérosols qui étaient encore manquantes et montrent notamment l'importance du processus de dissolution pour comprendre le rôle des aérosols dans l'implication climatique et chimique des nuages.
APA, Harvard, Vancouver, ISO, and other styles
26

Ahmed, Nacer Amina. "Contributions au déploiement sécurisé de processus métiers dans le cloud." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0013/document.

Full text
Abstract:
L’évolution et l’accroissement actuels des technologies amènent les entreprises à vouloir se développer plus rapidement afin de rester compétitives et offrir des services à la pointe de la technologie, répondant aux besoins du marché. En effet, les entreprises étant sujettes à des changements assez fréquents requièrent un haut niveau de flexibilité et d’agilité. La gestion des processus métiers (BPM) leur permet dans ce sens de mieux appréhender et gérer leurs processus. Par ailleurs, l’apparition du Cloud Computing et de tous ses bénéfices (flexibilité et partage, coût optimisé, accessibilité garantie...etc) le rendent particulièrement attrayant. Ainsi, l’association de ces deux concepts permet aux entreprises de renflouer leur capital. Cependant, l’utilisation du cloud implique également de nouvelles exigences en terme de sécurité, qui découlent de son environnement partagé, et qui mettent un frein à sa large adoption. Le travail de cette thèse consiste à proposer des concepts et outils pour aider et guider les entreprises dans le déploiement de leurs processus dans un environnement cloud en toute sécurité. Une première contribution est un algorithme d’obfuscation permettant d’automatiser la décomposition et le déploiement des processus sans intervention humaine, en se basant sur la nature des fragments. Cet algorithme limite le taux d’informations sur chaque cloud à travers un ensemble de contraintes de séparation, permettant de déployer les fragments considérés comme étant sensibles sur différents clouds. La seconde contribution de cette thèse consiste à complexifier la structure du processus afin de limiter le risque de coalition de clouds. Ceci se fait à travers l’introduction de faux fragments à certains endroits stratégiques du processus. L’objectif étant de rendre les collaborations générées plus résistantes aux attaques, et par conséquent de réduire la probabilité de coalition. Même si les opérations d’obfuscation et de complexification protègent le savoir-faire des entreprises lors d’un déploiement cloud, un risque subsiste toujours. Dans ce contexte, cette thèse propose également un modèle de risque permettant d’évaluer et de quantifier les risques de sécurité auxquels restent exposés les processus après déploiement. L’objectif de ce modèle est de combiner les informations de sécurité avec d’autres dimensions de la qualité de service tel que le coût, pour la sélection de configurations optimisées. Les approches proposées sont implémentées et testées à travers différentes configurations de processus. Leur validité est vérifiée à travers un ensemble de métriques dont l’objectif est de mesurer la complexité des processus après l’opération d’obfuscation ainsi que le niveau de risque subsistant
The fast evolution and development of technologies lead companies to grow faster in order to remain competitive and to offer services which are at the cutting edge of technology, meeting today’s market needs. Indeed, companies that are subject to frequent changes require a high level of flexibility and agility. Business Process Management (BPM) allows them to better manage their processes. Moreover, the emergence of Cloud Computing and all its advantages (flexibility and sharing, optimized cost, guaranteed accessibility... etc) make it particularly attractive. Thus, the combination of these two concepts allows companies to refloat their capital. However, the use of the cloud also implies new requirements in term of security, which stem from its shared environment, and which slow down its widespread adoption. The objective of this thesis consists in proposing concepts and tools that help and guide companies to deploy safely their processes in a cloud environment. A first contribution is an obfuscation algorithm that automates the decomposition and deployment of processes without any human intervention, based on the nature of the fragments. This algorithm limits the rate of information on each cloud through a set of separation constraints, which allow to deploy fragments considered as sensitive on different clouds. The second contribution of this thesis consists in complicating the structure of the process in order to limit the risk of clouds coalition. This is done through the introduction of fake fragments at certain strategic points in the process. The goal is to make generated collaborations more resistant to attacks, and thus reducing the likelihood of coalition. Even if obfuscation and complexification operations protect companies’ know-how during a cloud deployment, a risk remains. In this context, this thesis also proposes a risk model for evaluating and quantifying the security risks to which the process remain exposed after deployment. The purpose of this model is to combine security information with other dimensions of quality of service such as cost, for the selection of optimized configurations. The proposed approaches are implemented and tested through different process configurations. Their validity is verified through a set of metrics, whose objective is to measure the complexity of the processes as well as the remaining risk level after obfuscation
APA, Harvard, Vancouver, ISO, and other styles
27

Hachicha, Belghith Emna. "Supporting cloud resource allocation in configurable business process models." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL007/document.

Full text
Abstract:
Les organisations adoptent de plus en plus les Systèmes (PAIS) pour gérer leurs processus métiers basés sur les services en utilisant les modèles de processus appelés «modèles de processus métiers». Motivés par l’adaptation aux exigences commerciales et par la réduction des coûts de maintenance, les organisations externalisent leurs processus dans le Cloud Computing. Selon l'Institut NIST, Cloud Computing est un modèle qui permet aux fournisseurs de partager leurs ressources et aux utilisateurs d’y accéder de manière pratique et à la demande. Dans un tel environnement multi-tenant, l'utilisation de modèles de processus configurables permet aux fournisseurs de processus Cloud de fournir un processus personnalisable qui peut être configuré par différents tenants en fonction de leurs besoins.Un processus métier peut être spécifié par plusieurs perspectives tel que la perspective de flux de contrôle, la perspective des ressources, etc. Plusieurs approches ont été proposées au niveau des premières perspectives, notamment le flux de contrôle. Cependant, la perspective ressource, qui est d'une importance égale, était négligée et pas explicitement définie. D’un côté, la gestion de la perspective ressource spécifiquement l’allocation des ressources Cloud est un thème d’actualité qui implique plusieurs recherches. La modélisation et la configuration des ressources sont une tâche sensible nécessitant un travail intensif. Malgré l’existence de différentes approches, elles traitent principalement les ressources humaines plutôt que des ressources Cloud. D’un autre côté, malgré le fait que le concept des modèles de processus configurables est très complémentaire au Cloud, la manière dont comment les ressources sont configurées et intégrées est à peine manipulée. Les approches proposées travaillant sur l’extension de la configuration de ressources, ne couvrent pas les propriétés Cloud notamment l’élasticité et le partage.Pour répondre à ces lacunes, nous proposons une approche pour supporter la modélisation et la configuration de l’allocation des ressources Cloud dans les modèles de processus configurables. Nous visons à (1) définir une description unifiée et formelle pour la perspective ressource, (2) assurer une allocation de ressource correcte, sans conflits et optimisée, (3) Aider les fournisseurs de processus à concevoir leur allocation de ressources configurable de manière fine afin d'éviter des résultats complexes et importants, et (4) Optimiser la sélection des ressources Cloud par rapport aux exigences liées aux propriétés Cloud (élasticité et partage) et propriétés QoS.Pour ce faire, nous proposons d'abord un cadre sémantique pour une description de ressources sémantiquement enrichies dans les processus métiers visant à formaliser les ressources Cloud consommées à l'aide d'une base de connaissances partagée. Ensuite, nous nous basons sur les processus métiers sociales pour fournir des stratégies afin d'assurer une allocation de ressources contrôlée sans conflits en termes de ressources. Par la suite, nous proposons une nouvelle approche qui étend les modèles de processus configurables pour permettre une allocation de ressources Cloud configurable. Notre objectif est de déplacer l'allocation de ressources Cloud du côté des tenants vers le côté du fournisseur de processus Cloud pour une gestion centralisée des ressources. Après, nous proposons des approches génétiques qui visent à choisir une configuration optimale des ressources d'une manière efficace sur le plan énergétique en améliorant les propriétés QoS.Afin de montrer l'efficacité de nos propositions, nous avons développé concrètement (1) une série de preuves de concepts, en tant que partie de validation, pour aider à concevoir des modèles de processus et remplir une base de connaissances de modèles de processus hétérogènes avec des ressources Cloud et (2) ont effectué des expériences sur des modèles de processus réels à partir de grands ensembles de données
Organizations are recently more and more adopting Process-Aware Information Systems (PAIS) for managing their service-based processes using process models referred to as business process models. Motivated by adapting to the rapid changing business requirements and reducing maintenance costs, organizations are outsourcing their processes in an important infrastructure which is Cloud Computing. According to the NIST Institute, Cloud Computing is a model that enables providers sharing their computing resources (e.g., networks, applications, and storage) and users accessing them in convenient and on-demand way with a minimal management effort. In such a multi-tenant environment, using configurable process models allows a Cloud process provider to deliver a customizable process that can be configured by different tenants according to their needs.A business process could be specified from various perspectives such as the control-flow perspective, the organizational perspective, the resource perspective, etc. Several approaches have been correctly proposed at the level of the first perspectives, in particular the control-flow, i.e., the temporal ordering of the process activities. Nevertheless, the resource perspective, which is of equal importance, has been neglected and poorly operated. The management of the resource perspective especially the Cloud resource allocation in business processes is a current interesting topic that increasingly involves many researches in both academics and industry. The design and configuration of resources are undoubtedly sensitive and labor-intensive task. On the one hand, the resource perspective in process models is not explicitly defined. Although many proposals exist in the literature, they all targeted human resources rather than Cloud resources. On the other hand, despite of the fact that the concept of configurable process models is highly complementary to Cloud Computing, the way in how resources can be configured and integrated is hardly handled. The few proposals, which have been suggested on extending configuration to resources, do not cover required Cloud properties such as elasticity or multi-tenancy.To address these limitations, we propose an approach for supporting the design and configuration of Cloud resource Allocation in configurable business process models. We target to (1) define a unified and formal description for the resource perspective, (2) ensure a correct, free-of-conflict and optimized use of Cloud resource consumption, (3) assist process providers to design their configurable resource allocation in a fine-grained way to avoid complex and large results, and (4) optimize the selection of Cloud resources with respect to the requirements related to Cloud properties (elasticity and shareability) and QoS properties.To do so, we first suggest a semantic framework for a semantically-enriched resource description in business processes aiming at formalizing the consumed Cloud resources using a shared knowledge base. Then, we build upon social business processes to provide strategies in order to ensure a controlled resource allocation without conflicts in terms of resources. Next, we propose a novel approach that extends configurable process models to permit a configurable Cloud resource allocation. Our purpose is to shift the Cloud resource allocation from the tenant side to the Cloud process provider side for a centralized resource management. Afterwards, we propose genetic-based approaches that aim at selecting optimal resource configuration in an energy efficient manner and to improve non-functional properties.In order to show the effectiveness of our proposals, we concretely developed (i) a set of proof of concepts, as a validation part, to assist the design of process models and populate a knowledge base of heterogeneous process models with Cloud resources, and (ii) performed experiments on real process models from large datasets
APA, Harvard, Vancouver, ISO, and other styles
28

Wærsted, Eivind. "Description of physical processes driving the life cycle of radiation fog and fog–stratus transitions based on conceptual models." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLX053/document.

Full text
Abstract:
Le brouillard cause des dangers pour le trafic par la réduction de visibilité. L’amélioration des prévisions du brouillard est donc un objectif scientifique. Cette thèse analyse le cycle de vie des brouillards continentaux autour de Paris, observés par télédétection au sol à l’observatoire atmosphérique SIRTA. La thèse se focalise sur la compréhension des processus en jeu dans la dissipation après le lever du soleil, sous l’hypothèse d’une couche de brouillard adiabatique. Pendant 4 ans, plus de 100 événement de brouillard sont documentés par l’observation de la base du nuage (par télémètre), son sommet et la présence de nuages au-dessus (radar nuage), et le contenu intégré d’eau liquide (LWP) (radiomètre micro-onde (MWR)). La plupart des brouillards se dissipe suite à un soulèvement de la base, sans que tout le nuage s’évapore, et souvent sans une réduction du LWP. Donc, non seulement est la réduction du LWP importante pour la dissipation du brouillard, mais aussi l’évolution de son sommet, qui avec le LWP détermine l’altitude de la base. Des simulations par le modèle LES DALES montrent une sensibilité importante à la stratification au-dessus : en augmentant l’entrainement, une stratification faible au sommet peut accélérer la dissipation par (1) plus de perte d’eau liquide par l’entrainement de l’air non-saturé, et (2) par un développement vertical menant au lever de la base. La variabilité de cette stratification peut être raisonnablement bien observée par le profil de température du MWR. Avant la dissipation du brouillard par lever de la base, le radar observe souvent un max de réflectivité près du sommet, ce qui peut être lié à l’absence de grandes gouttelettes dans les basses couches. Donc, par leur observation du développement du sommet, le LWP, la stratification, et le profil de réflectivité, le radar et le MWR donnent des informations qui peuvent potentiellement anticiper la dissipation du brouillard.Les processus radiatifs sont étudiés avec le code de transfert radiatif ARTDECO. Le refroidissement radiatif au sommet du brouillard peut produire 40–70 g m-2 h-1 d’LWP quand le brouillard est opaque (LWP >= 30 g m-2) (c’est moins pour les brouillards minces) et il n’y a pas de nuage au-dessus. C’est la source principale d’LWP et il peut renouveler le LWP du brouillard en 0.5–2 h. Sa variabilité s’explique principalement par la température du brouillard et le profil d’humidité au-dessus. Les nuages au-dessus du brouillard réduisent fortement la production, en particulier les nuages bas. La perte d’LWP par absorption de rayonnement solaire par le brouillard est 5–15 g m-2 h-1 autour de midi en hiver, dépendant de l’épaisseur du brouillard, mais ça peut augmenter par 100 % quand une quantité importante d’aérosols absorbants est présente (AOD=0.15, SSA=0.82).Nos résultats par simulation LES indiquent que le réchauffement par absorption de rayonnement solaire à la surface est le premier processus de perte d’LWP après le lever du soleil, mais sa magnitude est sensible au rapport de Bowen. Vu son importance, une amélioration de l’observation du rapport de Bowen dans le brouillard devrait être une priorité, car les observations actuelles des flux turbulents ne sont pas suffisamment précises pour quantifier le rapport de Bowen.Un modèle conceptuel pour calculer le bilan du LWP directement à partir des observations est développé. En utilisant 12 paramètres observés et 2 qui viennent d’une réanalyse, il calcule les impacts au LWP par rayonnement, flux de chaleur à la surface, entrainement, subsidence et dépôt. Ce modèle est appliqué à 45 brouillards observés qui se dissipent après le lever du soleil. Une variabilité importante dans le rayonnement, l’entrainement et la subsidence entre les cas est trouvée, qui peut en partie expliquer les différences en heure de dissipation. Tandis que les termes de rayonnement sont plutôt précis, des autres ont des incertitudes importantes et pourront être améliorés dans le futur
Fog causes hazards to human activity due to the reduction of visibility, especially through the risk of traffic accidents. Improving the forecasts of fog formation and dissipation is therefore an objective for research. This thesis analyses the life cycle of continental fog events occurring in the Paris area, using several ground-based remote sensing instruments deployed at the SIRTA atmospheric observatory. We focus on understanding the dissipation after sunrise and the local processes involved, assuming the fog layer is adiabatic (well-mixed). Over a 4-year period, more than 100 fog events are documented by observing cloud base (ceilometer), cloud top and clouds appearing above the fog (cloud radar), and the liquid water path (LWP) (microwave radiometer (MWR)). Most fog events dissipate by lifting of the base without a complete evaporation of the cloud, and often even without a reduction in LWP. This indicates that not only a reduction in LWP is important for fog dissipation, but also the evolution of the fog top, which together with the LWP determines whether the cloud extends down to the ground. Using the LES model DALES, we find a strong sensitivity of the vertical development of the fog top to the stratification above. By enhancing entrainment, a weak stratification at fog top can lead to earlier fog dissipation by (1) more depletion of LWP by entraining unsaturated air, especially if the air is dry, and (2) vertical development of the fog top leading to lifting of the fog base. The variability of this stratification can be observed reasonably well with the MWR temperature profile. In several cases of dissipation by lifting, the vertical profile of radar reflectivity in the fog has a max value near fog top prior to dissipation, which suggests a lack of bigger droplets in the lower levels of the fog. By observing the cloud top development, the stratification, the LWP and the profile of reflectivity, the radar and MWR provide information that has potential for anticipating fog dissipation by lifting.Radiative processes are studied using the comprehensive radiative transfer code ARTDECO. The radiative cooling at fog top can produce 40–70 g m-2 h-1 of LWP when the fog is opaque (LWP >= 30 g m-2) (production is lower for thin fog) and there are no clouds above. This cooling thus is the main process of LWP production and can renew the fog LWP in 0.5–2 h. Its variability is mainly explained by the fog temperature and the humidity profile above. Clouds above the fog will strongly reduce this production, especially low clouds: a cloud with optical depth 4 can reduce it by 30 (100) % at 10 (2) km. Loss of LWP by absorption of solar radiation by the fog is 5–15 g m-2 h-1 around midday in winter, depending on cloud thickness, but it can be enhanced by 100 % in case of important amounts of absorbing aerosols (dry AOD=0.15, SSA=0.82).Heating due to solar radiation absorbed at the surface is found to be the dominating process of LWP loss after sunrise (according to LES model simulations), but its magnitude is sensitive to the Bowen ratio. However, observations of the turbulent heat fluxes during fog are not precise enough to quantify the Bowen ratio. The importance of the Bowen ratio means that improvements of its measurement during fog should be a priority.A conceptual model which calculates the LWP budget of fog directly from observations is developed. Using 12 observed parameters and 2 from reanalysis data, it calculates the impact on LWP of terrestrial and solar radiation, surface heat fluxes, entrainment, subsidence and deposition. It is applied to 45 observed fog events dissipating after sunrise. An important variability in radiation, entrainment and subsidence between the cases is found, which can partly explain the different dissipation times. While the terms of radiation are rather robust, several other terms suffer from significant uncertainties, leaving room for improvements in the future
APA, Harvard, Vancouver, ISO, and other styles
29

Chevance, Mélanie. "Physical processes in the interstellar medium of the Magellanic Clouds." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC242/document.

Full text
Abstract:
Le milieu interstellaire (MIS) joue un rôle important dans l'évolution des galaxies. Les radiations et vents stellaires, ainsi que les supernovae par exemple, sont à l'origine de nombreux processus ayant un impact sur les propriétés globales des galaxies. Cependant, l'efficacité des ces processus est liée aux propriétés et à la structure des différentes phases du MIS, et est souvent incertaine. Grace à la sensibilité et résolution accrues des nouveaux télescopes observant dans l'infrarouge lointain (FIR) et le submillimetrique (comme par exemple le Herschel Space Observatory, SOFIA et ALMA), il est désormais possible d'étudier en détail les interactions réciproques entre la formation stellaire et les différentes phases du MIS environnant. Ce travail est axé sur les propriétés physiques du gaz dans les Nuages de Magellan. Le Grand Nuage de Magellan et le Petit Nuage de Magellan, nos plus proches voisins, tout deux à métallicité sub-solaire, sont de bons laboratoires pour étudier les interactions entre la formation stellaire et l'environnement. La région 30 Doradus, dans le Grand Nuage de Magellan, l'une des plus massives et des plus actives régions de formation stellaire connues dans notre voisinage, est étudiée en détail. Les observations des télescopes spatiaux Herschel et Spitzer sont utilisées pour contraindre la pression, le champ de radiation ainsi que la structure tri-dimensionnelle des régions de photo-dissociation (PDR), en combinaison avec le code PDR de Meudon. Cette modélisation permet également d'estimer la fraction de gaz moléculaire qui n'est pas détectée par le traceur généralement utilisé CO. Cette méthode est ensuite appliquée à d'autres régions de formation stellaire dans les Nuages de Magellan, présentant différents environnements. Cette étude permet d'évaluer les diagnostiques clés du chauffage et du refroidissement du gaz à faible métallicité dans des régions actives de formation stellaire, avec une bonne résolution spatiale. Ceci constitue une première étape pour mieux comprendre les observations non résolues de telles régions dans des galaxies lointaines
The interstellar medium (ISM) plays a major role in galaxy evolution. Feedback from stars, in particular, drives several processes responsible for the global properties of a galaxy. However, the efficiency of these processes is related to the properties and structure of the different gas and dust ISM phases and remains uncertain. Due to the increased sensitivity and resolution of the new far-infrared (FIR) and submillimeter facilities (such as the Herschel Space Observatory, SOFIA and ALMA, in particular), it now becomes possible to study in detail the interplay between star formation and the surrounding ISM phases. This work focuses on the physical properties of the gas in the Magellanic Clouds. The Large Magellanic Cloud and the Small Magellanic Cloud, our closest neighbors, both at subsolar metallicity, are good laboratories to study the interaction between star formation and environment.The 30 Doradus region, in the Large Magellanic Cloud, one of the most massive and active star forming region known in our neighborhood, is first studied in detail. We use the FIR and mid-infrared tracers, provided by the space telescopes Herschel and Spitzer, to bring constrains on the pressure, radiation field and 3D structure of the photo-dissociation regions (PDR) in this extreme region, using the Meudon PDR code. This modeling allows us to estimate the fraction of molecular gas not traced by CO, also known as the "CO-dark" molecular gas.We apply this method to other star forming regions of the Magellanic Clouds, which are characterized by different environmental conditions. This study allows us to evaluate key diagnostics of the gas heating and cooling of low metallicity resolved starburst regions. This is a first step toward understanding similar but unresolved regions, in high-redshift galaxies
APA, Harvard, Vancouver, ISO, and other styles
30

Ben, Jrad Aicha. "Description and evaluation of elasticity strategies for business processes in the Cloud." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL012/document.

Full text
Abstract:
Le principe d'élasticité est d'assurer que juste les ressources nécessaires sont provisionnées pour préserver le bon fonctionnement des services Cloud. La propriété d'élasticité permet d'éviter la sous-utilisation et la sur-utilisation des ressources. La propriété d'élasticité a attiré beaucoup d'attention ces dernières années comme une tâche pivot qui permet d'assurer un bon compromis entre les QdS désirées et les coûts opérationnels des AbSs. Toutefois, le contrôle d'élasticité des AbSs et la définition des stratégies d'élasticité non-triviales sont encore des tâches difficiles à réaliser. Une stratégie d'élasticité est utilisée pour gérer l'élasticité en décidant des trois éléments essentiels: 'quand', 'où' et 'comment' utiliser les mécanismes d'élasticité (par exemple, les opérations de duplication/consolidation de services) qui permettent d'assurer les objectifs de QdS avec une consommation optimisée des ressources. La complexité de définition de stratégies d'élasticité augmente avec les métriques de QdS considérées. La difficulté de cette tâche est de plus accentuée avec l'absence d'un langage unifiée pour exprimer ces stratégies. Notre travail de thèse vise à remédier aux limites des approches existantes pour la gestion des stratégies d'élasticité. Il consiste à développer un langage pour décrire différents types des stratégies d'élasticité d'une façon unifiée. Nous définissons un modèle formel qui cadre l'ensemble de métriques à considérer, définit les opérations d'élasticité à appliquer et spécifie les lois d'émission de requêtes. Ce modèle servira aussi pour appliquer et valider les stratégies spécifiées. Nous travaillons en plus sur l'alignement des contrats de qualités de services (Service Level Agreement) avec les stratégies d'élasticité
Elasticity is the ability of a system to be adjustable to workload change by allocating and releasing as many resources as needed while ensuring the agreed QoS. It has played a pivotal role in many research works for ensuring QoS. Therefore, Elasticity management is witnessing a lot of attention from IT community as a pivotal issue for finding the right tradeoffs between QoS levels and operational costs by working on developing novel methods and mechanisms. However, controlling business process elasticity and defining non-trivial elasticity strategies are challenging issues. Elasticity strategies are policies that are used to manage elasticity by deciding when, where and how to use elasticity mechanisms (e.g, adding or removing resources). Many strategies can be defined to ensure applications elasticity. The abundance of possible strategies requires their evaluation and validation in order to guarantee their effectiveness before using them in real Cloud environments. Our thesis work aims to overcome the limitations of the existing approaches for elasticity strategies management. It consists in developing a configurable Domain-Specific language to describe different types of elasticity strategies in a unified way. We define a formal model that captures a set of QoS metrics and defines elasticity operations. This model will also be used to define and verify elasticity strategies. We will also work on the alignment of Service Level Agreements with the elasticity strategies
APA, Harvard, Vancouver, ISO, and other styles
31

Belghait, Fodil. "Exploration de la migration de la base de données relationnelle du système de gestion de processus d'affaires Oryx vers la base de données NO-SQL utilisée par la plateforme de l'informatique de nuage de Hadoop." Mémoire, École de technologie supérieure, 2012. http://espace.etsmtl.ca/974/1/BELGHAIT_Fodil.pdf.

Full text
Abstract:
L’objectif principal de ce projet de recherche est d’explorer l’opportunité, d’analyser les stratégies et d’évaluer les difficultés d’intégration de nouvelles technologies dans le domaine du génie logiciel. Nous avons réalisé notre projet en nous basant sur une étude de cas que nous avons effectué en intégrant un logiciel de gestion de processus d’affaires libre de droit (Oryx) qui utilise une base de données relationnelle aux technologies de l’informatique de nuage (Hadoop) et la base de données non relationnelle (Hbase). Ce travail a montré le grand intérêt que l’industrie des logiciels voue à ce genre de projets et la rareté des recherches académiques effectuées dans ce domaine. Il a permis d’explorer le scénario d’utiliser un modèle de données original hybride (relationnel et non relationnel) dans le système Oryx. Les résultats obtenus peuvent être utilisés pour considérer le potentiel d’un nouveau modèle de données (modèle hybride) sur les plateformes d’informatique de nuage.
APA, Harvard, Vancouver, ISO, and other styles
32

Goettelmann, Elio. "Risk-aware Business Process Modelling and Trusted Deployment in the Cloud." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0144/document.

Full text
Abstract:
L’essor du Cloud Computing, permettant de partager les coûts et les ressources au travers de la virtualisation, présage une interconnexion dynamique et flexible entre entreprises et fournisseurs. Cependant, cette mise en commun de ressources, données et savoir-faire implique de nouvelles exigences en termes de sécurité. En effet, le manque de confiance dans les structures du Cloud est souvent vu comme un frein au développement de tels services. L’objectif de cette thèse est d’étudier les concepts d’orchestration de services, de confiance et de gestion des risques dans le contexte du Cloud. La contribution principale est un framework permettant de déployer des processus métiers dans un environnement Cloud, en limitant les risques de sécurité liés à ce contexte. La contribution peut être séparée en trois partie distinctes qui prennent la forme d'une méthode, d'un modèle et d'un framework. La méthode catégorise des techniques pour transformer un processus métier existant en un modèle sensibilisé (ou averti) qui prend en compte les risques de sécurité spécifiques aux environnements Cloud. Le modèle formalise les relations et les responsabilités entre les différents acteurs du Cloud. Ce qui permet d'identifier les différentes informations requises pour évaluer et quantifier les risques de sécurité des environnements Cloud. Le framework est une approche complète de décomposition de processus en fragments qui peuvent être automatiquement déployés sur plusieurs Clouds. Ce framework intègre également un algorithme de sélection qui combine les information de sécurité avec d'autres critère de qualité de service pour générer des configuration optimisées. Finalement, les travaux sont implémentés pour démontrer la validité de l'approche. Le framework est implémenté dans un outil. Le modèle d'évaluation des risques de sécurité Cloud est également appliqué dans un contexte de contrôle d'accès. La dernière partie présente les résultats de l'implémentation de nos travaux sur un cas d'utilisation réel
Nowadays service ecosystems rely on dynamic software service chains that span over multiple organisations and providers. They provide an agile support for business applications, governments of end-users. This trend is reinforced by the Cloud based economy that allows sharing of costs and resources. However, the lack of trust in such cloud environments, that involve higher security requirements, is often seen as a braking force to the development of such services. The objective of this thesis is to study the concepts of service orchestration and trust in the context of the Cloud. It proposes an approach which supports a trust model in order to allow the orchestration of trusted business process components on the cloud. The contribution is threefold and consists in a method, a model and a framework. The method categorizes techniques to transform an existing business process into a risk-aware process model that takes into account security risks related to cloud environments. The model formalizes the relations and the responsibilities between the different actors of the cloud. This allows to identify the different information required to assess and quantify security risks in cloud environments. The framework is a comprehensive approach that decomposes a business process into fragments that can automatically be deployed on multiple clouds. The framework also integrates a selection algorithm that combines security information with other quality of service criteria to generate an optimized configuration. Finally, the work is implemented in order to validate the approach. The framework is implemented in a tool. The security assessment model is also applied over an access control model. The last part presents the results of the implementation of our work on a real world use case
APA, Harvard, Vancouver, ISO, and other styles
33

Boubaker, Souha. "Formal verification of business process configuration in the Cloud." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLL002/document.

Full text
Abstract:
Motivé par le besoin de la « Conception par Réutilisation », les modèles de processus configurables ont été proposés pour représenter de manière générique des modèles de processus similaires. Ils doivent être configurés en fonction des besoins d’une organisation en sélectionnant des options. Comme les modèles de processus configurables peuvent être larges et complexes, leur configuration sans assistance est sans doute une tâche difficile, longue et source d'erreurs.De plus, les organisations adoptent de plus en plus des environnements Cloud pour déployer et exécuter leurs processus afin de bénéficier de ressources dynamiques à la demande. Néanmoins, en l'absence d'une description explicite et formelle de la perspective de ressources dans les processus métier existants, la correction de la gestion des ressources du Cloud ne peut pas être vérifiée.Dans cette thèse, nous visons à (i) fournir de l’assistance et de l’aide à la configuration aux analystes avec des options correctes, et (ii) améliorer le support de la spécification et de la vérification des ressources Cloud dans les processus métier. Pour ce faire, nous proposons une approche formelle pour aider à la configuration étape par étape en considérant des contraintes structurelles et métier. Nous proposons ensuite une approche comportementale pour la vérification de la configuration tout en réduisant le problème bien connu de l'explosion d'espace d'état. Ce travail permet d'extraire les options de configuration sans blocage d’un seul coup. Enfin, nous proposons une spécification formelle pour le comportement d'allocation des ressources Cloud dans les modèles de processus métier. Cette spécification est utilisée pour valider et vérifier la cohérence de l'allocation des ressources Cloud en fonction des besoins des utilisateurs et des capacités des ressources
Motivated by the need for the “Design by Reuse”, Configurable process models are proposed to represent in a generic manner similar process models. They need to be configured according to an organization needs by selecting design options. As the configurable process models may be large and complex, their configuration with no assistance is undoubtedly a difficult, time-consuming and error-prone task.Moreover, organizations are increasingly adopting cloud environments for deploying and executing their processes to benefit from dynamically scalable resources on demand. Nevertheless, due to the lack of an explicit and formal description of the resource perspective in the existing business processes, the correctness of Cloud resources management cannot be verified.In this thesis, we target to (i) provide guidance and assistance to the analysts in process model configuration with correct options, and to (ii) improve the support of Cloud resource specification and verification in business processes. To do so, we propose a formal approach for assisting the configuration step-by-step with respect to structural and business domain constraints. We thereafter propose a behavioral approach for configuration verification while reducing the well-known state space explosion problem. This work allows to extract configuration choices that satisfy the deadlock-freeness property at one time. Finally, we propose a formal specification for Cloud resource allocation behavior in business process models. This specification is used to formally validate and check the consistency of the Cloud resource allocation in process models according to user requirements and resource capabilities
APA, Harvard, Vancouver, ISO, and other styles
34

Politaki, Dimitra. "Vers la modélisation de clusters de centres de données vertes." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4116.

Full text
Abstract:
La consommation énergétique des clusters de centres de données augmente rapidement, ce qui en fait les consommateurs d'électricité à la croissance la plus rapide au monde. Les sources d’électricité renouvelables et en particulier l’énergie solaire en tant qu’énergie propre et abondante peuvent être utilisées pour couvrir leurs besoins en électricité et les rendre «verts», c’est-à-dire alimentés par le photovoltaïque. Ce potentiel peut être exploré en prévoyant l'irradiance solaire et en évaluant la capacité fournie pour les clusters de centres de données. Dans cette thèse, nous développons des modèles stochastiques pour l'énergie solaire; un à la surface de la Terre et un second qui modélise le courant de sortie photovoltaïque. Nous d'abord validons nos modèles par des données réels, puis nous proposons une étude comparative avec d’autres systèmes, notamment les modèles dits on-off. Nous concluons que notre modèle d'irradiance solaire peut capturer les corrélations multi-échelles de façon plus optimale, et il se montre particulièrement convénient dans le cas d’une production à petite échelle. De plus, nous proposons une nouvelle analyse de cycle de vie pour un système de cluster réel, ainsi qu'un modèle de cluster prenant en charge la soumission de travaux par lots et prenant en compte le comportement client impatient et persistant. Enfin, pour comprendre les caractéristiques essentielles du cluster d’ordinateurs, nous analysons deux cas: le complexe Google publié et le Nef cluster de l’Inria. Nous avons également implémenté marmoteCore-Q, un outil de simulation d’une famille de modèles de file d’attente, basé sur nos modèles
Data center clusters energy consumption is rapidly increasing making them the fastest-growing consumers of electricity worldwide. Renewable electricity sources and especially solar energy as a clean and abundant energy can be used, in many locations, to cover their electricity needs and make them "green" namely fed by photovoltaics. This potential can be explored by predicting solar irradiance and assessing the capacity provision for data center clusters. In this thesis we develop stochastic models for solar energy; one at the surface of the Earth and a second one which models the photovoltaic output current. We then compare them to the state of the art on-off model and validate them against real data. We conclude that the solar irradiance model can better capture the multiscales correlations and is suitable for small scale cases. We then propose a new job life-cycle of a complex and real cluster system and a model for data center clusters that supports batch job submissions and cons iders both impatient and persistent customer behavior. To understand the essential computer cluster characteristics, we analyze in detail two different workload type traces; the first one is the published complex Google trace and the second, simpler one, which serves scientific purposes, is from the Nef cluster located at the research center Inria Sophia Antipolis. We then implement the marmoteCore-Q, a tool for the simulation of a family of queueing models based on our multi-server model for data center clusters with abandonments and resubmissions
APA, Harvard, Vancouver, ISO, and other styles
35

Wu, Junteng. "Theoretical and experimental studies on the hygroscopic properties of soot particles sampled from a kerosene diffusion flame : impact of the aging processes by O3 and SO2." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1R035.

Full text
Abstract:
Les particules de suie émises par les processus de combustion sont hydrophobes. Cependant leurs caractéristiques morphologiques et chimiques sont modifiées lorsqu’elles séjournent dans l’atmosphère. Elles peuvent alors devenir des noyaux de condensation (CCN) ou glaciogènes (IN) et contribuer de manière significative au forçage radiatif indirect affectant le climat. Pour les aérosols sphériques et mono dispersés, la théorie de k-Köhler est souvent utilisée pour quantifier les propriétés hygroscopiques des aérosols. Dans ce travail une approche théorique et expérimentale est proposée afin d’étendre la théorie à des distributions de tailles et de morphologies d’aérosols plus complexes. Les propriétés hygroscopiques des particules sont déterminées en mesurant leur fraction activée en fonction de la sursaturation en eau au moyen d’un compteur de CCN. Le modèle développé est d’abord testé sur des particules sphériques et isolées de sulfate d’ammonium. Puis il est appliqué aux agrégats complexes de particules de suie. Les suies sont générées dans une flamme de diffusion de kérosène, et ensuite exposées à des concentrations variables d’ozone et de dioxyde de soufre dans des conditions contrôlées de température, pression et humidité relative. La mobilité électrique, la morphologie et la composition chimique de surface sont mesurés par granulométrie, microscopie électronique et spectrométrie de masse par ion secondaires respectivement, avant et après le vieillissement, et reliées au processus d’activation. A partir de la comparaison entre les courbes d’activation et le modèle, les valeurs du paramètre d’hygroscopicité k ont été déterminées pour une large gamme de conditions opératoires
Freshly emitted soot particles from combustion processes are hydrophobic. However, the aging process in the atmosphere can modify their size, morphology and surface chemistry and turn them into efficient cloud condensation (CCN) and ice nuclei (IN) that significantly contribute to the indirect radiative forcing of climate. For spherical and monodisperse aerosols, k-Köhler theory is often used in the literature to quantify the hygroscopic properties of aerosols. In this work, a combined theoretical and experimental approach is proposed to add to the theory the contributions of the particle size distribution and morphology. Hygroscopic properties of the particles are derived by measuring their activated fraction as a function of the water supersaturation using a CCN counter. The model developed in this work is first tested on dry ammonium sulfate particles (quasi spherical and non aggregating). Then, it is applied to soot particles that are complex aggregates of primary particles. Soot particles are generated from a laboratory diffusion jet flame supplied with kerosene, and aged with ozone and sulfur dioxide in controlled conditions of temperature, pressure and relative humidity to simulate their permanence in the atmosphere. The electrical mobility, morphology and chemical composition of fresh and aged soot are measured by scanning mobility particle sizing, electron microscopy and secondary ion mass spectrometry, respectively, before and after the aging and related to the activation process. From the comparison of the experimental activation curves and the model, the values of the hygroscopicity parameter k could be determined for a large variety of operating conditions
APA, Harvard, Vancouver, ISO, and other styles
36

Quintuna, Rodriguez Verónica Karina. "Nouvelle commande réseau / IT : Performance des fonctions virtualisées pour une infrastructure programmable." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS099.

Full text
Abstract:
Dans le cadre de la virtualisation des fonctions réseau, nous abordons dans cette thèse l’analyse de la performance de fonctions réseau virtualisées (en anglais VNF). Nous étudions en particulier le problème de latence qui inclut le temps total nécessaire pour traiter une VNFs dans un centre de données. Le cas d'usage de cette étude est la virtualisation du réseau d'accès radio (à savoir, Cloud-RAN). Nous étudions concrètement la pertinence de la mise en commun de ressources et du multiplexage statistique lorsque les cœurs disponibles dans un centre de données sont partagés par toutes les VNF actives. Nous effectuons la modélisation du temps d’exécution d’une VNF en utilisant des systèmes de files d’attente. Ces modèles donnent des indications sur le comportement des architectures de calcul haute performance basées sur le traitement parallèle et permettent de dimensionner la capacité de calcul requise dans les centres de données. En guise de preuve de concept, nous mettons en œuvre un réseau mobile virtualisé de bout en bout basé sur OAI qui nous permet de confirmer la précision des modèles théoriques. Les résultats de performance mettent en évidence des gains importants en termes de latence. Cela permet notamment d'augmenter le niveau de concentration des VNF dans les centres de données et ouvre la porte à la cloudification de fonctions réseau critiques comme celles du RAN
In the framework of Network Function Virtualization (NFV), we address in this work the performance analysis of virtualized network functions (VNFs) in terms of latency, which considers the total amount of time that is required to process VNFs in cloud computing systems. The driving use-case of this study is the virtualization of the radio access network (namely, Cloud-RAN). We notably investigate the relevance of resource pooling and statistical multiplexing when available cores in a data center are shared by all active VNFs. We perform VNF modeling by means of stochastic service systems. Proposed queuing models reveal the behavior of high performance computing architectures based on parallel processing and enable us to dimension the required computing capacity in data centers. As a proof of concept, we implement an OAI-based end-to-end virtualized mobile network, which notably confirms the accuracy of theoretical models. Performance results reveal important gains in terms of latency. This fact enables in particular a higher concentration level of VNFs in data centers, thus achieving CAPEX and OPEX reduction, and moreover, it opens the door to the cloudification of critical network functions
APA, Harvard, Vancouver, ISO, and other styles
37

Simjanovski, Dragan. "Évaluation des processus radiatifs et des nuages par le modèle GEM-LAM pour l'année SHEBA en Arctique." Mémoire, 2010. http://www.archipel.uqam.ca/2934/1/M11391.pdf.

Full text
Abstract:
Dus aux conditions uniques en Arctique (des températures et aux rapports de mélange de vapeur d'eau extrêmement bas, à la réflexivité élevée des surfaces de la glace de mer et de la neige, inversion de température dans la basse troposphère et à l'absence de la radiation solaire pendant des périodes prolongées), les processus macro et microphysiques contrôlant la formation des nuages sont complexes et uniques. La validation de ces paramètres atmosphériques simulés par les différents modèles numériques du climat présentement utilisés par les plus grands centres de recherche au monde avec les observations est indispensable pour mieux connaître et, par conséquent, mieux paramétriser ces processus complexes. Le nouveau Modèle Canadien Régional du Climat GEM-LAM (une version à aire limitée du modèle Global Environnemental à Multi-échelle) a été évalué pour la période de septembre 1997 à octobre 1998 au-dessus de l'océan Arctique Ouest. Cette période coincide avec la campagne de mesures du projet SHEBA (Surface Heat Budget of the Arctic Ocean). Les versions 3.2.2 et 3.3.0 du modèle sont évalués dans cette étude. La radiation solaire et terrestre vers le bas à la surface, l'albédo de surface, la vapeur d'eau dans la verticale, les contenus en eau liquide et solide et la couverture nuageuse simulés par GEM-LAM sont évalués avec les données d'observation SHEBA et comparés aux résultats des modèles participants à l'expérience d'inter-comparaison de modèles climatiques régionaux ARCMIP. Une comparaison plus poussée entre les moyennes journalières a été faite et les biais des modèles, le RMSE et le coefficient linéaire de corrélation sont calculés pour plusieurs champs radiatifs et microphysiques. Sur une base mensuelle, les modèles représentent la radiation des longues et courtes longueurs d'onde vers le bas à la surface raisonnablement bien, mais le décalage entre les simulations suivant les différents modèles est plus grand pour les SWD que pour les LWD à la surface. GEM-LAM surestime l'albédo de la surface pendant toutes les saisons dans cette expérience. De plus, le modèle GEM se comporte similairement aux autres modèles participant à cette expérience et tend à sous-estimer la quantité de vapeur d'eau intégrée verticalement pendant l'hiver, tandis que le GEM la surestime durant l'été. La majorité des modèles surestime la couverture nuageuse hivernale, par contre, ils simulent plus ou moins correctement la couverture nuageuse durant l'été. Sur une base quotidienne, tous les modèles participant à l'expérience ARCMlP simulent relativement bien la radiation des courtes longueurs d'onde vers le bas à la surface, mais les valeurs quotidiennes de l'eau liquide intégrée à la verticale sont légèrement moins bien simulées. Les deux versions du modèle GEM-LAM (v3.2.2 et v3.3.0) ont aussi de la difficulté à bien simuler la couverture nuageuse sur une base quotidienne comme les autres modèles participant à cette expérience. Les nuages optiques minces sont l'une des raisons permettant d'expliquer le grand écart entre la couverture des nuages simulée par les modèles et les observations. Pour éliminer ce problème dans notre analyse, un filtre des nuages optiquement minces a été appliqué en sortie du modèle GEM -LAM. Après filtrage des nuages optiquement minces dans le modèle GEM, pour chaque filtre sélectionné (0,5, 1, 1,5, 2), la couverture nuageuse décroit significativement durant la saison hivernale. Par contre, la couverture nuageuse est insensible au filtre durant la saison estivale. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Arctique, Modélisation, GEM-LAM, SHEBA, ARCMIP, Radiation, Couverture nuageuse.
APA, Harvard, Vancouver, ISO, and other styles
38

Liu, Dongqing. "Mobile data and computation offloading in mobile cloud computing." Thèse, 2019. http://hdl.handle.net/1866/22660.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography