Literatura científica selecionada sobre o tema "Modélisation ensembliste"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Consulte a lista de atuais artigos, livros, teses, anais de congressos e outras fontes científicas relevantes para o tema "Modélisation ensembliste".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Artigos de revistas sobre o assunto "Modélisation ensembliste"

1

Drocourt, Cyril, Laurent Delahoche, Eric Brassart e Cyril Cauchois. "Localisation et modélisation ensembliste de l'environnement d'un robot". Journal Européen des Systèmes Automatisés 37, n.º 9 (30 de novembro de 2003): 1075–93. http://dx.doi.org/10.3166/jesa.37.1075-1093.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.

Teses / dissertações sobre o assunto "Modélisation ensembliste"

1

Khemane, Firas. "Estimation fréquentielle par modèle non entier et approche ensembliste : application à la modélisation de la dynamique du conducteur". Thesis, Bordeaux 1, 2011. http://www.theses.fr/2010BOR14282/document.

Texto completo da fonte
Resumo:
Les travaux de cette thèse traite de la modélisation de systèmes par fonctions de transfert non entières à partir de données fréquentielles incertaines et bornées. A cet effet, les définitions d'intégration et de dérivation non entières sont d'abord étendues aux intervalles. Puis des approches ensemblistes sont appliquées pour l'estimation de l'ensemble des coefficients et des ordres de dérivation sous la forme d'intervalles. Ces approches s'appliquent pour l'estimation des paramètres de systèmes linéaires invariants dans le temps (LTI) certains, systèmes LTI incertains et systèmes linéaires à paramètres variant dans le temps (LPV). L'estimation paramétrique par approche ensembliste est particulièrement adaptée à la modélisation de la dynamique du conducteur, car les études sur un, voire plusieurs, individus montrent que les réactions recueillies ne sont jamais identiques mais varient d'une expérience à l'autre, voire d'un individu à l'autre
This thesis deals with system identification and modeling of fractional transfer functions using bounded and uncertain frequency responses. Therefor, both of fractional differentiation and integration definitions are extended into intervals. Set membership approaches are then applied to estimate coefficients and derivative orders as intervals. These methods are applied to estimate certain Linear Time Invariant systems (LTI), uncertain LTI systems and Linear Parameter Varying systems (LPV). They are notably adopted to model driver's dynamics, since most of studies on one or several individuals shave shown that the collected reactions are not identical and are varying from an experiment to another
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Destouches, Mayeul. "Prise en compte des hydrométéores dans un schéma d'assimilation variationnel ensembliste appliqué au modèle de prévision AROME". Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30268.

Texto completo da fonte
Resumo:
L'initialisation des hydrométéores est un enjeu majeur de la prévision numérique du temps à échelle convective. Cette thèse vise à analyser ces hydrométéores dans le schéma d'assimilation variationnel ensembliste (3DEnVar) récemment implémenté pour le modèle de prévision AROME, et à documenter l'impact d'une telle analyse sur les prévisions résultantes. Ce schéma utilise un approche Monte-Carlo pour estimer des covariances empiriques des erreurs d'ébauche. Des localisations optimales ont été diagnostiquées pour filtrer ces covariances, en répondant aux problèmes de discontinuité et d'hétérogénéité propres aux hydrométéores. Une grande dépendance à la variable, à l'altitude et à la situation météorologique a été montrée. Des expériences cyclées d'assimilation sur une période estivale de 3 mois ont ensuite montré un apport significativement positif de l'initialisation des hydrométéores sur les prévisions de pluie, de couverture nuageuse et de pression de surface, même en l'absence d'observations directes d'hydrométéores. L'apport d'un nouveau schéma de localisation dépendant de la variable s'est révélé mitigé, celui d'une localisation dépendant de l'échelle est plus positif
Initialization of hydrometeor variables is a major challenge in convective-scale numerical weather prediction. This PhD thesis aims at analyzing these hydrometeors in the ensemble variational data assimilation scheme (3DEnVar) recently implemented for the prediction model AROME. This scheme uses an ensemble of forecasts to sample background error covariances. To filter these covariances, optimal localization has been diagnosed using an objective method based on the ensemble statistics only. Heterogeneity and discontinuities of hydrometeor fields have been tackled to perform these diagnoses. Optimal localization depends on model variable, model level and weather situation; a specific localization is advocated for hydrometeor variables. Cycled data assimilation experiments were then performed over a three-month summer period to assess the impact of proposed changes. Precipitation, cloud cover and surface pressure forecasts are significantly improved when hydrometeor are added to the control variables. A new variable-dependent localization scheme is tested, but show neutral impact. Better results were obtained with scale-dependent localization
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Heim, Bruno. "Approche ensembliste et par logique floue pour le diagnostic causal de procédés de raffinage : application à un pilote de FCC". Phd thesis, Grenoble INPG, 2003. http://tel.archives-ouvertes.fr/tel-00197531.

Texto completo da fonte
Resumo:
La thèse traite du diagnostic de procédés et se divise en trois parties. La première partie présente une méthode de modélisation causale pour le diagnostic. La seconde partie présente les différentes méthodes mises en ouvre pour la détection, la localisation et l'identification de défauts. Pour effectuer la détection, nous comparons les variables du modèle causal aux mesures. Nous évaluons les apports d'une approche ensembliste et d'une approche par logique floue pour la prise en compte des incertitudes. La localisation est réalisée grâce à un algorithme de hitting-sets afin de déterminer l'ensemble des composants suspects. Ceci permet de focaliser l'identification de défauts sur un nombre réduit de composants. Cette identification utilise l'expertise sur les modes de défaillance, exprimée sous forme de bases de règles, chacune relative à un composant, et permettant d'aiguiller l'opérateur sur des actions et des vérifications à effectuer. La troisième partie présente l'application.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Narinc, Olivier. "Variabilité interannuelle de l'eau modale à dix-huit degrés de l'Atlantique nord : contributions apportées par une simulation océanique ensembliste réaliste". Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALU022.

Texto completo da fonte
Resumo:
L'Eau à Dix-Huit Degrés (ou EDW, Eighteen Degree Water) est une eau modale située dans le gyre subtropical à l'ouest de l'Atlantique nord, au sud du Gulf Stream. Elle est couramment décrite comme étant formée par les échanges océan-atmosphère dans la couche de mélange hivernale, puis subductée et partiellement érodée le reste de l'année. L'EDW joue un rôle important dans les échanges océan-atmosphère dans le bassin nord-atlantique, et interagit avec la circulation de retournement méridienne de l'Atlantique (AMOC). De précédentes études ont montré que dans les simulations océaniques permettant la turbulence (résolution de 1/4° ou plus fine), une part significative de la variabilité interannuelle du gyre subtropical et de l'AMOC est intrinsèque à l'océan, c’est-à-dire indépendante de la variabilité atmosphérique. Notre étude utilise une simulation régionale océan/glace de mer ensembliste de 50 membres, 20 ans, à 1/4° avec flux air-mer identiques pour tous les membres de l'ensemble. En appliquant des méthodes existantes, il est tiré profit de la dimension ensembliste de la simulation afin d'évaluer les importances relatives de la variabilité intrinsèque et de la variabilité forcée par l'atmosphère dans la variabilité interannuelle de l'EDW. Nous montrons que notre simulation est en bon accord avec une analyse tridimensionnelle sur grille à 1/4° des champs de température, salinité et vitesse océaniques. Nous montrons que la quasi-totalité de la variabilité de l'EDW est forcée par l'atmosphère aux échelles annuelles et subannuelles, mais que la variabilité intrinsèque devient notable aux échelles interannuelles. Nous montrons aussi que les résultats obtenus dans la simulations ensembliste sont compatibles avec la variabilité observée, ce qui suggère que les observations de l'EDW sont entachées d'une variabilité intrinsèque importante et difficile à quantifier. En séparant le volume de l'EDW en un volume ventilé (sous la surface de contact entre l'EDW et l'atmosphère) et un volume subducté (le reste de l'EDW), nous décrivons le cycle annuel de variation de volume de l'EDW. Nous trouvons qu'en moyenne sur 20 ans et 50 membres, la formation et la destruction d'EDW sont proches de l'équilibre, que la variabilité forcée domine ces deux processus et que la variabilité intrinsèque est plus importante dans la destruction de l'EDW. D'autre part, la variabilité intrinsèque du volume d'EDW est marquée par un mode d'une durée typique de 12 ans, modulé chaque année par la formation de nouvelle EDW par ventilation. Dans l'ensemble, les résultats présentés dans cette thèse montrent que la description courante de la variabilité de l'EDW comme étant forcée par l'atmosphère est incomplète, et que la variabilité interannuelle de l'EDW comporte une part importante de variabilité intrinsèque, en particulier dans la destruction de cette eau modale
The Eighteen Degree Water (EDW) is a mode water located in the western NorthAtlantic subtropical gyre, south of the Gulf Stream. It is typically described asformed in the winter mixed layer through air-sea exchanges, before being sub-ducted and partly eroded over the rest of the year. The EDW plays a signif-icant role in the air-sea exchanges of the North Atlantic basin, and interactswith the Atlantic meridional overturning circulation (AMOC). Previous stud-ies have shown that in eddy-permitting simulations (resolution of 1/4° or finer),a significant part of the interannual variability of the subtropical gyre and ofthe AMOC is intrinsic to the ocean, meaning that it is independent from atmo-spheric variability and is driven by oceanic processes. The present study usesa realistically forced 20 year, 1/4°, 50-member regional ocean/sea-ice ensemblesimulation with identical air-sea fluxes for all ensemble members. By employingestablished methods that take advantage of the ensemble dimension we are ableto characterise the relative roles of intrinsic and atmospherically forced variabil-ity in the interannual variability of the EDW. Our simulation is shown to be ingood agreement with an observation-based 1/4°, 3-dimensional gridded analy-sis. Investigating average properties of the EDW, we show that while nearly allEDW variability is atmospherically forced at annual and subannual timescales,the intrinsic variability becomes significant at interannual timescales. Resultsobtained in the ensemble simulation are shown to be compatible with observedvariability, suggesting that EDW observations are affected by a significant anddifficult to quantify intrinsic variability. By separating the EDW volume intoa ventilated volume (below the area where EDW is in contact with the atmop-shere) and a subducted volume (the rest of the total volume), we were also ableto describe the yearly cycle of EDW volume change. We found that on averageover the 20 years of the simulation and over the 50 ensemble members, EDW for-mation is in near equilibrium with EDW destruction, and that forced variabilityis dominant in both processes although intrinsic variability plays a greater rolein EDW destruction. In addition, a 12-year timescale is apparent in the intrin-sic variability of EDW volume. The subducted volume carries this 12-year modeof intrinsic variability, modulated by the yearly addition of new EDW volumethrough ventilation. Overall, the results presented in this thesis show that thetypical description of EDW variability as atmospherically-driven is incomplete,and that intrinsic variability is also significant at interannual timescales, moreimportantly in the destruction of EDW
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Raharjo, Agus Budi. "Reliability in ensemble learning and learning from crowds". Electronic Thesis or Diss., Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0606.

Texto completo da fonte
Resumo:
La combinaison de plusieurs annotateurs experts est considérée pour prendre des décisions fiables dans le cas de données non étiquetées, bien que l’estimation des annotations d’experts ne soit pas une tâche facile en raison de divers niveaux de performance. Dans l’apprentissage supervisé, la performance contrastée des annotateurs peut se produire dans l’apprentissage ensembliste ou lorsque les vérités terrains sont absente. Dans l’apprentissage ensembliste, lorsque les données d'entraînement sont disponibles, différents classificateurs de base comme annotateurs fournissent des prévisions incertaines dans la phase de test. Alors que dans un cas où il n’y a pas des vérités terrains dans la phase d'entraînement, nous considérons les étiquettes proposées par plusieurs annotateurs sur les foules comme une pseudo-vérité de fond. Dans cette thèse, la première contribution basée sur le vote pondéré dans l’apprentissage ensembliste est proposée pour fournir des prédictions de combinaison fiables. Notre algorithme transforme les scores de confiance obtenus pendant le processus d'apprentissage en scores fiables. Lorsqu’il est difficile de trouver des experts comme les vérités terrains, une approche fondée sur l'estimation du maximum de vraisemblance et l'espérance-maximisation est proposée comme deuxième contribution pour sélectionner des annotateurs fiables. De plus, nous optimisons le temps de calcul de nos cadres afin d’adapter un grand nombre de données. Enfin, nos contributions visent à fournir des décisions fiables compte tenu des prédictions incertaines des classificateurs dans l’apprentissage ensembliste ou des annotations incertaines dans l’apprentissage de la foule
The combination of several human expert labels is generally used to make reliable decisions. However, using humans or learning systems to improve the overall decision is a crucial problem. Indeed, several human experts or machine learning have not necessarily the same performance. Hence, a great effort is made to deal with this performance problem in the presence of several actors, i.e., humans or classifiers. In this thesis, we present the combination of reliable classifiers in ensemble learning and learning from crowds. The first contribution is a method, based on weighted voting, which allows selecting a reliable combination of classifications. Our algorithm RelMV transforms confidence scores, obtained during the training phase, into reliable scores. By using these scores, it determines a set of reliable candidates through both static and dynamic selection process. When it is hard to find expert labels as ground truth, we propose an approach based on Bayesian and expectation-maximization (EM) as our second contribution. The aim is to evaluate the reliability degree of each annotator and to aggregate the appropriate labels carefully. We optimize the computation time of the algorithm in order to adapt a large number of data collected from crowds. The obtained outcomes show better accuracy, stability, and computation time compared to the previous methods. Also, we conduct an experiment considering the melanoma diagnosis problem using a real-world medical dataset consisting of a set of skin lesions images, which is annotated by multiple dermatologists
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Safadi, El Abed El. "Contribution à l'évaluation des risques liés au TMD (transport de matières dangereuses) en prenant en compte les incertitudes". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT059/document.

Texto completo da fonte
Resumo:
Le processus d'évaluation des risques technologiques, notamment liés au Transport de Matières Dangereuses (TMD), consiste, quand un événement accidentel se produit, à évaluer le niveau de risque potentiel des zones impactées afin de pouvoir dimensionner et prendre rapidement des mesures de prévention et de protection (confinement, évacuation...) dans le but de réduire et maitriser les effets sur les personnes et l'environnement. La première problématique de ce travail consiste donc à évaluer le niveau de risque des zones soumises au transport des matières dangereuses. Pour ce faire, un certain nombre d'informations sont utilisées, comme la quantification de l'intensité des phénomènes qui se produisent à l'aide de modèles d'effets (analytique ou code informatique). Pour ce qui concerne le problème de dispersion de produits toxiques, ces modèles contiennent principalement des variables d'entrée liées à la base de données d'exposition, de données météorologiques,… La deuxième problématique réside dans les incertitudes affectant certaines entrées de ces modèles. Pour correctement réaliser une cartographie en déterminant la zone de de danger où le niveau de risque est jugé trop élevé, il est nécessaire d'identifier et de prendre en compte les incertitudes sur les entrées afin de les propager dans le modèle d'effets et ainsi d'avoir une évaluation fiable du niveau de risque. Une première phase de ce travail a consisté à évaluer et propager l'incertitude sur la concentration qui est induite par les grandeurs d'entrée incertaines lors de son évaluation par les modèles de dispersion. Deux approches sont utilisées pour modéliser et propager les incertitudes : l'approche ensembliste pour les modèles analytiques et l'approche probabiliste (Monte-Carlo) qui est plus classique et utilisable que le modèle de dispersion soit analytique ou défini par du code informatique. L'objectif consiste à comparer les deux approches pour connaitre leurs avantages et inconvénients en termes de précision et temps de calcul afin de résoudre le problème proposé. Pour réaliser les cartographies, deux modèles de dispersion (Gaussien et SLAB) sont utilisés pour évaluer l'intensité des risques dans la zone contaminée. La réalisation des cartographies a été abordée avec une méthode probabiliste (Monte Carlo) qui consiste à inverser le modèle d'effets et avec une méthode ensembliste générique qui consiste à formuler ce problème sous la forme d'un ensemble de contraintes à satisfaire (CSP) et le résoudre ensuite par inversion ensembliste. La deuxième phase a eu pour but d'établir une méthodologie générale pour réaliser les cartographies et améliorer les performances en termes de temps du calcul et de précision. Cette méthodologie s'appuie sur 3 étapes : l'analyse préalable des modèles d'effets utilisés, la proposition d'une nouvelle approche pour la propagation des incertitudes mixant les approches probabiliste et ensembliste en tirant notamment partie des avantages des deux approches précitées, et utilisable pour n'importe quel type de modèle d'effets spatialisé et statique, puis finalement la réalisation des cartographies en inversant les modèles d'effets. L'analyse de sensibilité présente dans la première étape s'adresse classiquement à des modèles probabilistes. Nous discutons de la validité d'utiliser des indices de type Sobol dans le cas de modèles intervalles et nous proposerons un nouvel indice de sensibilité purement intervalle cette fois-ci
When an accidental event is occurring, the process of technological risk assessment, in particular the one related to Dangerous Goods Transportation (DGT), allows assessing the level of potential risk of impacted areas in order to provide and quickly take prevention and protection actions (containment, evacuation ...). The objective is to reduce and control its effects on people and environment. The first issue of this work is to evaluate the risk level for areas subjected to dangerous goods transportation. The quantification of the intensity of the occurring events needed to do this evaluation is based on effect models (analytical or computer code). Regarding the problem of dispersion of toxic products, these models mainly contain inputs linked to different databases, like the exposure data and meteorological data. The second problematic is related to the uncertainties affecting some model inputs. To determine the geographical danger zone where the estimated risk level is not acceptable, it is necessary to identify and take in consideration the uncertainties on the inputs in aim to propagate them in the effect model and thus to have a reliable evaluation of the risk level. The first phase of this work is to evaluate and propagate the uncertainty on the gas concentration induced by uncertain model inputs during its evaluation by dispersion models. Two approaches are used to model and propagate the uncertainties. The first one is the set-membership approach based on interval calculus for analytical models. The second one is the probabilistic approach (Monte Carlo), which is more classical and used more frequently when the dispersion model is described by an analytic expression or is is defined by a computer code. The objective is to compare the two approaches to define their advantages and disadvantages in terms of precision and computation time to solve the proposed problem. To determine the danger zones, two dispersion models (Gaussian and SLAB) are used to evaluate the risk intensity in the contaminated area. The risk mapping is achieved by using two methods: a probabilistic method (Monte Carlo) which consists in solving an inverse problem on the effect model and a set-membership generic method that defines the problem as a constraint satisfaction problem (CSP) and to resolve it with an set-membership inversion method. The second phase consists in establishing a general methodology to realize the risk mapping and to improve performance in terms of computation time and precision. This methodology is based on three steps: - Firstly the analysis of the used effect model. - Secondly the proposal of a new method for the uncertainty propagationbased on a mix between the probabilistic and set-membership approaches that takes advantage of both approaches and that is suited to any type of spatial and static effect model. -Finally the realization of risk mapping by inversing the effect models. The sensitivity analysis present in the first step is typically addressed to probabilistic models. The validity of using Sobol indices for interval models is discussed and a new interval sensitivity indiceis proposed
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Peng, Tao. "Analyse de données loT en flux". Electronic Thesis or Diss., Aix-Marseille, 2021. http://www.theses.fr/2021AIXM0649.

Texto completo da fonte
Resumo:
Depuis l'avènement de l'IoT (Internet of Things), nous assistons à une augmentation sans précédent du volume des données générées par des capteurs. Pour l'imputation des données manquantes d'un capteur f, nous proposons le modèle ISTM (Incremental Space-Time Model), qui utilise la régression linéaire multiple incrémentale adaptée aux données en flux non-stationnaires. ISTM met à jour son modèle en sélectionnant : 1) les données des capteurs voisins géographiquement du capteur f, et 2) les données les plus récentes retournées par f. Pour mesurer la confiance, nous proposons un modèle générique de prédiction DTOM (Data Trustworthiness Online Model) qui s'appuie sur des méthodes ensemblistes de régression en ligne comme AddExp et BNNRW . DTOM permet de prédire des valeurs de confiance en temps réel et comporte trois phases : 1) une phase d'initialisation du modèle, 2) une phase d'estimation du score de confiance, et 3) une phase de mise à jour heuristique du régresseur. Enfin, nous nous intéressons à la prédiction dans une STS avec des sorties multiples en présence de déséquilibre, c'est à dire lorsqu'il y a plus d'instances dans un intervalle de valeurs que dans un autre. Nous proposons MORSTS, une méthode de régression ensembliste en ligne, avec les caractéristiques suivantes : 1) les sous-modèles sont à sorties multiples, 2) l'utilisation de la stratégie sensible aux coûts c'est à dire que l'instance incorrectement prédite a un poids plus élevé, et 3) le contrôle du sur-apprentissage des sous-modèles naissants par la méthode de validation croisée k-fold. Des expérimentations avec des données réelles ont été effectuées et comparées avec des techniques connues
Since the advent of the IoT (Internet of Things), we have witnessed an unprecedented growth in the amount of data generated by sensors. To exploit this data, we first need to model it, and then we need to develop analytical algorithms to process it. For the imputation of missing data from a sensor f, we propose ISTM (Incremental Space-Time Model), an incremental multiple linear regression model adapted to non-stationary data streams. ISTM updates its model by selecting: 1) data from sensors located in the neighborhood of f, and 2) the near-past most recent data gathered from f. To evaluate data trustworthiness, we propose DTOM (Data Trustworthiness Online Model), a prediction model that relies on online regression ensemble methods such as AddExp (Additive Expert) and BNNRW (Bagging NNRW) for assigning a trust score in real time. DTOM consists: 1) an initialization phase, 2) an estimation phase, and 3) a heuristic update phase. Finally, we are interested predicting multiple outputs STS in presence of imbalanced data, i.e. when there are more instances in one value interval than in another. We propose MORSTS, an online regression ensemble method, with specific features: 1) the sub-models are multiple output, 2) adoption of a cost sensitive strategy i.e. the incorrectly predicted instance has a higher weight, and 3) management of over-fitting by means of k-fold cross-validation. Experimentation with with real data has been conducted and the results were compared with reknown techniques
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Devers, Alexandre. "Vers une réanalyse hydrométéorologique à l'échelle de la France sur les 150 dernières années par assimilation de données dans des reconstructions ensemblistes". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAU029.

Texto completo da fonte
Resumo:
Le climat et l'hydrologie sont deux éléments qui impactent fortement nos sociétés, et l’adaptation au changement climatique en cours passe par une meilleure connaissance de l’évolution passée de l’hydrométéorologie à haute résolution. En France, la faible densité d'observations météorologiques et hydrométriques avant les années 1970 ne permet pas d'avoir une vision de leurs évolutions sur le long-terme. Pour pallier cette lacune, différentes chaînes de modélisation ont récemment permis de créer des reconstructions hydrométéorologiques indépendantes des observations historiques disponibles sur la France. La thèse proposée vise à combiner ces deux sources d’information – observations et reconstructions – et leurs incertitudes respectives grâce à des méthodes d’assimilation de données, et cela afin de mieux appréhender l’évolution du climat et de l’hydrologie sur la totalité du XXe siècle en France.Cette thèse s’appuie sur les reconstructions climatiques ensemblistes SCOPE Climate, produits d’une descente d’échelle par analogie de la réanalyse globale 20CR, et couvrant la période 1871-2012. Ces reconstructions sont utilisées comme ébauche pour assimiler des observations de précipitations et de température, qui sont discontinues en temps et en espace sur la période. La méthode d’assimilation utilisée est un filtre de Kalman d’ensemble offline, permettant de tirer parti des différentes sources d’information sans avoir recours à un modèle numérique, ce qui limite le coût d’application. L’assimilation est réalisée aux pas de temps journalier et annuel pour capturer à la fois la variabilité d’un jour sur l’autre – et notamment les extrêmes – et les variations multi-décennales. L’application de la méthode sur la période 1871-2012 a permis d’obtenir FYRE Climate (French hYdrometeorological Reanalysis Climate), une réanalyse météorologique journalière composée de 25 membres sur une grille de 8 km couvrant l’ensemble de la France.Cette nouvelle réanalyse climatique est ensuite utilisée en entrée d’un modèle hydrologique conceptuel pour reconstruire des chroniques hydrologiques ensemblistes depuis 1871 sur 661 bassins versants faiblement anthropisés. Ces reconstructions prennent notament en compte les incertitudes sur les forçages climatiques et les débits observées lors de la calibration du modèle mais également l’incertitude modèle, à l’aide d’une méthode de post-traitement. Les quelques observations de débit disponibles sur le XXe siècle ont également été assimilées dans ces reconstructions, à l'aide d'un filtre de Kalman d’ensemble déterministe offline. Cette démarche a permis de créer la réanalyse hydrologique journalière FYRE Hydro, composée également de 25 membres et disponible sur ces 661 bassins versants.L’application de filtres de Kalman d’ensemble à l’échelle locale, au pas de temps journalier et sur des variables non-gaussiennes – telles que les précipitations et les débits – est particulièrement innovante dans le cadre d’une réanalyse hydroclimatique long-terme. Elle a nécessité de mettre en place des méthodes d’anamorphose, de localisation anisotrope, et de définir de façon pertinente les erreurs sur les observations, sur les ébauches climatiques et hydrologiques, mais aussi celles liées à la modélisation hydrologique. Au-delà de la réduction d'incertitude induite par l'intégration d'informations supplémentaires, les cycles multi-décennaux sont bien reproduits dans les réanalyses FYRE Climate et FYRE Hydro. Ces deux réanalyses permettent également d'analyser des événements extrêmes locaux sur l’ensemble du XXe siècle, car elles intègrent de l'information à l'échelle locale à travers les observations météorologiques et hydrométriques. Ainsi, cette thèse a permis de créer plusieurs jeux de données ensemblistes – les réanalyses FYRE Climate et FYRE Hydro, mais aussi des reconstructions hydrologiques de variables additionnelles comme le contenu en eau de la neige – qui sont adaptées à l'étude des variations du climat et de
Climate and hydrology have a strong impact on our society, and adaptating to climate change requires a better knowledge of the historical evolution of hydrometeorological variables. In France, the low density of meteorological and hydrometric observations before the 1970s made it difficult to have a clear vision of their long-term evolution. To fill this gap, various modeling chains have recently been developed to create hydrometeorological reconstructions that are independent of the available historical observations. This thesis work combines these two sources of information - observations and reconstructions - and their respective uncertainties through data assimilation methods, in order to better understand the evolution of climate and hydrology in France from the late nineteenth century onwards.This work is based on the SCOPE Climate high-resolution reconstructions, obtained from the 20CR global reanalysis through an analogue downscaling method and covering the period 1871-2012. These reconstructions are used as a background for assimilating historical precipitation and temperature observations using an ensemble Kalman filter approach. The assimilation method applied is an offline ensemble Kalman filter, that allows taking advantages of the different sources of information without necessarily resorting to a numerical model, and leading to a low computational cost. The assimilation is carried out at both daily and annual time steps to capture the day-to-day variations and extremes as well as the multidecadal climate variability. Applying the method over the period 1871-2012 led to FYRE Climate (French hYdrometeorological Reanalysis Climate), a daily meteorological reanalysis composed of 25 members on an 8 km grid covering the whole of France.FYRE Climate is then used as forcings to a conceptual hydrological model to reconstruct streamflow time series from 1871 onwards over 661 near-natural catchments. In particular, these reconstructions take into account the uncertainties on the input and hydrometric observations during the model calibration, but also the model uncertainty through a post-processing approach. The few hydrometric observations available over the 20th century also made it possible to constrain these hydrological reconstructions using an offline deterministic Kalman filter. This approach led to the FYRE Hydro daily streamflow reanalysis, also composed of 25-member ensemble time series for each of the 661 catchments.Applying an ensemble Kalman filter at a local scale, with a daily time step and on non-Gaussian variables - such as precipitation and discharge - is particularly innovative in the context of a long-term hydroclimatic reanalysis. It required implementing an anamorphosis transformation and an anisotropic localization approach. It also required to carefully define the errors on observations, on the climate background, and on the hydrological background, but also on the hydrological modeling itself. Beyond the reduction of uncertainty induced by the integration of additional information, the multidecadal variability is well reproduced in both FYRE Climate and FYRE Hydro. These two reanalyses also allow analyzing local extreme events over the whole 20th century, thanks to the integration of in-situ meteorological and hydrometric information. Several high-quality data sets - the FYRE Climate and FYRE Hydro reanalyses, but also hydrological reconstructions with additional variables like the snow water equivalent - are made available for studying the climatic and hydrological evolution over the 1871-2012 period
Estilos ABNT, Harvard, Vancouver, APA, etc.

Capítulos de livros sobre o assunto "Modélisation ensembliste"

1

BATO, Mary Grace, Virginie PINEL e Yajing YAN. "Assimilation de données ensembliste en volcanologie". In Inversion et assimilation de données de télédétection, 133–67. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9142.ch4.

Texto completo da fonte
Resumo:
Avec les progrès récents de l'imagerie SAR et le nombre croissant de réseaux GNSS continus sur les volcans, ainsi que les avancés en modélisation des processus volcaniques, il est maintenant possible de suivre et prédire l'évolution des surpressions dans des chambres magmatiques avec l'assimilation de données. Ce chapitre présente la toute première application de l'assimilation séquentielle de données, notamment du filtre de Kalman d'ensemble en volcanologie.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia