Добірка наукової літератури з теми "Processus gaussiens contraints"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Processus gaussiens contraints".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Processus gaussiens contraints":

1

Schumann, U. "A contrail cirrus prediction model." Geoscientific Model Development 5, no. 3 (May 3, 2012): 543–80. http://dx.doi.org/10.5194/gmd-5-543-2012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Abstract. A new model to simulate and predict the properties of a large ensemble of contrails as a function of given air traffic and meteorology is described. The model is designed for approximate prediction of contrail cirrus cover and analysis of contrail climate impact, e.g. within aviation system optimization processes. The model simulates the full contrail life-cycle. Contrail segments form between waypoints of individual aircraft tracks in sufficiently cold and humid air masses. The initial contrail properties depend on the aircraft. The advection and evolution of the contrails is followed with a Lagrangian Gaussian plume model. Mixing and bulk cloud processes are treated quasi analytically or with an effective numerical scheme. Contrails disappear when the bulk ice content is sublimating or precipitating. The model has been implemented in a "Contrail Cirrus Prediction Tool" (CoCiP). This paper describes the model assumptions, the equations for individual contrails, and the analysis-method for contrail-cirrus cover derived from the optical depth of the ensemble of contrails and background cirrus. The model has been applied for a case study and compared to the results of other models and in-situ contrail measurements. The simple model reproduces a considerable part of observed contrail properties. Mid-aged contrails provide the largest contributions to the product of optical depth and contrail width, important for climate impact.
2

Schumann, U. "A contrail cirrus prediction model." Geoscientific Model Development Discussions 4, no. 4 (November 28, 2011): 3185–293. http://dx.doi.org/10.5194/gmdd-4-3185-2011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Abstract. A new model to simulate and predict the properties of a large ensemble of contrails as a function of given air traffic and meteorology is described. The model is designed for approximate prediction of contrail cirrus cover and analysis of contrail climate impact, e.g. within aviation system optimization processes. The model simulates the full contrail life-cycle. Contrail segments form between waypoints of individual aircraft tracks in sufficiently cold and humid air masses. The initial contrail properties depend on the aircraft. The advection and evolution of the contrails is followed with a Lagrangian Gaussian plume model. Mixing and bulk cloud processes are treated quasi analytically or with an effective numerical scheme. Contrails disappear when the bulk ice content is sublimating or precipitating. The model has been implemented in a "Contrail Cirrus Prediction Tool" (CoCiP). This paper describes the model assumptions, the equations for individual contrails, and the analysis-method for contrail-cirrus cover derived from the optical depth of the ensemble of contrails and background cirrus. The model has been applied for a case study and compared to the results of other models and in-situ contrail measurements. The simple model reproduces a considerable part of observed contrail properties. Mid-aged contrails provide the largest contributions to the product of optical depth and contrail width, important for climate impact.
3

Naiman, A. D., S. K. Lele, J. T. Wilkerson, and M. Z. Jacobson. "Parameterization of subgrid aircraft emission plumes for use in large-scale atmospheric simulations." Atmospheric Chemistry and Physics Discussions 9, no. 6 (November 18, 2009): 24755–81. http://dx.doi.org/10.5194/acpd-9-24755-2009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Abstract. Aircraft emissions differ from other anthropogenic pollution in that they occur mainly in the upper troposphere and lower stratosphere where they can form condensation trails (contrails) and affect cirrus cloud cover. In determining the effect of aircraft on climate, it is therefore necessary to examine these processes. Previous studies have approached this problem by treating aircraft emissions on the grid scale, but this neglects the subgrid scale nature of aircraft emission plumes. We present a new model of aircraft emission plume dynamics that is intended to be used as a subgrid scale model in a large scale atmospheric simulation. The model shows good agreement with a large eddy simulation of aircraft emission plume dynamics and with an analytical solution to the dynamics of a sheared Gaussian plume. We argue that this provides a reasonable model of line-shaped contrail dynamics and give an example of how it might be applied in a global climate model.

Дисертації з теми "Processus gaussiens contraints":

1

Tran, Tien-Tam. "Constrained and Low Rank Gaussian Process on some Manifolds." Electronic Thesis or Diss., Université Clermont Auvergne (2021-...), 2023. https://theses.hal.science/tel-04529284.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La thèse est divisée en trois parties principales, nous résumerons les principales contributions de la thèse comme suit. Processus gaussiens à faible complexité : la régression par processus gaussien s'échelonne généralement en $O(n^3)$ en termes de calcul et en $O(n^2)$ en termes d'exigences de mémoire, où $n$ représente le nombre d'observations. Cette limitation devient inapplicable pour de nombreux problèmes lorsque $n$ est grand. Dans cette thèse, nous étudions l'expansion de Karhunen-Loève des processus gaussiens, qui présente plusieurs avantages par rapport aux techniques de compression à faible rang. En tronquant l'expansion de Karhunen-Loève, nous obtenons une approximation explicite à faible rang de la matrice de covariance, simplifiant considérablement l'inférence statistique lorsque le nombre de troncatures est faible par rapport à $n$.Ensuite, nous fournissons des solutions explicites pour les processus gaussiens à faible complexité. Tout d'abord, nous cherchons des expansions de Karhunen-Loève en résolvant les paires propres d'un opérateur différentiel où la fonction de covariance sert de fonction de Green. Nous offrons des solutions explicites pour l'opérateur différentiel de Matérn et pour les opérateurs différentiels dont les fonctions propres sont représentées par des polynômes classiques. Dans la section expérimentale, nous comparons nos méthodes proposées à des approches alternatives, révélant ainsi leur capacité améliorée à capturer des motifs complexes.Processus gaussiens contraints:Cette thèse introduit une approche novatrice utilisant des processus gaussiens contraints pour approximer une fonction de densité basée sur des observations. Pour traiter ces contraintes, notre approche consiste à modéliser la racine carrée de la fonction de densité inconnue réalisée comme un processus gaussien. Dans ce travail, nous adoptons une version tronquée de l'expansion de Karhunen-Loève comme méthode d'approximation. Un avantage notable de cette approche est que les coefficients sont gaussiens et indépendants, les contraintes sur les fonctions réalisées étant entièrement dictées par les contraintes sur les coefficients aléatoires. Après conditionnement sur les données disponibles et les contraintes, la distribution postérieure des coefficients est une distribution normale contrainte à la sphère unité. Cette distribution pose des difficultés analytiques, nécessitant des méthodes numériques d'approximation. À cette fin, cette thèse utilise l'échantillonnage Hamiltonien Monte Carlo sphérique (HMC). L'efficacité du cadre proposé est validée au moyen d'une série d'expériences, avec des comparaisons de performances par rapport à des méthodes alternatives.Enfin, nous introduisons des modèles d'apprentissage par transfert dans l'espace des mesures de probabilité finies, désigné sous le nom de $mathcal{P}_+(I)$. Dans notre étude, nous dotons l'espace $mathcal{P}_+(I)$ de la métrique de Fisher-Rao, le transformant en une variété riemannienne. Cette variété riemannienne, $mathcal{P}_+(I)$, occupe une place significative en géométrie de l'information et possède de nombreuses applications. Au sein de cette thèse, nous fournissons des formules détaillées pour les géodésiques, la fonction exponentielle, la fonction logarithmique et le transport parallèle sur $mathcal{P}_+(I)$.Notre exploration s'étend aux modèles statistiques situés au sein de $mathcal{P}_+(I)$, généralement réalisés dans l'espace tangent de cette variété. Avec un ensemble complet d'outils géométriques, nous introduisons des modèles d'apprentissage par transfert facilitant le transfert de connaissances entre ces espaces tangents. Des algorithmes détaillés pour l'apprentissage par transfert, comprenant l'Analyse en Composantes Principales (PCA) et les modèles de régression linéaire, sont présentés. Pour étayer ces concepts, nous menons une série d'expériences, fournissant des preuves empiriques de leur efficacité
The thesis is divided into three main parts, we will summarize the major contributions of the thesis as follows.Low complexity Gaussian processes:Gaussian process regression usually scales as $O(n^3)$ for computation and $O(n^2)$ for memory requirements, where $n$ represents the number of observations. This limitation becomes unfeasible for many problems when $n$ is large. In this thesis, we investigate the Karhunen-Loève expansion of Gaussian processes, which offers several advantages over low-rank compression techniques. By truncating the Karhunen-Loève expansion, we obtain an explicit low-rank approximation of the covariance matrix (Gram matrix), greatly simplifying statistical inference when the number of truncations is small relative to $n$.We then provide explicit solutions for low complexity Gaussian processes. We seek Karhunen-Loève expansions, by solving for eigenpaires of a differential operator where the covariance function serves as the Green function. We offer explicit solutions for the Matérn differential operator and for differential operators with eigenfunctions represented by classical polynomials. In the experimental section, we compare our proposed methods with alternative approaches, revealing their enhanced capability in capturing intricate patterns.Constrained Gaussian processes:This thesis introduces a novel approach used constrained Gaussian processes to approximate a density function based on observations. To address these constraints, our approach involves modeling square root of unknown density function realized as a Gaussian process. In this work, we adopt a truncated version of the Karhunen-Loève expansion as the approximation method. A notable advantage of this approach is that the coefficients are Gaussian and independent, with the constraints on the realized functions entirely dictated by the constraints on the random coefficients. After conditioning on both available data and constraints, the posterior distribution of the coefficients is a normal distribution constrained to the unit sphere. This distribution poses analytical intractability, necessitating numerical methods for approximation. To this end, this thesis employs spherical Hamiltonian Monte Carlo (HMC). The efficacy of the proposed framework is validated through a series of experiments, with performance comparisons against alternative methods.Transfer learning on the manifold of finite probability measures:Finally, we introduce transfer learning models in the space of finite probability measures, denoted as $mathcal{P}_+(I)$. In our investigation, we endow the space $mathcal{P}_+(I)$ with the Fisher-Rao metric, transforming it into a Riemannian manifold. This Riemannian manifold, $mathcal{P}_+(I)$, holds a significant place in Information Geometry and has numerous applications. Within this thesis, we provide detailed formulas for geodesics, the exponential map, the log map, and parallel transport on $mathcal{P}_+(I)$.Our exploration extends to statistical models situated within $mathcal{P}_+(I)$, typically conducted within the tangent space of this manifold. With a comprehensive set of geometric tools, we introduce transfer learning models facilitating knowledge transfer between these tangent spaces. Detailed algorithms for transfer learning encompassing Principal Component Analysis (PCA) and linear regression models are presented. To substantiate these concepts, we conduct a series of experiments, offering empirical evidence of their efficacy
2

Maatouk, Hassan. "Correspondance entre régression par processus Gaussien et splines d'interpolation sous contraintes linéaires de type inégalité. Théorie et applications." Thesis, Saint-Etienne, EMSE, 2015. http://www.theses.fr/2015EMSE0791/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
On s'intéresse au problème d'interpolation d'une fonction numérique d'une ou plusieurs variables réelles lorsque qu'elle est connue pour satisfaire certaines propriétés comme, par exemple, la positivité, monotonie ou convexité. Deux méthodes d'interpolation sont étudiées. D'une part, une approche déterministe conduit à un problème d'interpolation optimale sous contraintes linéaires inégalité dans un Espace de Hilbert à Noyau Reproduisant (RKHS). D'autre part, une approche probabiliste considère le même problème comme un problème d'estimation d'une fonction dans un cadre bayésien. Plus précisément, on considère la Régression par Processus Gaussien ou Krigeage pour estimer la fonction à interpoler sous les contraintes linéaires de type inégalité en question. Cette deuxième approche permet également de construire des intervalles de confiance autour de la fonction estimée. Pour cela, on propose une méthode d'approximation qui consiste à approcher un processus gaussien quelconque par un processus gaussien fini-dimensionnel. Le problème de krigeage se ramène ainsi à la simulation d'un vecteur gaussien tronqué à un espace convexe. L'analyse asymptotique permet d'établir la convergence de la méthode et la correspondance entre les deux approches déterministeet probabiliste, c'est le résultat théorique de la thèse. Ce dernier est vu comme unegénéralisation de la correspondance établie par [Kimeldorf and Wahba, 1971] entre estimateur bayésien et spline d'interpolation. Enfin, une application réelle dans le domainede l'assurance (actuariat) pour estimer une courbe d'actualisation et des probabilités dedéfaut a été développée
This thesis is dedicated to interpolation problems when the numerical function is known to satisfy some properties such as positivity, monotonicity or convexity. Two methods of interpolation are studied. The first one is deterministic and is based on convex optimization in a Reproducing Kernel Hilbert Space (RKHS). The second one is a Bayesian approach based on Gaussian Process Regression (GPR) or Kriging. By using a finite linear functional decomposition, we propose to approximate the original Gaussian process by a finite-dimensional Gaussian process such that conditional simulations satisfy all the inequality constraints. As a consequence, GPR is equivalent to the simulation of a truncated Gaussian vector to a convex set. The mode or Maximum A Posteriori is defined as a Bayesian estimator and prediction intervals are quantified by simulation. Convergence of the method is proved and the correspondence between the two methods is done. This can be seen as an extension of the correspondence established by [Kimeldorf and Wahba, 1971] between Bayesian estimation on stochastic process and smoothing by splines. Finally, a real application in insurance and finance is given to estimate a term-structure curve and default probabilities
3

Dubourg, Vincent. "Méta-modèles adaptatifs pour l'analyse de fiabilité et l'optimisation sous contrainte fiabiliste." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00697026.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est une contribution à la résolution du problème d'optimisation sous contrainte de fiabilité. Cette méthode de dimensionnement probabiliste vise à prendre en compte les incertitudes inhérentes au système à concevoir, en vue de proposer des solutions optimales et sûres. Le niveau de sûreté est quantifié par une probabilité de défaillance. Le problème d'optimisation consiste alors à s'assurer que cette probabilité reste inférieure à un seuil fixé par les donneurs d'ordres. La résolution de ce problème nécessite un grand nombre d'appels à la fonction d'état-limite caractérisant le problème de fiabilité sous-jacent. Ainsi,cette méthodologie devient complexe à appliquer dès lors que le dimensionnement s'appuie sur un modèle numérique coûteux à évaluer (e.g. un modèle aux éléments finis). Dans ce contexte, ce manuscrit propose une stratégie basée sur la substitution adaptative de la fonction d'état-limite par un méta-modèle par Krigeage. On s'est particulièrement employé à quantifier, réduire et finalement éliminer l'erreur commise par l'utilisation de ce méta-modèle en lieu et place du modèle original. La méthodologie proposée est appliquée au dimensionnement des coques géométriquement imparfaites soumises au flambement.
4

Lopez, lopera Andres Felipe. "Gaussian Process Modelling under Inequality Constraints." Thesis, Lyon, 2019. https://tel.archives-ouvertes.fr/tel-02863891.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le conditionnement de processus gaussiens (PG) par des contraintes d’inégalité permet d’obtenir des modèles plus réalistes. Cette thèse s’intéresse au modèle de type PG proposé par maatouk (2015), obtenu par approximation finie, qui garantit que les contraintes sont satisfaites dans tout l’espace. Plusieurs contributions sont apportées. Premièrement, nous étudions l’emploi de méthodes de monte carlo par chaı̂nes de markov pour des lois multinormales tronquées. Elles fournissent un échantillonnage efficacpour des contraintes d’inégalité linéaires. Deuxièmement, nous explorons l’extension du modèle, jusque-làlimité à la dimension trois, à de plus grandes dimensions. Nous remarquons que l’introduction d’un bruit d’observations permet de monter à la dimension cinq. Nous proposons un algorithme d’insertion des nœuds, qui concentre le budget de calcul sur les dimensions les plus actives. Nous explorons aussi la triangulation de delaunay comme alternative à la tensorisation. Enfin, nous étudions l’utilisation de modèles additifs dans ce contexte, théoriquement et sur des problèmes de plusieurs centaines de variables. Troisièmement, nous donnons des résultats théoriques sur l’inférence sous contraintes d’inégalité. La consistance et la normalité asymptotique d’estimateurs par maximum de vraisemblance sont établies. L’ensemble des travaux a fait l’objet d’un développement logiciel en R. Ils sont appliqués à des problèmes de gestion des risques en sûreté nucléaire et inondations côtières, avec des contraintes de positivité et monotonie. Comme ouverture, nous montrons que la méthodologie fournit un cadre original pour l’étude de processus de Poisson d’intensité stochastique
Conditioning Gaussian processes (GPs) by inequality constraints gives more realistic models. This thesis focuses on the finite-dimensional approximation of GP models proposed by Maatouk (2015), which satisfies the constraints everywhere in the input space. Several contributions are provided. First, we study the use of Markov chain Monte Carlo methods for truncated multinormals. They result in efficient sampling for linear inequality constraints. Second, we explore the extension of the model, previously limited up tothree-dimensional spaces, to higher dimensions. The introduction of a noise effect allows us to go up to dimension five. We propose a sequential algorithm based on knot insertion, which concentrates the computational budget on the most active dimensions. We also explore the Delaunay triangulation as an alternative to tensorisation. Finally, we study the case of additive models in this context, theoretically and on problems involving hundreds of input variables. Third, we give theoretical results on inference under inequality constraints. The asymptotic consistency and normality of maximum likelihood estimators are established. The main methods throughout this manuscript are implemented in R language programming.They are applied to risk assessment problems in nuclear safety and coastal flooding, accounting for positivity and monotonicity constraints. As a by-product, we also show that the proposed GP approach provides an original framework for modelling Poisson processes with stochastic intensities
5

Houret, Thomas. "Méthode d’estimation des valeurs extrêmes des distributions de contraintes induites et de seuils de susceptibilité dans le cadre des études de durcissement et de vulnérabilité aux menaces électromagnétiques intentionnelles." Thesis, Rennes, INSA, 2019. http://www.theses.fr/2019ISAR0011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une Interférence Electromagnétique Intentionnelle (IEMI) agressant un équipement électronique peut provoquer une défaillance de ce dernier. L’étude des effets d’une IEMI commence par l’évaluation du risque de défaillance afin de mettre en place les protections adéquates. Malheureusement, une prédiction déterministe d’une défaillance est impossible car les caractéristiques de l’équipement et de l’agression sont très incertaines. La stratégie proposée consiste à modéliser la contrainte générée par l’agression, ainsi que la susceptibilité de l’équipement, comme des variables aléatoires. Ensuite, trois étapes sont nécessaires. La première concerne l’estimation de la distribution probabiliste de la variable aléatoire de susceptibilité, la seconde porte sur celle de la contrainte, pour enfin, dans une troisième étape, en déduire la probabilité de défaillance. Pour la première étape, nous utilisons des méthodes d’inférence statistique sur un petit échantillon de seuils de susceptibilités mesurés. Nous comparons deux types d’inférence paramétrique : bayésienne et celle du maximum de vraisemblance. Nous concluons qu’une approche pertinente pour l'analyse du risque CEM consiste à utiliser les intervalles de confiance ou de crédibilité des estimations des paramètres pour encadrer la probabilité de défaillance, quelle que soit la méthode d’inférence choisie. Pour la deuxième étape, nous explorons les techniques de recherche de valeurs extrêmes tout en réduisant le nombre de simulations nécessaires. En particulier, nous proposons la technique de la stratification contrôlée par un métamodèle de krigeage. Nous montrons que cette technique améliore drastiquement les performances par rapport à l’approche classique (simulation Monte Carlo). De plus, nous proposons une implémentation particulière de cette technique afin de maitriser le coût de calcul. Enfin, la troisième étape est la plus simple une fois les deux premières franchies puisque, par définition, une défaillance survient lorsque la contrainte est supérieure à la susceptibilité. A partir d’un cas test final comportant la simulation de l’agression d’un équipement et de données de susceptibilité de cet équipement, nous calculons un encadrement de la probabilité de défaillance en recourant aux méthodes développées pendant cette thèse. En particulier, nous montrons que l’utilisation conjointe de la stratification contrôlée par le krigeage et de l’inférence de la distribution de la susceptibilité permet effectivement d’encadrer l’estimation de la vraie probabilité de défaillance
Intentional ElectroMagnetic Interference (IEMI) can cause equipment failure. The study of the effects of an IEMI begins with an assessment of the risk of equipment failure in order to implement appropriate protections, if required. Unfortunately, a deterministic prediction of a failure is impossible because both characteristics of equipment and of the aggression are very uncertain. The proposed strategy consists of modelling the stress generated by the aggression, as well as the susceptibility of the equipment, as random variables. Then, three steps are necessary: The first step deals with the estimation of the probability distribution of the random susceptibility variable. The second step deals with the similar estimation for the constraint / stress then that of the stress. Eventually, the third step concerns the calculation of the probability of failure. For the first step, we use statistical inference methods on a small sample of measured susceptibility thresholds. We compare two types of parametric inference: bayesian and maximum likelihood. We conclude that a relevant approach for a risk analysis is to use the confidence or credibility intervals of parameter estimates to frame the probability of failure, regardless of the inference method chosen. For the second step we explore extreme value exploration techniques while reducing the number of simulations required. In particular, we propose the technique of Controlled Stratification by Kriging. We show that this technique drastically improves performance compared to the classic approach (Monte Carlo simulation). In addition, we propose a particular implementation of this technique in order to control the calculation effort. Finally, the third step is the simplest once the first two steps have been completed since, by definition, a failure occurs when the stress is greater than the susceptibility. With the help of a final test case comprising the simulation of an electromagnetic aggression on a piece of equipment, we use the method developed in our work to estimate the frame of the probability of failure, More specifically, we show that the combined use of controlled stratification by kriging and inference of susceptibility distribution, allows to frame the estimated true value of the probability of failure

До бібліографії