Auswahl der wissenschaftlichen Literatur zum Thema „Echantillonnage et estimation Monte Carlo“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Echantillonnage et estimation Monte Carlo" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Echantillonnage et estimation Monte Carlo"

1

Zhang, Kaixuan, Jingxian Wang, Daizong Tian und Thrasyvoulos N. Pappas. „Film Grain Rendering and Parameter Estimation“. ACM Transactions on Graphics 42, Nr. 4 (26.07.2023): 1–14. http://dx.doi.org/10.1145/3592127.

Der volle Inhalt der Quelle
Annotation:
We propose a realistic film grain rendering algorithm based on statistics derived analytically from a physics-based Boolean model that Newson et al. adopted for Monte Carlo simulations of film grain. We also propose formulas for estimation of the model parameters from scanned film grain images. The proposed rendering is computationally efficient and can be used for real-time film grain simulation for a wide range of film grain parameters when the individual film grains are not visible. Experimental results demonstrate the effectiveness of the proposed approach for both constant and real-world images, for a six orders of magnitude speed-up compared with the Monte Carlo simulations of the Newson et al. approach.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Filinov, V. S., P. R. Levashov und A. S. Larkin. „The density–temperature range of exchange–correlation exciton existence by the fermionic path integral Monte Carlo method“. Physics of Plasmas 29, Nr. 5 (Mai 2022): 052106. http://dx.doi.org/10.1063/5.0089836.

Der volle Inhalt der Quelle
Annotation:
A recently developed fermionic path integral Monte Carlo approach [Filinov et al., Phys. Rev. E 102, 033203 (2020) and Filinov et al., J. Phys. A 55, 035001 (2021)] has been applied for the estimation of the density–temperature range of exchange–correlation exciton existence in a strongly coupled degenerate uniform electron gas. The approach allows us to reduce the “fermionic sign problem” taking into account the interference effects of the Coulomb and exchange interaction of electrons in the basic Monte Carlo cell and its periodic images. Our results for radial distribution functions demonstrate the formation and decay of a short-range quantum ordering of electrons associated with exchange–correlation excitons in the literature. Such excitons have never been observed earlier in standard path integral Monte Carlo simulations.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Richard, Jean-François. „Conférence François-Albert Angers (1999). Enchères : théorie économique et réalité“. Articles 76, Nr. 2 (05.02.2009): 173–98. http://dx.doi.org/10.7202/602320ar.

Der volle Inhalt der Quelle
Annotation:
RÉSUMÉ Cet article présente une synthèse de travaux relatifs aux modèles empiriques de la théorie des jeux. Les principaux sujets abordés sont : modèles structurels, identification, solutions d’équilibre, résolution par simulation de Monte-Carlo, estimation et applications.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Abubakar Sadiq, Ibrahim, S. I. S. Doguwa, Abubakar Yahaya und Abubakar Usman. „Development of New Generalized Odd Fréchet-Exponentiated-G Family of Distribution“. UMYU Scientifica 2, Nr. 4 (30.12.2023): 169–78. http://dx.doi.org/10.56919/usci.2324.021.

Der volle Inhalt der Quelle
Annotation:
The study examines the limitations of existing parametric distributional models in accommodating various real-world datasets and proposes an extension termed the New Generalized Odd Fréchet-Exponentiated-G (NGOF-Et-G) family. Building upon prior work, this new distribution model aims to enhance flexibility across datasets by employing the direct substitution method. Mathematical properties including moments, entropy, moment generating function (mgf), and order statistics of the NGOF-Et-G family are analyzed, while parameters are estimated using the maximum likelihood technique. Furthermore, the study introduces the NGOF-Et-Rayleigh and NGOF-Et-Weibull models, evaluating their performance using lifetime datasets. A Monte Carlo simulation is employed to assess the consistency and accuracy of parameter estimation methods, comparing maximum likelihood estimation (MLE) and maximum product spacing (MPS). Results indicate the superiority of MLE in estimating parameters for the introduced distribution, alongside the enhanced flexibility of the new models in fitting positive data compared to existing distributions. In conclusion, the research establishes the potential of the proposed NGOF-Et-G family and its variants as promising alternatives in modelling positive data, offering greater flexibility and improved parameter estimation accuracy, as evidenced by Monte Carlo simulations and real-world dataset applications.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Xu, Xiaosi, und Ying Li. „Quantum-assisted Monte Carlo algorithms for fermions“. Quantum 7 (03.08.2023): 1072. http://dx.doi.org/10.22331/q-2023-08-03-1072.

Der volle Inhalt der Quelle
Annotation:
Quantum computing is a promising way to systematically solve the longstanding computational problem, the ground state of a many-body fermion system. Many efforts have been made to realise certain forms of quantum advantage in this problem, for instance, the development of variational quantum algorithms. A recent work by Huggins et al. [1] reports a novel candidate, i.e. a quantum-classical hybrid Monte Carlo algorithm with a reduced bias in comparison to its fully-classical counterpart. In this paper, we propose a family of scalable quantum-assisted Monte Carlo algorithms where the quantum computer is used at its minimal cost and still can reduce the bias. By incorporating a Bayesian inference approach, we can achieve this quantum-facilitated bias reduction with a much smaller quantum-computing cost than taking empirical mean in amplitude estimation. Besides, we show that the hybrid Monte Carlo framework is a general way to suppress errors in the ground state obtained from classical algorithms. Our work provides a Monte Carlo toolkit for achieving quantum-enhanced calculation of fermion systems on near-term quantum devices.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Al-Nasse, Amjad D. „An information-theoretic approach to the measurement error model“. Statistics in Transition new series 11, Nr. 1 (16.07.2010): 9–24. http://dx.doi.org/10.59170/stattrans-2010-001.

Der volle Inhalt der Quelle
Annotation:
In this paper, the idea of generalized maximum entropy estimation approach (Golan et al. 1996) is used to fit the general linear measurement error model. A Monte Carlo comparison is made with the classical maximum likelihood estimation (MLE) method. The results showed that, the GME is outperformed the MLE estimators in terms of mean squared error. A real data analysis is also presented.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Plekhanov, Kirill, Matthias Rosenkranz, Mattia Fiorentini und Michael Lubasch. „Variational quantum amplitude estimation“. Quantum 6 (17.03.2022): 670. http://dx.doi.org/10.22331/q-2022-03-17-670.

Der volle Inhalt der Quelle
Annotation:
We propose to perform amplitude estimation with the help of constant-depth quantum circuits that variationally approximate states during amplitude amplification. In the context of Monte Carlo (MC) integration, we numerically show that shallow circuits can accurately approximate many amplitude amplification steps. We combine the variational approach with maximum likelihood amplitude estimation [Y. Suzuki et al., Quantum Inf. Process. 19, 75 (2020)] in variational quantum amplitude estimation (VQAE). VQAE typically has larger computational requirements than classical MC sampling. To reduce the variational cost, we propose adaptive VQAE and numerically show in 6 to 12 qubit simulations that it can outperform classical MC sampling.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Vida, Denis, Peter S. Gural, Peter G. Brown, Margaret Campbell-Brown und Paul Wiegert. „Estimating trajectories of meteors: an observational Monte Carlo approach – I. Theory“. Monthly Notices of the Royal Astronomical Society 491, Nr. 2 (15.11.2019): 2688–705. http://dx.doi.org/10.1093/mnras/stz3160.

Der volle Inhalt der Quelle
Annotation:
ABSTRACT It has recently been shown by Egal et al. that some types of existing meteor in-atmosphere trajectory estimation methods may be less accurate than others, particularly when applied to high-precision optical measurements. The comparative performance of trajectory solution methods has previously only been examined for a small number of cases. Besides the radiant, orbital accuracy depends on the estimation of pre-atmosphere velocities, which have both random and systematic biases. Thus, it is critical to understand the uncertainty in velocity measurement inherent to each trajectory estimation method. In this first of a series of two papers, we introduce a novel meteor trajectory estimation method that uses the observed dynamics of meteors across stations as a global optimization function and that does not require either a theoretical or an empirical flight model to solve for velocity. We also develop a 3D observational meteor trajectory simulator that uses a meteor ablation model to replicate the dynamics of meteoroid flight, as a means to validate different trajectory solvers. We both test this new method and compare it to other methods, using synthetic meteors from three major showers spanning a wide range of velocities and geometries (Draconids, Geminids, and Perseids). We determine which meteor trajectory solving algorithm performs better for all-sky, moderate field-of-view, and high-precision narrow-field optical meteor detection systems. The results are presented in the second paper in this series. Finally, we give detailed equations for estimating meteor trajectories and analytically computing meteoroid orbits, and provide the python code of the methodology as open-source software.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Chen, Jau-er, Chien-Hsun Huang und Jia-Jyun Tien. „Debiased/Double Machine Learning for Instrumental Variable Quantile Regressions“. Econometrics 9, Nr. 2 (02.04.2021): 15. http://dx.doi.org/10.3390/econometrics9020015.

Der volle Inhalt der Quelle
Annotation:
In this study, we investigate the estimation and inference on a low-dimensional causal parameter in the presence of high-dimensional controls in an instrumental variable quantile regression. Our proposed econometric procedure builds on the Neyman-type orthogonal moment conditions of a previous study (Chernozhukov et al. 2018) and is thus relatively insensitive to the estimation of the nuisance parameters. The Monte Carlo experiments show that the estimator copes well with high-dimensional controls. We also apply the procedure to empirically reinvestigate the quantile treatment effect of 401(k) participation on accumulated wealth.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Takeuchi, Tsutomu T., Kohji Yoshikawa und Takako T. Ishii. „Galaxy Luminosity Function: Applications and Cosmological Implications“. Symposium - International Astronomical Union 201 (2005): 519–20. http://dx.doi.org/10.1017/s007418090021694x.

Der volle Inhalt der Quelle
Annotation:
We studied the statistical methods for the estimation of the luminosity function (LF) of galaxies by Monte Carlo simulations. After examining the performance of these methods, we analyzed the photometric redshift data of the Hubble Deep Field prepared by Fernández-Soto et al. (1999). We also derived luminosity density ρL at B- and I-band. Our B-band estimation is roughly consistent with that of Sawicki, Lin, & Yee (1997), but a few times lower at 2.0 < z < 3.0. The evolution of ρL(I) is found to be less prominent.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Echantillonnage et estimation Monte Carlo"

1

Argouarc, h. Elouan. „Contributions to posterior learning for likelihood-free Bayesian inference“. Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAS021.

Der volle Inhalt der Quelle
Annotation:
L'inférence bayésienne a posteriori est utilisée dans de nombreuses applications scientifiques et constitue une méthodologie répandue pour la prise de décision en situation d'incertitude. Elle permet aux praticiens de confronter les observations du monde réel à des modèles d'observation pertinents, et d'inférer en retour la distribution d'une variable explicative. Dans de nombreux domaines et applications pratiques, nous considérons des modèles d'observation complexes pour leur pertinence scientifique, mais au prix de densités de probabilité incalculables. En conséquence, à la fois la vraisemblance et la distribution a posteriori sont indisponibles, rendant l'inférence Bayésienne à l'aide des méthodes de Monte Carlo habituelles irréalisable. Dans ce travail nous supposons que le modèle d'observation nous génère un jeu de données, et le contexte de cette thèse est de coupler les méthodes Bayésienne à l'apprentissage statistique afin de pallier cette limitation et permettre l'inférence a posteriori dans le cadre likelihood-free. Ce problème, formulé comme l'apprentissage d'une distribution de probabilité, inclut les tâches habituelles de classification et de régression, mais il peut également être une alternative aux méthodes “Approximate Bayesian Computation” dans le contexte de l'inférence basée sur la simulation, où le modèle d'observation est un modèle de simulation avec une densité implicite. L'objectif de cette thèse est de proposer des contributions méthodologiques pour l'apprentissage Bayésien a posteriori. Plus précisément, notre objectif principal est de comparer différentes méthodes d'apprentissage dans le cadre de l'échantillonnage Monte Carlo et de la quantification d'incertitude. Nous considérons d'abord l'approximation a posteriori basée sur le “likelihood-to-evidence-ratio”, qui a l'avantage principal de transformer un problème d'apprentissage de densité conditionnelle en un problème de classification. Dans le contexte de l'échantillonnage Monte Carlo, nous proposons une méthodologie pour échantillonner la distribution résultante d'une telle approximation. Nous tirons parti de la structure sous-jacente du modèle, compatible avec les algorithmes d'échantillonnage usuels basés sur un quotient de densités, pour obtenir des procédures d'échantillonnage simples, sans hyperparamètre et ne nécessitant d'évaluer aucune densité. Nous nous tournons ensuite vers le problème de la quantification de l'incertitude épistémique. D'une part, les modèles normalisés, tels que la construction discriminante, sont faciles à appliquer dans le contexte de la quantification de l'incertitude bayésienne. D'autre part, bien que les modèles non normalisés, comme le likelihood-to-evidence-ratio, ne soient pas facilement applicables dans les problèmes de quantification d'incertitude épistémique, une construction non normalisée spécifique, que nous appelons générative, est effectivement compatible avec la quantification de l'incertitude bayésienne via la distribution prédictive a posteriori. Dans ce contexte, nous expliquons comment réaliser cette quantification de l'incertitude dans les deux techniques de modélisation, générative et discriminante, puis nous proposons une comparaison des deux constructions dans le cadre de l'apprentissage bayésien. Enfin nous abordons le problème de la modélisation paramétrique avec densité tractable, qui est effectivement un prérequis pour la quantification de l'incertitude épistémique dans les méthodes générative et discriminante. Nous proposons une nouvelle construction d'un modèle paramétrique, qui est une double extension des modèles de mélange et des flots normalisant. Ce modèle peut être appliqué à de nombreux types de problèmes statistiques, tels que l'inférence variationnelle, l'estimation de densité et de densité conditionnelle, car il bénéficie d'une évaluation rapide et exacte de la fonction de densité, d'un schéma d'échantillonnage simple, et d'une approche de reparamétrisassions des gradients
Bayesian posterior inference is used in many scientific applications and is a prevalent methodology for decision-making under uncertainty. It enables practitioners to confront real-world observations with relevant observation models, and in turn, infer the distribution over an explanatory variable. In many fields and practical applications, we consider ever more intricate observation models for their otherwise scientific relevance, but at the cost of intractable probability density functions. As a result, both the likelihood and the posterior are unavailable, making posterior inference using the usual Monte Carlo methods unfeasible.In this thesis, we suppose that the observation model provides a recorded dataset, and our aim is to bring together Bayesian inference and statistical learning methods to perform posterior inference in a likelihood-free setting. This problem, formulated as learning an approximation of a posterior distribution, includes the usual statistical learning tasks of regression and classification modeling, but it can also be an alternative to Approximate Bayesian Computation methods in the context of simulation-based inference, where the observation model is instead a simulation model with implicit density.The aim of this thesis is to propose methodological contributions for Bayesian posterior learning. More precisely, our main goal is to compare different learning methods under the scope of Monte Carlo sampling and uncertainty quantification.We first consider the posterior approximation based on the likelihood-to-evidence ratio, which has the main advantage that it turns a problem of conditional density learning into a problem of binary classification. In the context of Monte Carlo sampling, we propose a methodology for sampling from such a posterior approximation. We leverage the structure of the underlying model, which is conveniently compatible with the usual ratio-based sampling algorithms, to obtain straightforward, parameter-free, and density-free sampling procedures.We then turn to the problem of uncertainty quantification. On the one hand, normalized models such as the discriminative construction are easy to apply in the context of Bayesian uncertainty quantification. On the other hand, while unnormalized models, such as the likelihood-to-evidence-ratio, are not easily applied in uncertainty-aware learning tasks, a specific unnormalized construction, which we refer to as generative, is indeed compatible with Bayesian uncertainty quantification via the posterior predictive distribution. In this context, we explain how to carry out uncertainty quantification in both modeling techniques, and we then propose a comparison of the two constructions under the scope of Bayesian learning.We finally turn to the problem of parametric modeling with tractable density, which is indeed a requirement for epistemic uncertainty quantification in generative and discriminative modeling methods. We propose a new construction of a parametric model, which is an extension of both mixture models and normalizing flows. This model can be applied to many different types of statistical problems, such as variational inference, density estimation, and conditional density estimation, as it benefits from rapid and exact density evaluation, a straightforward sampling scheme, and a gradient reparameterization approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Gajda, Dorota. „Optimisation des méthodes algorithmiques en inférence bayésienne. Modélisation dynamique de la transmission d'une infection au sein d'une population hétérogène“. Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00659618.

Der volle Inhalt der Quelle
Annotation:
Ce travail se décompose en deux grandes parties, "Estimations répétées dans le cadre de la modélisation bayésienne" et "Modélisation de la transmission de maladies infectieuses dans une population. Estimation des paramètres.". Les techniques développées dans la première partie sont utilisées en fin de la seconde partie. La première partie est consacrée à des optimisations d'algorithmes stochastiques très souvent utilisés, notamment dans le contexte des modélisations Bayésiennes. Cette optimisation est particulièrement faite lors de l'étude empirique d'estimateurs des paramètres d'un modèle où les qualités des estimateurs sont évaluées sur un grand nombre de jeux de données simulées. Quand les lois a posteriori ne sont pas explicites, le recours à des algorithmes stochastiques itératifs (de la famille des algorithmes dits de Monte Carlo par Chaîne de Makov) pour approcher les lois a posteriori est alors très couteux en temps car doit être fait pour chaque jeu de données. Dans ce contexte, ce travail consiste en l'étude de solutions évitant un trop grand nombre d'appels à ces algorithmes mais permettant bien-sûr d'obtenir malgré tout des résultats précis. La principale technique étudiée dans cette partie est celle de l'échantillonnage préférentiel. La seconde partie est consacrée aux études de modèles épidémiques, en particulier le modèle compartimental dit SIS (Susceptible-Infecté-Susceptible) dans sa version stochastique. L'approche stochastique permet de prendre en compte l'hétérogénéité de l'évolution de la maladie dans la population. les approches par des processus Markoviens sont étudiés où la forme des probabilités de passage entre les états est non linéaire. La solution de l'équation différentielle en probabilité n'est alors en général pas explicite. Les principales techniques utilisées dans cette partie sont celles dites de développement de l'équation maîtresse ("master equation") appliquées au modèle SIS avec une taille de population constante. Les propriétés des estimateurs des paramètres sont étudiées dans le cadre fréquentiste et bayésien. Concernant l'approche Bayésienne, les solutions d'optimisation algorithmique de la première partie sont appliquées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Carpentier, Alexandra. „De l' echantillonnage optimal en grande et petite dimension“. Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2012. http://tel.archives-ouvertes.fr/tel-00844361.

Der volle Inhalt der Quelle
Annotation:
Pendant ma th ese, j'ai eu la chance d'apprendre et de travailler sous la supervision de mon directeur de th ese R emi, et ce dans deux domaines qui me sont particuli erement chers. Je veux parler de la Th eorie des Bandits et du Compressed Sensing. Je les vois comme intimement li es non par les m ethodes mais par leur objectif commun: l' echantillonnage optimal de l'espace. Tous deux sont centr es sur les mani eres d' echantillonner l'espace e cacement : la Th eorie des Bandits en petite dimension et le Compressed Sensing en grande dimension. Dans cette dissertation, je pr esente la plupart des travaux que mes co-auteurs et moi-m^eme avons ecrit durant les trois ann ees qu'a dur e ma th ese.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Ounaissi, Daoud. „Méthodes quasi-Monte Carlo et Monte Carlo : application aux calculs des estimateurs Lasso et Lasso bayésien“. Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10043/document.

Der volle Inhalt der Quelle
Annotation:
La thèse contient 6 chapitres. Le premier chapitre contient une introduction à la régression linéaire et aux problèmes Lasso et Lasso bayésien. Le chapitre 2 rappelle les algorithmes d’optimisation convexe et présente l’algorithme FISTA pour calculer l’estimateur Lasso. La statistique de la convergence de cet algorithme est aussi donnée dans ce chapitre en utilisant l’entropie et l’estimateur de Pitman-Yor. Le chapitre 3 est consacré à la comparaison des méthodes quasi-Monte Carlo et Monte Carlo dans les calculs numériques du Lasso bayésien. Il sort de cette comparaison que les points de Hammersely donne les meilleurs résultats. Le chapitre 4 donne une interprétation géométrique de la fonction de partition du Lasso bayésien et l’exprime en fonction de la fonction Gamma incomplète. Ceci nous a permis de donner un critère de convergence pour l’algorithme de Metropolis Hastings. Le chapitre 5 présente l’estimateur bayésien comme la loi limite d’une équation différentielle stochastique multivariée. Ceci nous a permis de calculer le Lasso bayésien en utilisant les schémas numériques semi implicite et explicite d’Euler et les méthodes de Monte Carlo, Monte Carlo à plusieurs couches (MLMC) et l’algorithme de Metropolis Hastings. La comparaison des coûts de calcul montre que le couple (schéma semi-implicite d’Euler, MLMC) gagne contre les autres couples (schéma, méthode). Finalement dans le chapitre 6 nous avons trouvé la vitesse de convergence du Lasso bayésien vers le Lasso lorsque le rapport signal/bruit est constant et le bruit tend vers 0. Ceci nous a permis de donner de nouveaux critères pour la convergence de l’algorithme de Metropolis Hastings
The thesis contains 6 chapters. The first chapter contains an introduction to linear regression, the Lasso and the Bayesian Lasso problems. Chapter 2 recalls the convex optimization algorithms and presents the Fista algorithm for calculating the Lasso estimator. The properties of the convergence of this algorithm is also given in this chapter using the entropy estimator and Pitman-Yor estimator. Chapter 3 is devoted to comparison of Monte Carlo and quasi-Monte Carlo methods in numerical calculations of Bayesian Lasso. It comes out of this comparison that the Hammersely points give the best results. Chapter 4 gives a geometric interpretation of the partition function of the Bayesian lasso expressed as a function of the incomplete Gamma function. This allowed us to give a convergence criterion for the Metropolis Hastings algorithm. Chapter 5 presents the Bayesian estimator as the law limit a multivariate stochastic differential equation. This allowed us to calculate the Bayesian Lasso using numerical schemes semi-implicit and explicit Euler and methods of Monte Carlo, Monte Carlo multilevel (MLMC) and Metropolis Hastings algorithm. Comparing the calculation costs shows the couple (semi-implicit Euler scheme, MLMC) wins against the other couples (scheme method). Finally in chapter 6 we found the Lasso convergence rate of the Bayesian Lasso when the signal / noise ratio is constant and when the noise tends to 0. This allowed us to provide a new criteria for the convergence of the Metropolis algorithm Hastings
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Gilquin, Laurent. „Échantillonnages Monte Carlo et quasi-Monte Carlo pour l'estimation des indices de Sobol' : application à un modèle transport-urbanisme“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM042/document.

Der volle Inhalt der Quelle
Annotation:
Le développement et l'utilisation de modèles intégrés transport-urbanisme sont devenus une norme pour représenter les interactions entre l'usage des sols et le transport de biens et d'individus sur un territoire. Ces modèles sont souvent utilisés comme outils d'aide à la décision pour des politiques de planification urbaine.Les modèles transport-urbanisme, et plus généralement les modèles mathématiques, sont pour la majorité conçus à partir de codes numériques complexes. Ces codes impliquent très souvent des paramètres dont l'incertitude est peu connue et peut potentiellement avoir un impact important sur les variables de sortie du modèle.Les méthodes d'analyse de sensibilité globales sont des outils performants permettant d'étudier l'influence des paramètres d'un modèle sur ses sorties. En particulier, les méthodes basées sur le calcul des indices de sensibilité de Sobol' fournissent la possibilité de quantifier l'influence de chaque paramètre mais également d'identifier l'existence d'interactions entre ces paramètres.Dans cette thèse, nous privilégions la méthode dite à base de plans d'expériences répliqués encore appelée méthode répliquée. Cette méthode a l'avantage de ne requérir qu'un nombre relativement faible d'évaluations du modèle pour calculer les indices de Sobol' d'ordre un et deux.Cette thèse se focalise sur des extensions de la méthode répliquée pour faire face à des contraintes issues de notre application sur le modèle transport-urbanisme Tranus, comme la présence de corrélation entre paramètres et la prise en compte de sorties multivariées.Nos travaux proposent également une approche récursive pour l'estimation séquentielle des indices de Sobol'. L'approche récursive repose à la fois sur la construction itérative d'hypercubes latins et de tableaux orthogonaux stratifiés et sur la définition d'un nouveau critère d'arrêt. Cette approche offre une meilleure précision sur l'estimation des indices tout en permettant de recycler des premiers jeux d'évaluations du modèle. Nous proposons aussi de combiner une telle approche avec un échantillonnage quasi-Monte Carlo.Nous présentons également une application de nos contributions pour le calage du modèle de transport-urbanisme Tranus
Land Use and Transportation Integrated (LUTI) models have become a norm for representing the interactions between land use and the transportation of goods and people in a territory. These models are mainly used to evaluate alternative planning scenarios, simulating their impact on land cover and travel demand.LUTI models and other mathematical models used in various fields are most of the time based on complex computer codes. These codes often involve poorly-known inputs whose uncertainty can have significant effects on the model outputs.Global sensitivity analysis methods are useful tools to study the influence of the model inputs on its outputs. Among the large number of available approaches, the variance based method introduced by Sobol' allows to calculate sensitivity indices called Sobol' indices. These indices quantify the influence of each model input on the outputs and can detect existing interactions between inputs.In this framework, we favor a particular method based on replicated designs of experiments called replication method. This method appears to be the most suitable for our application and is advantageous as it requires a relatively small number of model evaluations to estimate first-order or second-order Sobol' indices.This thesis focuses on extensions of the replication method to face constraints arising in our application on the LUTI model Tranus, such as the presence of dependency among the model inputs, as far as multivariate outputs.Aside from that, we propose a recursive approach to sequentially estimate Sobol' indices. The recursive approach is based on the iterative construction of stratified designs, latin hypercubes and orthogonal arrays, and on the definition of a new stopping criterion. With this approach, more accurate Sobol' estimates are obtained while recycling previous sets of model evaluations. We also propose to combine such an approach with quasi-Monte Carlo sampling.An application of our contributions on the LUTI model Tranus is presented
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Lamberti, Roland. „Contributions aux méthodes de Monte Carlo et leur application au filtrage statistique“. Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLL007/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s’intéresse au problème de l’inférence bayésienne dans les modèles probabilistes dynamiques. Plus précisément nous nous focalisons sur les méthodes de Monte Carlo pour l’intégration. Nous revisitons tout d’abord le mécanisme d’échantillonnage d’importance avec rééchantillonnage, puis son extension au cadre dynamique connue sous le nom de filtrage particulaire, pour enfin conclure nos travaux par une application à la poursuite multi-cibles.En premier lieu nous partons du problème de l’estimation d’un moment suivant une loi de probabilité, connue à une constante près, par une méthode de Monte Carlo. Tout d’abord,nous proposons un nouvel estimateur apparenté à l’estimateur d’échantillonnage d’importance normalisé mais utilisant deux lois de proposition différentes au lieu d’une seule. Ensuite,nous revisitons le mécanisme d’échantillonnage d’importance avec rééchantillonnage dans son ensemble afin de produire des tirages Monte Carlo indépendants, contrairement au mécanisme usuel, et nous construisons ainsi deux nouveaux estimateurs.Dans un second temps nous nous intéressons à l’aspect dynamique lié au problème d’inférence bayésienne séquentielle. Nous adaptons alors dans ce contexte notre nouvelle technique de rééchantillonnage indépendant développée précédemment dans un cadre statique.Ceci produit le mécanisme de filtrage particulaire avec rééchantillonnage indépendant, que nous interprétons comme cas particulier de filtrage particulaire auxiliaire. En raison du coût supplémentaire en tirages requis par cette technique, nous proposons ensuite une procédure de rééchantillonnage semi-indépendant permettant de le contrôler.En dernier lieu, nous considérons une application de poursuite multi-cibles dans un réseau de capteurs utilisant un nouveau modèle bayésien, et analysons empiriquement les résultats donnés dans cette application par notre nouvel algorithme de filtrage particulaire ainsi qu’un algorithme de Monte Carlo par Chaînes de Markov séquentiel
This thesis deals with integration calculus in the context of Bayesian inference and Bayesian statistical filtering. More precisely, we focus on Monte Carlo integration methods. We first revisit the importance sampling with resampling mechanism, then its extension to the dynamic setting known as particle filtering, and finally conclude our work with a multi-target tracking application. Firstly, we consider the problem of estimating some moment of a probability density, known up to a constant, via Monte Carlo methodology. We start by proposing a new estimator affiliated with the normalized importance sampling estimator but using two proposition densities rather than a single one. We then revisit the importance sampling with resampling mechanism as a whole in order to produce Monte Carlo samples that are independent, contrary to the classical mechanism, which enables us to develop two new estimators. Secondly, we consider the dynamic aspect in the framework of sequential Bayesian inference. We thus adapt to this framework our new independent resampling technique, previously developed in a static setting. This yields the particle filtering with independent resampling mechanism, which we reinterpret as a special case of auxiliary particle filtering. Because of the increased cost required by this technique, we next propose a semi independent resampling procedure which enables to control this additional cost. Lastly, we consider an application of multi-target tracking within a sensor network using a new Bayesian model, and empirically analyze the results from our new particle filtering algorithm as well as a sequential Markov Chain Monte Carlo algorithm
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Chesneau, Héléna. „Estimation personnalisée de la dose délivrée au patient par l’imagerie embarquée kV-CBCT et réflexions autour de la prise en charge clinique“. Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS059.

Der volle Inhalt der Quelle
Annotation:
Les protocoles de traitement du cancer par Radiothérapie Conformationnelle par Modulation d'Intensité (RCMI) ciblent avec une précision de plus en plus grande la tumeur. Pour cela, ils nécessitent des informations anatomiques précises du patient juste avant le traitement, qui peuvent d'être obtenues à l'aide de systèmes d'imagerie embarqués sur l'accélérateur linéaire médical délivrant le faisceau de traitement. Ces systèmes, composés d'un tube à rayons X et d'un détecteur 2D planaire, sont appelés kV-Cone Beam CT (kV-CBCT). Aujourd'hui, leur usage est très fortement répandu dans le cadre des traitements par RCMI. Cependant, ces examens kV-CBCT sont responsables d'une dose de rayonnements ionisants additionnelle qui est loin d'être négligeable et pouvant d'être à l'origine de l'apparition d'effets secondaires, tels que des cancers radio-induits chez les patients traités. Au cours de cette thèse, un simulateur basé sur la méthode de Monte-Carlo a été développé permettant ainsi d'estimer avec précision les doses délivrées aux organes lors des examens d'imagerie kV-CBCT. Cet outil a ensuite été utilisé afin d'étudier différentes stratégies de prise en compte clinique de ces doses additionnelles. L'étude présentée dans ce manuscrit propose notamment une méthode rapide d'estimation des niveaux de doses délivrés aux organes prenant en compte la morphologie de chaque patient. Cette stratégie a été développée à partir d'une cohorte de 50 patients incluant 40 enfants et 10 adultes. Ces travaux ont été réalisés en collaboration avec l'unité de physique médicale du Centre Eugène Marquis à Rennes qui a fourni les données cliniques nécessaires à l'étude
Protocols for cancer treatment using intensity-modulated radiation therapy (IMRT) allow to target the tumor with an increased precision. They require accurate anatomical information of the patient just before the treatment, which can be obtained using on-board imaging systems mounted on the medical linear accelerator delivering the treatment beam. These systems, composed of an X-ray tube and a 2D planar detector, are called kV-Cone Beam CT (kV-CBCT). Nowadays, they are widely used in the context of IMRT treatments. However, these kV-CBCT examinations are also responsible for an additional dose of ionizing radiations which is far to be negligible and could be the cause for secondary effects, such as radiation-induced second cancers for treated patients. During this PhD work, a simulator based on the Monte Carlo method was developed in order to calculate accurately the doses delivered to organs during kV-CBCT examinations. Then, this tool was used to study several strategies to take in account for the imaging additional doses in clinical environment. The study reported here includes, in particular, a fast and personalized method to estimate the doses delivered to organs. This strategy was developed using a cohort of 50 patients including 40 children and 10 adults. This work has been done in collaboration with the medical physics unit of the Eugène Marquis medical center in Rennes, which has collected the clinical data used for this study
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Bidon, Stéphanie Tourneret Jean-Yves Besson Olivier. „Estimation et détection en milieu non-homogène application au traitement spatio-temporel adaptatif /“. Toulouse : INP Toulouse, 2009. http://ethesis.inp-toulouse.fr/archive/00000683.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Ichir, Mahieddine Mehdi. „Estimation bayésienne et approche multi-résolution en séparation de sources“. Paris 11, 2005. http://www.theses.fr/2005PA112370.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Lamberti, Roland. „Contributions aux méthodes de Monte Carlo et leur application au filtrage statistique“. Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLL007.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s’intéresse au problème de l’inférence bayésienne dans les modèles probabilistes dynamiques. Plus précisément nous nous focalisons sur les méthodes de Monte Carlo pour l’intégration. Nous revisitons tout d’abord le mécanisme d’échantillonnage d’importance avec rééchantillonnage, puis son extension au cadre dynamique connue sous le nom de filtrage particulaire, pour enfin conclure nos travaux par une application à la poursuite multi-cibles.En premier lieu nous partons du problème de l’estimation d’un moment suivant une loi de probabilité, connue à une constante près, par une méthode de Monte Carlo. Tout d’abord,nous proposons un nouvel estimateur apparenté à l’estimateur d’échantillonnage d’importance normalisé mais utilisant deux lois de proposition différentes au lieu d’une seule. Ensuite,nous revisitons le mécanisme d’échantillonnage d’importance avec rééchantillonnage dans son ensemble afin de produire des tirages Monte Carlo indépendants, contrairement au mécanisme usuel, et nous construisons ainsi deux nouveaux estimateurs.Dans un second temps nous nous intéressons à l’aspect dynamique lié au problème d’inférence bayésienne séquentielle. Nous adaptons alors dans ce contexte notre nouvelle technique de rééchantillonnage indépendant développée précédemment dans un cadre statique.Ceci produit le mécanisme de filtrage particulaire avec rééchantillonnage indépendant, que nous interprétons comme cas particulier de filtrage particulaire auxiliaire. En raison du coût supplémentaire en tirages requis par cette technique, nous proposons ensuite une procédure de rééchantillonnage semi-indépendant permettant de le contrôler.En dernier lieu, nous considérons une application de poursuite multi-cibles dans un réseau de capteurs utilisant un nouveau modèle bayésien, et analysons empiriquement les résultats donnés dans cette application par notre nouvel algorithme de filtrage particulaire ainsi qu’un algorithme de Monte Carlo par Chaînes de Markov séquentiel
This thesis deals with integration calculus in the context of Bayesian inference and Bayesian statistical filtering. More precisely, we focus on Monte Carlo integration methods. We first revisit the importance sampling with resampling mechanism, then its extension to the dynamic setting known as particle filtering, and finally conclude our work with a multi-target tracking application. Firstly, we consider the problem of estimating some moment of a probability density, known up to a constant, via Monte Carlo methodology. We start by proposing a new estimator affiliated with the normalized importance sampling estimator but using two proposition densities rather than a single one. We then revisit the importance sampling with resampling mechanism as a whole in order to produce Monte Carlo samples that are independent, contrary to the classical mechanism, which enables us to develop two new estimators. Secondly, we consider the dynamic aspect in the framework of sequential Bayesian inference. We thus adapt to this framework our new independent resampling technique, previously developed in a static setting. This yields the particle filtering with independent resampling mechanism, which we reinterpret as a special case of auxiliary particle filtering. Because of the increased cost required by this technique, we next propose a semi independent resampling procedure which enables to control this additional cost. Lastly, we consider an application of multi-target tracking within a sensor network using a new Bayesian model, and empirically analyze the results from our new particle filtering algorithm as well as a sequential Markov Chain Monte Carlo algorithm
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Echantillonnage et estimation Monte Carlo"

1

BOURINET, Jean-Marc. „Estimation de probabilité d’événements rares“. In Ingénierie mécanique en contexte incertain, 153–222. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9010.ch5.

Der volle Inhalt der Quelle
Annotation:
Ce chapitre aborde l’estimation de probabilités faibles utiles pour l’analyse de la fiabilité de systèmes à fortes exigences de sûreté. La présentation inclut les méthodes FORM et SORM connues en fiabilité structurale, mais également les méthodes basées sur un échantillonnage naïf (Monte-Carlo) ou préférentiel (tirage d’importance, subset simulation). La sensibilité de la probabilité de défaillance calculée est également introduite.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "Echantillonnage et estimation Monte Carlo"

1

Aladejare, A. E., K. A. Idowu und T. M. Ozoji. „Reliability-Based Design (RBD) Updating by Sample Reweighting for Rock Slope Design“. In 58th U.S. Rock Mechanics/Geomechanics Symposium. ARMA, 2024. http://dx.doi.org/10.56952/arma-2024-0807.

Der volle Inhalt der Quelle
Annotation:
ABSTRACT: Rock slope design comprises systematic evaluation of geological, geotechnical, and engineering parameters affecting safety and stability of slopes in rockmass. However, it is common to have several design possibilities for a single slope in rockmass. In the forementioned instance, reliability-based design (RBD) could provide insights on the most feasible slope design for rockmass. However, this generally involves several computational runs for each slope design. In this study, combined Monte Carlo simulation (MCS) and sample reweighting method was explored with the aim of obtaining parameters for rock slope design during a single computational run. With this approach, the repeated run of MCS for different design possibilities are avoided. One key advantage of the method is that it saves computational time by using a single run of simulation since there is possibility of a great number of design scenarios at a rock slope. To evaluate the performance of this approach, the proposed method was applied to a real-life rock slope. Results reveal that the proposed approach for rock slope design is both reliable and advantageous by providing sufficient failure samples for reliability estimation of the final designs for various design possibilities. In addition, the approach proposed in this study can link site characterization processes to design, and significantly reduces the time and efforts required for the processes. Through the proposed approach, there is improved knowledge on the contribution of uncertain rock parameters and slope conditions involved in design to the rock slope. 1. INTRODUCTION Mining engineering is faced with several uncertainties, ranging from variability of rock conditions, uncertainties in rock parameters that are affected by geological processes, limited number of test values or site mapping, and model uncertainties (Baecher and Christian, 2003; Qi and Li, 2018; Aladejare and Wang, 2017). The uncertainties affect mining designs, and incorporating the uncertainties into mining design procedures in a quantitative manner is crucial to obtaining reliable designs of structures in mining engineering. A reliability-based framework can be used for such incorporation. In the past few decades, several studies have been conducted on reliability analysis of slope stability (Jimenez-Rodriguez et al. 2006; Hoek 2007; Tang et al., 2013; Dadashzadeh et al., 2017; Aladejare and Wang, 2018; Aladejare and Akeju, 2020).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Alcantara, Ricardo, Luis Humberto Santiago, Ilse Paola Melquiades, Blanca Estefani Ruiz, Jorge Ricardez, Cesar Israel Mendez und Victor Mercado. „Coupling Numerical Dynamic Models of PTA and RTA with Detailed Geological Models Integrating Quantitative Analysis, Using Rock Physics, Seismic Inversion and Nonlinear Techniques in Siliciclastic Reservoirs“. In SPE/IATMI Asia Pacific Oil & Gas Conference and Exhibition. SPE, 2023. http://dx.doi.org/10.2118/215245-ms.

Der volle Inhalt der Quelle
Annotation:
Abstract The study area comprises an oil play with numerous opportunities, identifying sandstone sequences with proven potential. The main sequence was deposited in the Upper Miocene within a transitional environment (external neritic), resulting in the formation of bars in deltaic facies and channels, which represents an excellent quality and lateral extension of the storage rock, but also complexity due to internal variability. The trap is structural with closure against faults, formed in an extensive tectonic regime giving rise to normal faulting and increasing the degree of complexity for the characterization of the reservoirs. Seismic data have accurate information about these characteristics, however, it is insufficient to solve the variability in the vertical scale, so incorporating all the information obtained in the wells through seismic inversion is essential when characterizing highly heterogeneous reservoirs with thin thickness. Furthermore, the geostatistical inversion combines Bayesian inference with a sampling algorithm called Markov Chain Monte Carlo (MCMC) that allows incorporating all the information from well logs, geological information, geostatistical parameters, and seismic data, generating models that honor the input data (Hameed et al., 2011). Additionally, the method provides a solution to the problem of non-uniqueness of the results, based on a statistical distribution of the multiple realizations derived from the initial model. This work proposes a flow that integrates quantitative analysis, establishing a direct link between seismic measurements and well logs, which additionally, when combined with non-linear techniques such as geostatistical seismic inversion, can minimize the differences in scales, obtaining better models, more predictive and with quantification of uncertainty. The static workflow used consists of 6 main components: Pre-stacked gather conditioning, curve modeling by rock physics (Vp, Vs and Rho), geostatistical seismic inversion (impedance P, Vp/Vs ratio, density), determination of facies cubes (oil-sand, brine-sand and shale) and petrophysical properties (Vcl, Phie, permeability) using a robust algorithm combining Bayesian inference and Markov Chain Monte Carlo (MCMC), quantification of uncertainty and volumetric estimation by ranking multiple realizations (P10, P50, P90) and transfer to a geological mesh (upscaling) ready for numerical simulation without the use of typical extrapolation algorithms such as kriging or Sequential Gaussian Simulation (SGS), managing to minimize the scale differences, obtaining better models, more predictive and capable of estimating uncertainty. With the results obtained, redefined geo-bodies were extracted, already discretizing the sandstones with good rock quality from the sandstones with good rock quality and bearing hydrocarbons to have greater precision in the development of these fields. Subsequently, the dynamic information was coupled to analyze the existing Pressure Transient Analyses (PTA) that have identified pseudo-steady state and the Rate Transient Analyses (RTA) to numerically model the response, checking the volumes obtained previously. Additionally, a benchmarking was considered with more than 590 oil producing fields in siliciclastics worldwide, considering the main properties of the fluid, porosity, facies and depositional environments and drive mechanisms, thus identifying new development opportunities with less uncertainty.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Berichte der Organisationen zum Thema "Echantillonnage et estimation Monte Carlo"

1

Acharya, Sushant, William Chen, Marco Del Negro, Keshav Dogra, Aidan Gleich, Shlok Goyal, Ethan Matlin, Donggyu Lee, Reca Sarfati und Sikata Sengupta. Estimating HANK for Central Banks. Federal Reserve Bank of New York, August 2023. http://dx.doi.org/10.59576/sr.1071.

Der volle Inhalt der Quelle
Annotation:
We provide a toolkit for efficient online estimation of heterogeneous agent (HA) New Keynesian (NK) models based on Sequential Monte Carlo methods. We use this toolkit to compare the out-of-sample forecasting accuracy of a prominent HANK model, Bayer et al. (2022), to that of the representative agent (RA) NK model of Smets and Wouters (2007, SW). We find that HANK’s accuracy for real activity variables is notably inferior to that of SW. The results for consumption in particular are disappointing since the main difference between RANK and HANK is the replacement of the RA Euler equation with the aggregation of individual households’ consumption policy functions, which reflects inequality.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie