Siga este link para ver outros tipos de publicações sobre o tema: Echantillonnage et estimation Monte Carlo.

Teses / dissertações sobre o tema "Echantillonnage et estimation Monte Carlo"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Echantillonnage et estimation Monte Carlo".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Argouarc, h. Elouan. "Contributions to posterior learning for likelihood-free Bayesian inference". Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAS021.

Texto completo da fonte
Resumo:
L'inférence bayésienne a posteriori est utilisée dans de nombreuses applications scientifiques et constitue une méthodologie répandue pour la prise de décision en situation d'incertitude. Elle permet aux praticiens de confronter les observations du monde réel à des modèles d'observation pertinents, et d'inférer en retour la distribution d'une variable explicative. Dans de nombreux domaines et applications pratiques, nous considérons des modèles d'observation complexes pour leur pertinence scientifique, mais au prix de densités de probabilité incalculables. En conséquence, à la fois la vraisemblance et la distribution a posteriori sont indisponibles, rendant l'inférence Bayésienne à l'aide des méthodes de Monte Carlo habituelles irréalisable. Dans ce travail nous supposons que le modèle d'observation nous génère un jeu de données, et le contexte de cette thèse est de coupler les méthodes Bayésienne à l'apprentissage statistique afin de pallier cette limitation et permettre l'inférence a posteriori dans le cadre likelihood-free. Ce problème, formulé comme l'apprentissage d'une distribution de probabilité, inclut les tâches habituelles de classification et de régression, mais il peut également être une alternative aux méthodes “Approximate Bayesian Computation” dans le contexte de l'inférence basée sur la simulation, où le modèle d'observation est un modèle de simulation avec une densité implicite. L'objectif de cette thèse est de proposer des contributions méthodologiques pour l'apprentissage Bayésien a posteriori. Plus précisément, notre objectif principal est de comparer différentes méthodes d'apprentissage dans le cadre de l'échantillonnage Monte Carlo et de la quantification d'incertitude. Nous considérons d'abord l'approximation a posteriori basée sur le “likelihood-to-evidence-ratio”, qui a l'avantage principal de transformer un problème d'apprentissage de densité conditionnelle en un problème de classification. Dans le contexte de l'échantillonnage Monte Carlo, nous proposons une méthodologie pour échantillonner la distribution résultante d'une telle approximation. Nous tirons parti de la structure sous-jacente du modèle, compatible avec les algorithmes d'échantillonnage usuels basés sur un quotient de densités, pour obtenir des procédures d'échantillonnage simples, sans hyperparamètre et ne nécessitant d'évaluer aucune densité. Nous nous tournons ensuite vers le problème de la quantification de l'incertitude épistémique. D'une part, les modèles normalisés, tels que la construction discriminante, sont faciles à appliquer dans le contexte de la quantification de l'incertitude bayésienne. D'autre part, bien que les modèles non normalisés, comme le likelihood-to-evidence-ratio, ne soient pas facilement applicables dans les problèmes de quantification d'incertitude épistémique, une construction non normalisée spécifique, que nous appelons générative, est effectivement compatible avec la quantification de l'incertitude bayésienne via la distribution prédictive a posteriori. Dans ce contexte, nous expliquons comment réaliser cette quantification de l'incertitude dans les deux techniques de modélisation, générative et discriminante, puis nous proposons une comparaison des deux constructions dans le cadre de l'apprentissage bayésien. Enfin nous abordons le problème de la modélisation paramétrique avec densité tractable, qui est effectivement un prérequis pour la quantification de l'incertitude épistémique dans les méthodes générative et discriminante. Nous proposons une nouvelle construction d'un modèle paramétrique, qui est une double extension des modèles de mélange et des flots normalisant. Ce modèle peut être appliqué à de nombreux types de problèmes statistiques, tels que l'inférence variationnelle, l'estimation de densité et de densité conditionnelle, car il bénéficie d'une évaluation rapide et exacte de la fonction de densité, d'un schéma d'échantillonnage simple, et d'une approche de reparamétrisassions des gradients
Bayesian posterior inference is used in many scientific applications and is a prevalent methodology for decision-making under uncertainty. It enables practitioners to confront real-world observations with relevant observation models, and in turn, infer the distribution over an explanatory variable. In many fields and practical applications, we consider ever more intricate observation models for their otherwise scientific relevance, but at the cost of intractable probability density functions. As a result, both the likelihood and the posterior are unavailable, making posterior inference using the usual Monte Carlo methods unfeasible.In this thesis, we suppose that the observation model provides a recorded dataset, and our aim is to bring together Bayesian inference and statistical learning methods to perform posterior inference in a likelihood-free setting. This problem, formulated as learning an approximation of a posterior distribution, includes the usual statistical learning tasks of regression and classification modeling, but it can also be an alternative to Approximate Bayesian Computation methods in the context of simulation-based inference, where the observation model is instead a simulation model with implicit density.The aim of this thesis is to propose methodological contributions for Bayesian posterior learning. More precisely, our main goal is to compare different learning methods under the scope of Monte Carlo sampling and uncertainty quantification.We first consider the posterior approximation based on the likelihood-to-evidence ratio, which has the main advantage that it turns a problem of conditional density learning into a problem of binary classification. In the context of Monte Carlo sampling, we propose a methodology for sampling from such a posterior approximation. We leverage the structure of the underlying model, which is conveniently compatible with the usual ratio-based sampling algorithms, to obtain straightforward, parameter-free, and density-free sampling procedures.We then turn to the problem of uncertainty quantification. On the one hand, normalized models such as the discriminative construction are easy to apply in the context of Bayesian uncertainty quantification. On the other hand, while unnormalized models, such as the likelihood-to-evidence-ratio, are not easily applied in uncertainty-aware learning tasks, a specific unnormalized construction, which we refer to as generative, is indeed compatible with Bayesian uncertainty quantification via the posterior predictive distribution. In this context, we explain how to carry out uncertainty quantification in both modeling techniques, and we then propose a comparison of the two constructions under the scope of Bayesian learning.We finally turn to the problem of parametric modeling with tractable density, which is indeed a requirement for epistemic uncertainty quantification in generative and discriminative modeling methods. We propose a new construction of a parametric model, which is an extension of both mixture models and normalizing flows. This model can be applied to many different types of statistical problems, such as variational inference, density estimation, and conditional density estimation, as it benefits from rapid and exact density evaluation, a straightforward sampling scheme, and a gradient reparameterization approach
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Gajda, Dorota. "Optimisation des méthodes algorithmiques en inférence bayésienne. Modélisation dynamique de la transmission d'une infection au sein d'une population hétérogène". Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00659618.

Texto completo da fonte
Resumo:
Ce travail se décompose en deux grandes parties, "Estimations répétées dans le cadre de la modélisation bayésienne" et "Modélisation de la transmission de maladies infectieuses dans une population. Estimation des paramètres.". Les techniques développées dans la première partie sont utilisées en fin de la seconde partie. La première partie est consacrée à des optimisations d'algorithmes stochastiques très souvent utilisés, notamment dans le contexte des modélisations Bayésiennes. Cette optimisation est particulièrement faite lors de l'étude empirique d'estimateurs des paramètres d'un modèle où les qualités des estimateurs sont évaluées sur un grand nombre de jeux de données simulées. Quand les lois a posteriori ne sont pas explicites, le recours à des algorithmes stochastiques itératifs (de la famille des algorithmes dits de Monte Carlo par Chaîne de Makov) pour approcher les lois a posteriori est alors très couteux en temps car doit être fait pour chaque jeu de données. Dans ce contexte, ce travail consiste en l'étude de solutions évitant un trop grand nombre d'appels à ces algorithmes mais permettant bien-sûr d'obtenir malgré tout des résultats précis. La principale technique étudiée dans cette partie est celle de l'échantillonnage préférentiel. La seconde partie est consacrée aux études de modèles épidémiques, en particulier le modèle compartimental dit SIS (Susceptible-Infecté-Susceptible) dans sa version stochastique. L'approche stochastique permet de prendre en compte l'hétérogénéité de l'évolution de la maladie dans la population. les approches par des processus Markoviens sont étudiés où la forme des probabilités de passage entre les états est non linéaire. La solution de l'équation différentielle en probabilité n'est alors en général pas explicite. Les principales techniques utilisées dans cette partie sont celles dites de développement de l'équation maîtresse ("master equation") appliquées au modèle SIS avec une taille de population constante. Les propriétés des estimateurs des paramètres sont étudiées dans le cadre fréquentiste et bayésien. Concernant l'approche Bayésienne, les solutions d'optimisation algorithmique de la première partie sont appliquées.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Carpentier, Alexandra. "De l' echantillonnage optimal en grande et petite dimension". Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2012. http://tel.archives-ouvertes.fr/tel-00844361.

Texto completo da fonte
Resumo:
Pendant ma th ese, j'ai eu la chance d'apprendre et de travailler sous la supervision de mon directeur de th ese R emi, et ce dans deux domaines qui me sont particuli erement chers. Je veux parler de la Th eorie des Bandits et du Compressed Sensing. Je les vois comme intimement li es non par les m ethodes mais par leur objectif commun: l' echantillonnage optimal de l'espace. Tous deux sont centr es sur les mani eres d' echantillonner l'espace e cacement : la Th eorie des Bandits en petite dimension et le Compressed Sensing en grande dimension. Dans cette dissertation, je pr esente la plupart des travaux que mes co-auteurs et moi-m^eme avons ecrit durant les trois ann ees qu'a dur e ma th ese.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Ounaissi, Daoud. "Méthodes quasi-Monte Carlo et Monte Carlo : application aux calculs des estimateurs Lasso et Lasso bayésien". Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10043/document.

Texto completo da fonte
Resumo:
La thèse contient 6 chapitres. Le premier chapitre contient une introduction à la régression linéaire et aux problèmes Lasso et Lasso bayésien. Le chapitre 2 rappelle les algorithmes d’optimisation convexe et présente l’algorithme FISTA pour calculer l’estimateur Lasso. La statistique de la convergence de cet algorithme est aussi donnée dans ce chapitre en utilisant l’entropie et l’estimateur de Pitman-Yor. Le chapitre 3 est consacré à la comparaison des méthodes quasi-Monte Carlo et Monte Carlo dans les calculs numériques du Lasso bayésien. Il sort de cette comparaison que les points de Hammersely donne les meilleurs résultats. Le chapitre 4 donne une interprétation géométrique de la fonction de partition du Lasso bayésien et l’exprime en fonction de la fonction Gamma incomplète. Ceci nous a permis de donner un critère de convergence pour l’algorithme de Metropolis Hastings. Le chapitre 5 présente l’estimateur bayésien comme la loi limite d’une équation différentielle stochastique multivariée. Ceci nous a permis de calculer le Lasso bayésien en utilisant les schémas numériques semi implicite et explicite d’Euler et les méthodes de Monte Carlo, Monte Carlo à plusieurs couches (MLMC) et l’algorithme de Metropolis Hastings. La comparaison des coûts de calcul montre que le couple (schéma semi-implicite d’Euler, MLMC) gagne contre les autres couples (schéma, méthode). Finalement dans le chapitre 6 nous avons trouvé la vitesse de convergence du Lasso bayésien vers le Lasso lorsque le rapport signal/bruit est constant et le bruit tend vers 0. Ceci nous a permis de donner de nouveaux critères pour la convergence de l’algorithme de Metropolis Hastings
The thesis contains 6 chapters. The first chapter contains an introduction to linear regression, the Lasso and the Bayesian Lasso problems. Chapter 2 recalls the convex optimization algorithms and presents the Fista algorithm for calculating the Lasso estimator. The properties of the convergence of this algorithm is also given in this chapter using the entropy estimator and Pitman-Yor estimator. Chapter 3 is devoted to comparison of Monte Carlo and quasi-Monte Carlo methods in numerical calculations of Bayesian Lasso. It comes out of this comparison that the Hammersely points give the best results. Chapter 4 gives a geometric interpretation of the partition function of the Bayesian lasso expressed as a function of the incomplete Gamma function. This allowed us to give a convergence criterion for the Metropolis Hastings algorithm. Chapter 5 presents the Bayesian estimator as the law limit a multivariate stochastic differential equation. This allowed us to calculate the Bayesian Lasso using numerical schemes semi-implicit and explicit Euler and methods of Monte Carlo, Monte Carlo multilevel (MLMC) and Metropolis Hastings algorithm. Comparing the calculation costs shows the couple (semi-implicit Euler scheme, MLMC) wins against the other couples (scheme method). Finally in chapter 6 we found the Lasso convergence rate of the Bayesian Lasso when the signal / noise ratio is constant and when the noise tends to 0. This allowed us to provide a new criteria for the convergence of the Metropolis algorithm Hastings
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Gilquin, Laurent. "Échantillonnages Monte Carlo et quasi-Monte Carlo pour l'estimation des indices de Sobol' : application à un modèle transport-urbanisme". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM042/document.

Texto completo da fonte
Resumo:
Le développement et l'utilisation de modèles intégrés transport-urbanisme sont devenus une norme pour représenter les interactions entre l'usage des sols et le transport de biens et d'individus sur un territoire. Ces modèles sont souvent utilisés comme outils d'aide à la décision pour des politiques de planification urbaine.Les modèles transport-urbanisme, et plus généralement les modèles mathématiques, sont pour la majorité conçus à partir de codes numériques complexes. Ces codes impliquent très souvent des paramètres dont l'incertitude est peu connue et peut potentiellement avoir un impact important sur les variables de sortie du modèle.Les méthodes d'analyse de sensibilité globales sont des outils performants permettant d'étudier l'influence des paramètres d'un modèle sur ses sorties. En particulier, les méthodes basées sur le calcul des indices de sensibilité de Sobol' fournissent la possibilité de quantifier l'influence de chaque paramètre mais également d'identifier l'existence d'interactions entre ces paramètres.Dans cette thèse, nous privilégions la méthode dite à base de plans d'expériences répliqués encore appelée méthode répliquée. Cette méthode a l'avantage de ne requérir qu'un nombre relativement faible d'évaluations du modèle pour calculer les indices de Sobol' d'ordre un et deux.Cette thèse se focalise sur des extensions de la méthode répliquée pour faire face à des contraintes issues de notre application sur le modèle transport-urbanisme Tranus, comme la présence de corrélation entre paramètres et la prise en compte de sorties multivariées.Nos travaux proposent également une approche récursive pour l'estimation séquentielle des indices de Sobol'. L'approche récursive repose à la fois sur la construction itérative d'hypercubes latins et de tableaux orthogonaux stratifiés et sur la définition d'un nouveau critère d'arrêt. Cette approche offre une meilleure précision sur l'estimation des indices tout en permettant de recycler des premiers jeux d'évaluations du modèle. Nous proposons aussi de combiner une telle approche avec un échantillonnage quasi-Monte Carlo.Nous présentons également une application de nos contributions pour le calage du modèle de transport-urbanisme Tranus
Land Use and Transportation Integrated (LUTI) models have become a norm for representing the interactions between land use and the transportation of goods and people in a territory. These models are mainly used to evaluate alternative planning scenarios, simulating their impact on land cover and travel demand.LUTI models and other mathematical models used in various fields are most of the time based on complex computer codes. These codes often involve poorly-known inputs whose uncertainty can have significant effects on the model outputs.Global sensitivity analysis methods are useful tools to study the influence of the model inputs on its outputs. Among the large number of available approaches, the variance based method introduced by Sobol' allows to calculate sensitivity indices called Sobol' indices. These indices quantify the influence of each model input on the outputs and can detect existing interactions between inputs.In this framework, we favor a particular method based on replicated designs of experiments called replication method. This method appears to be the most suitable for our application and is advantageous as it requires a relatively small number of model evaluations to estimate first-order or second-order Sobol' indices.This thesis focuses on extensions of the replication method to face constraints arising in our application on the LUTI model Tranus, such as the presence of dependency among the model inputs, as far as multivariate outputs.Aside from that, we propose a recursive approach to sequentially estimate Sobol' indices. The recursive approach is based on the iterative construction of stratified designs, latin hypercubes and orthogonal arrays, and on the definition of a new stopping criterion. With this approach, more accurate Sobol' estimates are obtained while recycling previous sets of model evaluations. We also propose to combine such an approach with quasi-Monte Carlo sampling.An application of our contributions on the LUTI model Tranus is presented
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Lamberti, Roland. "Contributions aux méthodes de Monte Carlo et leur application au filtrage statistique". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLL007/document.

Texto completo da fonte
Resumo:
Cette thèse s’intéresse au problème de l’inférence bayésienne dans les modèles probabilistes dynamiques. Plus précisément nous nous focalisons sur les méthodes de Monte Carlo pour l’intégration. Nous revisitons tout d’abord le mécanisme d’échantillonnage d’importance avec rééchantillonnage, puis son extension au cadre dynamique connue sous le nom de filtrage particulaire, pour enfin conclure nos travaux par une application à la poursuite multi-cibles.En premier lieu nous partons du problème de l’estimation d’un moment suivant une loi de probabilité, connue à une constante près, par une méthode de Monte Carlo. Tout d’abord,nous proposons un nouvel estimateur apparenté à l’estimateur d’échantillonnage d’importance normalisé mais utilisant deux lois de proposition différentes au lieu d’une seule. Ensuite,nous revisitons le mécanisme d’échantillonnage d’importance avec rééchantillonnage dans son ensemble afin de produire des tirages Monte Carlo indépendants, contrairement au mécanisme usuel, et nous construisons ainsi deux nouveaux estimateurs.Dans un second temps nous nous intéressons à l’aspect dynamique lié au problème d’inférence bayésienne séquentielle. Nous adaptons alors dans ce contexte notre nouvelle technique de rééchantillonnage indépendant développée précédemment dans un cadre statique.Ceci produit le mécanisme de filtrage particulaire avec rééchantillonnage indépendant, que nous interprétons comme cas particulier de filtrage particulaire auxiliaire. En raison du coût supplémentaire en tirages requis par cette technique, nous proposons ensuite une procédure de rééchantillonnage semi-indépendant permettant de le contrôler.En dernier lieu, nous considérons une application de poursuite multi-cibles dans un réseau de capteurs utilisant un nouveau modèle bayésien, et analysons empiriquement les résultats donnés dans cette application par notre nouvel algorithme de filtrage particulaire ainsi qu’un algorithme de Monte Carlo par Chaînes de Markov séquentiel
This thesis deals with integration calculus in the context of Bayesian inference and Bayesian statistical filtering. More precisely, we focus on Monte Carlo integration methods. We first revisit the importance sampling with resampling mechanism, then its extension to the dynamic setting known as particle filtering, and finally conclude our work with a multi-target tracking application. Firstly, we consider the problem of estimating some moment of a probability density, known up to a constant, via Monte Carlo methodology. We start by proposing a new estimator affiliated with the normalized importance sampling estimator but using two proposition densities rather than a single one. We then revisit the importance sampling with resampling mechanism as a whole in order to produce Monte Carlo samples that are independent, contrary to the classical mechanism, which enables us to develop two new estimators. Secondly, we consider the dynamic aspect in the framework of sequential Bayesian inference. We thus adapt to this framework our new independent resampling technique, previously developed in a static setting. This yields the particle filtering with independent resampling mechanism, which we reinterpret as a special case of auxiliary particle filtering. Because of the increased cost required by this technique, we next propose a semi independent resampling procedure which enables to control this additional cost. Lastly, we consider an application of multi-target tracking within a sensor network using a new Bayesian model, and empirically analyze the results from our new particle filtering algorithm as well as a sequential Markov Chain Monte Carlo algorithm
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Chesneau, Héléna. "Estimation personnalisée de la dose délivrée au patient par l’imagerie embarquée kV-CBCT et réflexions autour de la prise en charge clinique". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS059.

Texto completo da fonte
Resumo:
Les protocoles de traitement du cancer par Radiothérapie Conformationnelle par Modulation d'Intensité (RCMI) ciblent avec une précision de plus en plus grande la tumeur. Pour cela, ils nécessitent des informations anatomiques précises du patient juste avant le traitement, qui peuvent d'être obtenues à l'aide de systèmes d'imagerie embarqués sur l'accélérateur linéaire médical délivrant le faisceau de traitement. Ces systèmes, composés d'un tube à rayons X et d'un détecteur 2D planaire, sont appelés kV-Cone Beam CT (kV-CBCT). Aujourd'hui, leur usage est très fortement répandu dans le cadre des traitements par RCMI. Cependant, ces examens kV-CBCT sont responsables d'une dose de rayonnements ionisants additionnelle qui est loin d'être négligeable et pouvant d'être à l'origine de l'apparition d'effets secondaires, tels que des cancers radio-induits chez les patients traités. Au cours de cette thèse, un simulateur basé sur la méthode de Monte-Carlo a été développé permettant ainsi d'estimer avec précision les doses délivrées aux organes lors des examens d'imagerie kV-CBCT. Cet outil a ensuite été utilisé afin d'étudier différentes stratégies de prise en compte clinique de ces doses additionnelles. L'étude présentée dans ce manuscrit propose notamment une méthode rapide d'estimation des niveaux de doses délivrés aux organes prenant en compte la morphologie de chaque patient. Cette stratégie a été développée à partir d'une cohorte de 50 patients incluant 40 enfants et 10 adultes. Ces travaux ont été réalisés en collaboration avec l'unité de physique médicale du Centre Eugène Marquis à Rennes qui a fourni les données cliniques nécessaires à l'étude
Protocols for cancer treatment using intensity-modulated radiation therapy (IMRT) allow to target the tumor with an increased precision. They require accurate anatomical information of the patient just before the treatment, which can be obtained using on-board imaging systems mounted on the medical linear accelerator delivering the treatment beam. These systems, composed of an X-ray tube and a 2D planar detector, are called kV-Cone Beam CT (kV-CBCT). Nowadays, they are widely used in the context of IMRT treatments. However, these kV-CBCT examinations are also responsible for an additional dose of ionizing radiations which is far to be negligible and could be the cause for secondary effects, such as radiation-induced second cancers for treated patients. During this PhD work, a simulator based on the Monte Carlo method was developed in order to calculate accurately the doses delivered to organs during kV-CBCT examinations. Then, this tool was used to study several strategies to take in account for the imaging additional doses in clinical environment. The study reported here includes, in particular, a fast and personalized method to estimate the doses delivered to organs. This strategy was developed using a cohort of 50 patients including 40 children and 10 adults. This work has been done in collaboration with the medical physics unit of the Eugène Marquis medical center in Rennes, which has collected the clinical data used for this study
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Bidon, Stéphanie Tourneret Jean-Yves Besson Olivier. "Estimation et détection en milieu non-homogène application au traitement spatio-temporel adaptatif /". Toulouse : INP Toulouse, 2009. http://ethesis.inp-toulouse.fr/archive/00000683.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Ichir, Mahieddine Mehdi. "Estimation bayésienne et approche multi-résolution en séparation de sources". Paris 11, 2005. http://www.theses.fr/2005PA112370.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Lamberti, Roland. "Contributions aux méthodes de Monte Carlo et leur application au filtrage statistique". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLL007.

Texto completo da fonte
Resumo:
Cette thèse s’intéresse au problème de l’inférence bayésienne dans les modèles probabilistes dynamiques. Plus précisément nous nous focalisons sur les méthodes de Monte Carlo pour l’intégration. Nous revisitons tout d’abord le mécanisme d’échantillonnage d’importance avec rééchantillonnage, puis son extension au cadre dynamique connue sous le nom de filtrage particulaire, pour enfin conclure nos travaux par une application à la poursuite multi-cibles.En premier lieu nous partons du problème de l’estimation d’un moment suivant une loi de probabilité, connue à une constante près, par une méthode de Monte Carlo. Tout d’abord,nous proposons un nouvel estimateur apparenté à l’estimateur d’échantillonnage d’importance normalisé mais utilisant deux lois de proposition différentes au lieu d’une seule. Ensuite,nous revisitons le mécanisme d’échantillonnage d’importance avec rééchantillonnage dans son ensemble afin de produire des tirages Monte Carlo indépendants, contrairement au mécanisme usuel, et nous construisons ainsi deux nouveaux estimateurs.Dans un second temps nous nous intéressons à l’aspect dynamique lié au problème d’inférence bayésienne séquentielle. Nous adaptons alors dans ce contexte notre nouvelle technique de rééchantillonnage indépendant développée précédemment dans un cadre statique.Ceci produit le mécanisme de filtrage particulaire avec rééchantillonnage indépendant, que nous interprétons comme cas particulier de filtrage particulaire auxiliaire. En raison du coût supplémentaire en tirages requis par cette technique, nous proposons ensuite une procédure de rééchantillonnage semi-indépendant permettant de le contrôler.En dernier lieu, nous considérons une application de poursuite multi-cibles dans un réseau de capteurs utilisant un nouveau modèle bayésien, et analysons empiriquement les résultats donnés dans cette application par notre nouvel algorithme de filtrage particulaire ainsi qu’un algorithme de Monte Carlo par Chaînes de Markov séquentiel
This thesis deals with integration calculus in the context of Bayesian inference and Bayesian statistical filtering. More precisely, we focus on Monte Carlo integration methods. We first revisit the importance sampling with resampling mechanism, then its extension to the dynamic setting known as particle filtering, and finally conclude our work with a multi-target tracking application. Firstly, we consider the problem of estimating some moment of a probability density, known up to a constant, via Monte Carlo methodology. We start by proposing a new estimator affiliated with the normalized importance sampling estimator but using two proposition densities rather than a single one. We then revisit the importance sampling with resampling mechanism as a whole in order to produce Monte Carlo samples that are independent, contrary to the classical mechanism, which enables us to develop two new estimators. Secondly, we consider the dynamic aspect in the framework of sequential Bayesian inference. We thus adapt to this framework our new independent resampling technique, previously developed in a static setting. This yields the particle filtering with independent resampling mechanism, which we reinterpret as a special case of auxiliary particle filtering. Because of the increased cost required by this technique, we next propose a semi independent resampling procedure which enables to control this additional cost. Lastly, we consider an application of multi-target tracking within a sensor network using a new Bayesian model, and empirically analyze the results from our new particle filtering algorithm as well as a sequential Markov Chain Monte Carlo algorithm
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Desrumaux, Pierre-François. "Méthodes statistiques pour l’estimation du rendement paramétrique des circuits intégrés analogiques et RF". Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20126/document.

Texto completo da fonte
Resumo:
De nombreuses sources de variabilité impactent la fabrication des circuits intégrés analogiques et RF et peuvent conduire à une dégradation du rendement. Il est donc nécessaire de mesurer leur influence le plus tôt possible dans le processus de fabrications. Les méthodes de simulation statistiques permettent ainsi d'estimer le rendement paramétrique des circuits durant la phase de conception. Cependant, les méthodes traditionnelles telles que la méthode de Monte Carlo ne sont pas assez précises lorsqu'un faible nombre de circuits est simulé. Par conséquent, il est nécessaire de créer un estimateur précis du rendement paramétrique basé sur un faible nombre de simulations. Dans cette thèse, les méthodes statistiques existantes provenant à la fois de publications en électroniques et non-Électroniques sont d'abord décrites et leurs limites sont mises en avant. Ensuite, trois nouveaux estimateurs de rendement sont proposés: une méthode de type quasi-Monte Carlo avec tri automatique des dimensions, une méthode des variables de contrôle basée sur l'estimation par noyau, et une méthode par tirage d'importance. Les trois méthodes reposent sur un modèle mathématique de la métrique de performance du circuit qui est construit à partir d'un développement de Taylor à l'ordre un. Les résultats théoriques et expérimentaux obtenus démontrent la supériorité des méthodes proposées par rapport aux méthodes existantes, à la fois en terme de précision de l'estimateur et en terme de réduction du nombre de simulations de circuits
Semiconductor device fabrication is a complex process which is subject to various sources of variability. These variations can impact the functionality and performance of analog integrated circuits, which leads to yield loss, potential chip modifications, delayed time to market and reduced profit. Statistical circuit simulation methods enable to estimate the parametric yield of the circuit early in the design stage so that corrections can be done before manufacturing. However, traditional methods such as Monte Carlo method and corner simulation have limitations. Therefore an accurate analog yield estimate based on a small number of circuit simulations is needed. In this thesis, existing statistical methods from electronics and non-Electronics publications are first described. However, these methods suffer from sever drawbacks such as the need of initial time-Consuming circuit simulations, or a poor scaling with the number of random variables. Second, three novel statistical methods are proposed to accurately estimate the parametric yield of analog/RF integrated circuits based on a moderate number of circuit simulations: An automatically sorted quasi-Monte Carlo method, a kernel-Based control variates method and an importance sampling method. The three methods rely on a mathematical model of the circuit performance metric which is constructed based on a truncated first-Order Taylor expansion. This modeling technique is selected as it requires a minimal number of SPICE-Like circuit simulations. Both theoretical and simulation results show that the proposed methods lead to significant speedup or improvement in accuracy compared to other existing methods
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Kakakhail, Syed Shahkar. "Prédiction et estimation de très faibles taux d'erreurs pour les chaînes de communication codées". Cergy-Pontoise, 2010. http://www.theses.fr/2010CERG0437.

Texto completo da fonte
Resumo:
Dans cette thèse, nous abordons le sujet d’optimisation des méthodes utilisées pour l’évaluation de performance des codes correcteurs d’erreurs. La durée d’une simulation Monte Carlo pour estimer le taux d’erreurs dans un système de communication augmente exponentiellement avec l’accroissement du Rapport Signal sur Bruit (RSB). Importance Sampling (IS) est une des techniques qui permettent à réduire le temps de ces simulations. Dans ce travail, on a étudié et mis en oeuvre une version avancée d’IS, appelé Adaptive Importance Sampling (AIS), pour l’évaluation efficace des codes correcteurs d’erreurs aux taux d’erreur très bas. D’abord, nous présentons les inspirations et motivations en analysant différentes approches actuellement mises en pratique. On s’intéresse plus particulièrement aux méthodes inspirées de la physique statistique. Ensuite, basé sur notre analyse qualitative, nous présentons une méthode optimisée, appelé laméthode de Fast Flat Histogram (FFH) qui est intrinsèquement très générique. La méthode emploie l’algorithme de Wang-Landau, l’algorithme de Metropolis-Hastings et les chaines de Markov. Elle fonctionne dans le cadre de l’AIS et nous donne un gain de simulation satisfaisant. Différents paramètres sont utilisés pour assurer une précision statistique suffisante. L’extension vers d’autres types de codes correcteurs d’erreurs est direct. Nous présentons les résultats pour les codes LDPC et turbocodes ayant différentes tailles et différents rendements. Par conséquent, nous montrons que la méthode FFH est générique et valable pour une large gamme des rendements, tailles et structures. De plus, nous montrons que la méthode FFH est un outil puissant pour trouver des pseudocodewords dans la région de RSB élévé en appliquant l’algorithme de décodage Belief Propagation aux codes LDPC
The time taken by standard Monte Carlo (MC) simulation to calculate the Frame Error Rate (FER) increases exponentially with the increase in Signal-to-Noise Ratio (SNR). Importance Sampling (IS) is one of the most successful techniques used to reduce the simulation time. In this thesis, we investigate an advanced version of IS, called Adaptive Importance Sampling (AIS) algorithm to efficiently evaluate the performance of Forward Error Correcting (FEC) codes at very low error rates. First we present the inspirations and motivations behind this work by analyzing different approaches currently in use, putting an emphasis on methods inspired by Statistical Physics. Then, based on this qualitative analysis, we present an optimized method namely Fast Flat Histogram (FFH) method, for the performance evaluation of FEC codes which is generic in nature. FFH method employs Wang Landau algorithm and is based on Markov Chain Monte Carlo (MCMC). It operates in an AIS framework and gives a good simulation gain. Sufficient statistical accuracy is ensured through different parameters. Extension to other types of error correcting codes is straight forward. We present the results for LDPC codes and turbo codes with different code lengths and rates showing that the FFH method is generic and is applicable for different families of FEC codes having any length, rate and structure. Moreover, we show that the FFH method is a powerful tool to tease out the pseudo-codewords at high SNR region using Belief Propagation as the decoding algorithm for the LDPC codes
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Philippe, Anne. "Contribution à la théorie des lois de référence et aux méthodes de Monte Carlo". Rouen, 1997. http://www.theses.fr/1997ROUES005.

Texto completo da fonte
Resumo:
Cette thèse est composée de deux parties distinctes : la première relève de la statistique bayésienne et la seconde des méthodes de Monte Carlo. Nous étudions, dans la première partie, l'apport des lois non informatives de référence. Nous obtenons, via ces lois et les régions de confiance bayésiennes, une solution au classique problème de Fieller-Creasy posé par le modèle de calibration. Un deuxième problème est l'estimation de fonctions quadratiques d'une moyenne normale. Il conduit à de surprenantes complications dans les inférences bayésiennes et fréquentistes. Nous évaluons les propriétés de ces lois et plus particulièrement leurs propriétés de couverture pour ce modèle. La seconde partie de cette thèse est consacrée à l'estimation des intégrales par les méthodes de Monte Carlo. Nous introduisons un estimateur de Monte Carlo basé sur les propriétés des sommes de Riemann. Nous montrons que cet estimateur possède des propriétés de convergence supérieures aux approches classiques. Nous montrons que la méthode d'échantillonnage pondéré se généralise à notre estimateur et produit un estimateur optimal en terme de réduction de la variance. Nous généralisons notre estimateur aux méthodes de Monte Carlo par chaines de Markov. De plus, nous établissons un critère de contrôle de convergence des chaines de Markov issues des algorithmes de Monte Carlo par chaines de Markov. L'étape de simulation des variables aléatoires, qui apparait dans les méthodes de Monte Carlo, est abordée dans notre étude des lois gamma tronquées. Nous déterminons des algorithmes d'acceptation-rejet dominant les approches classiques. Nous avons illustré les différents résultats obtenus par de nombreuses simulations.
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Sadiki, Wafaa. "Estimation et validation a posteriori des statistiques d'erreur pour une assimilation à aire limitée". Toulouse 3, 2005. http://www.theses.fr/2005TOU30019.

Texto completo da fonte
Resumo:
Les méthodes d'assimilation réalisent une combinaison entre une ébauche de l'état de l'atmosphère et des données d'observation. Il est nécessaire de fournir à l'algorithme assimilateur une estimation des erreurs affectant les différentes sources d'information. Nous nous intéressons surtout au schéma variationnel 3d dans le modèle à aire limitée ALADIN. L'objectif est d'étudier d'une part les propriétés des covariances d'erreur de prévision dans un modèle à aire limitée et, d'autre part, de tester dans un cadre de données d'observation réelles, des méthodes de réglage a posteriori des écarts-types d'erreur (prévision, observation). Nous avons d'abord constaté qu'aux grandes échelles les erreurs de prévision dans ALADIN sont contrôlées par le modèle coupleur ARPEGE. Par la validation a posteriori, nous avons mis en évidence une sous-estimation de la variance d'erreur de prévision, et une surestimation de la variance d'erreur d'observation. Nous avons également adapté ces diagnostics au cadre d'un système au nombre d'observations éventuellement faible, en faisant appel à des propriétés d'ergodicité dans les signaux
Data assimilation methods perform a combination between a background state of the atmosphere and observations. The formulation of any assimilation system requires the knowledge of the weights attributed to each source of information. The system of interest is the limited area 3d-Var analysis of ALADIN. The aim is, on the one hand, to study the properties of background error covariances in a limited area model and, on the other hand, to apply the a posteriori diagnostics in a real data observation environment, in order to calibrate the background and observational error standard deviations. Firstly, we show that, for the large scales, the background errors are controlled by the ARP\`EGE global model. Secondly, through a posteriori validation, we have found an underestimation of the background error variance, and an overestimation of the observational error variance. Moreover, we have adapted these diagnostics to the frame of a limited amount of observations using ergodic properties of the signals
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Bréhard, Thomas Le Cadre Jean-Pierre. "Estimation séquentielle et analyse de performances pour un problème de filtrage non linéaire partiellement observé application à la trajectographie par mesure d'angles /". [S.l.] : [s.n.], 2005. ftp://ftp.irisa.fr/techreports/theses/2005/brehard.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Ben, Aïssa Anis. "Estimation et prévision des temps de parcours sur autoroutes : exploitation des transactions de péages, méthode des stocks corrigée, filtrage particulaire". Lyon 1, 2007. http://www.theses.fr/2007LYO10048.

Texto completo da fonte
Resumo:
Le temps de parcours considéré comme indicateur clef pour la caractérisation des conditions de circulation sur un réseau routier, se trouve au coeur de préoccupations relatives à la qualité de service, à la gestion du trafic et à l’information des usagers. Son estimation et sa prévision, en utilisant toutes les données disponibles, posent un certain nombre de difficultés d’ordre théorique, technique et méthodologique. Pour répondre efficacement à ce problème, cette thèse propose des méthodologies d’estimation et de prévision des temps de parcours sur autoroute, en les inscrivant dans une optique opérationnelle. Plus précisément, elle aborde trois approches. La première repose sur l’exploitation hors-ligne et en ligne des transactions de péages. La seconde propose des corrections des principaux biais de la méthode des stocks, classiquement utilisée. Enfin, la troisième est fondée sur la modélisation macroscopique du trafic, ainsi que sur les techniques de filtrages particulaires
The travel time is considered as a key indicator for the traffic conditions characterization on a road network, especially regarding quality of service, traffic management and user information. Its estimation and its prediction, using all available data, raise theoretical, technical and methodological issues. In order to fulfil efficiently the above issues, this thesis proposes travel time estimation and prediction methodologies on motorways, for an operational context. More precisely, three strategies have been studied. The first one is based on the off-line and on-line processing of toll data collection. The second one corrects the principal drawbacks of the classically used queuing method. Finally, the third one is based on the macroscopic traffic modelling coupled with particle filter techniques
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Bréhard, Thomas. "Estimation séquentielle et analyse de performances pour un problème de filtrage non linéaire partiellement observé : application à la trajectographie par mesure d'angles". Rennes 1, 2005. http://www.theses.fr/2005REN1S118.

Texto completo da fonte
Resumo:
De grandes avancées ont été faites dans la résolution des problèmes de filtrage grâce aux méthodes de Monte Carlo séquentielles. Nous évoquons ici un problème de filtrage particulier: la trajectographie par mesure d'angles (TMA). Il a ceci de particulier que le capteur fournit seulement une information partielle sur l'état de la cible. Nous montrons qu'il n'est pas raisonnable de résoudre ce problème à l'aide des méthodes particulaires classiques. La première contribution est un filtre particulaire hiérarchique permettant d'intégrer cet aspect. La deuxième contribution concerne la borne de Cramér-Rao a posteriori. Un important travail théorique est réalisé pour appliquer cet outil à la TMA. Cette borne peut être calculée exactement ce qui permet d'envisager son utilisation pour la gestion de capteurs. La dernière contribution concerne l'estimation distribuée à l'aide d'un réseau de capteurs. Des formules de fusion non linéaires basées sur le filtre particulaire sont proposées.
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Castillo-Effen, Mauricio. "Cooperative localization in wireless networked systems". [Tampa, Fla.] : University of South Florida, 2007. http://purl.fcla.edu/usf/dc/et/SFE0002220.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Rollet, Yannis. "Vers une maîtrise des incertitudes en calcules des structures composites". Palaiseau, Ecole polytechnique, 2007. http://www.theses.fr/2007EPXX0045.

Texto completo da fonte
Resumo:
Les exigences de sécurité dans le domaine aéronautique imposent de tenir compte des diverses incertitudes affectant les structures, notamment la variabilité matériau. Malgré son essor la simulation numérique considère actuellement cette problématique de façon simplifiée, par exemple en usant d’abattements sur les valeurs de propriétés utilisées dans les calculs. Mais l’emploi accru des matériaux composites, par nature plus sensibles aux incertitudes, demande l’introduction de méthodes plus précises afin d’assurer une meilleure robustesse du dimensionnement. Pour cela, il a été développé une nouvelle démarche dite d’Analyse de Variabilité respectant certaines contraintes de la simulation numérique telle l’indépendance vis-à-vis du code de calcul (non-intrusivité) et la parcimonie des calculs. Face à la grande diversité des techniques de transport d’incertitudes, le choix a été fait de construire une démarche en s’appuyant sur les techniques de surfaces de réponses. Afin d’exploiter au mieux les diverses formes retenues (polynômes en les paramètres incertains, chaos polynomial, krigeage) pour construire l’approximation, la démarche a été rendue progressive. Des méthodes de validation croisée (leave-k-out, bootstrap) ont été utilisées pour évaluer la qualité de l’approximation. Ainsi, il est possible d’afficher une estimation des effets des incertitudes (par exemple sous la forme de barres d’erreur) mais également de quantifier la confiance dans cette estimation. La validation de la démarche s’est tout d’abord appuyée sur des exemples mathématiques, puis sur des situations mécaniques simples et analytiques. Les résultats obtenus montrent notamment une bonne cohérence vis-à-vis des simulations de Monte-Carlo pour un coût de calcul nettement inférieur. Les incertitudes considérées portent aussi bien sur des paramètres géométriques que matériau, avec notamment des caractéristiques propres aux composites (angles d’empilement, épaisseur des plis). L’application de la démarche à divers exemples (plaque multiperforée, assemblage boulonné,…) de calcul de structures par la méthode des éléments finis a souligné son applicabilité pour un surcoût de calcul raisonnable. Pour finir, le problème de la réduction des effets des incertitudes a été abordé sous des angles classiques comme la réduction des incertitudes d’entrée ou l’amélioration de la qualité des modèles utilisés. Enfin, une méthode plus originale, dite de consolidation de bases de données, utilisant les corrélations entre paramètres mesurés aux diverses échelles des composites a été proposée
Security requirements in the aeronautic field require to take account of the various uncertainties affecting the structures, in particular the material variability. Despite their expansion, numerical simulations consider most of the time this topic in a simplify way, for example applying penalty to the material properties used in the calculations. But the increasing use of composite materials, intrinsically more sensitive to uncertainties, necessitates the development of sharper methods that could insure a better reliability of the design. Thus, the new Variability Analysis approach has been developed, to deal with numerical simulations constraints, such as computational code independence and limited number of calculations. Choice has been made to build an approach using response surface techniques. This approach is progressive for a better use of the various type of approximation selected (polynomials, polynomial chaos, kriging). Cross-validation techniques (leave-k-out, bootstrap) have been used to estimate the quality of the approximation. So that it is possible to display an assessment of the effects of uncertainties (with error bars) but also to evaluate the confidence of this assessment. Mathematical and analytic mechanical examples have permitted the validation of the approach which shows good agreements with Monte-Carlo simulations for a lower computation cost. Uncertain parameters used concern as well the geometry or the material properties as specific composite parameters (orientation and thickness of plies). Applied on various examples of finite elements calculations, the approach has shown good performances and a reasonable computing cost. Finally, the question of the reduction of the uncertainties effects has been considered. Solutions such as reduction of the uncertainties on the given parameters or improvement of models were investigated. In the end the new data basis improvement method, using correlation between parameters at the various scaled of composite materials, has been proposed
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Bidon, Stéphanie. "Estimation et détection en milieu non-homogène : application au traitement spatio-temporel adaptatif". Phd thesis, Toulouse, INPT, 2008. https://hal.science/tel-04426860.

Texto completo da fonte
Resumo:
Pour un radar aéroporté, la détection de cibles nécessite, de par la nature du fouillis de sol, la mise en place d'un filtre spatio-temporel adaptatif. Les détecteurs basés sur l'hypothèse d'un milieu homogène sont souvent mis à mal dans un environnement réel, où les caractéristiques du fouillis peuvent varier significativement en distance et en angle. Diverses stratégies existent pour contrer les effets délétères de l'hétérogénéité. La thèse propose d'approfondir deux de ces stratégies. Plus précisément, un nouveau modèle de données est présenté dans un contexte Bayésien : il intègre à la fois une relation originale d'hétérogénéité et de connaissance a priori. De nouveaux estimateurs de la matrice de covariance du bruit ainsi que de nouveaux détecteurs sont calculés à partir de ce modèle et étudiés par simulations numériques. Les résultats obtenus montrent que le modèle proposé permet d'intégrer de manière appropriée l'information a priori dans le processus de détection
Space-time adaptive processing is required in future airborne radar systems to improve the detection of targets embedded in clutter. Performance of detectors based on the assumption of an homogeneous environment can be severely degraded in practical applications. Indeed real world clutter features can vary significantly in both angle and range. So far, different strategies have been proposed to overcome the deleterious effect of heterogeneity. This dissertation proposes to study two of these strategies. More precisely a new data model is introduced in a Bayesian framework: it allows to incorporate both an original relation of heterogeneity and a priori knowledge. New estimation and detection schemes are derived according to the model ; their performances are also studied through numerical simulations. Results show that the proposed model and algorithms allow to incorporate in an appropriate way a priori information in the detection scheme
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Bidon, Stéphanie. "Estimation et détection en milieu non-homogène : application au traitement spatio-temporel adaptatif". Phd thesis, Toulouse, INPT, 2008. http://oatao.univ-toulouse.fr/7737/1/bidon.pdf.

Texto completo da fonte
Resumo:
Pour un radar aéroporté, la détection de cibles nécessite, de par la nature du fouillis de sol, la mise en place d'un filtre spatio-temporel adaptatif (STAP). Les détecteurs basés sur l'hypothèse d'un milieu homogène sont souvent mis à mal dans un environnement réel, où les caractéristiques du fouillis peuvent varier significativement en distance et en angle. Diverses stratégies existent pour contrer les effets délétères de l'hétérogénéité. La thèse propose d'approfondir deux de ces stratégies. Plus précisément, un nouveau modèle d'environnement est présenté dans un contexte Bayésien : il intègre à la fois une relation originale d'hétérogénéité et de la connaissance a priori. De nouveaux estimateurs de la matrice de covariance du bruit ainsi que de nouveaux détecteurs sont calculés à partir de ce modèle. Ils sont étudiés de manière théorique et par simulations numériques. Les résultats obtenus montrent que le modèle proposé permet d'intégrer de manière intelligente l'information a priori dans le processus de détection.
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Nguyen, Thi Ngoc Minh. "Lissage de modèles linéaires et gaussiens à régimes markoviens. : Applications à la modélisation de marchés de matières premières". Electronic Thesis or Diss., Paris, ENST, 2016. https://pastel.hal.science/tel-03689917.

Texto completo da fonte
Resumo:
Les travaux présentés dans cette thèse portent sur l'analyse et l'application de méthodes de Monte Carlo séquentielles pour l'estimation de chaînes de Markov cachées. Ces méthodes sont utilisées pour approcher les lois conditionnelles des états cachés sachant les observations. Nous nous intéressons en particulier à la méthode des deux filtres qui permet d'estimer les lois marginales des états sachant les observations. Nous prouvons tout d'abord des résultats de convergence pour l'ensemble de ces méthodes sous des hypothèses faibles sur le modèle de Markov caché. En ajoutant des hypothèses de mélange fort, nous montrons que les constantes des inégalités de déviation ainsi que les variances asymptotiques sont uniformément majorées en temps. Nous nous intéressons par la suite à l'utilisation de ces modèles et de la méthode des deux filtres à la modélisation, l’inférence et la prédiction des marchés de matières premières. Les marchés sont modélisés par une extension du modèle de Gibson-Schwartz portant sur le prix spot et le convenience yield avec la dynamique de ces variables est contrôlée par une chaîne de Markov discrète cachée identifiant le régime dans lequel se trouve le marché. A chaque régime correspond un ensemble de paramètres régissant la dynamique des variables d'état, ce qui permet de définir différents comportements pour le prix spot et le convenience yield. Nous proposons un nouvel algorithme de type Expectation Maximization basé sur une méthode de deux-filtres pour approcher la loi postérieure des états cachés sachant des observations. Les performances de cet algorithme sont évaluées sur les données du pétrole brut du marché Chicago Mercantile Exchange
The work presented in this thesis focuses on Sequential Monte Carlo methods for general state space models. These procedures are used to approximate any sequence of conditional distributions of some hidden state variables given a set observations. We are particularly interested in two-filter based methods to estimate the marginal smoothing distribution of a state variable given past and future observations. We first prove convergence results for the estimators produced by all two-filter based Sequential Monte Carlo methods under weak assumptions on the hidden Markov model. Under additional strong mixing assumptions which are more restrictive but still standard in this context, we show that the constants of the deviation inequalities and the asymptotic variances are uniformly bounded in time. Then, a Conditionally Linear and Gaussian hidden Markov model is introduced to explain commodity markets regime shifts. The markets are modeled by extending the Gibson-Schwartz model on the spot price and the convenience yield. It is assumed that the dynamics of these variables is controlled by a discrete hidden Markov chain identifying the regimes. Each regime corresponds to a set of parameters driving the state space model dynamics. We propose a Monte Carlo Expectation Maximization algorithm to estimate the parameters of the model based on a two-filter method to approximate the intermediate quantity. This algorithm uses explicit marginalization (Rao Blackwellisation) of the linear states to reduce Monte Carlo variance. The algorithm performance is illustrated using Chicago Mercantile Exchange (CME) crude oil data
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Barembruch, Steffen. "Méthodes approchées de maximum de vraisemblances pour la classification et identification aveugles en communications numériques". Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00574365.

Texto completo da fonte
Resumo:
La thèse considère la classification aveugle de modulations linéaires en communication numérique sur des canaux sélectifs en fréquence (et en temps). Nous utilisons l'approche de maximum de vraisemblance et nous développons plusieurs estimateurs de modèle
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Elie, Romuald. "Contrôle stochastique et méthodes numériques en finance mathématique". Phd thesis, Paris 9, 2006. http://tel.archives-ouvertes.fr/tel-00122883.

Texto completo da fonte
Resumo:
Cette thèse présente trois sujets de recherche indépendants appartenant au domaine des méthodes numériques et du contrôle stochastique avec des applications en mathématiques financières.

Nous présentons dans la première partie une méthode non-paramétrique d'estimation des sensibilités des prix d'options. A l'aide d'une perturbation aléatoire du paramètre d'intérêt, nous représentons ces sensibilités sous forme d'espérance conditionnelle, que nous estimons à l'aide de simulations Monte Carlo et de régression par noyaux. Par des arguments d'intégration par parties, nous proposons plusieurs estimateurs à noyaux de ces sensibilités, qui ne nécessitent pas la connaissance de la densité du sous-jacent, et nous obtenons leurs propriétés asymptotiques. Lorsque la fonction payoff est irrégulière, ils convergent plus vite que les estimateurs par différences finies, ce que l'on vérifie numériquement.

La deuxième partie s'intéresse à la résolution numérique de systèmes découplés d'équations différentielles stochastiques progressives rétrogrades. Pour des coefficients Lipschitz, nous proposons un schéma de discrétisation qui converge plus vite que $n^{-1/2+e}$, pour tout $e>0$, lorsque le pas de temps $1/n$ tends vers $0$, et sous des hypothèses plus fortes de régularité, le schéma atteint la vitesse de convergence paramétrique. L'erreur statistique de l'algorithme dûe a l'approximation non-paramétrique d'espérances conditionnelles est également controlée et nous présentons des exemples de résolution numérique de systèmes couplés d'EDP semi-linéaires.

Enfin, la dernière partie de cette thèse étudie le comportement d'un gestionnaire de fond, maximisant l'utilité intertemporelle de sa consommation, sous la contrainte que la valeur de son portefeuille ne descende pas en dessous d'une fraction fixée de son maximum courant. Nous considérons une classe générale de fonctions d'utilité, et un marché financier composé d'un actif risqué de dynamique black-Scholes. Lorsque le gestionnaire se fixe un horizon de temps infini, nous obtenons sous forme explicite sa stratégie optimale d'investissement et de consommation, ainsi que la fonction valeur du problème. En horizon fini, nous caractérisons la fonction valeur comme unique solution de viscosité de l'équation d'Hamilton-Jacobi-Bellman correspondante.
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Kakakhail, Shahkar. "Prédiction et estimation de très faibles taux d'erreur pour des chaînes de communication codées". Phd thesis, Université de Cergy Pontoise, 2010. http://tel.archives-ouvertes.fr/tel-00819416.

Texto completo da fonte
Resumo:
Dans cette thèse, nous abordons le sujet d'optimisation des méthodes utlisées pour l'évaluation de performance des codes correcteurs d'erreurs. La durée d'une simula- tion Monte Carlo pour estimer le taux d'erreurs dans un système de communication augmente exponentiellement avec l'accroissement du Rapport Signal sur Bruit (RSB). Importance Sampling (IS) est une des techniques qui permettent à réduire le temps de ces simulations. Dans ce travail, on a étudié et mis en oeuvre une version avancée d'IS, appelé Adaptive Importance Sampling (AIS), pour l'évaluation efficace des codes cor- recteurs d'erreurs aux taux d'erreur très bas. D'abord, nous présentons les inspirations et motivations en analysant différentes approches actuellement mises en pratique. On s'intéresse plus particulièrement aux méthodes inspirées de la physique statistique. Ensuite, basé sur notre analyse qualita- tive, nous présentons une méthode optimisée, appelé la méthode de Fast Flat Histogram (FFH) qui est intrinsèquement très générique. La méthode emploie l'algorithme de Wang-Landau, l'algorithme de Metropolis-Hastings et les chaines de Markov. Elle fonctionne dans le cadre de l'AIS et nous donne un gain de simulation satisfaisant. Différents paramètres sont utilisés pour assurer une précision statistique suffisante. L'extension vers d'autres types de codes correcteurs d'erreurs est directe. Nous présentons les résultats pour les codes LDPC et turbocodes ayant dif- férentes tailles et différents rendements. Par conséquent, nous montrons que la méthode FFH est générique et valable pour une large gamme des rendements, tailles et structures. De plus, nous montrons que la méthode FFH est un outil puissant pour trouver des pseudocodewords dans la région de RSB élévé en appliquant l'algorithme de décodage Belief Propagation aux codes LDPC.
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Lu, Zhiping. "Analyse des processus longue mémoire stationnaires et non-stationnaires : estimations, applications et prévisions". Phd thesis, Cachan, Ecole normale supérieure, 2009. https://theses.hal.science/tel-00422376/fr/.

Texto completo da fonte
Resumo:
Dans cette thèse, on considère deux types de processus longues mémoires : les processus stationnaires et non-stationnaires. Nous nous consacrons à l’étude de leurs propriétés statistiques, les méthodes d’estimation, les méthodes de prévision et les tests statistiques. Les processus longue mémoire stationaires ont été largement étudiés au cours des dernières décennies. Il a été démontré que des processus longue mémoire ont des propriétés d’autosimilarité, qui sont importants pour l’estimation des paramètres. Nous passons en revue les propriétés d’auto-similairité des processus longue mémoire en temps continu et en temps discret. Nous proposons deux propositions montrant que les processus longue mémoire sont asymptotiquement auto-similaires du deuxième ordre, alors que processus courte mémoire ne sont pas asymptotiquement auto-similaires du deuxième ordre. Ensuite, nous étudions l’auto-similairité des processus longue mémoire spécifiques tels que les processus GARMA à k facteurs et les processus GIGARCH à k facteurs. Nous avons également étudié les propriétés d’auto-similarités des modèles heteroscedastiques et des processus avec des sauts. Nous faisons une revue des méthodes d’estimation des paramètres des processus longue mémoire, par méthodes paramétriques (par exemple, l’estimation par maximum de vraisemblance et estimation par pseudo-maximum de vraisemblance) et les méthodes semiparamétriques (par exemple, la méthode de GPH, la méthode de Whittle, la méthode de Robinson). Les comportements de consistance et de normalité asymptotique sont également étudiés pour ces estimateurs. Le test sur l’ordre fractionnaire intégré de la racine unité saisonnière et non-saisonnière des processus longue mémoire stationnaires est très important pour la modélisation des series économiques et financières. Le test de Robinson (1994) est largement utilisé et appliqué aux divers modèles longues mémoires bien connus. A partir de méthode de Monte Carlo, nous étudions et comparons les performances de ce test en utilisant plusieurs tailles d’échantillons. Ce travail est important pour les praticiens qui veulent utiliser le test de Robinson. Dans la pratique, lorsqu’on traite des données financières et économiques, la saisonnalité et la dépendance qui évolvent avec le temps peuvent souvent être observées. Ainsi une sorte de non-stationnarité existe dans les données financières. Afin de prendre en compte ce genre de phénomènes, nous passons en revue les processus non-stationnaires et nous proposons une nouvelle classe de processus stochastiques: les processus de Gegenbauer à k facteurs localement stationnaire. Nous proposons une procédure d’estimation de la fonction de paramètres en utilisant la transformation discrète en paquets d’ondelettes (DWPT). La robustesse de l’algorithme est étudiée par simulations. Nous proposons également des méthodes de prévisions pour cette nouvelle classe de processus non-stationnaire à long mémoire. Nous dennons des applications sur le terme de la correction d’erreurs de l’analyse cointégration fractionnaire de l’index Nikkei Stock Average 225 et nous étudions les prix mondiaux du pétrole brut
In this thesis, we consider two classes of long memory processes: the stationary long memory processes and the non-stationary long memory processes. We are devoted to the study of their probabilistic properties, estimation methods, forecast methods and the statistical tests. Stationary long memory processes have been extensively studied over the past decades. It has been shown that some long memory processes have the properties of self-similarity, which are important for parameter estimation. We review the self-similar properties of continuous-time and discrete-time long memory processes. We establish the propositions that stationary long memory process is asymptotically second-order self-similar, while stationary short memory process is not asymptotically second-order self-similar. Then we extend the results to specific long memory processes such as k-factor GARMA processes and k-factor GIGARCH processes. We also investigate the self-similar properties of some heteroscedastic models and the processes with switches and jumps. We make a review for the stationary long memory processes’ parameter estimation methods, including the parametric methods (for example, maximum likelihood estimation, approximate maximum likelihood estimation) and the semiparametric methods (for example, GPH method, Whittle method, Robinson method). The consistency and asymptotic normality behaviors are also investigated for the estimators. Testing the fractionally integrated order of seasonal and non-seasonal unit roots of the stochastic stationary long memory process is quite important for the economic and financial time series modeling. The widely used Robinson test (1994) is applied to various well-known long memory models. Via Monte Carlo experiments, we study and compare the performances of this test using several sample sizes, which provide a good reference for the practitioners who want to apply Robinson’s test. In practice, seasonality and time-varying long-range dependence can often be observed and thus some kind of non-stationarity exists inside the economic and financial data sets. To take into account this kind of phenomena, we review the existing non-stationary processes and we propose a new class of non-stationary stochastic process: the locally stationary k-factor Gegenbauer process. We describe a procedure of estimating consistently the time-varying parameters with the help of the discrete wavelet packet transform (DWPT). The consistency and asymptotic normality of the estimates are proved. The robustness of the algorithm is investigated through simulation study. We also propose the forecast method for this new non-stationary long memory processes. Applications and forecasts based on the error correction term in the error correction model of the Nikkei Stock Average 225 (NSA 225) index and theWest Texas Intermediate (WTI) crude oil price are followed
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Giremus, Audrey. "Apport des techniques de filtrage particulaire pour la navigation avec les systèmes de navigation inertiels et le GPS". Toulouse, ENSAE, 2005. http://www.theses.fr/2005ESAE0026.

Texto completo da fonte
Resumo:
Longtemps l'apanage du domaine militaire, la navigation s'ouvre aujourd'hui au grand public et se décline en de nombreuses applications. Le développement de systèmes de positionnement fiables et robustes revêt un aspect stratégique notamment pour les applications critiques du point de vue sécurité (aviation civile). Cette thèse explore deux pistes de recherche pour améliorer les performances de navigation. D'une part sont étudiées les techniques de couplage, qui mettent à profit la complémentarité de différents systèmes de positionnement. D'autre part, une partie du travail de thèse est consacrée au développement d'algorithmes plus robustes et plus précis pour retrouver la trajectoire d'un mobile à partir d'un jeu de mesure capteurs. Les filtres particulaires forment une alternative intéressante au classique filtre de Kalman car ils n'imposent aucune contrainte a priori sur le modèle de filtrage. Il s'agit de méthodes séquentielles de Monte Carlo qui font évoluer un ensemble de particules, chacune représentant un état possible du système à un instant donné. Nous avons ainsi étudié l'opportunité de les appliquer aux problèmes non linéaires de l'hybridation serrée et très serrée du GPS et des systèmes de navigation inertielle. Enfin, une seconde contribution de la thèse est le développement d'algorithmes de filtrage particulaires capables de détecter et corriger les perturbations affectant les mesures GPS (multitrajets, interférences) tout en estimant la trajectoire du véhicule.
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Lucas, Jean-Paul. "Contamination des logements par le plomb : prévalence des logements à risque et identication des déterminants de la contamination". Nantes, 2013. http://archive.bu.univ-nantes.fr/pollux/show.action?id=ee1e7f1b-e1e9-455c-afa8-ea7f68143c8e.

Texto completo da fonte
Resumo:
Les niveaux en plomb (Pb) en milieu résidentiel ont été estimés pour la 1ère fois en France métropolitaine. Pour cela les outils de la théorie des sondages ont été appliqués aux données de l'enquête Plomb-Habitat (2008-2009). Un échantillon de 484 logements a été construit afin d'étudier la population de résidences principales (N = 3 581 991) abritant au moins un enfant âgé de 6 mois à 6 ans. Environ 2,9% des logements possèdent une concentration en Pb dans l'eau du robinet supérieure au seuil réglementaire (SR) de 10 µg/L ; dans 0,21% des logements et 4,1% des parties communes le SR américain de 430 µg/m² de Pb est dépassé dans les poussières intérieures ; 1,4% des sols des aires de jeu extérieures dépassent le SR américain de 300 mg/kg de Pb ; 24,5% des logements ont encore des peintures au Pb. Le Pb des poussières est connu comme étant le principal prédicteur des plombémies infantiles. Un modèle multi-niveaux à 2 niveaux a été construit afin d'expliquer les charges en Pb des poussières des 1834 pièces (niveau 1) investiguées dans les logements (niveau 2). Aucune pondération n'a été introduite dans la méthode d'estimation (pseudo vraisemblance) utilisée pour ce type de modèle sur données d'enquête. La poussière du palier est le principal contributeur à la contamination des poussières. Une étude de simulation a été réalisée à partir de nos données afin de comparer les différentes pondérations pour le niveau 2 d'un modèle multi-niveaux. Son résultat a permis de valider l'utilisation d'un modèle à 2 niveaux non pondéré pour expliquer les charges en Pb de la poussière. Jusqu'alors dans la littérature, seule la pondération au niveau 1 avait été étudiée pour ce type de modèle
Residential lead levels were estimated for the first time in mainland France. For this, tools of the theory of survey sampling were applied to the data of the Plomb-Habitat survey (2008-2009). A sample of 484 dwelling was drawn to study the population (N = 3 581 991) of the main residences (as opposed to second home) where at least one child aged 6 months to 6 years was present. Approximately 2. 9% of housing units have a lead concentration in tap water higher or equal than the regulatory threshold (RT) of 10 µg/L; in approximately 0. 21% of dwellings and in 4. 1% of common areas the American RT of 430 µg/m² (40 µg/ft²) was exceeded for interior floor dust lead; 1. 4% of exterior play area soils exceed the American RT of 300 mg/kg of lead; 24. 5% of housing units have still lead-based paint. Lead in floor dust was pointed out as the main predictor of blood lead level in children. A multilevel model with 2 levels was fitted to explain the floor dust lead loadings of the 1834 rooms as level-1 units investigated in the homes considered as level-2 units. No weights was used in the estimation method (pseudolikelihood) used for this kind of modeling on survey data. Dust of the landing of an apartment is the main contributor to the contamination of dust by lead. A simulation study was carried out from our data to compare the different weights for the level-2 units of a multilevel model. Its result enabled us to confirm the fitting of an unweighted model to explain the dust lead loadings. Until now, only the level-1 weights had been studied in the literature for this kind of model
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Cisse, Papa Ousmane. "Étude de modèles spatiaux et spatio-temporels". Thesis, Paris 1, 2018. http://www.theses.fr/2018PA01E060/document.

Texto completo da fonte
Resumo:
Ce travail porte sur les séries spatiales. On étudie les phénomènes dont l’observation est un processus aléatoire indexé par un ensemble spatial. Dans cette thèse on s’intéresse aux données bidimensionnelles régulièrement dispersées dans l’espace, on travaille alors dans un rectangle régulier (sur Z2) . Cette modélisation vise donc à construire des représentations des systèmes suivant leurs dimensions spatiales et à ses applications dans de nombreux domaines tels que la météorologie, l’océanographie, l’agronomie, la géologie, l’épidémiologie, ou encore l’économétrie etc. La modélisation spatiale permet d’aborder la question importante de la prédiction de la valeur d’un champ aléatoire en un endroit donné d’une région. On suppose que la valeur à prédire dépend des observations dans les régions voisines. Ceci montre la nécessité de tenir compte, en plus de leurs caractéristiques statistiques, des relations de dépendance spatiale entre localisations voisines, pour rendre compte de l’ensemble des structures inhérentes aux données. Dans la plupart des champs d’applications, on est souvent confronté du fait que l’une des sources majeures de fluctuations est la saisonnalité. Dans nos travaux on s’intéresse particulièrement à ce phénomène de saisonnalité dans les données spatiales. Faire une modélisation mathématique en tenant en compte l’interaction spatiale des différents points ou localités d’une zone entière serait un apport considérable. En effet un traitement statistique qui prendrait en compte cet aspect et l’intègre de façon adéquat peut corriger une perte d’information, des erreurs de prédictions, des estimations non convergentes et non efficaces
This thesis focuses on the time series in addition to being observed over time, also have a spatial component. By definition, a spatiotemporal phenomenon is a phenomenon which involves a change in space and time. The spatiotemporal model-ling therefore aims to construct representations of systems taking into account their spatial and temporal dimensions. It has applications in many fields such as meteorology, oceanography, agronomy, geology, epidemiology, image processing or econometrics etc. It allows them to address the important issue of predicting the value of a random field at a given location in a region. Assume that the value depends predict observations in neighbouring regions. This shows the need to consider, in addition to their statistical characteristics, relations of spatial dependence between neighbouring locations, to account for all the inherent data structures. In the exploration of spatiotemporal data, refinement of time series models is to explicitly incorporate the systematic dependencies between observations for a given region, as well as dependencies of a region with neighboring regions. In this context, the class of spatial models called spatiotemporal auto-regressive models (Space-Time Autoregressive models) or STAR was introduced in the early 1970s. It will then be generalized as GSTAR model (Generalized Space-Time Autoregressive models). In most fields of applications, one is often confronted by the fact that one of the major sources of fluctuations is seasonality. In our work we are particularly interested in the phenomenon of seasonality in spatiotemporal data. We develop a new class of models and investigates the properties and estimation methods. Make a mathematical model taking into account the spatial inter-action of different points or locations of an entire area would be a significant contribution. Indeed, a statistical treatment that takes into account this aspect and integrates appropriate way can correct a loss of information, errors in predictions, non-convergent and inefficient estimates
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Lu, Zhiping. "Analyse des processus longue mémoire stationnaires et non-stationnaires : estimations, applications et prévisions". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2009. http://tel.archives-ouvertes.fr/tel-00422376.

Texto completo da fonte
Resumo:
Dans cette thèse, on considère deux types de processus longues mémoires : les processus stationnaires et non-stationnaires. Nous nous consacrons à l'étude de leurs propriétés statistiques, les méthodes d'estimation, les méthodes de prévision et les tests statistiques. Les processus longue mémoire stationaires ont été largement étudiés au cours des dernières décennies. Il a été démontré que des processus longue mémoire ont des propriétés d'autosimilarité, qui sont importants pour l'estimation des paramètres. Nous passons en revue les propriétés d'auto-similairité des processus longue mémoire en temps continu et en temps discret. Nous proposons deux propositions montrant que les processus longue mémoire sont asymptotiquement auto-similaires du deuxième ordre, alors que processus courte mémoire ne sont pas asymptotiquement auto-similaires du deuxième ordre. Ensuite, nous étudions l'auto-similairité des processus longue mémoire spécifiques tels que les processus GARMA à k facteurs et les processus GIGARCH à k facteurs. Nous avons également étudié les propriétés d'auto-similarités des modèles heteroscedastiques et des processus avec des sauts. Nous faisons une revue des méthodes d'estimation des paramètres des processus longue mémoire, par méthodes paramétriques (par exemple, l'estimation par maximum de vraisemblance et estimation par pseudo-maximum de vraisemblance) et les méthodes semiparamétriques (par exemple, la méthode de GPH, la méthode de Whittle, la méthode de Robinson). Les comportements de consistance et de normalité asymptotique sont également étudiés pour ces estimateurs. Le test sur l'ordre fractionnaire intégré de la racine unité saisonnière et non-saisonnière des processus longue mémoire stationnaires est très important pour la modélisation des series économiques et financières. Le test de Robinson (1994) est largement utilisé et appliqué aux divers modèles longues mémoires bien connus. A partir de méthode de Monte Carlo, nous étudions et comparons les performances de ce test en utilisant plusieurs tailles d'échantillons. Ce travail est important pour les praticiens qui veulent utiliser le test de Robinson. Dans la pratique, lorsqu'on traite des données financières et économiques, la saisonnalité et la dépendance qui évolvent avec le temps peuvent souvent être observées. Ainsi une sorte de non-stationnarité existe dans les données financières. Afin de prendre en compte ce genre de phénomènes, nous passons en revue les processus non-stationnaires et nous proposons une nouvelle classe de processus stochastiques: les processus de Gegenbauer à k facteurs localement stationnaire. Nous proposons une procédure d'estimation de la fonction de paramètres en utilisant la transformation discrète en paquets d'ondelettes (DWPT). La robustesse de l'algorithme est étudiée par simulations. Nous proposons également des méthodes de prévisions pour cette nouvelle classe de processus non-stationnaire à long mémoire. Nous dennons des applications sur le terme de la correction d'erreurs de l'analyse cointégration fractionnaire de l'index Nikkei Stock Average 225 et nous étudions les prix mondiaux du pétrole brut.
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Thajeel, Jawad. "Kriging-based Approaches for the Probabilistic Analysis of Strip Footings Resting on Spatially Varying Soils". Thesis, Nantes, 2017. http://www.theses.fr/2017NANT4111/document.

Texto completo da fonte
Resumo:
L’analyse probabiliste des ouvrages géotechniques est généralement réalisée en utilisant la méthode de simulation de Monte Carlo. Cette méthode n’est pas adaptée pour le calcul des faibles probabilités de rupture rencontrées dans la pratique car elle devient très coûteuse dans ces cas en raison du grand nombre de simulations requises pour obtenir la probabilité de rupture. Dans cette thèse, nous avons développé trois méthodes probabilistes (appelées AK-MCS, AK-IS et AK-SS) basées sur une méthode d’apprentissage (Active learning) et combinant la technique de Krigeage et l’une des trois méthodes de simulation (i.e. Monte Carlo Simulation MCS, Importance Sampling IS ou Subset Simulation SS). Dans AK-MCS, la population est prédite en utilisant un méta-modèle de krigeage qui est défini en utilisant seulement quelques points de la population, ce qui réduit considérablement le temps de calcul par rapport à la méthode MCS. Dans AK-IS, une technique d'échantillonnage plus efficace 'IS' est utilisée. Dans le cadre de cette approche, la faible probabilité de rupture est estimée avec une précision similaire à celle de AK-MCS, mais en utilisant une taille beaucoup plus petite de la population initiale, ce qui réduit considérablement le temps de calcul. Enfin, dans AK-SS, une technique d'échantillonnage plus efficace 'SS' est proposée. Cette technique ne nécessite pas la recherche de points de conception et par conséquent, elle peut traiter des surfaces d’état limite de forme arbitraire. Toutes les trois méthodes ont été appliquées au cas d'une fondation filante chargée verticalement et reposant sur un sol spatialement variable. Les résultats obtenus sont présentés et discutés
The probabilistic analysis of geotechnical structures involving spatially varying soil properties is generally performed using Monte Carlo Simulation methodology. This method is not suitable for the computation of the small failure probabilities encountered in practice because it becomes very time-expensive in such cases due to the large number of simulations required to calculate accurate values of the failure probability. Three probabilistic approaches (named AK-MCS, AK-IS and AK-SS) based on an Active learning and combining Kriging and one of the three simulation techniques (i.e. Monte Carlo Simulation MCS, Importance Sampling IS or Subset Simulation SS) were developed. Within AK-MCS, a Monte Carlo simulation without evaluating the whole population is performed. Indeed, the population is predicted using a kriging meta-model which is defined using only a few points of the population thus significantly reducing the computation time with respect to the crude MCS. In AK-IS, a more efficient sampling technique ‘IS’ is used instead of ‘MCS’. In the framework of this approach, the small failure probability is estimated with a similar accuracy as AK-MCS but using a much smaller size of the initial population, thus significantly reducing the computation time. Finally, in AK-SS, a more efficient sampling technique ‘SS’ is proposed. This technique overcomes the search of the design points and thus it can deal with arbitrary shapes of the limit state surfaces. All the three methods were applied to the case of a vertically loaded strip footing resting on a spatially varying soil. The obtained results are presented and discussed
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Vathanakhool, Khoollapath. "Estimation de la sécurité des poteaux en béton armé : compte tenu des variations aléatoires de leurs caractéristiques géométriques et mécaniques le long de leur ligne moyenne". Toulouse, INSA, 1987. http://www.theses.fr/1987ISAT0015.

Texto completo da fonte
Resumo:
Pour etablir l'influence des variations le long du poteau dues au coffrage, a la position des armatures et au caracteristiques des materiaux, methode de calcul de la probabilite de ruine par simulation monte carlo, en tenant compte de la correlation entre troncons; definition statistique du troncon critique, en fonctions de parametres comme l'elancement et le pourcentage d'armatures
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Puengnim, Anchalee. "Classification de modulations linéaires et non-linéaires à l'aide de méthodes bayésiennes". Toulouse, INPT, 2008. http://ethesis.inp-toulouse.fr/archive/00000676/.

Texto completo da fonte
Resumo:
La reconnaissance de modulations numériques consiste à identifier, au niveau du récepteur d'une chaîne de transmission, l'alphabet auquel appartiennent les symboles du message transmis. Cette reconnaissance est nécessaire dans de nombreux scénarios de communication, afin, par exemple, de sécuriser les transmissions pour détecter d'éventuels utilisateurs non autorisés ou bien encore de déterminer quel terminal brouille les autres. Le signal observé en réception est généralement affecté d'un certain nombre d'imperfections, dues à une synchronisation imparfaite de l'émetteur et du récepteur, une démodulation imparfaite, une égalisation imparfaite du canal de transmission. Nous proposons plusieurs méthodes de classification qui permettent d'annuler les effets liés aux imperfections de la chaîne de transmission. Les symboles reçus sont alors corrigés puis comparés à ceux du dictionnaire des symboles transmis
This thesis studies classification of digital linear and nonlinear modulations using Bayesian methods. Modulation recognition consists of identifying, at the receiver, the type of modulation signals used by the transmitter. It is important in many communication scenarios, for example, to secure transmissions by detecting unauthorized users, or to determine which transmitter interferes the others. The received signal is generally affected by a number of impairments. We propose several classification methods that can mitigate the effects related to imperfections in transmission channels. More specifically, we study three techniques to estimate the posterior probabilities of the received signals conditionally to each modulation
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Le, Son Khanh. "Modélisation probabiliste du pronostic : application à un cas d'étude et à la prise de décision en maintenance". Troyes, 2012. http://www.theses.fr/2012TROY0035.

Texto completo da fonte
Resumo:
L’estimation de la durée de vie résiduelle est un défi scientifique majeur et un thème central dans la communauté scientifique qui s’intéresse aux problèmes de pronostic. L’utilisation d’outils et méthodes rassemblés sous le terme de pronostic est largement répandue en aéronautique, électroniques, médecine, etc. La problématique sous-jacente commune est la mise en oeuvre de modèles qui tiennent compte en ligne de l’histoire d’un système et de son environnement, du diagnostic sur son état courant et éventuellement des conditions opérationnelles futures pour prédire une durée de vie résiduelle. Dans ce contexte, la problématique principale de ces travaux est l’utilisation d’approches probabilistes (de type processus stochastique non - stationnaire) pour construire des modèles de pronostic novateurs à partir d'un indicateur de dégradation d’un système et d’utiliser la prédiction de durée de vie résiduelle pour mettre en oeuvre des politiques de maintenance. L'avantage de ces modèles est d'avoir des propriétés de régularité qui facilitent les calculs de probabilité et l'estimation de la durée de vie résiduelle. Afin de tester les performances de nos modèles, nous avons réalisé une étude comparative sur un cas test fourni par la conférence IEEE PHM (Prognostic and Health Management) 2008
Remaining useful life (RUL) estimation is a major scientific challenge and a principal topic in the scientific community which takes an interest to prognosis problems. The use of tools and methods collected under the terms of prognostic is widely developed in many domains as aerospace industry, electronics, medicine, etc. The common underlying problem is the implementation of models which can take into account on-line the data histories of system and its environment, the diagnosis on its current state and possibly the future operational conditions for predicting the residual lifetime. In this context, the principal problem of our works is the use of probabilistic approaches (type of non-stationary stochastic process) to construct the innovatory prognostic models from a degradation indicator of system and to use the residual lifetime prediction for maintenance implementation. The advantage of these models is to have the regularity proprieties which make easy the probability calculation and RUL estimation. In order to test the performances of our models, a comparative study is carried out on the data provided by the 2008 IEEE Prognostic and Health Management (PHM)
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Elvira, Clément. "Modèles bayésiens pour l’identification de représentations antiparcimonieuses et l’analyse en composantes principales bayésienne non paramétrique". Thesis, Ecole centrale de Lille, 2017. http://www.theses.fr/2017ECLI0016/document.

Texto completo da fonte
Resumo:
Cette thèse étudie deux modèles paramétriques et non paramétriques pour le changement de représentation. L'objectif des deux modèles diffère. Le premier cherche une représentation en plus grande dimension pour gagner en robustesse. L'objectif est de répartir uniformément l’information d’un signal sur toutes les composantes de sa représentation en plus grande dimension. La recherche d'un tel code s'exprime comme un problème inverse impliquant une régularisation de type norme infinie. Nous proposons une formulation bayésienne du problème impliquant une nouvelle loi de probabilité baptisée démocratique, qui pénalise les fortes amplitudes. Deux algorithmes MCMC proximaux sont présentés pour approcher des estimateurs bayésiens. La méthode non supervisée présentée est appelée BAC-1. Des expériences numériques illustrent les performances de l’approche pour la réduction de facteur de crête. Le second modèle identifie un sous-espace pertinent de dimension réduite à des fins de modélisation. Mais les méthodes probabilistes proposées nécessitent généralement de fixer à l'avance la dimension du sous-espace. Ce travail introduit BNP-PCA, une version bayésienne non paramétrique de l'analyse en composantes principales. La méthode couple une loi uniforme sur les bases orthonormales à un a priori non paramétrique de type buffet indien pour favoriser une utilisation parcimonieuse des composantes principales et aucun réglage n'est nécessaire. L'inférence est réalisée à l'aide des méthodes MCMC. L'estimation de la dimension du sous-espace et le comportement numérique de BNP-PCA sont étudiés. Nous montrons la flexibilité de BNP-PCA sur deux applications
This thesis proposes Bayesian parametric and nonparametric models for signal representation. The first model infers a higher dimensional representation of a signal for sake of robustness by enforcing the information to be spread uniformly. These so called anti-sparse representations are obtained by solving a linear inverse problem with an infinite-norm penalty. We propose in this thesis a Bayesian formulation of anti-sparse coding involving a new probability distribution, referred to as the democratic prior. A Gibbs and two proximal samplers are proposed to approximate Bayesian estimators. The algorithm is called BAC-1. Simulations on synthetic data illustrate the performances of the two proposed samplers and the results are compared with state-of-the art methods. The second model identifies a lower dimensional representation of a signal for modelisation and model selection. Principal component analysis is very popular to perform dimension reduction. The selection of the number of significant components is essential but often based on some practical heuristics depending on the application. Few works have proposed a probabilistic approach to infer the number of significant components. We propose a Bayesian nonparametric principal component analysis called BNP-PCA. The proposed model involves an Indian buffet process to promote a parsimonious use of principal components, which is assigned a prior distribution defined on the manifold of orthonormal basis. Inference is done using MCMC methods. The estimators of the latent dimension are theoretically and empirically studied. The relevance of the approach is assessed on two applications
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Pastel, Rudy. "Estimation de probabilités d'évènements rares et de quantiles extrêmes : applications dans le domaine aérospatial". Phd thesis, Université Européenne de Bretagne, 2012. http://tel.archives-ouvertes.fr/tel-00728108.

Texto completo da fonte
Resumo:
Les techniques dédiées aux évènements rares sont d'un grand intérêt pour l'industrie aérospatiale en raison des larges sommes qui peuvent être perdues à cause des risques associés à des probabilités infimes. Cette thèse se concentre la recherche d'outils probabilistes capables d'estimer les probabilités d'évènements rares et les quantiles extrêmes associés à un système boîte noire dont les entrées sont des variables aléatoires. Cette étude est faite au travers de deux cas issus de l'industrie. Le premier est l'estimation de la probabilité de collision entre les satellites Iridium et Cosmos. La Cross-Entropy (CE), le Non-parametric Adaptive Importance Sampling (NAIS) et une technique de type Adaptive Splitting (AST) sont comparés. Au cours de la comparaison, une version améliorée de NAIS est conçue. Au contraire du NAIS qui doit être initialisé avec une variable aléatoire qui génère d'emblée des événements rares, le NAIS adaptatif (ANAIS) peut être initialisé avec la variable aléatoire d'origine du système et n'exige donc pas de connaissance a priori. Le second cas d'étude est l'estimation de la zone de sécurité vis-à-vis de la chute d'un booster de fusée. Bien que les quantiles extrêmes puissent être estimés par le bais de ANAIS ou AST, ils apparaissent comme inadaptés à une distribution spatiale. A cette fin, le Minimum Volume Set (MVS) est choisi dans la littérature. L'estimateur Monte Carlo (MC) de MVS n'étant pas adapté à l'estimation d'un MVS de niveau extrême, des estimateurs dédiés sont conçus à partir d'ANAIS et d'AST. Ces deux derniers surpassent l'estimateur de type MC.
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Le, Corff Sylvain. "Estimations pour les modèles de Markov cachés et approximations particulaires : Application à la cartographie et à la localisation simultanées". Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0052.

Texto completo da fonte
Resumo:
Dans cette thèse, nous nous intéressons à l'estimation de paramètres dans les chaînes de Markov cachées. Nous considérons tout d'abord le problème de l'estimation en ligne (sans sauvegarde des observations) au sens du maximum de vraisemblance. Nous proposons une nouvelle méthode basée sur l'algorithme Expectation Maximization appelée Block Online Expectation Maximization (BOEM). Cet algorithme est défini pour des chaînes de Markov cachées à espace d'état et espace d'observations généraux. Dans le cas d'espaces d'états généraux, l'algorithme BOEM requiert l'introduction de méthodes de Monte Carlo séquentielles pour approcher des espérances sous des lois de lissage. La convergence de l'algorithme nécessite alors un contrôle de la norme Lp de l'erreur d'approximation Monte Carlo explicite en le nombre d'observations et de particules. Une seconde partie de cette thèse se consacre à l'obtention de tels contrôles pour plusieurs méthodes de Monte Carlo séquentielles. Nous étudions enfin des applications de l'algorithme BOEM à des problèmes de cartographie et de localisation simultanées. La dernière partie de cette thèse est relative à l'estimation non paramétrique dans les chaînes de Markov cachées. Le problème considéré est abordé dans un cadre précis. Nous supposons que (Xk) est une marche aléatoire dont la loi des incréments est connue à un facteur d'échelle a près. Nous supposons que, pour tout k, Yk est une observation de f(Xk) dans un bruit additif gaussien, où f est une fonction que nous cherchons à estimer. Nous établissons l'identifiabilité du modèle statistique et nous proposons une estimation de f et de a à partir de la vraisemblance par paires des observations
This document is dedicated to inference problems in hidden Markov models. The first part is devoted to an online maximum likelihood estimation procedure which does not store the observations. We propose a new Expectation Maximization based method called the Block Online Expectation Maximization (BOEM) algorithm. This algorithm solves the online estimation problem for general hidden Markov models. In complex situations, it requires the introduction of Sequential Monte Carlo methods to approximate several expectations under the fixed interval smoothing distributions. The convergence of the algorithm is shown under the assumption that the Lp mean error due to the Monte Carlo approximation can be controlled explicitly in the number of observations and in the number of particles. Therefore, a second part of the document establishes such controls for several Sequential Monte Carlo algorithms. This BOEM algorithm is then used to solve the simultaneous localization and mapping problem in different frameworks. Finally, the last part of this thesis is dedicated to nonparametric estimation in hidden Markov models. It is assumed that the Markov chain (Xk) is a random walk lying in a compact set with increment distribution known up to a scaling factor a. At each time step k, Yk is a noisy observations of f(Xk) where f is an unknown function. We establish the identifiability of the statistical model and we propose estimators of f and a based on the pairwise likelihood of the observations
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Le, Corff Sylvain. "Estimations pour les modèles de Markov cachés et approximations particulaires : Application à la cartographie et à la localisation simultanées". Phd thesis, Telecom ParisTech, 2012. http://tel.archives-ouvertes.fr/tel-00773405.

Texto completo da fonte
Resumo:
Dans cette thèse, nous nous intéressons à l'estimation de paramètres dans les chaînes de Markov cachées dans un cadre paramétrique et dans un cadre non paramétrique. Dans le cas paramétrique, nous imposons des contraintes sur le calcul de l'estimateur proposé : un premier volet de cette thèse est l'estimation en ligne d'un paramètre au sens du maximum de vraisemblance. Le fait d'estimer en ligne signifie que les estimations doivent être produites sans mémoriser les observations. Nous proposons une nouvelle méthode d'estimation en ligne pour les chaînes de Markov cachées basée sur l'algorithme Expectation Maximization appelée Block Online Expectation Maximization (BOEM). Cet algorithme est défini pour des chaînes de Markov cachées à espace d'état et espace d'observations généraux. La consistance de l'algorithme ainsi que des vitesses de convergence en probabilité ont été prouvées. Dans le cas d'espaces d'états généraux, l'implémentation numérique de l'algorithme BOEM requiert d'introduire des méthodes de Monte Carlo séquentielles - aussi appelées méthodes particulaires - pour approcher des espérances conditionnelles sous des lois de lissage qui ne peuvent être calculées explicitement. Nous avons donc proposé une approximation Monte Carlo de l'algorithme BOEM appelée Monte Carlo BOEM. Parmi les hypothèses nécessaires à la convergence de l'algorithme Monte Carlo BOEM, un contrôle de la norme Lp de l'erreur d'approximation Monte Carlo explicite en fonction du nombre d'observations T et du nombre de particules N est nécessaire. Par conséquent, une seconde partie de cette thèse a été consacrée à l'obtention de tels contrôles pour plusieurs méthodes de Monte Carlo séquentielles : l'algorithme Forward Filtering Backward Smoothing et l'algorithme Forward Filtering Backward Simulation. Ensuite, nous considérons des applications de l'algorithme Monte Carlo BOEM à des problèmes de cartographie et de localisation simultanées. Ces problèmes se posent lorsqu'un mobile se déplace dans un environnement inconnu. Il s'agit alors de localiser le mobile tout en construisant une carte de son environnement. Enfin, la dernière partie de cette thèse est relative à l'estimation non paramétrique dans les chaînes de Markov cachées. Le problème considéré a été très peu étudié et nous avons donc choisi de l'aborder dans un cadre précis. Nous supposons que la chaîne (Xk) est une marche aléatoire sur un sous-espace compact de Rm dont la loi des incréments est connue à un facteur d'échelle a près. Nous supposons également que, pour tout k, Yk est une observation dans un bruit additif gaussien de f(Xk), où f est une fonction à valeurs dans Rl que nous cherchons à estimer. Le premier résultat que nous avons établi est l'identifiabilité du modèle statistique considéré. Nous avons également proposé une estimation de la fonction f et du paramètre a à partir de la log-vraisemblance par paires des observations. Nous avons prouvé la convergence en probabilité de ces estimateurs lorsque le nombre d'observations utilisées tend vers l'infini.
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Kebaier, Ahmed. "Réduction de variance et discrétisation d'équations différentielles stochastiques.Théorèmes limites presque sûre pour les martingales quasi-continues à gauche". Phd thesis, Université de Marne la Vallée, 2005. http://tel.archives-ouvertes.fr/tel-00011947.

Texto completo da fonte
Resumo:
Cette Thèse est composée de deux parties portant respectivement sur la discrétisation des équations différentielles stochastiques et sur le théorème de la limite centrale presque sûre pour les martingales.

La première Partie est composée de trois chapitres: Le premier chapitre introduit le cadre de l'étude et présente les résultats obtenus. Le deuxième chapitre est consacré à l'étude d'une nouvelle méthode d'accélération de convergence, appelée méthode de Romberg statistique, pour le calcul d'espérances de fonctions ou de fonctionnelles d'une diffusion.
Ce chapitre est la version augmentée d'un article à paraître dans la revue Annals of Applied Probability.

Le troisième chapitre traite de l'application de cette méthode à l'approximation de densité par des méthodes de noyaux.
Ce chapitre est basé sur un travail en collaboration avec Arturo Kohatsu-Higa.

La deuxième partie de la thèse est composée de deux chapitres: le premier chapitre présente la littérature récente concernant le théorème de la limite centrale presque sûre et ses extensions. Le deuxième chapitre, basé sur un travail en collaboration avec Faouzi Chaâbane, étend divers résultats de type TLCPS à des martingales quasi-continues à gauche.
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Rottner, Lucie. "Reconstruction de l'atmosphère turbulente à partir d'un lidar doppler 3D et étude du couplage avec Meso-NH". Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30373/document.

Texto completo da fonte
Resumo:
Ces travaux s'articulent autour de la détection et de la prévision des phénomènes turbulents dans la couche limite atmosphérique. Nous proposons tout d'abord une méthode stochastique innovante de reconstruction locale de l'atmosphère. Nous utilisons des systèmes de particules pour modéliser l'écoulement atmosphérique et sa variabilité interne. L'apprentissage des paramètres turbulents et la mise à jour des particules se font à l'aide d'observations mesurées par un lidar Doppler 3D. Nous présentons ensuite une nouvelle méthode de descente d'échelle stochastique pour la prévision de la turbulence sous-maille. A partir du modèle en points de grille Meso-NH, nous forçons un système de particules qui évolue à l'intérieur des mailles. Notre méthode de descente d'échelle permet de modéliser des champs sous-maille cohérents avec le modèle en points de grille. Dans un troisième et dernier temps nous introduisons les problèmes de remontée d'échelle. La reconstruction de l'atmosphère modélise la turbulence dans un volume restreint qui couvre au plus quelques mailles des modèles météorologiques en points de grille. L'objectif de la remontée d'échelle est de construire une méthode d'assimilation de l'atmosphère reconstruite. En utilisant l'algorithme de nudging direct et rétrograde, nous explorons les problèmes liés à la taille du domaine observé. Nous proposons finalement un algorithme de nudging avec apprentissage de paramètre, illustré sur un cas simple
Our work aims to improve the turbulent phenomena detection and forecast in the atmospheric boundary layer. First, we suggest a new stochastic method to reconstruct locally the turbulent atmosphere. Particle systems are used to model the atmospheric flow and its internal variability. To update particles and lean the turbulent parameters 3D Doppler lidar measurements are used. Then, a new stochastic downscaling technic for sub-grid turbulence forecast is presented. From the grid point model Meso-NH, a sub-grid particle system is forced. Here, the particles evolve freely in the simulated domain. Our downscaling method allows to model sub-grid fields coherent with the grid point model. Next, we introduce the upscaling issue. The atmosphere reconstruction covers at best few cells of meteorological grid point models. The issue is to assimilate the reconstructed atmosphere in such models. Using the back and forth nudging algorithm, we explore the problems induced by the size of the observed domain. Finally we suggest a new way to use the back and forth nudging algorithm for parameter identification
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Blanchet, David. "Développements méthodologiques et qualification de schémas de calcul pour la modélisation des échauffements photoniques dans les dispositifs expérimentaux du futur réacteur d'irradiation technologique Jules Horowitz (RJH)". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2006. http://tel.archives-ouvertes.fr/tel-00689995.

Texto completo da fonte
Resumo:
L'objectif de cette thèse est de développer la modélisation des échauffements nucléaires au niveau des dispositifs expérimentaux du futur réacteur d'irradiation technologique Jules Horowitz (RJH). La forte puissance nucléaire spécifique produite (460 kW/l) induit des flux photoniques intenses qui provoquent des échauffements et des gradiants de température importants, qu'il est nécessaire de maîtriser dès la conception. Or, les calculs d'échauffement sont pénalisés par des incertitudes rédhibitoires estimées à une valeur enveloppe et majorante de 30% (2 sigma) provenant des lacunes et incertitudes des données d'émission gamma présentes dans les bibliothèques de données nucléaires de base. Le programme expérimental ADAPh vise à réduire ces incertitudes. Des mesures par détecteurs thermoluminescents (TLD) et par chambres d'ionisation sont réalisées dans les maquettes critiques EOLE (MOX) et MINERVE (UO2). L'interprétation rigoureuse de ces mesures nécessite des développements spécifiques basés sur des simulations Monte-Carlo de transport couplé neutron-gamma et gamma-électron. Les développements effectués se singularisent notamment par la modélisation de phénomènes de cavités et d'émissions gamma retardés par décroissance des produits de fission. Les comparaisons calcul-mesure ont permis d'identifier un biais systématique C/E=0.72 confirmant une tendance des calculs à sous-estimer la mesure. Une méthode d'ajustement Bayésienne a été développée afin de ré-estimer les principales composantes de l'échauffement gamma et de transposer les résultats obtenus aux dispositifs du RJH dans des conditions de représentativité clairement définies. Cette thèse a permis de réduire significativement les incertitudes sur la détermination des échauffements gamma de 30% à 15% (2 sigma)
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Lin, Chao. "P and T wave analysis in ECG signals using Bayesian methods". Phd thesis, Toulouse, INPT, 2012. http://oatao.univ-toulouse.fr/8990/1/lin.pdf.

Texto completo da fonte
Resumo:
This thesis studies Bayesian estimation/detection algorithms for P and T wave analysis in ECG signals. In this work, different statistical models and associated Bayesian methods are proposed to solve simultaneously the P and T wave delineation task (determination of the positions of the peaks and boundaries of the individual waves) and the waveform-estimation problem. These models take into account appropriate prior distributions for the unknown parameters (wave locations and amplitudes, and waveform coefficients). These prior distributions are combined with the likelihood of the observed data to provide the posterior distribution of the unknown parameters. Due to the complexity of the resulting posterior distributions, Markov chain Monte Carlo algorithms are proposed for (sample-based) detection/estimation. On the other hand, to take full advantage of the sequential nature of the ECG, a dynamic model is proposed under a similar Bayesian framework. Sequential Monte Carlo methods (SMC) are also considered for delineation and waveform estimation. In the last part of the thesis, two Bayesian models introduced in this thesis are adapted to address a specific clinical research problem referred to as T wave alternans (TWA) detection. One of the proposed approaches has served as an efficient analysis tool in the Endocardial T wave Alternans Study (ETWAS) project in collaboration with St. Jude Medical, Inc and Toulouse Rangueil Hospital. This project was devoted to prospectively assess the feasibility of TWA detection in repolarisation on EGM stored in ICD memories.
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Farges, Olivier. "Conception optimale de centrales solaires à concentration : application aux centrales à tour et aux installations "beam down"". Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2014. http://www.theses.fr/2014EMAC0006/document.

Texto completo da fonte
Resumo:
Depuis les années quarante, la consommation énergétique mondiale n'a cessé d'augmenter. Cette énergie étant majoritairement d'origine fossile, il en résulte une augmentation globale de température terrestre. De ce fait, il est devenu urgent de réduire les émissions de gaz à effet de serre pour stopper le changement climatique. Dans ce contexte, le développement de la production d'électricité à partir d'énergie solaire concentrée par voie thermodynamique est une solution prometteuse. Les efforts de recherche visent à rendre cette technologie plus efficace et plus compétitive économiquement. Dans ce but, ce manuscrit présente une méthode de conception optimale pour les centrales solaires à récepteur central. Elle tire parti des méthodes développées depuis de nombreuses années par le groupe de recherche StaRWest, regroupant notamment des chercheurs des laboratoires RAPSODEE (Albi), LAPLACE (Toulouse) et PROMES (Odeillo). Couplant des algorithmes de Monte Carlo à hautes performances et des algorithmes stochastiques d'optimisation, le code de calcul implémentant cette méthode permet la conception et l'optimisation d'installations solaires. Il est utilisé pour mettre en évidence les potentialités d'un type de centrales à récepteur central peu répandu : les centrales à réflecteur secondaire, également appelées centrales de type "beam down"
Since the early 40's, world energy consumption has grown steadly. While this energy mainly came from fossil fuel, its use has included an increase in temperatures. It has become urgent to reduce greenhouse gas emissions to halt climate change. In this context, the development of concentrated solar power (CSP) is a promising solution. The scientific community related to this topic has to focus on efficiency enhancement and economic competitiveness of CSP technologies. To this end, this thesis aims at providing an optimal design method applied to central receiver power plants. It takes advantage of methods developed over many years by the research group StaRWest. Both RAPSODEE (Albi), LAPLACE (Toulouse) and PROMES (Odeillo) researchers take an active part in this group. Coupling high performance Monte Carlo algorithms and stochastic optimization methods, the code we developed allows an optimal design of concentrated solar systems. This code is used to highlight the potential of an uncommon type of central receiver plants: reflective towers, also called "beam down" central receiver systems
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Alata, Olivier. "Contributions à la description de signaux, d'images et de volumes par l'approche probabiliste et statistique". Habilitation à diriger des recherches, Université de Poitiers, 2010. http://tel.archives-ouvertes.fr/tel-00573224.

Texto completo da fonte
Resumo:
Les éléments principaux apparaissant dans ce document de synthèse sont les suivants : - La mise en exergue de la pertinence du critère d'information $\phi_\beta$ qui offre la possibilité d'être ``réglé'' par apprentissage de $\beta$ et cela quelque soit le problème de sélection de modèles pour lequel il est possible d'écrire un critère d'information, possibilité qui a été illustrée dans divers contextes applicatifs (supports de prédiction linéaire et dimension du modèle utilisé pour les cinétiques de $\dot VO_2$). - Une méthode d'estimation d'histogrammes pour décrire de manière non-paramé-trique la distribution d'échantillons et son utilisation en reconnaissance de lois supervisée dans un contexte de canaux de transmission. \item Une méthode dite ``comparative descendante'' permettant de trouver la meilleure combinaison des paramètres pour décrire les données étudiées sans avoir à tester toutes les combinaisons, illustrée sur l'obtention de supports de prédiction linéaire 1-d et 2-d. - La mise en place de stratégies de choix de modèles par rapport à des contextes variés comme l'imagerie TEP et les lois de mélange de Gauss et de Poisson ou les espaces couleur et les lois de mélange gaussiennes multidimensionnelles. - L'exploration des modèles de prédiction linéaire vectorielle complexe sur les images représentées dans des espaces couleur séparant l'intensité lumineuse de la partie chromatique et l'usage qui peut en être fait en caractérisation de textures afin de les classifier ou de segmenter les images texturées couleur. \item Des apports en segmentation : optimisation d'une méthode de segmentation non-supervisée d'images texturées en niveaux de gris ; une nouvelle méthode supervisée de segmentation d'images texturées couleur exploitant les espaces couleur psychovisuels et les erreurs de prédiction linéaire vectorielle complexe ; prise en compte dans des distributions de Gibbs d'informations géométriques et topologiques sur le champ des régions afin de réaliser de la segmentation 3-d ``haut-niveau'' exploitant le formalisme des processus ponctuels. - L'illustration des méthodes MCMC dans des contextes divers comme l'estimation de paramètres, l'obtention de segmentations 2-d ou 3-d ou la simulation de processus. Et beaucoup d'autres éléments se révèleront à sa lecture ...
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Wang, Tairan. "Decision making and modelling uncertainty for the multi-criteria analysis of complex energy systems". Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2015. http://www.theses.fr/2015ECAP0036/document.

Texto completo da fonte
Resumo:
Ce travail de thèse doctorale traite l'analyse de la vulnérabilité des systèmes critiques pour la sécurité (par exemple, les centrales nucléaires) dans un cadre qui combine les disciplines de l'analyse des risques et de la prise de décision de multi-critères.La contribution scientifique suit quatre directions: (i) un modèle hiérarchique et quantitative est développé pour caractériser la susceptibilité des systèmes critiques pour la sécurité à plusieurs types de danger, en ayant la vue de `tous risques' sur le problème actuellement émergeant dans le domaine de l'analyse des risques; (ii) l'évaluation quantitative de la vulnérabilité est abordé par un cadre de classification empirique: à cette fin, un modèle, en se fondant sur la Majority Rule Sorting (MR-Sort) Méthode, généralement utilisés dans le domaine de la prise de décision, est construit sur la base d'un ensemble de données (en taille limitée) représentant (a priori connu) des exemples de classification de vulnérabilité; (iii) trois approches différentes (à savoir, une model-retrieval-based méthode, la méthode Bootstrap et la technique de validation croisée leave-one-out) sont élaborées et appliquées pour fournir une évaluation quantitative de la performance du modèle de classification (en termes de précision et de confiance dans les classifications), ce qui représente l'incertitude introduite dans l'analyse par la construction empirique du modèle de la vulnérabilité; (iv) basé sur des modèles développés, un problème de classification inverse est résolu à identifier un ensemble de mesures de protection qui réduisent efficacement le niveau de vulnérabilité du système critique à l’étude. Deux approches sont développées dans cet objectif: le premier est basé sur un nouvel indicateur de sensibilité, ce dernier sur l'optimisation.Les applications sur des études de cas fictifs et réels dans le domaine des risques de centrales nucléaires démontrent l'efficacité de la méthode proposée
This Ph. D. work addresses the vulnerability analysis of safety-critical systems (e.g., nuclear power plants) within a framework that combines the disciplines of risk analysis and multi-criteria decision-making. The scientific contribution follows four directions: (i) a quantitative hierarchical model is developed to characterize the susceptibility of safety-critical systems to multiple types of hazard, within the needed `all-hazard' view of the problem currently emerging in the risk analysis field; (ii) the quantitative assessment of vulnerability is tackled by an empirical classification framework: to this aim, a model, relying on the Majority Rule Sorting (MR-Sort) Method, typically used in the decision analysis field, is built on the basis of a (limited-size) set of data representing (a priori-known) vulnerability classification examples; (iii) three different approaches (namely, a model-retrieval-based method, the Bootstrap method and the leave-one-out cross-validation technique) are developed and applied to provide a quantitative assessment of the performance of the classification model (in terms of accuracy and confidence in the assignments), accounting for the uncertainty introduced into the analysis by the empirical construction of the vulnerability model; (iv) on the basis of the models developed, an inverse classification problem is solved to identify a set of protective actions which effectively reduce the level of vulnerability of the critical system under consideration. Two approaches are developed to this aim: the former is based on a novel sensitivity indicator, the latter on optimization.Applications on fictitious and real case studies in the nuclear power plant risk field demonstrate the effectiveness of the proposed methodology
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Marhaba, Bassel. "Restauration d'images Satellitaires par des techniques de filtrage statistique non linéaire". Thesis, Littoral, 2018. http://www.theses.fr/2018DUNK0502/document.

Texto completo da fonte
Resumo:
Le traitement des images satellitaires est considéré comme l'un des domaines les plus intéressants dans les domaines de traitement d'images numériques. Les images satellitaires peuvent être dégradées pour plusieurs raisons, notamment les mouvements des satellites, les conditions météorologiques, la dispersion et d'autres facteurs. Plusieurs méthodes d'amélioration et de restauration des images satellitaires ont été étudiées et développées dans la littérature. Les travaux présentés dans cette thèse se concentrent sur la restauration des images satellitaires par des techniques de filtrage statistique non linéaire. Dans un premier temps, nous avons proposé une nouvelle méthode pour restaurer les images satellitaires en combinant les techniques de restauration aveugle et non aveugle. La raison de cette combinaison est d'exploiter les avantages de chaque technique utilisée. Dans un deuxième temps, de nouveaux algorithmes statistiques de restauration d'images basés sur les filtres non linéaires et l'estimation non paramétrique de densité multivariée ont été proposés. L'estimation non paramétrique de la densité à postériori est utilisée dans l'étape de ré-échantillonnage du filtre Bayésien bootstrap pour résoudre le problème de la perte de diversité dans le système de particules. Enfin, nous avons introduit une nouvelle méthode de la combinaison hybride pour la restauration des images basée sur la transformée en ondelettes discrète (TOD) et les algorithmes proposés à l'étape deux, et nos avons prouvé que les performances de la méthode combinée sont meilleures que les performances de l'approche TOD pour la réduction du bruit dans les images satellitaires dégradées
Satellite image processing is considered one of the more interesting areas in the fields of digital image processing. Satellite images are subject to be degraded due to several reasons, satellite movements, weather, scattering, and other factors. Several methods for satellite image enhancement and restoration have been studied and developed in the literature. The work presented in this thesis, is focused on satellite image restoration by nonlinear statistical filtering techniques. At the first step, we proposed a novel method to restore satellite images using a combination between blind and non-blind restoration techniques. The reason for this combination is to exploit the advantages of each technique used. In the second step, novel statistical image restoration algorithms based on nonlinear filters and the nonparametric multivariate density estimation have been proposed. The nonparametric multivariate density estimation of posterior density is used in the resampling step of the Bayesian bootstrap filter to resolve the problem of loss of diversity among the particles. Finally, we have introduced a new hybrid combination method for image restoration based on the discrete wavelet transform (DWT) and the proposed algorithms in step two, and, we have proved that the performance of the combined method is better than the performance of the DWT approach in the reduction of noise in degraded satellite images
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Ben, Abdellah Amal. "Randomized Quasi-Monte Carlo Methods for Density Estimation and Simulation of Markov Chains". Thesis, 2021. http://hdl.handle.net/1866/25579.

Texto completo da fonte
Resumo:
La méthode Quasi-Monte Carlo Randomisé (RQMC) est souvent utilisée pour estimer une intégrale sur le cube unitaire (0,1)^s de dimension s. Cette intégrale est interprétée comme l'espérance mathématique d'une variable aléatoire X. Il est bien connu que, sous certaines conditions, les estimateurs d'intégrales par RQMC peuvent converger plus rapidement que les estimateurs par Monte Carlo. Pour la simulation de chaînes de Markov sur un grand nombre d'étapes en utilisant RQMC, il existe peu de résultats. L'approche la plus prometteuse proposée à ce jour est la méthode array-RQMC. Cette méthode simule, en parallèle, n copies de la chaîne en utilisant un ensemble de points RQMC aléatoires et indépendants à chaque étape et trie ces chaînes en utilisant une fonction de tri spécifique après chaque étape. Cette méthode a donné, de manière empirique, des résultats significatifs sur quelques exemples (soit, un taux de convergence bien meilleur que celui observé avec Monte Carlo standard). Par contre, les taux de convergence observés empiriquement n'ont pas encore été prouvés théoriquement. Dans la première partie de cette thèse, nous examinons comment RQMC peut améliorer, non seulement, le taux de convergence lors de l'estimation de l'espérance de X mais aussi lors de l'estimation de sa densité. Dans la deuxième partie, nous examinons comment RQMC peut être utilisé pour la simulation de chaînes de Markov sur un grand nombre d'étapes à l'aide de la méthode array-RQMC. Notre thèse contient quatre articles. Dans le premier article, nous étudions l'efficacité gagnée en remplaçant Monte Carlo (MC) par les méthodes de Quasi-Monte Carlo Randomisé (RQMC) ainsi que celle de la stratification. Nous allons ensuite montrer comment ces méthodes peuvent être utilisées pour rendre un échantillon plus représentatif. De plus, nous allons montrer comment ces méthodes peuvent aider à réduire la variance intégrée (IV) et l'erreur quadratique moyenne intégrée (MISE) pour les estimateurs de densité par noyau (KDE). Nous fournissons des résultats théoriques et empiriques sur les taux de convergence et nous montrons que les estimateurs par RQMC et par stratification peuvent atteindre des réductions significatives en IV et MISE ainsi que des taux de convergence encore plus rapides que MC pour certaines situations, tout en laissant le biais inchangé. Dans le deuxième article, nous examinons la combinaison de RQMC avec une approche Monte Carlo conditionnelle pour l'estimation de la densité. Cette approche est définie en prenant la dérivée stochastique d'une CDF conditionnelle de X et offre une grande amélioration lorsqu'elle est appliquée. L'utilisation de la méthode array-RQMC pour évaluer une option asiatique sous un processus ordinaire de mouvement brownien géométrique avec une volatilité fixe a déjà été tentée dans le passé et un taux de convergence de O(n⁻²) a été observé pour la variance. Dans le troisième article, nous étudions le prix des options asiatiques lorsque le processus sous-jacent présente une volatilité stochastique. Plus spécifiquement, nous examinons les modèles de volatilité stochastique variance-gamma, Heston ainsi que Ornstein-Uhlenbeck. Nous montrons comment l'application de la méthode array-RQMC pour la détermination du prix des options asiatiques et européennes peut réduire considérablement la variance. L'algorithme t-leaping est utilisé dans la simulation des systèmes biologiques stochastiques. La méthode Monte Carlo (MC) est une approche possible pour la simulation de ces systèmes. Simuler la chaîne de Markov pour une discrétisation du temps de longueur t via la méthode quasi-Monte Carlo randomisé (RQMC) a déjà été explorée empiriquement dans plusieurs expériences numériques et les taux de convergence observés pour la variance, lorsque la dimension augmente, s'alignent avec ceux observés avec MC. Dans le dernier article, nous étudions la combinaison de array-RQMC avec cet algorithme et démontrons empiriquement que array-RQMC fournit une réduction significative de la variance par rapport à la méthode de MC standard.
The Randomized Quasi Monte Carlo method (RQMC) is often used to estimate an integral over the s-dimensional unit cube (0,1)^s. This integral is interpreted as the mathematical expectation of some random variable X. It is well known that RQMC estimators can, under some conditions, converge at a faster rate than crude Monte Carlo estimators of the integral. For Markov chains simulation on a large number of steps by using RQMC, little exists. The most promising approach proposed to date is the array-RQMC method. This method simulates n copies of the chain in parallel using a set of independent RQMC points at each step, and sorts the chains using a specific sorting function after each step. This method has given empirically significant results in terms of convergence rates on a few examples (i.e. a much better convergence rate than that observed with Monte Carlo standard). However, the convergence rates observed empirically have not yet been theoretically proven. In the first part of this thesis, we examine how RQMC can improve the convergence rate when estimating not only X's expectation, but also its distribution. In the second part, we examine how RQMC can be used for Markov chains simulation on a large number of steps using the array-RQMC method. Our thesis contains four articles. In the first article, we study the effectiveness of replacing Monte Carlo (MC) by either randomized quasi Monte Carlo (RQMC) or stratification to show how they can be applied to make samples more representative. Furthermore, we show how these methods can help to reduce the integrated variance (IV) and the mean integrated square error (MISE) for the kernel density estimators (KDEs). We provide both theoretical and empirical results on the convergence rates and show that the RQMC and stratified sampling estimators can achieve significant IV and MISE reductions with even faster convergence rates compared to MC in some situations, while leaving the bias unchanged. In the second article, we examine the combination of RQMC with a conditional Monte Carlo approach to density estimation. This approach is defined by taking the stochastic derivative of a conditional CDF of X and provides a large improvement when applied. Using array-RQMC in order to price an Asian option under an ordinary geometric Brownian motion process with fixed volatility has already been attempted in the past and a convergence rate of O(n⁻²) was observed for the variance. In the third article, we study the pricing of Asian options when the underlying process has stochastic volatility. More specifically, we examine the variance-gamma, Heston, and Ornstein-Uhlenbeck stochastic volatility models. We show how applying the array-RQMC method for pricing Asian and European options can significantly reduce the variance. An efficient sample path algorithm called (fixed-step) t-leaping can be used to simulate stochastic biological systems as well as well-stirred chemical reaction systems. The crude Monte Carlo (MC) method is a feasible approach when it comes to simulating these sample paths. Simulating the Markov chain for fixed-step t-leaping via ordinary randomized quasi-Monte Carlo (RQMC) has already been explored empirically and, when the dimension of the problem increased, the convergence rate of the variance was realigned with those observed in several numerical experiments using MC. In the last article, we study the combination of array-RQMC with this algorithm and empirically demonstrate that array-RQMC provides a significant reduction in the variance compared to the standard MC algorithm.
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Jouini, Tarek. "Inférence exacte simulée et techniques d'estimation dans les modèles VAR et VARMA avec applications macroéconomiques". Thèse, 2008. http://hdl.handle.net/1866/2236.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Kebaier, Ahmed. "Réduction de variance et discrétisation d'équations différentielles stochastiques. Théorèmes limites presque sûre pour les martingales quasi-continues à gauche". Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00011946/en/.

Texto completo da fonte
Resumo:
Cette Thèse est composée de deux parties portant respectivement sur la discrétisation des équations différentielles stochastiques et sur le théorème de la limite centrale presque sûre pour les martingales.

La première Partie est composée de trois chapitres: Le premier chapitre introduit le cadre de l'étude et présente les résultats obtenus. Le deuxième chapitre est consacré à l'étude d'une nouvelle méthode d'accélération de convergence, appelée méthode de Romberg statistique, pour le calcul d'espérances de fonctions ou de fonctionnelles d'une diffusion.
Ce chapitre est la version augmentée d'un article à paraître dans la revue Annals of Applied Probability.

Le troisième chapitre traite de l'application de cette méthode à l'approximation de densité par des méthodes de noyaux.
Ce chapitre est basé sur un travail en collaboration avec Arturo Kohatsu-Higa.

La deuxième partie de la thèse est composée de deux chapitres: le premier chapitre présente la littérature récente concernant le théorème de la limite centrale presque sûre et ses extensions. Le deuxième chapitre, basé sur un travail en collaboration avec Faouzi Chaâbane, étend divers résultats de type TLCPS à des martingales quasi-continues à gauche.
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

DONG, Jia. "Estimation du taux d'erreurs binaires pour n'importe quel système de communication numérique". Phd thesis, 2013. http://tel.archives-ouvertes.fr/tel-00978950.

Texto completo da fonte
Resumo:
This thesis is related to the Bit Error Rate (BER) estimation for any digital communication system. In many designs of communication systems, the BER is a Key Performance Indicator (KPI). The popular Monte-Carlo (MC) simulation technique is well suited to any system but at the expense of long time simulations when dealing with very low error rates. In this thesis, we propose to estimate the BER by using the Probability Density Function (PDF) estimation of the soft observations of the received bits. First, we have studied a non-parametric PDF estimation technique named the Kernel method. Simulation results in the context of several digital communication systems are proposed. Compared with the conventional MC method, the proposed Kernel-based estimator provides good precision even for high SNR with very limited number of data samples. Second, the Gaussian Mixture Model (GMM), which is a semi-parametric PDF estimation technique, is used to estimate the BER. Compared with the Kernel-based estimator, the GMM method provides better performance in the sense of minimum variance of the estimator. Finally, we have investigated the blind estimation of the BER, which is the estimation when the sent data are unknown. We denote this case as unsupervised BER estimation. The Stochastic Expectation-Maximization (SEM) algorithm combined with the Kernel or GMM PDF estimation methods has been used to solve this issue. By analyzing the simulation results, we show that the obtained BER estimate can be very close to the real values. This is quite promising since it could enable real-time BER estimation on the receiver side without decreasing the user bit rate with pilot symbols for example.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia