Siga este link para ver outros tipos de publicações sobre o tema: Processus stochastiques en grande dimension.

Teses / dissertações sobre o tema "Processus stochastiques en grande dimension"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 32 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Processus stochastiques en grande dimension".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Godichon-Baggioni, Antoine. "Algorithmes stochastiques pour la statistique robuste en grande dimension". Thesis, Dijon, 2016. http://www.theses.fr/2016DIJOS053/document.

Texto completo da fonte
Resumo:
Cette thèse porte sur l'étude d'algorithmes stochastiques en grande dimension ainsi qu'à leur application en statistique robuste. Dans la suite, l'expression grande dimension pourra aussi bien signifier que la taille des échantillons étudiés est grande ou encore que les variables considérées sont à valeurs dans des espaces de grande dimension (pas nécessairement finie). Afin d'analyser ce type de données, il peut être avantageux de considérer des algorithmes qui soient rapides, qui ne nécessitent pas de stocker toutes les données, et qui permettent de mettre à jour facilement les estimations. Dans de grandes masses de données en grande dimension, la détection automatique de points atypiques est souvent délicate. Cependant, ces points, même s'ils sont peu nombreux, peuvent fortement perturber des indicateurs simples tels que la moyenne ou la covariance. On va se concentrer sur des estimateurs robustes, qui ne sont pas trop sensibles aux données atypiques. Dans une première partie, on s'intéresse à l'estimation récursive de la médiane géométrique, un indicateur de position robuste, et qui peut donc être préférée à la moyenne lorsqu'une partie des données étudiées est contaminée. Pour cela, on introduit un algorithme de Robbins-Monro ainsi que sa version moyennée, avant de construire des boules de confiance non asymptotiques et d'exhiber leurs vitesses de convergence $L^{p}$ et presque sûre.La deuxième partie traite de l'estimation de la "Median Covariation Matrix" (MCM), qui est un indicateur de dispersion robuste lié à la médiane, et qui, si la variable étudiée suit une loi symétrique, a les mêmes sous-espaces propres que la matrice de variance-covariance. Ces dernières propriétés rendent l'étude de la MCM particulièrement intéressante pour l'Analyse en Composantes Principales Robuste. On va donc introduire un algorithme itératif qui permet d'estimer simultanément la médiane géométrique et la MCM ainsi que les $q$ principaux vecteurs propres de cette dernière. On donne, dans un premier temps, la forte consistance des estimateurs de la MCM avant d'exhiber les vitesses de convergence en moyenne quadratique.Dans une troisième partie, en s'inspirant du travail effectué sur les estimateurs de la médiane et de la "Median Covariation Matrix", on exhibe les vitesses de convergence presque sûre et $L^{p}$ des algorithmes de gradient stochastiques et de leur version moyennée dans des espaces de Hilbert, avec des hypothèses moins restrictives que celles présentes dans la littérature. On présente alors deux applications en statistique robuste: estimation de quantiles géométriques et régression logistique robuste.Dans la dernière partie, on cherche à ajuster une sphère sur un nuage de points répartis autour d'une sphère complète où tronquée. Plus précisément, on considère une variable aléatoire ayant une distribution sphérique tronquée, et on cherche à estimer son centre ainsi que son rayon. Pour ce faire, on introduit un algorithme de gradient stochastique projeté et son moyenné. Sous des hypothèses raisonnables, on établit leurs vitesses de convergence en moyenne quadratique ainsi que la normalité asymptotique de l'algorithme moyenné
This thesis focus on stochastic algorithms in high dimension as well as their application in robust statistics. In what follows, the expression high dimension may be used when the the size of the studied sample is large or when the variables we consider take values in high dimensional spaces (not necessarily finite). In order to analyze these kind of data, it can be interesting to consider algorithms which are fast, which do not need to store all the data, and which allow to update easily the estimates. In large sample of high dimensional data, outliers detection is often complicated. Nevertheless, these outliers, even if they are not many, can strongly disturb simple indicators like the mean and the covariance. We will focus on robust estimates, which are not too much sensitive to outliers.In a first part, we are interested in the recursive estimation of the geometric median, which is a robust indicator of location which can so be preferred to the mean when a part of the studied data is contaminated. For this purpose, we introduce a Robbins-Monro algorithm as well as its averaged version, before building non asymptotic confidence balls for these estimates, and exhibiting their $L^{p}$ and almost sure rates of convergence.In a second part, we focus on the estimation of the Median Covariation Matrix (MCM), which is a robust dispersion indicator linked to the geometric median. Furthermore, if the studied variable has a symmetric law, this indicator has the same eigenvectors as the covariance matrix. This last property represent a real interest to study the MCM, especially for Robust Principal Component Analysis. We so introduce a recursive algorithm which enables us to estimate simultaneously the geometric median, the MCM, and its $q$ main eigenvectors. We give, in a first time, the strong consistency of the estimators of the MCM, before exhibiting their rates of convergence in quadratic mean.In a third part, in the light of the work on the estimates of the median and of the Median Covariation Matrix, we exhibit the almost sure and $L^{p}$ rates of convergence of averaged stochastic gradient algorithms in Hilbert spaces, with less restrictive assumptions than in the literature. Then, two applications in robust statistics are given: estimation of the geometric quantiles and application in robust logistic regression.In the last part, we aim to fit a sphere on a noisy points cloud spread around a complete or truncated sphere. More precisely, we consider a random variable with a truncated spherical distribution, and we want to estimate its center as well as its radius. In this aim, we introduce a projected stochastic gradient algorithm and its averaged version. We establish the strong consistency of these estimators as well as their rates of convergence in quadratic mean. Finally, the asymptotic normality of the averaged algorithm is given
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Daw, Ibrahima. "Principe de grandes déviations pour la famille des mesures invariantes associées à des processus de diffusion en dimension infinie". Rouen, 1998. http://www.theses.fr/1998ROUES039.

Texto completo da fonte
Resumo:
Dans les deux premiers chapitres de cette thèse, nous étudions dans un premier temps le comportement asymptotique lorsque l'intervalle d'observation devient infiniment grand d'une famille de processus de diffusions à valeurs dans un espace de Hilbert séparable h, solutions des équations différentielles stochastiques suivantes : (e g) dX g t = a(X g t) + f(X g t)dt + e(X g t)dw(t) x g 0 = X , h. Nous prouvons, grâce à un théorème de C. Sunyach, pour chaque valeur du paramètre , l'existence et l'unicité d'une mesure invariante correspondant à la solution x g considérée. Cette méthode nous a fourni une inégalité qui assure la convergence étroite de la famille des mesures invariantes vers la masse de Dirac concentrée à l'origine. Ce dernier point nous dit, tout borélien a de h, dont l'adhérence ne contient pas l'origine, est de mesure limite nulle. Ainsi on s'est posé la question de savoir à quelle vitesse cette convergence a-t-elle lieu ? Nous avons trouvé que la convergence a lieu à une vitesse exponentielle, ceci grâce aux trois propriétés suivantes : _ propriété 1 l'uniformité du principe de grandes déviations de la famille (x g, > 0), qui a été montrée par S. Peszat. _ propriété 2 la formule suivante caractérisant la mesure invariante associée à un processus x g : () = hp X(X g(t) , ) g(dX). _ propriété 3 l'inégalité exponentielle suivante : for any l > 0, there exists r(l) such that lim g 0 sup ln g (X ; |X| r(l)) l. Dans le dernier chapitre de cette thèse, nous avons étendu les résultats précédents dans un cas particulier, en prenant comme espace d'état du processus, l'espace l 2(0, 1), cela nous a permis de montrer d'une part que pour chaque > 0, t > 0, X g , c 0(0, 1), pour tout < 1/2, d'autre part en appliquant un lemme classique du à Garcia-Rumsey-Rodemich de montrer que les supports des lois des processus X g, sont des compacts particuliers de c 0(0, 1), car des boules fermées en normes hölderiennes. Enfin, en utilisant un lemme de D. Ioffe, et les résultats des chapitres précédents, nous établissons un principe de grandes déviations de la famille des mesures invariantes dans c ( 00, 1).
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Phan, Duy Nhat. "Algorithmes basés sur la programmation DC et DCA pour l’apprentissage avec la parcimonie et l’apprentissage stochastique en grande dimension". Electronic Thesis or Diss., Université de Lorraine, 2016. http://www.theses.fr/2016LORR0235.

Texto completo da fonte
Resumo:
De nos jours, avec l'abondance croissante de données de très grande taille, les problèmes de classification de grande dimension ont été mis en évidence comme un challenge dans la communauté d'apprentissage automatique et ont beaucoup attiré l'attention des chercheurs dans le domaine. Au cours des dernières années, les techniques d'apprentissage avec la parcimonie et l'optimisation stochastique se sont prouvées être efficaces pour ce type de problèmes. Dans cette thèse, nous nous concentrons sur le développement des méthodes d'optimisation pour résoudre certaines classes de problèmes concernant ces deux sujets. Nos méthodes sont basées sur la programmation DC (Difference of Convex functions) et DCA (DC Algorithm) étant reconnues comme des outils puissants d'optimisation non convexe. La thèse est composée de trois parties. La première partie aborde le problème de la sélection des variables. La deuxième partie étudie le problème de la sélection de groupes de variables. La dernière partie de la thèse liée à l'apprentissage stochastique. Dans la première partie, nous commençons par la sélection des variables dans le problème discriminant de Fisher (Chapitre 2) et le problème de scoring optimal (Chapitre 3), qui sont les deux approches différentes pour la classification supervisée dans l'espace de grande dimension, dans lequel le nombre de variables est beaucoup plus grand que le nombre d'observations. Poursuivant cette étude, nous étudions la structure du problème d'estimation de matrice de covariance parcimonieuse et fournissons les quatre algorithmes appropriés basés sur la programmation DC et DCA (Chapitre 4). Deux applications en finance et en classification sont étudiées pour illustrer l'efficacité de nos méthodes. La deuxième partie étudie la L_p,0régularisation pour la sélection de groupes de variables (Chapitre 5). En utilisant une approximation DC de la L_p,0norme, nous prouvons que le problème approché, avec des paramètres appropriés, est équivalent au problème original. Considérant deux reformulations équivalentes du problème approché, nous développons différents algorithmes basés sur la programmation DC et DCA pour les résoudre. Comme applications, nous mettons en pratique nos méthodes pour la sélection de groupes de variables dans les problèmes de scoring optimal et d'estimation de multiples matrices de covariance. Dans la troisième partie de la thèse, nous introduisons un DCA stochastique pour des problèmes d'estimation des paramètres à grande échelle (Chapitre 6) dans lesquelles la fonction objectif est la somme d'une grande famille des fonctions non convexes. Comme une étude de cas, nous proposons un schéma DCA stochastique spécial pour le modèle loglinéaire incorporant des variables latentes
These days with the increasing abundance of data with high dimensionality, high dimensional classification problems have been highlighted as a challenge in machine learning community and have attracted a great deal of attention from researchers in the field. In recent years, sparse and stochastic learning techniques have been proven to be useful for this kind of problem. In this thesis, we focus on developing optimization approaches for solving some classes of optimization problems in these two topics. Our methods are based on DC (Difference of Convex functions) programming and DCA (DC Algorithms) which are wellknown as one of the most powerful tools in optimization. The thesis is composed of three parts. The first part tackles the issue of variable selection. The second part studies the problem of group variable selection. The final part of the thesis concerns the stochastic learning. In the first part, we start with the variable selection in the Fisher's discriminant problem (Chapter 2) and the optimal scoring problem (Chapter 3), which are two different approaches for the supervised classification in the high dimensional setting, in which the number of features is much larger than the number of observations. Continuing this study, we study the structure of the sparse covariance matrix estimation problem and propose four appropriate DCA based algorithms (Chapter 4). Two applications in finance and classification are conducted to illustrate the efficiency of our methods. The second part studies the L_p,0regularization for the group variable selection (Chapter 5). Using a DC approximation of the L_p,0norm, we indicate that the approximate problem is equivalent to the original problem with suitable parameters. Considering two equivalent reformulations of the approximate problem we develop DCA based algorithms to solve them. Regarding applications, we implement the proposed algorithms for group feature selection in optimal scoring problem and estimation problem of multiple covariance matrices. In the third part of the thesis, we introduce a stochastic DCA for large scale parameter estimation problems (Chapter 6) in which the objective function is a large sum of nonconvex components. As an application, we propose a special stochastic DCA for the loglinear model incorporating latent variables
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Langrené, Nicolas. "Méthodes numériques probabilistes en grande dimension pour le contrôle stochastique et problèmes de valorisation sur les marchés d'électricité". Phd thesis, Université Paris-Diderot - Paris VII, 2014. http://tel.archives-ouvertes.fr/tel-00957948.

Texto completo da fonte
Resumo:
Cette thèse traite de la résolution numérique de problèmes de contrôle stochastique, illustrée d'applications sur les marchés d'électricité. Tout d'abord, nous proposons un modèle structurel pour le prix d'électricité, autorisant des pics de prix bien au delà du coût marginal de production lorsque le marché est tendu. Ce modèle permet de valoriser et couvrir partiellement des produits dérivés sur l'électricité, avec pour actifs de couverture des contrats à terme sur combustibles. Nous étudions ensuite un algorithme, à base de simulations de Monte-Carlo et régressions à base locale, pour résoudre des problèmes généraux de commutation optimale. Nous établissons un taux de convergence complet de la méthode. De plus, nous rendons l'algorithme parcimonieux en usage mémoire en permettant d'éviter le stockage du faisceau de trajectoires. Nous l'illustrons sur le problème d'investissements en centrales électriques (lesquelles se répercutent sur le prix d'électricité grâce à notre modèle structurel). Enfin, nous étudions des problèmes de contrôle stochastique plus généraux (où le contrôle peut être continu et modifier la dynamique du processus d'état), dont la solution peut être étudiée via des Équations Différentielles Stochastiques Rétrogrades contraintes, pour lesquelles nous développons un algorithme, qui combine randomisation du contrôle et optimisation paramétrique. Un taux de convergence entre l'EDSR contrainte et sa version discrète est fourni, ainsi qu'un estimateur du contrôle optimal. Nous appliquons ensuite cet algorithme au problème de sur-réplication d'option sous volatilité incertaine.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Phan, Duy Nhat. "Algorithmes basés sur la programmation DC et DCA pour l’apprentissage avec la parcimonie et l’apprentissage stochastique en grande dimension". Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0235/document.

Texto completo da fonte
Resumo:
De nos jours, avec l'abondance croissante de données de très grande taille, les problèmes de classification de grande dimension ont été mis en évidence comme un challenge dans la communauté d'apprentissage automatique et ont beaucoup attiré l'attention des chercheurs dans le domaine. Au cours des dernières années, les techniques d'apprentissage avec la parcimonie et l'optimisation stochastique se sont prouvées être efficaces pour ce type de problèmes. Dans cette thèse, nous nous concentrons sur le développement des méthodes d'optimisation pour résoudre certaines classes de problèmes concernant ces deux sujets. Nos méthodes sont basées sur la programmation DC (Difference of Convex functions) et DCA (DC Algorithm) étant reconnues comme des outils puissants d'optimisation non convexe. La thèse est composée de trois parties. La première partie aborde le problème de la sélection des variables. La deuxième partie étudie le problème de la sélection de groupes de variables. La dernière partie de la thèse liée à l'apprentissage stochastique. Dans la première partie, nous commençons par la sélection des variables dans le problème discriminant de Fisher (Chapitre 2) et le problème de scoring optimal (Chapitre 3), qui sont les deux approches différentes pour la classification supervisée dans l'espace de grande dimension, dans lequel le nombre de variables est beaucoup plus grand que le nombre d'observations. Poursuivant cette étude, nous étudions la structure du problème d'estimation de matrice de covariance parcimonieuse et fournissons les quatre algorithmes appropriés basés sur la programmation DC et DCA (Chapitre 4). Deux applications en finance et en classification sont étudiées pour illustrer l'efficacité de nos méthodes. La deuxième partie étudie la L_p,0régularisation pour la sélection de groupes de variables (Chapitre 5). En utilisant une approximation DC de la L_p,0norme, nous prouvons que le problème approché, avec des paramètres appropriés, est équivalent au problème original. Considérant deux reformulations équivalentes du problème approché, nous développons différents algorithmes basés sur la programmation DC et DCA pour les résoudre. Comme applications, nous mettons en pratique nos méthodes pour la sélection de groupes de variables dans les problèmes de scoring optimal et d'estimation de multiples matrices de covariance. Dans la troisième partie de la thèse, nous introduisons un DCA stochastique pour des problèmes d'estimation des paramètres à grande échelle (Chapitre 6) dans lesquelles la fonction objectif est la somme d'une grande famille des fonctions non convexes. Comme une étude de cas, nous proposons un schéma DCA stochastique spécial pour le modèle loglinéaire incorporant des variables latentes
These days with the increasing abundance of data with high dimensionality, high dimensional classification problems have been highlighted as a challenge in machine learning community and have attracted a great deal of attention from researchers in the field. In recent years, sparse and stochastic learning techniques have been proven to be useful for this kind of problem. In this thesis, we focus on developing optimization approaches for solving some classes of optimization problems in these two topics. Our methods are based on DC (Difference of Convex functions) programming and DCA (DC Algorithms) which are wellknown as one of the most powerful tools in optimization. The thesis is composed of three parts. The first part tackles the issue of variable selection. The second part studies the problem of group variable selection. The final part of the thesis concerns the stochastic learning. In the first part, we start with the variable selection in the Fisher's discriminant problem (Chapter 2) and the optimal scoring problem (Chapter 3), which are two different approaches for the supervised classification in the high dimensional setting, in which the number of features is much larger than the number of observations. Continuing this study, we study the structure of the sparse covariance matrix estimation problem and propose four appropriate DCA based algorithms (Chapter 4). Two applications in finance and classification are conducted to illustrate the efficiency of our methods. The second part studies the L_p,0regularization for the group variable selection (Chapter 5). Using a DC approximation of the L_p,0norm, we indicate that the approximate problem is equivalent to the original problem with suitable parameters. Considering two equivalent reformulations of the approximate problem we develop DCA based algorithms to solve them. Regarding applications, we implement the proposed algorithms for group feature selection in optimal scoring problem and estimation problem of multiple covariance matrices. In the third part of the thesis, we introduce a stochastic DCA for large scale parameter estimation problems (Chapter 6) in which the objective function is a large sum of nonconvex components. As an application, we propose a special stochastic DCA for the loglinear model incorporating latent variables
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Bastide, Dorinel-Marian. "Handling derivatives risks with XVAs in a one-period network model". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASM027.

Texto completo da fonte
Resumo:
La réglementation requiert des établissements bancaires d'être en mesure de conduire des analyses de scénarios de tests de résistance (stress tests) réguliers de leurs expositions, en particulier face aux chambres de compensation (CCPs) auxquels ils sont largement exposés, en appliquant des chocs de marchés pour capturer le risque de marché et des chocs économiques pouvant conduire à l'état de faillite, dit aussi de défaut, divers acteurs financiers afin de refléter les risques de crédit et de contrepartie. Un des rôles principaux des CCPs est d'assurer par leur interposition entre acteurs financiers la réduction du risque de contrepartie associé aux pertes potentiels des engagements contractuels non respectés dus à la faillite d'une ou plusieurs des parties engagées. Elles facilitent également les divers flux financiers des activités de trading même en cas de défaut d'un ou plusieurs de leurs membres en re-basculant certaines des positions de ces membres et en allouant toute perte qui pourrait se matérialiser suite à ces défauts aux membres survivants . Pour développer une vision juste des risques et disposer d'outils performants de pilotage du capital, il apparaît essentiel d'être en mesure d'appréhender de manière exhaustive les pertes et besoins de liquidités occasionnés par ces divers chocs dans ces réseaux financiers ainsi que d'avoir une compréhension précise des mécanismes sous-jacents. Ce projet de thèse aborde différentes questions de modélisation permettant de refléter ces besoins, qui sont au cœur de la gestion des risques d'une banque dans les environnements actuels de trading centralisé. Nous commençons d'abord par définir un dispositif de modèle statique à une période reflétant les positions hétérogènes et possibilité de défauts joints de multiples acteurs financiers, qu'ils soient membres de CCPs ou autres participants financiers, pour identifier les différents coûts, dits de XVA, générés par les activités de clearing et bilatérales avec des formules explicites pour ces coûts. Divers cas d'usage de ce dispositif sont illustrés avec des exemples d'exercices de stress test sur des réseaux financiers depuis le point de vue d'un membre ou de novation de portefeuille de membres en défaut sur des CCPs avec les autres membres survivants. Des modèles de distributions à queues épaisses pour générer les pertes sur les portefeuilles et les défauts sont privilégiés avec l'application de techniques de Monte-Carlo en très grande dimension accompagnée des quantifications d'incertitudes numériques. Nous développons aussi l'aspect novation de portefeuille de membres en défauts et les transferts de coûts XVA associés. Ces novations peuvent s'exécuter soit sur les places de marchés (exchanges), soit par les CCP elles-mêmes qui désignent les repreneurs optimaux ou qui mettent aux enchères les positions des membres défaillants avec des expressions d'équilibres économiques. Les défauts de membres sur plusieurs CCPs en commun amènent par ailleurs à la mise en équation et la résolution de problèmes d'optimisation multidimensionnelle du transfert des risques abordées dans ces travaux
Finance regulators require banking institutions to be able to conduct regular scenario analyses to assess their resistance to various shocks (stress tests) of their exposures, in particular towards clearing houses (CCPs) to which they are largely exposed, by applying market shocks to capture market risk and economic shocks leading some financial players to bankruptcy, known as default state, to reflect both credit and counterparty risks. By interposing itself between financial actors, one of the main purposes of CCPs are to limit counterparty risk due to contractual payment failures due to one or several defaults among engaged parties. They also facilitate the various financial flows of the trading activities even in the event of default of one or more of their members by re-arranging certain positions and allocating any loss that could materialize following these defaults to the surviving members. To develop a relevant view of risks and ensure effective capital steering tools, it is essential for banks to have the capacity to comprehensively understand the losses and liquidity needs caused by these various shocks within these financial networks as well as to have an understanding of the underlying mechanisms. This thesis project aims at tackling modelling issues to answer those different needs that are at the heart of risk management practices for banks under clearing environments. We begin by defining a one-period static model for reflecting the market heterogeneous positions and possible joint defaults of multiple financial players, being members of CCPs and other financial participants, to identify the different costs, known as XVAs, generated by both clearing and bilateral activities, with explicit formulas for these costs. Various use cases of this modelling framework are illustrated with stress test exercises examples on financial networks from a member's point of view or innovation of portfolio of CCP defaulted members with other surviving members. Fat-tailed distributions are favoured to generate portfolio losses and defaults with the application of very large-dimension Monte-Carlo methods along with numerical uncertainty quantifications. We also expand on the novation aspects of portfolios of defaulted members and the associated XVA costs transfers. These innovations can be carried out either on the marketplaces (exchanges) or by the CCPs themselves by identifying the optimal buyers or by conducting auctions of defaulted positions with dedicated economic equilibrium problems. Failures of members on several CCPs in common also lead to the formulation and resolution of multidimensional optimization problems of risk transfer that are introduced in this thesis
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Pommier, David. "Méthodes numériques sur des grilles sparse appliquées à l'évaluation d'options en finance". Paris 6, 2008. http://www.theses.fr/2008PA066499.

Texto completo da fonte
Resumo:
Cette thèse regroupe plusieurs travaux relatifs à la résolution numérique d'équations aux dérivées partielles et d'équations intégro-différentielles issues de la modélisation stochastique de produits financiers. La première partie des travaux est consacrée aux méthodes de Sparse Grid appliquées à la résolution numérique d'équations en dimension supérieure à trois. Deux types de problèmes sont abordés. Le premier concerne l'évaluation d'options vanilles dans un modèle à sauts avec une volatilité stochastique multi-facteurs. La résolution numérique de l'équation de valorisation, posée en dimension est obtenue à l'aide d'une méthode de différences finies sparse et d'une méthode de collocation pour la discrétisation de l'opérateur intégral. Le second problème traite de l'évaluation de produits sur un panier de plusieurs sous-jacents. Il nécessite le recours à une méthode de Galerkin sur une base d'ondelettes obtenue à l'aide d'un produit tensoriel sparse La seconde partie des travaux concerne des estimations d'erreur a posteriori pour des options américaines sur un panier de plusieurs actifs
In this work, we present some numerical methods to approximate Partial Differential Equation(PDEs) or Partial Integro-Differential Equations (PIDEs) commonly arising in finance. This thesis is split into three part. The first one deals with the study of Sparse Grid techniques. In an introductory chapter, we present the construction of Sparse Grid spaces and give some approximation properties. The second chapter is devoted to the presentation of a numerical algorithm to solve PDEs on these spaces. This chapter gives us the opportunity to clarify the finite difference method on Sparse Grid by looking at it as a collocation method. We make a few remarks on the practical implementation. The second part of the thesis is devoted to the application of Sparse Grid techniques to mathematical finance. We will consider two practical problems. In the first one, we consider a European vanilla contract with a multivariate generalisation of the one dimensional Ornstein-Ulenbeck-based stochastic volatility model. A relevant generalisation is to assume that the underlying asset is driven by a jump process, which leads to a PIDE. Due to the curse of dimensionality, standard deterministic methods are not competitive with Monte Carlo methods. We discuss sparse grid finite difference methods for solving the PIDE arising in this model up to dimension 4. In the second problem, we consider a Basket option on several assets (five in our example) in the Black & Scholes model. We discuss Galerkin methods in a sparse tensor product space constructed with wavelets. The last part of the thesis is concerned with a posteriori error estimates in the energy norm for the numerical solutions of parabolic obstacle problems allowing space/time mesh adaptive refinement. These estimates are based on a posteriori error indicators which can be computed from the solution of the discrete problem. We present the indicators for the variational inequality obtained in the context of the pricing of an American option on a two dimensional basket using the Black & Scholes model. All these techniques are illustrated by numerical examples
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Carpentier, Alexandra. "De l'échantillonage optimal en grande et petite dimension". Thesis, Lille 1, 2012. http://www.theses.fr/2012LIL10041/document.

Texto completo da fonte
Resumo:
Pendant ma thèse, j’ai eu la chance d’apprendre et de travailler sous la supervision de mon directeur de thèse Rémi, et ce dans deux domaines qui me sont particulièrement chers. Je veux parler de la Théorie des Bandits et du Compressed Sensing. Je les voie comme intimement liés non par les méthodes mais par leur objectif commun: l’échantillonnage optimal de l’espace. Tous deux sont centrés sur les manières d’échantillonner l’espace efficacement : la Théorie des Bandits en petite dimension et le Compressed Sensing en grande dimension. Dans cette dissertation, je présente la plupart des travaux que mes co-auteurs et moi-même avons écrit durant les trois années qu’a duré ma thèse
During my PhD, I had the chance to learn and work under the great supervision of my advisor Rémi (Munos) in two fields that are of particular interest to me. These domains are Bandit Theory and Compressed Sensing. While studying these domains I came to the conclusion that they are connected if one looks at them trough the prism of optimal sampling. Both these fields are concerned with strategies on how to sample the space in an efficient way: Bandit Theory in low dimension, and Compressed Sensing in high dimension. In this Dissertation, I present most of the work my co-authors and I produced during the three years that my PhD lasted
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Fabre, Jean-Pierre. "Suites mélangeantes de mesures aléatoires : estimation fonctionnelle et inégalités de grande déviation". Montpellier 2, 1998. http://www.theses.fr/1998MON20098.

Texto completo da fonte
Resumo:
Ce travail examine diverses proprietes des suites melangeantes de mesures aleatoires et leur application a l'estimation fonctionnelle. Apres un premier chapitre introductif, le deuxieme chapitre est consacre aux inegalites de grande deviation sous hypothese de melange, dont il rappelle certains theoremes fondamentaux et enonce quelques resultats. Les chapitres 3 et 4 traitent de la convergence d'une suite strictement stationnaire et fortement melangeante d'estimateurs a noyau de la derivee de radon-nikodym de la mesure moyenne d'un processus ponctuel par rapport a un autre, ainsi que de la vitesse en moyenne quadratique (chapitre 4) de cette convergence. Le chapitre 3 s'acheve sur l'expose detaille d'un exemple. Le chapitre 5 etudie la vitesse de convergence de la moyenne des sommes partielles d'une suite melangeante de mesures aleatoires a valeurs dans un espace de mesures muni d'une metrique separable. Il met en relation cette vitesse avec celle de la suite des realisations de cette suite de mesures sur des boreliens bornes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Lounici, Karim. "Estimation Statistique En Grande Dimension, Parcimonie et Inégalités D'Oracle". Phd thesis, Université Paris-Diderot - Paris VII, 2009. http://tel.archives-ouvertes.fr/tel-00435917.

Texto completo da fonte
Resumo:
Dans cette thèse nous traitons deux sujets. Le premier sujet concerne l'apprentissage statistique en grande dimension, i.e. les problèmes où le nombre de paramètres potentiels est beaucoup plus grand que le nombre de données à disposition. Dans ce contexte, l'hypothèse généralement adoptée est que le nombre de paramètres intervenant effectivement dans le modèle est petit par rapport au nombre total de paramètres potentiels et aussi par rapport au nombre de données. Cette hypothèse est appelée ``\emph{sparsity assumption}''. Nous étudions les propriétés statistiques de deux types de procédures : les procédures basées sur la minimisation du risque empirique muni d'une pénalité $l_{1}$ sur l'ensemble des paramètres potentiels et les procédures à poids exponentiels. Le second sujet que nous abordons concerne l'étude de procédures d'agrégation dans un modèle de densité. Nous établissons des inégalités oracles pour la norme $L^{\pi}$, $1\leqslant \pi \leqslant \infty$. Nous proposons ensuite une application à l'estimation minimax et adaptative en la régularité de la densité.
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Etoré, Pierre. "Approximation de processus de diffusion à coefficients discontinus en dimension un et applications à la simulation". Nancy 1, 2006. https://tel.archives-ouvertes.fr/tel-00136282.

Texto completo da fonte
Resumo:
Dans cette thèse on étudie des schémas numériques pour des processus X à coeffcients discontinus. Un premier schéma pour le cas unidimensionnel utilise les Équations Différentielles Stochastiques avec Temps Local. En effet en dimension un les processus X sont solutions de telles équations. On construit une grille sur la droite réelle, qu’une bijection adéquate transforme en une grille uniforme de pas h. Cette bijection permet de transformer X en Y qui se comporte localement comme un Skew Brownian Motion, pour lequel on connaît les probabilités de transition sur une grille uniforme, et le temps moyen passé sur chaque cellule de cette grille. Une marche aléatoire peut alors être construite, qui converge vers X en h1/2. Toujours dans le cas unidimensionnel on propose un deuxième schéma plus général. On se donne une grille non uniforme sur la droite réelle, dont les cellules ont une taille proportionnelle à h. On montre qu’on peut relier les probabilités de transition de X sur cette grille, ainsi que le temps moyen passé par X sur chacune de ses cellules, à des solutions de problèmes d’EDP elliptiques ad hoc. Une marche aléatoire en temps et en espace est ainsi construite, qui permet d’approcher X à nouveau en h1/2. Ensuite on présente des pistes pour adapter cette dernière approche au cas bidimensionnel et les problèmes que cela soulève. Enfin on illustre par des exemples numériques les schémas étudiés
In this thesis numerical schemes for processes X generated by operators with discontinuous coeffcients are studied. A first scheme for the one-dimensional case uses Differential Stochastic Equations with Local Time. Indeed, in dimension one, the processes X are solutions of such equations. We construct a grid on the real line, that is transformed by a proper bijection in a uniform grid of step h. This bijection also transforms X in some process Y , that behaves locally like a Skew Brownian Motion (SBM). We know the transition probabilities of the SBM on a uniform grid, and the average time it spends on each of its cells. A random walk can then be built, that converges to X in h1/2. A second scheme, that is more general, is proposed still for the dimension one. A non uniform grid on the real line is given, whose cells have a size proportional to h. Both the transition probabilities of X on this grid, and the average time it spends on each of its cells, can be related to the solutions of proper elliptic PDE problems, using the Feynman-Kac formula. A time-space random walk can then be built, that converges to X again in h1/2. Next some directions to adapt this approach to the two-dimensional case are given. Finally numerical exemples illustrate the studied schemes
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Poignard, Benjamin. "Approches nouvelles des modèles GARCH multivariés en grande dimension". Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED010/document.

Texto completo da fonte
Resumo:
Ce document traite du problème de la grande dimension dans des processus GARCH multivariés. L'auteur propose une nouvelle dynamique vine-GARCH pour des processus de corrélation paramétrisés par un graphe non dirigé appelé "vine". Cette approche génère directement des matrices définies-positives et encourage la parcimonie. Après avoir établi des résultats d'existence et d'unicité pour les solutions stationnaires du modèle vine-GARCH, l'auteur analyse les propriétés asymptotiques du modèle. Il propose ensuite un cadre général de M-estimateurs pénalisés pour des processus dépendants et se concentre sur les propriétés asymptotiques de l'estimateur "adaptive Sparse Group Lasso". La grande dimension est traitée en considérant le cas où le nombre de paramètres diverge avec la taille de l'échantillon. Les résultats asymptotiques sont illustrés par des expériences simulées. Enfin dans ce cadre l'auteur propose de générer la sparsité pour des dynamiques de matrices de variance covariance. Pour ce faire, la classe des modèles ARCH multivariés est utilisée et les processus correspondants à celle-ci sont estimés par moindres carrés ordinaires pénalisés
This document contributes to high-dimensional statistics for multivariate GARCH processes. First, the author proposes a new dynamic called vine-GARCH for correlation processes parameterized by an undirected graph called vine. The proposed approach directly specifies positive definite matrices and fosters parsimony. The author provides results for the existence and uniqueness of stationary solution of the vine-GARCH model and studies its asymptotic properties. He then proposes a general framework for penalized M-estimators with dependent processes and focuses on the asymptotic properties of the adaptive Sparse Group Lasso regularizer. The high-dimensionality setting is studied when considering a diverging number of parameters with the sample size. The asymptotic properties are illustrated through simulation experiments. Finally, the author proposes to foster sparsity for multivariate variance covariance matrix processes within the latter framework. To do so, the multivariate ARCH family is considered and the corresponding parameterizations are estimated thanks to penalized ordinary least square procedures
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Bun, Joël. "Application de la théorie des matrices aléatoires pour les statistiques en grande dimension". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS245/document.

Texto completo da fonte
Resumo:
De nos jours, il est de plus en plus fréquent de travailler sur des bases de données de très grandes tailles dans plein de domaines différents. Cela ouvre la voie à de nouvelles possibilités d'exploitation ou d'exploration de l'information, et de nombreuses technologies numériques ont été créées récemment dans cette optique. D'un point de vue théorique, ce problème nous contraint à revoir notre manière d'analyser et de comprendre les données enregistrées. En effet, dans cet univers communément appelé « Big Data », un bon nombre de méthodes traditionnelles d'inférence statistique multivariée deviennent inadaptées. Le but de cette thèse est donc de mieux comprendre ce phénomène, appelé fléau (ou malédiction) de la dimension, et ensuite de proposer différents outils statistiques exploitant explicitement la dimension du problème et permettant d'extraire des informations fiables des données. Pour cela, nous nous intéresserons beaucoup aux vecteurs propres de matrices symétriques. Nous verrons qu’il est possible d’extraire de l'information présentant un certain degré d’universalité. En particulier, cela nous permettra de construire des estimateurs optimaux, observables, et cohérents avec le régime de grande dimension
Nowadays, it is easy to get a lot ofquantitative or qualitative data in a lot ofdifferent fields. This access to new databrought new challenges about data processingand there are now many different numericaltools to exploit very large database. In atheoretical standpoint, this framework appealsfor new or refined results to deal with thisamount of data. Indeed, it appears that mostresults of classical multivariate statisticsbecome inaccurate in this era of “Big Data”.The aim of this thesis is twofold: the first one isto understand theoretically this so-called curseof dimensionality that describes phenomenawhich arise in high-dimensional space.Then, we shall see how we can use these toolsto extract signals that are consistent with thedimension of the problem. We shall study thestatistics of the eigenvalues and especially theeigenvectors of large symmetrical matrices. Wewill highlight that we can extract someuniversal properties of these eigenvectors andthat will help us to construct estimators that areoptimal, observable and consistent with thehigh dimensional framework
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Renault, Vincent. "Contrôle optimal de modèles de neurones déterministes et stochastiques, en dimension finie et infinie. Application au contrôle de la dynamique neuronale par l'Optogénétique". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066471/document.

Texto completo da fonte
Resumo:
Let but de cette thèse est de proposer différents modèles mathématiques de neurones pour l'Optogénétique et d'étudier leur contrôle optimal. Nous définissons d'abord une version contrôlée des modèles déterministes de dimension finie, dits à conductances. Nous étudions un problème de temps minimal pour un système affine mono-entrée dont nous étudions les singulières. Nous appliquons une méthode numérique directe pour observer les trajectoires et contrôles optimaux. Le contrôle optogénétique apparaît comme une nouvelle façon de juger de la capacité des modèles à conductances de reproduire les caractéristiques de la dynamique du potentiel de membrane, observées expérimentalement. Nous définissons ensuite un modèle stochastique en dimension infinie pour prendre en compte le caractère aléatoire des mécanismes des canaux ioniques et la propagation des potentiels d'action. Il s'agit d'un processus de Markov déterministe par morceaux (PDMP) contrôlé, à valeurs dans un espace de Hilbert. Nous définissons une large classe de PDMPs contrôlés en dimension infinie et prouvons le caractère fortement Markovien de ces processus. Nous traitons un problème de contrôle optimal à horizon de temps fini. Nous étudions le processus de décision Markovien (MDP) inclus dans le PDMP et montrons l'équivalence des deux problèmes. Nous donnons des conditions suffisantes pour l'existence de contrôles optimaux pour le MDP, et donc le PDMP. Nous discutons des variantes pour le modèle d'Optogénétique stochastique en dimension infinie. Enfin, nous étudions l'extension du modèle à un espace de Banach réflexif, puis, dans un cas particulier, à un espace de Banach non réflexif
The aim of this thesis is to propose different mathematical neuron models that take into account Optogenetics, and study their optimal control. We first define a controlled version of finite-dimensional, deterministic, conductance based neuron models. We study a minimal time problem for a single-input affine control system and we study its singular extremals. We implement a direct method to observe the optimal trajectories and controls. The optogenetic control appears as a new way to assess the capability of conductance-based models to reproduce the characteristics of the membrane potential dynamics experimentally observed. We then define an infinite-dimensional stochastic model to take into account the stochastic nature of the ion channel mechanisms and the action potential propagation along the axon. It is a controlled piecewise deterministic Markov process (PDMP), taking values in an Hilbert space. We define a large class of infinite-dimensional controlled PDMPs and we prove that these processes are strongly Markovian. We address a finite time optimal control problem. We study the Markov decision process (MDP) embedded in the PDMP. We show the equivalence of the two control problems. We give sufficient conditions for the existence of an optimal control for the MDP, and thus, for the initial PDMP as well. The theoretical framework is large enough to consider several modifications of the infinite-dimensional stochastic optogenetic model. Finally, we study the extension of the model to a reflexive Banach space, and then, on a particular case, to a nonreflexive Banach space
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Hagendorf, Christian. "Evolutions de Schramm-Loewner et théories conformes : deux exemples de systèmes désordonnés de basse dimension". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00422366.

Texto completo da fonte
Resumo:
La première partie de cette thèse est consacrée à l'étude d'interfaces critiques bidimensionnelles par des méthodes d'évolutions de Schramm-Loewner (SLE) et de théories conformes. Nous étudions en particulier le cas de SLE(2) qui est la limite d'échelle des marches à boucles effacées. La solution explicite du problème d'enroulement sur des domaines doublement connexes est discutée. Nous établissons une généralisation de la formule de Schramm pour SLE(2) dans la géométrie doublement connexe et étendons la solution au cas de conditions mixtes Dirichlet-Neumann. L'analyse par la théorie conforme permet l'identification de l'opérateur de changement des conditions aux bords. De plus, à partir de l'étude des lignes de discontinuité du champ gaussien libre sur des domaines doublement connexes nous mettons en évidence une relation entre SLE(4) et les ponts browniens.

Le sujet de la seconde partie est l'étude de deux exemples de systèmes désordonnés de basse dimension. D'un coté nous établissons les propriétés de localisation et spectrales d'un hamiltonien aléatoire unidimensionnel qui interpole entre les cas du modèle de Halperin et le modèle supersymétrique désordonné. Un lien avec la diffusion unidimensionnelle dans un potentiel aléatoire permet d'étudier la modification de la dynamique ultra-lente de Sinai en présence d'absorbeurs. De l'autre côté nous analysons la transition vitreuse d'ARN pour des séquences aléatoires à l'aide de la théorie des champs de Lässig-Wiese-David. L'application au cas d'ARN soumis à une force extérieure conduit à la prédiction de la caractéristique force-extension pour des séquences hétérogènes. L'étude de la phase vitreuse nous amène à considérer un modèle hiérarchique combinatoire dont nous déterminons les exposants et lois d'échelle exactes ainsi que les corrections de taille finie.
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Hejblum, Boris. "Analyse intégrative de données de grande dimension appliquée à la recherche vaccinale". Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0049/document.

Texto completo da fonte
Resumo:
Les données d’expression génique sont reconnues comme étant de grande dimension, etnécessitant l’emploi de méthodes statistiques adaptées. Mais dans le contexte des essaisvaccinaux, d’autres mesures, comme par exemple les mesures de cytométrie en flux, sontégalement de grande dimension. De plus, ces données sont souvent mesurées de manièrelongitudinale. Ce travail est bâti sur l’idée que l’utilisation d’un maximum d’informationdisponible, en modélisant les connaissances a priori ainsi qu’en intégrant l’ensembledes différentes données disponibles, améliore l’inférence et l’interprétabilité des résultatsd’analyses statistiques en grande dimension. Tout d’abord, nous présentons une méthoded’analyse par groupe de gènes pour des données d’expression génique longitudinales. Ensuite,nous décrivons deux analyses intégratives dans deux études vaccinales. La premièremet en évidence une sous-expression des voies biologiques d’inflammation chez les patientsayant un rebond viral moins élevé à la suite d’un vaccin thérapeutique contre le VIH. Ladeuxième étude identifie un groupe de gènes lié au métabolisme lipidique dont l’impactsur la réponse à un vaccin contre la grippe semble régulé par la testostérone, et donc liéau sexe. Enfin, nous introduisons un nouveau modèle de mélange de distributions skew t àprocessus de Dirichlet pour l’identification de populations cellulaires à partir de donnéesde cytométrie en flux disponible notamment dans les essais vaccinaux. En outre, nousproposons une stratégie d’approximation séquentielle de la partition a posteriori dans lecas de mesures répétées. Ainsi, la reconnaissance automatique des populations cellulairespourrait permettre à la fois une avancée pratique pour le quotidien des immunologistesainsi qu’une interprétation plus précise des résultats d’expression génique après la priseen compte de l’ensemble des populations cellulaires
Gene expression data is recognized as high-dimensional data that needs specific statisticaltools for its analysis. But in the context of vaccine trials, other measures, such asflow-cytometry measurements are also high-dimensional. In addition, such measurementsare often repeated over time. This work is built on the idea that using the maximum ofavailable information, by modeling prior knowledge and integrating all data at hand, willimprove the inference and the interpretation of biological results from high-dimensionaldata. First, we present an original methodological development, Time-course Gene SetAnalysis (TcGSA), for the analysis of longitudinal gene expression data, taking into accountprior biological knowledge in the form of predefined gene sets. Second, we describetwo integrative analyses of two different vaccine studies. The first study reveals lowerexpression of inflammatory pathways consistently associated with lower viral rebound followinga HIV therapeutic vaccine. The second study highlights the role of a testosteronemediated group of genes linked to lipid metabolism in sex differences in immunologicalresponse to a flu vaccine. Finally, we introduce a new model-based clustering approach forthe automated treatment of cell populations from flow-cytometry data, namely a Dirichletprocess mixture of skew t-distributions, with a sequential posterior approximation strategyfor dealing with repeated measurements. Hence, the automatic recognition of thecell populations could allow a practical improvement of the daily work of immunologistsas well as a better interpretation of gene expression data after taking into account thefrequency of all cell populations
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Ismail, Boussaad. "Contribution à la conception robuste de réseaux électriques de grande dimension au moyen des métaheuristiques d’optimisation". Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1024.

Texto completo da fonte
Resumo:
Comme beaucoup de systèmes, un réseau électrique doit faire face à des pannes qui, compte tenu de sa grande connectivité, peuvent s'étendre à des régions entières : on parle alors de blackout (phénomène d'avalanche), c'est-à-dire ayant des conséquences à grande échelle. La taille des réseaux électriques et leur complexité rendent difficile la compréhension de ces phénomènes qui émergent localement. Un certain nombre de travaux existe et se fond sur un usage intensif des outils de physique statistique. L'adaptation de méthodes de percolation et les systèmes critiques auto-organisés sont autant d'outils de choix pour décrire les propriétés statistiques et topologiques d'un réseau. Les outils d'optimisation par métaheuristiques, plus particulièrement l'optimisation par essaim de particules (OEP, ou PSO en anglais) et les algorithmes génétiques (AGs), se sont révélés être la pierre angulaire de ce travail et ont permis de définir des structures opérationnelles. Les travaux développés dans ce domaine sont encore émergents et cette thèse y amène une contribution à plusieurs titres. Nous avons mis tout d'abord à profit des techniques d'optimisation afin de mieux “ rigidifier ” un réseau électrique en couplant la topologie de ce dernier au maintien des tensions aux noeuds du réseau par implémentation de FACTS (Flexible Alternative Current Transmission System). Pour le placement optimal de FACTS, l'objectif est de déterminer la répartition optimale de la puissance réactive, en relation avec la localisation et le dimensionnement optimal de FACTS, afin d'améliorer les performances d'un réseau électrique. Quatre principales questions sont alors abordées: 1) Où placer des FACTS dans le réseau ? Combien de FACTS ? Quelle puissance attribuer à ces FACTS ? Quel(s) type(s) de FACTS ? A quel prix ? Dans cette thèse, toutes ces questions seront modélisées et abordées d'un point de vue électrique et optimal en appliquant, dans un premier temps, l'optimisation par essaim de particules OEP basique puis, dans un deuxième temps, en proposant un nouvel algorithme OEP (alpha-SLPSO) et une recherche locale (alpha-LLS) s'inspirant ainsi du concept de l'OEP basique et des lois de probabilité stables dites «alpha-stables de Lévy». Par ailleurs, l'ampleur du projet défini par l'équipe @RiskTeam d'Alstom Grid oblige l'utilisation de plusieurs techniques (tirées de la physique, des statistiques, etc.) destinées à des fins particulières dont l'estimation des paramètres des lois alpha-stable de Lévy. Face à l'échec des techniques déjà existantes pour l'estimation des lois alpha −stable de paramètre alpha < 0.6 , nous proposons un nouvel estimateur semi-paramétrique de cette famille de probabilité utilisant les métaheuristiques pour résoudre le problème d'optimisation sous-jacent. Enfin, en annexe de cette thèse, un outil d'aide à la décision destiné à une équipe interne d'Alstom Grid qui consiste en l'optimisation de la topologie interne d'un parc éolien est détaillé dans le dernier chapitre
Like many systems, an electrical power grid must contend with faillures which, given its higth connectivity, could spread to entire regions: this is referred to blackout (avalanche phenomena), ie. with large-scale consequences. The size of power grids and their complexity make difficult to grasp these locally emergent phenomena. There is a number of existing works that were based on extensive use of statistical physics tools. The adaptation of percolation's methods and the Self-Organized-Criticality systems provide practical tools to describe the statistical and topological properties of a network. Optimization tools by metaheuristics particularly, particle swarm optimization (PSO) and genetic algorithms (GA) have proved to be the cornerstone of this work and helped to define operational structures. Works developed in this area are still emerging. This thesis brings a contribution in several ways. First of all, we have taken advantage in optimization technics to better "stiffen" a power grid by coupling its topology with maintaining voltages at the nodes of the network using FACTS (Flexible Alternative Current Transmission System). In the optimal location FACTS problem, the objective is to determine the optimal allocation of reactive power, in relation to the location and optimal sizing of FACTS, in order to improve the performance of the power grid. Four main issues are then discussed: 1) Where to place FACTS in the network? How many FACTS? What power attributed to these FACTS? What type(s) attributed to these FACTS? At what prices ? In this thesis, all these questions will be modeled and discussed from the point of view of optimal power by applying, firstly, the strandard particle swarm optimization and by proposing a novel particle swarm optimization (alpha-SLPOS) and a local search (alpha-LLS). These two algorithms are inspired by the basic concept of PSO and the stable distributions (alpha-stable laws). Moreover, the scope of the project defined by the team @RiskTeam Alstom Grid requires the use of several techniques (from physics, statistics, etc) for particular purposes including the alpha-stable parametere estimation problem. Facing the failure of the existing methods for estimating the parameters of alpha-stable laws for alpha<0.6, we propose a novel semi-parametric estimator for such of probability distribution familly using metaheuristic to solve the underlying problem of optimization. Finally, in the end of the thesis, a decision support tool is designed for an internal team of Alstom Grid to optimize the internal topology of a wind farm
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Mourareau, Stéphane. "Gaussian geometry and tools for compressed sensing". Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30074/document.

Texto completo da fonte
Resumo:
Cette thèse s'inscrit dans le cadre de l'analyse statistique en grande dimension. Plus précisé- ment, l'objet de cette thèse est d'étudier la possible application d'outils issus de la théorie des processus Gaussiens afin de redémontrer certaines propriétés des matrices à entrées Gaussiennes et d'étendre certaines procédures de test du modèle linéaire Gaussien standard. Dans la première partie, nous nous concentrons sur les matrices Gaussiennes. Notre objectif est de démontrer, via des formules du type Kac-Rice, qu'une telle matrice satisfait, avec très grande probabilité, la Null Space Property (NSP) et la Propriété d'Isométrie Restreinte (RIP). De plus, nous déduisons des transitions de phases dépendant des paramètres classiques de la régression parcimonieuse, à savoir le nombre d'observations, le nombre de prédicteurs et le degré de sparsité. Dans la seconde partie, nous traitons le cas du test de nullité globale des paramètres pour le modèle linéaire Gaussien, afin de l'appliquer au cas de la sélection de modèle. Dans ces travaux, qui s'inscrivent dans la continuité de Taylor, Loftus et Tibshirani, nous proposons un test non conditionnel pour l'hypothèse de nullité globale dans le cadre du lasso et discutons autour de sa puissance. De plus, nous généralisons ces résultats aux processus Gaussiens, pour inclure, par exemple, la cas de la super-résolution. Dans une troisième partie, nous présentons quelques applications de la formule de Rice visantà calculer la fonction de répartition du maximum d'un processus Gaussien afin d'en déduire une version numériquement implémentable. Dans un deuxième temps, nous discutons de l'efficacité ou non de certaines approximations classiques pour la fonction de répartition du maximum. Enfin, nous étudions le comportement asymptotique du nombre de franchissements d'un niveau donné u sur un intervalle de temps [0,T] pour un processus Gaussien dérivable
This thesis fallin within the context of high-dimensional data analysis. More specificaly, the purpose is to study the possible application of some Gaussian tools to prove classical results on matrices with Gaussian entries and to extend existing test procedures for Gaussian linear models. In a first part, we focus on Gaussian matrices. Our aim is to prove, using a Kac-Rice formula on Gaussian processes, that such a matrice satisfies, with overwhelming probability, the Null Space Property (NSP) and the Restricted Isometry Property (RIP). Moreover, we derive phase transition graphs depending on the classical parameters of sparse regression, namely the number of observations, the number of predictors and the level of sparsity. In a second part, we deal with global null testing for Gaussian linear models, with application to Compressed Sensing. Following recent works of Taylor, Loftus and Tibshirani, we purpose a test for global null hypothesis in the lasso case and discuss about its power. Furthermore, we generalize these method to Gaussian processes, to include, for instance, the super-resolution case. In a third part, we present some applications of Rice formula to compute the cumulative distribution function of the maximum of a Gaussian process and derive corresponding numerical routines to investigate the efficiency of classical approximations. Finaly, we consider the asymp- totical comportement of the number of crossings of a differentiable Gaussian process for a given level u and time interval [0,T]
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Yang, Xiaochuan. "Etude dimensionnelle de la régularité de processus de diffusion à sauts". Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1073/document.

Texto completo da fonte
Resumo:
Dans cette thèse, on étudie diverses propriétés dimensionnelles de la régularité de processus de difusions à sauts, solution d’une classe d’équations différentielles stochastiques à sauts. En particulier, on décrit la fluctuation de la régularité höldérienne de ces processus et celle de la dimension locale pour la mesure d’occupation qui leur est associée en calculant leur spectre multifractal. La dimension de Hausdorff de l’image et du graphe de ces processus ont aussi étudiées.Dans le dernier chapitre, on applique une nouvelle notion de dimension de grande échelle pour décrire l’asymptote à l’infini du temps de séjour d’un mouvement brownien en dimension 1 sous des frontières glissantes
In this dissertation, we study various dimension properties of the regularity of jump di usion processes, solution of a class of stochastic di erential equations with jumps. In particular, we de- scribe the uctuation of the Hölder regularity of these processes and that of the local dimensions of the associated occupation measure by computing their multifractal spepctra. e Hausdor dimension of the range and the graph of these processes are also calculated.In the last chapter, we use a new notion of “large scale” dimension in order to describe the asymptotics of the sojourn set of a Brownian motion under moving boundaries
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Lorang, Gérard. "Trois exemples d'étude de processus stochastiques : 1) un théorème de Schilder pour des fonctionnelles browniennes non régulières : 2) étude d'une fonctionnelle liée au pont de Bessel : 3) régularité Besov des trajectoires du processus intégral de Skorohod". Nancy 1, 1994. http://www.theses.fr/1994NAN10055.

Texto completo da fonte
Resumo:
Dans la première partie, on établit un équivalent exact d'une fonctionnelle du mouvement brownien qui n'est pas régulière. Plus précisément, on étudie une distance holdérienne entre le brownien b et une fonction fixée f. Dans la deuxième partie, on donne des estimations d'une fonctionnelle liée au pont de Bessel. Ce résultat permet d'étudier le comportement asymptotique du noyau de transition d'une classe de semi-groupes de type hyperbolique. Dans la troisième partie, on montre que, sous des hypothèses de régularité convenables sur l'intégrant, le processus intégral de Skorohod possède la même régularité Besov que les trajectoires browniennes
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Phi, Tien Cuong. "Décomposition de Kalikow pour des processus de comptage à intensité stochastique". Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4029.

Texto completo da fonte
Resumo:
L'objectif de cette thèse est de construire des algorithmes capables de simuler l'activité d'un réseau de neurones. L'activité du réseau de neurones peut être modélisée par le train de spikes de chaque neurone, qui sont représentés par un processus ponctuel multivarié. La plupart des approches connues pour simuler des processus ponctuels rencontrent des difficultés lorsque le réseau sous-jacent est de grande taille.Dans cette thèse, nous proposons de nouveaux algorithmes utilisant un nouveau type de décomposition de Kalikow. En particulier, nous présentons un algorithme permettant de simuler le comportement d'un neurone intégré dans un réseau neuronal infini sans simuler l'ensemble du réseau. Nous nous concentrons sur la preuve mathématique que notre algorithme renvoie les bons processus ponctuels et sur l'étude de sa condition d'arrêt. Ensuite, une preuve constructive montre que cette nouvelle décomposition est valable pour divers processus ponctuels.Enfin, nous proposons des algorithmes, qui peuvent être parallélisés et qui permettent de simuler une centaine de milliers de neurones dans un graphe d'interaction complet, sur un ordinateur portable. Plus particulièrement, la complexité de cet algorithme semble linéaire par rapport au nombre de neurones à simuler
The goal of this thesis is to construct algorithms which are able to simulate the activity of a neural network. The activity of the neural network can be modeled by the spike train of each neuron, which are represented by a multivariate point processes. Most of the known approaches to simulate point processes encounter difficulties when the underlying network is large.In this thesis, we propose new algorithms using a new type of Kalikow decomposition. In particular, we present an algorithm to simulate the behavior of one neuron embedded in an infinite neural network without simulating the whole network. We focus on mathematically proving that our algorithm returns the right point processes and on studying its stopping condition. Then, a constructive proof shows that this new decomposition holds for on various point processes.Finally, we propose algorithms, that can be parallelized and that enables us to simulate a hundred of thousand neurons in a complete interaction graph, on a laptop computer. Most notably, the complexity of this algorithm seems linear with respect to the number of neurons on simulation
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Ouzina, Mostafa. "Théorème du support en théorie du filtrage non-linéaire". Rouen, 1998. http://www.theses.fr/1998ROUES029.

Texto completo da fonte
Resumo:
La thèse comporte essentiellement quatre parties. Dans la première partie, la preuve simple de A. Millet et Marta-Sanz-Sole du théorème du support de Stroock-Varadhan dans le cas indépendant du temps est étendue au cas dépendant du temps. Dans la seconde partie, soit (x#t) la solution de l'équation différentielle stochastique x#t = x + #r#i# #=# #1#t#0#i(x#s)dw#i#s + #l#j# #=# #1#t#0$$#j(x#s)odw$$#j#s + #t#0b(x#s)ds nous considérons cette solution comme fonction de w a valeurs dans l'espace l#p des fonctions de w$$ a valeurs dans l'espace des fonctions continues. Le résultat concernant le théorème du support dans ce contexte est établi. Le reste de la thèse est une application de ces idées au filtrage non linéaire : le support de l’espérance conditionnelle déterminée soit par l'équation de Zakai soit par l'équation de Stratonovich est établi, puis nous donnons également le support de la loi conditionnelle du signal x sachant l'observation y, ou le couple (x,y) est donne par dx#t = #r#i# #=# #1#i(x#t)odw#i#t + #l#j# #=# #1$$#j(x#t)ody#j#t + b(x#t)dt dy#t = (x#t)dt + d$$#t, x#0 = x, y#0 = 0, t , 0. 1; dans deux situations différentes. Dans la première on suppose que l'algèbre de lie l($$#1,,$$#l) est commutative. Dans la seconde on suppose que les champs de vecteurs $$#j sont à support compact. Dans la dernière partie on étudie le principe de grandes déviations pour le filtre normalise perturbe obtenu en remplaçant y par y avec tend vers zero.
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Bӑrbos, Andrei-Cristian. "Efficient high-dimension gaussian sampling based on matrix splitting : application to bayesian Inversion". Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0002/document.

Texto completo da fonte
Resumo:
La thèse traite du problème de l’échantillonnage gaussien en grande dimension.Un tel problème se pose par exemple dans les problèmes inverses bayésiens en imagerie où le nombre de variables atteint facilement un ordre de grandeur de 106_109.La complexité du problème d’échantillonnage est intrinsèquement liée à la structure de la matrice de covariance. Pour résoudre ce problème différentes solutions ont déjà été proposées,parmi lesquelles nous soulignons l’algorithme de Hogwild qui exécute des mises à jour de Gibbs locales en parallèle avec une synchronisation globale périodique.Notre algorithme utilise la connexion entre une classe d’échantillonneurs itératifs et les solveurs itératifs pour les systèmes linéaires. Il ne cible pas la distribution gaussienne requise, mais cible une distribution approximative. Cependant, nous sommes en mesure de contrôler la disparité entre la distribution approximative est la distribution requise au moyen d’un seul paramètre de réglage.Nous comparons d’abord notre algorithme avec les algorithmes de Gibbs et Hogwild sur des problèmes de taille modérée pour différentes distributions cibles. Notre algorithme parvient à surpasser les algorithmes de Gibbs et Hogwild dans la plupart des cas. Notons que les performances de notre algorithme dépendent d’un paramètre de réglage.Nous comparons ensuite notre algorithme avec l’algorithme de Hogwild sur une application réelle en grande dimension, à savoir la déconvolution-interpolation d’image.L’algorithme proposé permet d’obtenir de bons résultats, alors que l’algorithme de Hogwild ne converge pas. Notons que pour des petites valeurs du paramètre de réglage, notre algorithme ne converge pas non plus. Néanmoins, une valeur convenablement choisie pour ce paramètre permet à notre échantillonneur de converger et d’obtenir de bons résultats
The thesis deals with the problem of high-dimensional Gaussian sampling.Such a problem arises for example in Bayesian inverse problems in imaging where the number of variables easily reaches an order of 106_109. The complexity of the sampling problem is inherently linked to the structure of the covariance matrix. Different solutions to tackle this problem have already been proposed among which we emphasizethe Hogwild algorithm which runs local Gibbs sampling updates in parallel with periodic global synchronisation.Our algorithm makes use of the connection between a class of iterative samplers and iterative solvers for systems of linear equations. It does not target the required Gaussian distribution, instead it targets an approximate distribution. However, we are able to control how far off the approximate distribution is with respect to the required one by means of asingle tuning parameter.We first compare the proposed sampling algorithm with the Gibbs and Hogwild algorithms on moderately sized problems for different target distributions. Our algorithm manages to out perform the Gibbs and Hogwild algorithms in most of the cases. Let us note that the performances of our algorithm are dependent on the tuning parameter.We then compare the proposed algorithm with the Hogwild algorithm on a large scalereal application, namely image deconvolution-interpolation. The proposed algorithm enables us to obtain good results, whereas the Hogwild algorithm fails to converge. Let us note that for small values of the tuning parameter our algorithm fails to converge as well.Not with standing, a suitably chosen value for the tuning parameter enables our proposed sampler to converge and to deliver good results
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Bettinelli, Jérémie. "Limite d'échelle de cartes aléatoires en genre quelconque". Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00638065.

Texto completo da fonte
Resumo:
Au cours de ce travail, nous nous intéressons aux limites d'échelle de deux classes de cartes. Dans un premier temps, nous regardons les quadrangulations biparties de genre strictement positif g fixé et, dans un second temps, les quadrangulations planaires à bord dont la longueur du bord est de l'ordre de la racine carrée du nombre de faces. Nous voyons ces objets comme des espaces métriques, en munissant leurs ensembles de sommets de la distance de graphe, convenablement renormalisée. Nous montrons qu'une carte prise uniformément parmi les cartes ayant n faces dans l'une de ces deux classes tend en loi, au moins à extraction près, vers un espace métrique limite aléatoire lorsque n tend vers l'infini. Cette convergence s'entend au sens de la topologie de Gromov--Hausdorff. On dispose de plus des informations suivantes sur l'espace limite que l'on obtient. Dans le premier cas, c'est presque sûrement un espace de dimension de Hausdorff 4 homéomorphe à la surface de genre g. Dans le second cas, c'est presque sûrement un espace de dimension 4 avec une frontière de dimension 2, homéomorphe au disque unité de R^2. Nous montrons en outre que, dans le second cas, si la longueur du bord est un petit~o de la racine carrée du nombre de faces, on obtient la même limite que pour les quadrangulations sans bord, c'est-à-dire la carte brownienne, et l'extraction n'est plus requise.
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Llau, Antoine. "Méthodes de simulation du comportement mécanique non linéaire des grandes structures en béton armé et précontraint : condensation adaptative en contexte aléatoire et représentation des hétérogénéités". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAI029/document.

Texto completo da fonte
Resumo:
Les structures en béton et béton armé de grandes dimensions, en particulier les enceintes de confinement, peuvent être sujettes à de la fissuration localisée suite à leur vieillissement ou dans le cas d’une forte sollicitation (APRP, par exemple). Afin d’optimiser les actions de maintenance, il est nécessaire de disposer d’un modèle prédictif de l’endommagement du béton. Ce phénomène se produit à une échelle matériau relativement petite et un modèle prédictif nécessite un maillage fin et une loi de comportement non linéaire. Hors ce type de modélisation ne peut être directement appliquée sur une structure de génie civil de grande échelle, le calcul étant trop lourd pour les machines actuelles.Une méthode de calcul est proposée, qui concentre l’effort de calcul sur les zones d’intérêt (parties endommagées) de la structure en éliminant les zones non endommagées. L’objectif est ainsi d’utiliser la puissance de calcul disponible pour la caractérisation des propriétés des fissures notamment. Cette approche utilise la méthode de condensation statique de Guyan pour ramener les zones élastiques à un ensemble de conditions aux limites appliquées aux bornes des zones d’intérêt. Lorsque le système évolue, un système de critères permet de promouvoir à la volée des zones élastiques en zones d’intérêt si de l’endommagement y apparaît. Cette méthode de condensation adaptative permet de réduire la dimension du problème non linéaire sans altérer la qualité des résultats par rapport à un calcul complet de référence. Cependant, une modélisation classique ne permet pas de prendre en compte les divers aléas impactant le comportement de la structure : propriétés mécaniques, géométrie, chargement… Afin de mieux caractériser ce comportement en tenant compte des incertitudes, la méthode de condensation adaptative proposée est couplée avec une approche de collocation stochastique. Chaque calcul déterministe nécessaire pour caractériser les incertitudes sur les grandeurs d’intérêt de la structure est ainsi réduit et les étapes de prétraitement nécessaires à la condensation sont elles-mêmes mutualisées via une deuxième collocation. L’approche proposée permet ainsi de produire pour un coût de calcul limité des densités de probabilités des grandeurs d’intérêt d’une grande structure. Les stratégies de résolution proposées rendent accessibles à l’échelle locale une modélisation plus fine que celle qui pourrait s’appliquer sur l’ensemble de la structure. Afin de bénéficier d’une meilleure représentativité à cette échelle, il est nécessaire de représenter les effets tridimensionnels des hétérogénéités. Dans le domaine du génie civil et nucléaire, cela concerne au premier chef les câbles de précontrainte, traditionnellement représentés en unidimensionnel. Une approche est donc proposée, qui s’appuie sur un maillage et une modélisation 1D pour reconstruire un volume équivalent au câble et retransmettre les efforts et rigidités dans le volume de béton. Elle combine la représentativité d’un modèle 3D complet et conforme des câbles lorsque le maillage s’affine et la facilité d’utilisation et paramétrage d’un modèle 1D. L’applicabilité des méthodes proposées à une structure de génie civil de grande échelle est évaluée sur un modèle numérique d’une maquette à l’échelle 1/3 de l’enceinte de confinement interne d’un réacteur de type REP 1300 MWe à double paroi
Large-scale concrete and reinforced concrete structures, and in particular containment buildings, may undergo localized cracking when they age or endure strong loadings (LOCA for instance). In order to optimize the maintenance actions, a predictive model of concrete damage is required. This phenomenon takes place at a rather small material scale and a predictive model requires a refined mesh and a nonlinear constitutive law. This type of modelling cannot be applied directly on a large-scale civil engineering structure, as the computational load would be too heavy for the existing machines.A simulation method is proposed to focus the computational effort on the areas of interest (damaged parts) of the structure while eliminating the undamaged areas. It aims at using the available computing power for the characterization of crack properties in particular. This approach uses Guyan’s static condensation technique to reduce the elastic areas to a set of boundary conditions applied to the areas of interest. When the system evolves, a set of criteria allows to promote on the fly the elastic areas to areas of interest if damage appears. This adaptive condensation technique allows to reduce the dimension of a nonlinear problem without degrading the quality of the results when compared to a full reference simulation.However, a classical modelling does not allow to take into account the various unknowns which will impact the structural behaviour: mechanical properties, geometry, loading… In order to better characterize this behaviour while taking into account the various uncertainties, the proposed adaptive condensation method is coupled with a stochastic collocation approach. Each deterministic simulation required for the characterization of the uncertainties on the structural quantities of interest is therefore reduced and the pre-processing steps necessary to the condensation technique are also reduced using a second collocation. The proposed approach allows to produce for a reduced computational cost the probability density functions of the quantities of interest of a large structure.The proposed calculation strategies give access at the local scale to a modelling finer than what would be applicable to the full structure. In order to improve the representativeness at this scale, the tridimensional effects of the heterogeneities must be taken into account. In the civil and nuclear engineering field, one of the main issues is the modelling of prestressing tendons, usually modelled in one dimension. A new approach is proposed, which uses a 1D mesh and model to build a volume equivalent to the tendon and redistribute the forces and stiffnesses in the concrete. It combines the representativeness of a full conform 3D modelling of the tendon when the mesh is refined and the ease of use of the 1D approaches.The applicability of the proposed methodologies to a large-scale civil engineering structure is evaluated using a numerical model of a 1/3 mock-up of a double-wall containment building of a PWR 1300 MWe nuclear reactor
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Jin, Xiong. "Construction et analyse multifractale de fonctions aléatoires et de leurs graphes". Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00841501.

Texto completo da fonte
Resumo:
Cette thèse est consacrée à la construction et l'analyse multifractale de fonctions aléatoires et de leurs graphes. La construction de ces objets se fait dans le cadre de la théorie des T-martingales de Kahane, et plus spécifiquement des [0, 1]-martingales. Cette théorie est fréquemment utilisée pour construire des martingales à valeurs dans les mesures de Borel positives dont la limite soit presque sûrement singulière par rapport à la mesure de Lebesgue. Ceci se fait en perturbant cette dernière à l'aide d'une suite de densités aléatoires qui sont des martingales positives d'espérance 1. Ici, nous autorisons ces martingales à prendre des valeurs complexes, et plutôt que des martingales à valeurs dans les mesures, nous considérons des martingales à valeurs dans les fonctions continues à valeurs complexes, puis la question de leur convergence uniforme presque sûre. Nous obtenons une condition suffisante de convergence pour les éléments d'une large classe de [0, 1]-martingales complexes. Les limites non dégénérées sont toutes candidates à être des fonctions multifractales. L'étude de leur nature multifractale révèle de nouvelles diffiultés. Nous la menons de façon complète dans le cas des "cascades b-adiques indépendantes" complexes. Ceci conduit à de nouveaux phénomènes. En particulier, nous construisons des fonctions continues statistiquement autosimilaires dont le spectre de singularité est croissant et entièrement supporté par l'intervalle [0;\infty]. Nous considérons également de nouveaux spectres de singularité associés au graphe, à l'image, ainsi qu'aux ensembles de niveau d'une fonction multifractale f donnée. Ces spectres s'obtiennent de la façon suivante. Soit Eh l'ensemble iso-Hölder de f associé à l'exposant h. Soit h le sous-ensemble du graphe de f obtenu en y relevant Eh. Pour tout h, on cherche la dimension de Hausdorff de h, celle de f(Eh), et celle des ensembles du type h \ Ly, où Ly est l'ensemble de niveau y de f. Pour les cascades b-adiques indépendantes non conservatives à valeurs réelles, nous obtenons presque sûrement les spectres associés au graphe et à l'image, et pour les spectres associés aux ensembles de niveau, nous obtenons un résultat en regardant des lignes de niveau dans "Lebesgue presque toute direction". Enfin, nous considérons les mêmes questions que précédemment pour une autre classe de foncions aléatoires multifractales obtenues comme séries d'ondelettes pondérées par des mesures de Gibbs. Nous obtenons presque sûrement les spectres associés au graphe et à l'image.
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Nguepedja, Nankep Mac jugal. "Modélisation stochastique de systèmes biologiques multi-échelles et inhomogènes en espace". Thesis, Rennes, École normale supérieure, 2018. http://www.theses.fr/2018ENSR0012/document.

Texto completo da fonte
Resumo:
Les besoins grandissants de prévisions robustes pour des systèmes complexes conduisent à introduire des modèles mathématiques considérant un nombre croissant de paramètres. Au temps s'ajoutent l'espace, l'aléa, les échelles de dynamiques, donnant lieu à des modèles stochastiques multi-échelles avec dépendance spatiale (modèles spatiaux). Cependant, l'explosion du temps de simulation de tels modèles complique leur utilisation. Leur analyse difficile a néanmoins permis, pour les modèles à une échelle, de développer des outils puissants: loi des grands nombres (LGN), théorème central limite (TCL), ..., puis d'en dériver des modèles simplifiés et algorithmes accélérés. Dans le processus de dérivation, des modèles et algorithmes dits hybrides ont vu le jour dans le cas multi-échelle, mais sans analyse rigoureuse préalable, soulevant ainsi la question d'approximation hybride dont la consistance constitue l'une des motivations principales de cette thèse.En 2012, Crudu, Debussche, Muller et Radulescu établissent des critères d'approximation hybride pour des modèles homogènes en espace de réseaux de régulation de gènes. Le but de cette thèse est de compléter leur travail et le généraliser à un cadre spatial.Nous avons développé et simplifié différents modèles, tous des processus de Markov de sauts pures à temps continu. La démarche met en avant, d'une part, des conditions d'approximations déterministes par des solutions d'équations d'évolution (type réaction-advection-diffusion), et, d'autre part, des conditions d'approximations hybrides par des processus stochastiques hybrides. Dans le cadre des réseaux de réactions biochimiques, un TCL est établi. Il correspond à une approximation hybride d'un modèle homogène simplifié à deux échelles de temps (suivant Crudu et al.). Puis, une LGN est obtenue pour un modèle spatial à deux échelles de temps. Ensuite, une approximation hybride est établie pour un modèle spatial à deux échelles de dynamique en temps et en espace. Enfin, des comportements asymptotiques en grandes populations et en temps long sont présentés pour un modèle d'épidémie de choléra, via une LGN suivie d'une borne supérieure pour les sous-ensembles compacts, dans le cadre d'un principe de grande déviation (PGD) correspondant.À l'avenir, il serait intéressant, entre autres, de varier la géométrie spatiale, de généraliser le TCL, de compléter les estimations du PGD, et d'explorer des systèmes complexes issus d'autres domaines
The growing needs of precise predictions for complex systems lead to introducing stronger mathematical models, taking into account an increasing number of parameters added to time: space, stochasticity, scales of dynamics. Combining these parameters gives rise to spatial --or spatially inhomogeneous-- multiscale stochastic models. However, such models are difficult to study and their simulation is extremely time consuming, making their use not easy. Still, their analysis has allowed one to develop powerful tools for one scale models, among which are the law of large numbers (LLN) and the central limit theorem (CLT), and, afterward, to derive simpler models and accelrated algorithms. In that deduction process, the so-called hybrid models and algorithms have arisen in the multiscale case, but without any prior rigorous analysis. The question of hybrid approximation then shows up, and its consistency is a particularly important motivation of this PhD thesis.In 2012, criteria for hybrid approximations of some homogeneous regulation gene network models were established by Crudu, Debussche, Muller and Radulescu. The aim of this PhD thesis is to complete their work and generalize it afterward to a spatial framework.We have developed and simplified different models. They all are time continuous pure jump Markov processes. The approach points out the conditions allowing on the the one hand deterministic approximations by solutions of evolution equations of type reaction-advection-diffusion, and, on the other hand, hybrid approximations by hybrid stochastic processes. In the field of biochemical reaction networks, we establish a CLT. It corresponds to a hybrid approximation of a simplified homogeneous model (due to Crudu et al.). Then a LLN is obtained for a spatial model with two time scales. Afterward, a hybrid approximation is established, for a two time-space scales spatial model. Finally, the asymptotic behaviour in large population and long time are respectively presented for a model of cholera epidemic, through a LLN followed by the upper bound for compact sets, in the context of a corresponding large deviation principle (LDP).Interesting future works would be, among others, to study other spatial geometries, to generalize the CLT, to complete the LDP estimates, and to study complex systems from other fields
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Hoock, Jean-Baptiste. "Contributions to Simulation-based High-dimensional Sequential Decision Making". Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00912338.

Texto completo da fonte
Resumo:
My thesis is entitled "Contributions to Simulation-based High-dimensional Sequential Decision Making". The context of the thesis is about games, planning and Markov Decision Processes. An agent interacts with its environment by successively making decisions. The agent starts from an initial state until a final state in which the agent can not make decision anymore. At each timestep, the agent receives an observation of the state of the environment. From this observation and its knowledge, the agent makes a decision which modifies the state of the environment. Then, the agent receives a reward and a new observation. The goal is to maximize the sum of rewards obtained during a simulation from an initial state to a final state. The policy of the agent is the function which, from the history of observations, returns a decision. We work in a context where (i) the number of states is huge, (ii) reward carries little information, (iii) the probability to reach quickly a good final state is weak and (iv) prior knowledge is either nonexistent or hardly exploitable. Both applications described in this thesis present these constraints : the game of Go and a 3D simulator of the european project MASH (Massive Sets of Heuristics). In order to take a satisfying decision in this context, several solutions are brought : 1. Simulating with the compromise exploration/exploitation (MCTS) 2. Reducing the complexity by local solving (GoldenEye) 3. Building a policy which improves itself (RBGP) 4. Learning prior knowledge (CluVo+GMCTS) Monte-Carlo Tree Search (MCTS) is the state of the art for the game of Go. From a model of the environment, MCTS builds incrementally and asymetrically a tree of possible futures by performing Monte-Carlo simulations. The tree starts from the current observation of the agent. The agent switches between the exploration of the model and the exploitation of decisions which statistically give a good cumulative reward. We discuss 2 ways for improving MCTS : the parallelization and the addition of prior knowledge. The parallelization does not solve some weaknesses of MCTS; in particular some local problems remain challenges. We propose an algorithm (GoldenEye) which is composed of 2 parts : detection of a local problem and then its resolution. The algorithm of resolution reuses some concepts of MCTS and it solves difficult problems of a classical database. The addition of prior knowledge by hand is laborious and boring. We propose a method called Racing-based Genetic Programming (RBGP) in order to add automatically prior knowledge. The strong point is that RBGP rigorously validates the addition of a prior knowledge and RBGP can be used for building a policy (instead of only optimizing an algorithm). In some applications such as MASH, simulations are too expensive in time and there is no prior knowledge and no model of the environment; therefore Monte-Carlo Tree Search can not be used. So that MCTS becomes usable in this context, we propose a method for learning prior knowledge (CluVo). Then we use pieces of prior knowledge for improving the rapidity of learning of the agent and for building a model, too. We use from this model an adapted version of Monte-Carlo Tree Search (GMCTS). This method solves difficult problems of MASH and gives good results in an application to a word game.
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Luu, Duy tung. "Exponential weighted aggregation : oracle inequalities and algorithms". Thesis, Normandie, 2017. http://www.theses.fr/2017NORMC234/document.

Texto completo da fonte
Resumo:
Dans plusieurs domaines des statistiques, y compris le traitement du signal et des images, l'estimation en grande dimension est une tâche importante pour recouvrer un objet d'intérêt. Toutefois, dans la grande majorité de situations, ce problème est mal-posé. Cependant, bien que la dimension ambiante de l'objet à restaurer (signal, image, vidéo) est très grande, sa ``complexité'' intrinsèque est généralement petite. La prise en compte de cette information a priori peut se faire au travers de deux approches: (i) la pénalisation (très populaire) et (ii) l'agrégation à poids exponentiels (EWA). L'approche penalisée vise à chercher un estimateur qui minimise une attache aux données pénalisée par un terme promouvant des objets de faible complexité (simples). L'EWA combine une famille des pré-estimateurs, chacun associé à un poids favorisant exponentiellement des pré-estimateurs, lesquels privilègent les mêmes objets de faible complexité.Ce manuscrit se divise en deux grandes parties: une partie théorique et une partie algorithmique. Dans la partie théorique, on propose l'EWA avec une nouvelle famille d'a priori favorisant les signaux parcimonieux à l'analyse par group dont la performance est garantie par des inégalités oracle. Ensuite, on analysera l'estimateur pénalisé et EWA, avec des a prioris généraux favorisant des objets simples, dans un cardre unifié pour établir des garanties théoriques. Deux types de garanties seront montrés: (i) inégalités oracle en prédiction, et (ii) bornes en estimation. On les déclinera ensuite pour des cas particuliers dont certains ont été étudiés dans littérature. Quant à la partie algorithmique, on y proposera une implémentation de ces estimateurs en alliant simulation Monte-Carlo (processus de diffusion de Langevin) et algorithmes d'éclatement proximaux, et montrera leurs garanties de convergence. Plusieurs expériences numériques seront décrites pour illustrer nos garanties théoriques et nos algorithmes
In many areas of statistics, including signal and image processing, high-dimensional estimation is an important task to recover an object of interest. However, in the overwhelming majority of cases, the recovery problem is ill-posed. Fortunately, even if the ambient dimension of the object to be restored (signal, image, video) is very large, its intrinsic ``complexity'' is generally small. The introduction of this prior information can be done through two approaches: (i) penalization (very popular) and (ii) aggregation by exponential weighting (EWA). The penalized approach aims at finding an estimator that minimizes a data loss function penalized by a term promoting objects of low (simple) complexity. The EWA combines a family of pre-estimators, each associated with a weight exponentially promoting the same objects of low complexity.This manuscript consists of two parts: a theoretical part and an algorithmic part. In the theoretical part, we first propose the EWA with a new family of priors promoting analysis-group sparse signals whose performance is guaranteed by oracle inequalities. Next, we will analysis the penalized estimator and EWA, with a general prior promoting simple objects, in a unified framework for establishing some theoretical guarantees. Two types of guarantees will be established: (i) prediction oracle inequalities, and (ii) estimation bounds. We will exemplify them for particular cases some of which studied in the literature. In the algorithmic part, we will propose an implementation of these estimators by combining Monte-Carlo simulation (Langevin diffusion process) and proximal splitting algorithms, and show their guarantees of convergence. Several numerical experiments will be considered for illustrating our theoretical guarantees and our algorithms
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Bussy, Simon. "Introduction of high-dimensional interpretable machine learning models and their applications". Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS488.

Texto completo da fonte
Resumo:
Dans ce manuscrit sont introduites de nouvelles méthodes interprétables de machine learning dans un contexte de grande dimension. Différentes procédures sont alors proposées : d'abord le C-mix, un modèle de mélange de durées qui détecte automatiquement des sous-groupes suivant le risque d'apparition rapide de l'événement temporel étudié; puis la pénalité binarsity, une combinaison entre variation totale pondérée et contrainte linéaire par bloc qui s'applique sur l'encodage "one-hot'' de covariables continues ; et enfin la méthode binacox qui applique la pénalité précédente dans un modèle de Cox en tirant notamment parti de sa propriété de détection automatique de seuils dans les covariables continues. Pour chacune d'entre elles, les propriétés théoriques sont étudiées comme la convergence algorithmique ou l'établissement d'inégalités oracles non-asymptotiques, et une étude comparative avec l'état de l'art est menée sur des données simulées et réelles. Toutes les méthodes obtiennent de bons résultats prédictifs ainsi qu'en terme de complexité algorithmique, et chacune dispose d'atouts intéressants sur le plan de l'interprétabilité
This dissertation focuses on the introduction of new interpretable machine learning methods in a high-dimensional setting. We developped first the C-mix, a mixture model of censored durations that automatically detects subgroups based on the risk that the event under study occurs early; then the binarsity penalty combining a weighted total variation penalty with a linear constraint per block, that applies on one-hot encoding of continuous features; and finally the binacox model that uses the binarsity penalty within a Cox model to automatically detect cut-points in the continuous features. For each method, theoretical properties are established: algorithm convergence, non-asymptotic oracle inequalities, and comparison studies with state-of-the-art methods are carried out on both simulated and real data. All proposed methods give good results in terms of prediction performances, computing time, as well as interpretability abilities
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Stephenson, Robin. "Divers aspects des arbres aléatoires : des arbres de fragmentation aux cartes planaires infinies". Thesis, Paris 9, 2014. http://www.theses.fr/2014PA090024/document.

Texto completo da fonte
Resumo:
Nous nous intéressons à trois problèmes issus du monde des arbres aléatoires discrets et continus. Dans un premier lieu, nous faisons une étude générale des arbres de fragmentation auto-similaires, étendant certains résultats de Haas et Miermont en 2006, notamment en calculant leur dimension de Hausdorff sous des hypothèses malthusiennes. Nous nous intéressons ensuite à une suite particulière d’arbres discrets k-aires, construite de manière récursive avec un algorithme similaire à celui de Rémy de 1985. La taille de l’arbre obtenu à la n-ième étape est de l’ordre de n^(1/k), et après renormalisation, on trouve que la suite converge en probabilité vers un arbre de fragmentation. Nous étudions également des manières de plonger ces arbres les uns dans les autres quand k varie. Dans une dernière partie, nous démontrons la convergence locale en loi d’arbres de Galton-Watson multi-types critiques quand on les conditionne à avoir un grand nombre de sommets d’un certain type fixé. Nous appliquons ensuite ce résultat aux cartes planaires aléatoire pour obtenir la convergence locale en loi de grandes cartes de loi de Boltzmann critique vers une carte planaire infinie
We study three problems related to discrete and continuous random trees. First, we do a general study of self-similar fragmentation trees, extending some results established by Haas and Miermont in 2006, in particular by computing the Hausdorff dimension of these trees under some Malthusian hypotheses. We then work on a particular sequence of k-ary growing trees, defined recursively with a similar method to Rémy’s algorithm from 1985. We show that the size of the tree obtained at the n-th step if of order n^(1/k), and, after renormalization, we prove that the sequence convergences to a fragmentation tree. We also study embeddings of the limiting trees as k varies. In the last chapter, we show the local convergence in distribution of critical multi-type Galton-Watson trees conditioned to have a large number of vertices of a fixed type. We then apply this result to the world of random planar maps, obtaining that large critical Boltzmann-distributed maps converge locally in distribution to an infinite planar map
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Lestoille, Nicolas. "Stochastic model of high-speed train dynamics for the prediction of long-time evolution of the track irregularities". Thesis, Paris Est, 2015. http://www.theses.fr/2015PEST1094/document.

Texto completo da fonte
Resumo:
Les voies ferrées sont de plus en plus sollicitées: le nombre de trains à grande vitesse, leur vitesse et leur charge ne cessent d'augmenter, ce qui contribue à la formation de défauts de géométrie sur la voie. En retour, ces défauts de géométrie influencent la réponse dynamique du train et dégradent les conditions de confort. Pour garantir de bonnes conditions de confort, les entreprises ferroviaires réalisent des opérations de maintenance de la voie, qui sont très coûteuses. Ces entreprises ont donc intérêt à prévoir l'évolution temporelle des défauts de géométrie de la voie pour anticiper les opérations de maintenance, et ainsi réduire les coûts de maintenance et améliorer les conditions de transport. Dans cette thèse, on analyse l'évolution temporelle d'une portion de voie par un indicateur vectoriel sur la dynamique du train. Pour la portion de voie choisie, on construit un modèle stochastique local des défauts de géométrie de la voie à partir d'un modèle global des défauts de géométrie et de big data de défauts mesurés par un train de mesure. Ce modèle stochastique local prend en compte la variabilité des défauts de géométrie de la voie et permet de générer des réalisations des défauts pour chaque temps de mesure. Après avoir validé le modèle numérique de la dynamique du train, les réponses dynamiques du train sur la portion de voie mesurée sont simulées numériquement en utilisant le modèle stochastique local des défauts de géométrie. Un indicateur dynamique, vectoriel et aléatoire, est introduit pour caractériser la réponse dynamique du train sur la portion de voie. Cet indicateur dynamique est construit de manière à prendre en compte les incertitudes de modèle dans le modèle numérique de la dynamique du train. Pour identifier le modèle stochastique des défauts de géométrie et pour caractériser les incertitudes de modèle, des méthodes stochastiques avancées, comme par exemple la décomposition en chaos polynomial ou le maximum de vraisemblance multidimensionnel, sont appliquées à des champs aléatoires non gaussiens et non stationnaires. Enfin, un modèle stochastique de prédiction est proposé pour prédire les quantités statistiques de l'indicateur dynamique, ce qui permet d'anticiper le besoin en maintenance. Ce modèle est construit en utilisant les résultats de la simulation de la dynamique du train et consiste à utiliser un modèle non stationnaire de type filtre de Kalman avec une condition initiale non gaussienne
Railways tracks are subjected to more and more constraints, because the number of high-speed trains using the high-speed lines, the trains speed, and the trains load keep increasing. These solicitations contribute to produce track irregularities. In return, track irregularities influence the train dynamic responses, inducing degradation of the comfort. To guarantee good conditions of comfort in the train, railways companies perform maintenance operations of the track, which are very costly. Consequently, there is a great interest for the railways companies to predict the long-time evolution of the track irregularities for a given track portion, in order to be able to anticipate the start off of the maintenance operations, and therefore to reduce the maintenance costs and to improve the running conditions. In this thesis, the long-time evolution of a given track portion is analyzed through a vector-valued indicator on the train dynamics. For this given track portion, a local stochastic model of the track irregularities is constructed using a global stochastic model of the track irregularities and using big data made up of experimental measurements of the track irregularities performed by a measuring train. This local stochastic model takes into account the variability of the track irregularities and allows for generating realizations of the track irregularities at each long time. After validating the computational model of the train dynamics, the train dynamic responses on the measured track portion are numerically simulated using the local stochastic model of the track irregularities. A vector-valued random dynamic indicator is defined to characterize the train dynamic responses on the given track portion. This dynamic indicator is constructed such that it takes into account the model uncertainties in the train dynamics computational model. For the identification of the track irregularities stochastic model and the characterization of the model uncertainties, advanced stochastic methods such as the polynomial chaos expansion and the multivariate maximum likelihood are applied to non-Gaussian and non-stationary random fields. Finally, a stochastic predictive model is proposed for predicting the statistical quantities of the random dynamic indicator, which allows for anticipating the need for track maintenance. This modeling is constructed using the results of the train dynamics simulation and consists in using a non-stationary Kalman-filter type model with a non-Gaussian initial condition. The proposed model is validated using experimental data for the French railways network for the high-speed trains
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia