Siga este link para ver outros tipos de publicações sobre o tema: Distributions à queues lourdes.

Teses / dissertações sobre o tema "Distributions à queues lourdes"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 20 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Distributions à queues lourdes".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Rivoire, Manon. "Risk measures in finance, Backtesting, Sensitivity and Robustness". Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAX042.

Texto completo da fonte
Resumo:
Dans le Chapitre 1, nous étudions deux transformations temporelles : la translation et le changement d'échelle de temps ainsi que les propriétés associées, la stationnarité et l'auto-similarité. Nous prouvons d'abord les propriétés de stationnarité et d'auto-similarité des processus dans le cadre très général des espaces de Hilbert puis dans le cadre plus spécifique de l'espace de Hilbert Gaussien où les propriétés sont prouvées en distribution (au sens faible) et en un sens trajectoriel (au sens strict). Des exemples de tels processus comme le mouvement Brownien et mouvement Brownien fractionnaire (fBm) sont fournis, dans les cadres univariés et multivariés (mfBm). Dans le Chapitre 2, nous décrivons les trajectoires de prix en utilisant des mouvements Browniens géométriques fractionnaires. Cela permet d'ajouter des corrélations entre les rendements logarithmiques pour exprimer la dépendance à long terme. Les rendements logarithmiques sont alors décrits par des processus Gaussiens auto-similaires à accroissements stationnaires et corrélés, les fBm's et mfBm's. Dans ce cadre, les mesures de risque basées sur la distribution des pertes sont alors prédites avec précision en tenant compte de la dépendance à long terme. Nous considérons de la mesure de risque la plus couramment utilisée par les régulateurs, la Valeur-à-Risque (VaR). Nous introduisons un modèle qui fournit une approximation Gaussienne de la VaR pour un portefeuille d'actifs sous dynamiques fractionnaires (mfBm). Nous fournissons une quantification de l'erreur d'approximation et nous effectuons un rétrotest sur des données simulées et de marché. Dans le Chapitre 3, nous proposons de modéliser la distribution des pertes avec une distribution à queue lourde qui prend mieux en compte les événements extrêmes, appelée la distribution de Pareto qui présente des propriétés intéressantes de changement d'échelle et de stabilité par conditionnement. Nous remplaçons la VaR par l'Expected-Shortfall (ES), plus sensible au risque de queue. Nous proposons des méthodes robustes non-asymptotiques pour estimer l'ES dans des distributions à queues lourdes telles que les Médianes-des-Moyennes, les Moyennes-Élaguées, et l'estimateur de Lee-Valiant que nous comparons à l'estimateur de moyenne empirique (asymptotique). Nous étudions leur biais et leur taux de convergence
In Chapter 1, we focus on two time transformations: the time-translation and the time-scaling and on the related properties called the stationarity and the self-similarity. We prove the stationarity and self-similarity properties of the processes first in a the very general framework of the Hilbert spaces; then in a the more specific framework of the the Gaussian Hilbert space where the properties are proved in distribution (weak sense) and in a trajectory sense (strict sense). We also provide examples of such processes called standard Brownian motion and fractional Brownian motion (fBm), in the univariate and multivariate frameworks (mfBm). In Chapter 2, we propose to describe price trajectories using fractional geometric Brownian motions. This allows adding correlations between logarithmic returns to express long-range dependency. Logarithmic returns are then described using self-similar Gaussian processes with stationary and correlated increments, the fBm's and mfBm's. In this framework, risk measures that are based on the loss distribution, can then be accurately predicted taking into account the long-range dependency. We focus on predicting the most commonly used risk measure by regulators, called Value-at-Risk (VaR). We introduce a model that provides a Gaussian approximation of Value-at-Risk (VaR) for the assets portfolio under fractional dynamics (mfBm). We provide a quantification of the error of approximation and we carry out backtesting experiments on simulated and market data. In Chapter 3, we propose to model the loss distribution with a heavy-tailed distribution that better takes into account the extreme events, called the Pareto distribution that presents interesting properties of scaling and stability by conditioning and to replace VaR by Expected-Shortfall which is more sensitive to the tail risk. The objective is to explore non-asymptotic robust methods for estimating ES in heavy-tailed distributions such that the Median-of-Means, the Trimmed-Means, and the Lee-Valiant estimators that we compare to the empirical mean estimator (asymptotic). We study their bias and their convergence rate
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Aleiyouka, Mohalilou. "Sur la dépendance des queues de distributions". Thesis, Normandie, 2018. http://www.theses.fr/2018NORMLH28/document.

Texto completo da fonte
Resumo:
Pour modéliser de la dépendance entre plusieurs variables peut s'appuyer soit sur la corrélation entre les variables, soit sur d'autres mesures, qui déterminent la dépendance des queues de distributions.Dans cette thèse, nous nous intéressons à la dépendance des queues de distributions, en présentant quelques propriétés et résultats.Dans un premier temps, nous obtenons le coefficient de dépendance de queue pour la loi hyperbolique généralisée selon les différentes valeurs de paramètres de cette loi.Ensuite, nous exposons des propriétés et résultats du coefficient de dépendance extrémale dans le cas où les variables aléatoires suivent une loi de Fréchet unitaire.Finalement, nous présentons un des systèmes de gestion de bases de données temps réel (SGBDTR). Le but étant de proposer des modèles probabilistes pour étudier le comportement des transactions temps réel, afin d'optimiser ses performances
The modeling of the dependence between several variables can focus either on the positive or negative correlation between the variables, or on other more effective ways, which determine the tails dependence of distributions.In this thesis, we are interested in the tail dependence of distributions, by presenting some properties and results. Firstly, we obtain the limit tail dependence coefficient for the generalized hyperbolic law according to different parameter values of this law. Then, we exhibit some properties and results of die extremal dependence coefficient in the case where the random variables follow a unitary Fréchet law.Finally, we present a Real Time Database ManagementSystems (RDBMS). The goal is to propose probabilistic models to study thebehavior of real-time transactions, in order to optimize its performance
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Joly, Emilien. "Estimation robuste pour des distributions à queue lourde". Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS216/document.

Texto completo da fonte
Resumo:
Nous nous intéressons à estimer la moyenne d'une variable aléatoire de loi à queue lourde. Nous adoptons une approche plus robuste que la moyenne empirique classique communément utilisée. L'objectif est de développer des inégalités de concentration de type sous-gaussien sur l'erreur d'estimation. En d'autres termes, nous cherchons à garantir une forte concentration sous une hypothèse plus faible que la bornitude : une variance finie. Deux estimateurs de la moyenne pour une loi à support réel sont invoqués et leurs résultats de concentration sont rappelés. Plusieurs adaptations en dimension supérieure sont envisagées. L'utilisation appropriée de ces estimateurs nous permet d'introduire une nouvelle technique de minimisation du risque empirique pour des variables aléatoires à queue lourde. Quelques applications de cette technique sont développées. Nous appuyons ces résultats sur des simulations sur des jeux de données simulées. Dans un troisième temps, nous étudions un problème d'estimation multivarié dans le cadre des U-statistiques où les estimateurs précédents offrent, là aussi, une généralisation naturelle d'estimateurs présents dans la littérature
In this thesis, we are interested in estimating the mean of heavy-tailed random variables. We focus on a robust estimation of the mean approach as an alternative to the classical empirical mean estimation. The goal is to develop sub-Gaussian concentration inequalities for the estimating error. In other words, we seek strong concentration results usually obtained for bounded random variables, in the context where the bounded condition is replaced by a finite variance condition. Two existing estimators of the mean of a real-valued random variable are invoked and their concentration results are recalled. Several new higher dimension adaptations are discussed. Using those estimators, we introduce a new version of empirical risk minimization for heavy-tailed random variables. Some applications are developed. These results are illustrated by simulations on artificial data samples. Lastly, we study the multivariate case in the U-statistics context. A natural generalization of existing estimators is offered, once again, by previous estimators
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Worms, Rym. "Vitesses de convergence pour l'approximation des queues de distributions". Université de Marne-la-Vallée, 2000. http://www.theses.fr/2000MARN0091.

Texto completo da fonte
Resumo:
L'objet de cette thèse est l'obtention de vitesses de convergence pour l'approximation de Pareto Généralisée de la loi des excès. Dans le premier chapitre, nous déterminons la vitesse de convergence uniforme de la loi des excès, convenablement normalisée, vers sa loi de Pareto Généralisée limite sous des hypothèses dites de premier et de second ordre impliquant en particulier que la loi dont on considère les excès appartient à l'un des trois domaines d'attractions pour la loi du maximum. Dans le second chapitre, nous étudions la vitesse de convergence vers 0 de l'erreur relative d'approximation d'un quantile extrême par le quantile de la loi de Pareto Généralisée limite, pour des lois appartenant au domaine d'attraction de Fréchet ou de Gumbel et dont le support est non-borne supérieurement. Nous donnons des conditions suffisantes sur le rapport entre l'ordre du quantile considéré et le seuil au-delà duquel sont pris les excès permettant une convergence vers 0 de cette erreur relative. Dans le troisième chapitre, nous donnons des conditions qui assurent l'existence d'une approximation pénultième pour la loi des excès, c'est-à-dire une suite de lois de Pareto Généralisées qui approxime mieux la loi des excès que la loi limite évoquée dans le premier chapitre. Nous étudions alors la vitesse de convergence uniforme de la loi des excès normalisée vers sa limite pénultième
The aim of this thesis is to provide some rates of convergence for the Generalized Pareto approximation of the excesses. In the first chapter, we determine the rate of uniform convergence of the distribution of the excesses, suitably normalized, towards its Generalized Pareto limit, using first and second order conditions that ensure that the distribution we consider lies in one of the three maximum domains of attraction. The second chapter is devoted to the study of the relative approximation error of a high quatile by the quantile of the Generalized Pareto limit, for distributions in the Fréchet or the Gumbel maximum domain of attraction, with infinite end-point. We provide sufficient conditions on the order of the considered quantile and the threshold that we use to define the excesses, in order to ensure that this relative error tends to 0. In the third chapter, we provide conditions for a penultimate approximation of the excesses to exist. In other words, we look for a sequence of Generalised Pareto Distributions that approximate the excesses better than the ultimate one. We study the uniform rate of convergence of the distribution of the excesses towards its penultimate approximation
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Brahimi, Mammar. "Approximating multi-server queues with inhomgeneous arrival rates and continuous service time distributions". Thesis, Lancaster University, 1990. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.254028.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Chang, Emmanuel. "QCD sur réseaux et les propriétés des mésons lourd-légers : les distributions radiales dans les mésons lourd-légers et le mélange Bº-B̄º dans la limite statique". Paris 7, 2009. http://www.theses.fr/2009PA077204.

Texto completo da fonte
Resumo:
La phénoménologie des mesons lourds-légers est étudiée à l'aide de simulations de QCD sur reseau. Le présent travail est particulièrement centre sur la dynamique du quark léger dans des systèmes lourds-légers lorsque le quark lourd est infiniment massif. La différence de masse entre l'état fondamental et les états excites est étudiée grâce a des données reseau "unquenched" possédant SN__f=2S quarks légers dynamiques. Une très haute précision des résultats sur reseau pour les couplages d'un pion mous est obtenue en améliorant plusieurs aspects des précédents calculs sur reseau de ces couplages. De plus, ce travail propose une nouvelle méthode permettant de déterminer pour la première fois l'émission d'un pion au cours'de la transition entre l'état fondamental et le premier état excite d'un meson lourd-léger. Ces couplages constituent des ingrédients nécessaires pour la description des mesons lourds-légers a l'aide d'une théorie effective connue sous le nom de Théorie Chirale des Perturbations pour les Mesons Lourds. Ils sont aussi essentiels pour l'extrapolation chirale des résultats obtenus sur reseau en matière de phénoménologie de la physique du SBS. Nous portons un soin particulier a l'amélioration de la méthode employée pour calculer le propagateur du quark lourd statique sur reseau en utilisant les techniques de mise en bloc hyper-cubique (HYP). Nous procédons ensuite a une étude détaillée des éléments de matrice hadronique de tous les operateurs S\Delta B=2S a quatre quarks conservant la parité qui entrent dans la description théorique de l'amplitude du mélange SB~0S-S\bar B~0S dans le Modèle Standard ainsi que dans ses extensions supersymetriques. C'est la première étude de ce genre avec des lignes de Wilson avec mise en bloc HYP, avec un bénéfice supplémentaire : le mélange spurieux d'operateurs calcules sur reseau est nettement réduit par rapport aux travaux antérieurs sur le sujet. La renormalisation et le matching de la Théorie Effective de Quark Lourd sur reseau et de la QCD dans le continu est effectue en utilisant la théorie de perturbations boostee. Nous fournissons également une brève discussion de l'impact de nos résultats sur la phenomenolgie du meson SBS
Phenomenology of the heavy-light mesons is investigated by using QCD simulations on the lattice. The work is particularly focused on the light quark dynamics in the heavy-light Systems when the heavy quark is infinitely heavy. The mass splitting between the excited and the lowest lying states has been studied with the unquenched lattice data containing SN__f=2S dynamical light quarks. A very high accuracy of the lattice results for the coupling to the pions is achieved through several improvements over previous lattice computations of these couplings. Moreover, the present study provides a new method which allows for the first lattice determination of the pion emission in the transition between the first excited and the lowest lying heavy-light meson. These couplings are necessary ingredients for the description of heavy-light mesons by an effective theory known as the Heavy Meson Chiral Perturbation Theory. They are also essential in the chiral extrapolations of the lattice results for the quantities which are relevant to the SBS-physics phenomenology. Special attention is devoted to the improvement of the technique of Computing the static heavy quark propagator on the lattice by using the hyper-cubic blocking techniques (HYP). We then make a detailed study of the matrix elements of ail parity conserving four-quark S\Delta B=2S operators which enter the theoretical description of the SB~0S-S\bar B~0S mixing amplitude in the Standard Model, and in its supersymmetric extensions. This is the first such study with HYP-blocked Wilson lines, which provides us with an extra benefit: the spurious mixing of operators computed on the lattice is much smaller with respect to what has been done in the past. Renormalization and matching of Heavy Quark Effective Theory on the lattice to the continuum QCD is made by using boosted perturbation theory. A short discussion of impact of our results on the SBS-physics phenomenology is provided too
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Lekina, Alexandre. "Estimation non-paramétrique des quantiles extrêmes conditionnels". Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM065.

Texto completo da fonte
Resumo:
L'objectif de ce travail est de proposer de nouveaux estimateurs de quantiles extrêmes dans le cadre conditionnel c'est-à-dire dans la situation où la variable d'intérêt Y, supposée aléatoire et réelle, est mesurée simultanément avec une covariable X. Pour ce faire, nous nous intéressons à l'étude des valeurs extrêmes d'un échantillon d'observations indépendantes dont la loi conditionnelle de Y en un point x de la covariable X est à « queue lourde ». Selon la nature de la covariable, nous considérons deux situations. Primo, lorsque la covariable est déterministe et de dimension finie ou infi- nie (i. E covariable fonctionnelle), nous proposons d'estimer les quantiles extrêmes par la méthode dite de la « fenêtre mobile ». La loi limite des estimateurs ainsi construits est ensuite donnée en fonction de la vitesse de convergence de l'ordre du quantile vers un. Secundo, lorsque la covariable est aléatoire et de dimension finie, nous montrons que sous certaines conditions, il est possible d'estimer les quantiles extrêmes conditionnels au moyen d'un estimateur à « noyau » de la fonction de survie conditionnelle. Ce résultat nous permet d'introduire deux versions lisses de l'estimateur de l'indice de queue conditionnel indispensable lorsque l'on veut extrapoler. Nous établissons la loi asymptotique de ces estimateurs. Par ailleurs, nous considérons le cas sans covariable (non conditionnel) lorsque la fonction de répartition est à « queue lourde ». Nous proposons et étudions un nouvel estimateur des quantiles extrêmes. Afin d'apprécier le comportement de nos nouveaux outils statistiques, des résultats sur simulation ainsi que sur des données réelles sont présentés
The main goal of this thesis is to propose new estimators of extreme quantiles in the conditional case, that is to say in the situation where the variable of interest Y, supposed to be random and real, is recorded simultaneously with some covariate information X. To this aim, we focus on the case where the conditional distribution of Y given X = x is “heavy-tailed”. Two situations are considered. First, when the covariate is deterministic and finite-dimensional or infinite-dimensional (i. E functional covariate), we propose to estimate the extreme quantiles by the “moving window approach“. The asymptotic distribution of the proposed estimators is given in the case where the quantile is in the range of data or near and even beyond the sample. Next, when the covariate is random and finite-dimensional, we show that under some conditions, it is possible to estimate these extreme quantiles using a kernel estimator of the conditional survival function. As a consequence, this result allows us to introduce two smooth versions of the conditional tail index estimator necessary to extrapolate. Asymptotic distributions of these estimators are established. Furthermore, we also considered the case without covariate. When the underlying, the cumulative distribution function is “heavy-tailed”. A new unconditional extreme quantile estimator is introduced and studied. To assess the behavior of all our new statistical tools, numerical experiments on simulated data are provided and illustrations on real datasets are presented
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Lekina, Alexandre. "Estimation non-paramétrique des quantiles extrêmes conditionnels". Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00529476.

Texto completo da fonte
Resumo:
L'objectif de ce travail est de proposer de nouveaux estimateurs de quantiles extrêmes dans le cadre conditionnel c'est-à-dire dans la situation où la variable d'intérêt Y, supposée aléatoire et réelle, est mesurée simultanément avec une covariable X. Pour ce faire, nous nous intéressons à l'étude des valeurs extrêmes d'un échantillon d'observations indépendantes dont la loi conditionnelle de Y en un point x de la covariable X est à " queue lourde ". Selon la nature de la covariable, nous considérons deux situations. Primo, lorsque la covariable est déterministe et de dimension finie ou infinie (i.e covariable fonctionnelle), nous proposons d'estimer les quantiles extrêmes par la méthode dite de la " fenêtre mobile ". La loi limite des estimateurs ainsi construits est ensuite donnée en fonction de la vitesse de convergence de l'ordre du quantile vers un. Secundo, lorsque la covariable est aléatoire et de dimension finie, nous montrons que sous certaines conditions, il est possible d'estimer les quantiles extrêmes conditionnels au moyen d'un estimateur à " noyau " de la fonction de survie conditionnelle. Ce résultat nous permet d'introduire deux versions lisses de l'estimateur de l'indice de queue conditionnel indispensable lorsque l'on veut extrapoler. Nous établissons la loi asymptotique de ces estimateurs. Par ailleurs, nous considérons le cas sans covariable (non conditionnel) lorsque la fonction de répartition est à " queue lourde ". Nous proposons et étudions un nouvel estimateur des quantiles extrêmes. Afin d'apprécier le comportement de nos nouveaux outils statistiques, des résultats sur simulation ainsi que sur des données réelles sont présentés.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Methni, Jonathan El. "Contributions à l'estimation de quantiles extrêmes. Applications à des données environnementales". Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM035/document.

Texto completo da fonte
Resumo:
Cette thèse s'inscrit dans le contexte de la statistique des valeurs extrêmes. Elle y apporte deux contributions principales. Dans la littérature récente en statistique des valeurs extrêmes, un modèle de queues de distributions a été introduit afin d'englober aussi bien les lois de type Pareto que les lois à queue de type Weibull. Les deux principaux types de décroissance de la fonction de survie sont ainsi modélisés. Un estimateur des quantiles extrêmes a été déduit de ce modèle mais il dépend de deux paramètres inconnus, le rendant inutile dans des situations pratiques. La première contribution de cette thèse est de proposer des estimateurs de ces paramètres. Insérer nos estimateurs dans l'estimateur des quantiles extrêmes précédent permet alors d'estimer des quantiles extrêmes pour des lois de type Pareto aussi bien que pour des lois à queue de type Weibull d'une façon unifiée. Les lois asymptotiques de nos trois nouveaux estimateurs sont établies et leur efficacité est illustrée sur des données simulées et sur un jeu de données réelles de débits de la rivière Nidd se situant dans le Yorkshire en Angleterre. La seconde contribution de cette thèse consiste à introduire et estimer une nouvelle mesure de risque appelé Conditional Tail Moment. Elle est définie comme le moment d'ordre a>0 de la loi des pertes au-delà du quantile d'ordre p appartenant à ]0,1[ de la fonction de survie. Estimer le Conditional Tail Moment permet d'estimer toutes les mesures de risque basées sur les moments conditionnels telles que la Value-at-Risk, la Conditional Tail Expectation, la Conditional Value-at-Risk, la Conditional Tail Variance ou la Conditional Tail Skewness. Ici, on s'intéresse à l'estimation de ces mesures de risque dans le cas de pertes extrêmes c'est-à-dire lorsque p tend vers 0 lorsque la taille de l'échantillon augmente. On suppose également que la loi des pertes est à queue lourde et qu'elle dépend d'une covariable. Les estimateurs proposés combinent des méthodes d'estimation non-paramétrique à noyau avec des méthodes issues de la statistique des valeurs extrêmes. Le comportement asymptotique de nos estimateurs est établi et illustré aussi bien sur des données simulées que sur des données réelles de pluviométrie provenant de la région Cévennes-Vivarais
This thesis can be viewed within the context of extreme value statistics. It provides two main contributions to this subject area. In the recent literature on extreme value statistics, a model on tail distributions which encompasses Pareto-type distributions as well as Weibull tail-distributions has been introduced. The two main types of decreasing of the survival function are thus modeled. An estimator of extreme quantiles has been deduced from this model, but it depends on two unknown parameters, making it useless in practical situations. The first contribution of this thesis is to propose estimators of these parameters. Plugging our estimators in the previous extreme quantiles estimator allows us to estimate extreme quantiles from Pareto-type and Weibull tail-distributions in an unified way. The asymptotic distributions of our three new estimators are established and their efficiency is illustrated on a simulation study and on a real data set of exceedances of the Nidd river in the Yorkshire (England). The second contribution of this thesis is the introduction and the estimation of a new risk measure, the so-called Conditional Tail Moment. It is defined as the moment of order a>0 of the loss distribution above the quantile of order p in (0,1) of the survival function. Estimating the Conditional Tail Moment permits to estimate all risk measures based on conditional moments such as the Value-at-Risk, the Conditional Tail Expectation, the Conditional Value-at-Risk, the Conditional Tail Variance or the Conditional Tail Skewness. Here, we focus on the estimation of these risk measures in case of extreme losses i.e. when p converges to 0 when the size of the sample increases. It is moreover assumed that the loss distribution is heavy-tailed and depends on a covariate. The estimation method thus combines nonparametric kernel methods with extreme-value statistics. The asymptotic distribution of the estimators is established and their finite sample behavior is illustrated both on simulated data and on a real data set of daily rainfalls in the Cévennes-Vivarais region (France)
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Loiseau, Patrick. "Contributions à l'analyse des lois d'échelles et de la qualité de service dans les réseaux : aspects expérimentaux et théoriques". Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2009. http://tel.archives-ouvertes.fr/tel-00533073.

Texto completo da fonte
Resumo:
Dans le contexte actuel d'expansion rapide de l'Internet, la compréhension profonde des propriétés statistiques du trafic réseau est essentielle pour que les fournisseurs d'accès puisse offrir la meilleure "Qualité de Service" possible aux utilisateurs. Une avancée majeure dans cette direction a été la découverte en 1993 de l'auto-similarité du trafic, suivie en 1997 par le modèle ON/OFF qui interprète cette propriété par les tailles de fichiers à queue lourde. Bien qu'ils soient d'un grand intérêt, de tels modèles mathématiques s'appuient nécessairement sur des hypothèses simplificatrices qui peuvent en limiter l'applicabilité en situation réelle, en particulier du fait de la complexité du protocole TCP. Dans cette thèse, nous utilisons une approche hybride, basée sur la combinaison de traces de trafic réelles, d'expériences contrôlées et de modèles théoriques, pour aborder certaines questions ouvertes sur le trafic réseau et la Qualité de Service. Nos expériences utilisent une plate-forme contrôlable à grande échelle et un système performant de capture du trafic. Nous abordons dans un premier temps des questions liées au trafic agrégé : nous étendons les modèles existants de longue mémoire et nous proposons un estimateur du paramètre de queue lourde sous échantillonnage. Nous étudions ensuite empiriquement l'impact de la longue mémoire et des queues lourdes sur la Qualité de Service. Nous nous tournons enfin vers le trafic d'une seule source TCP et montrons, à l'aide d'un principe de grandes déviations, qu'il peut être finement caractérisé par une structure multifractale reliée au mécanisme de contrôle AIMD, et naturellement reproduite par des modèles markoviens.
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Boucharel, Julien. "Modes de variabilité climatique dans l'océan Pacifique tropical : quantification des non-linéarités et rôle sur les changements de régimes climatiques". Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00720706.

Texto completo da fonte
Resumo:
Dans cette thèse, nous nous sommes consacrés au problème d'interaction d'échelles selon deux angles distincts : d'une part une approche globale et grande échelle du système climatique qui nous a permis d'étudier la modulation basse fréquence d'ENSO, d'autre part une démarche plus locale au cours de laquelle nous avons étudié plus particulièrement la dynamique du Pacifique tropical est et du système de courants de Humboldt au large du Pérou. La première partie a été motivée par une approche relativement récente dans la communauté des climatologues. Il s'agit de la question cruciale de la variabilité basse fréquence d'ENSO, et de la possibilité que celle-ci puisse émerger " simplement " du système climatique tropical, sans action extérieure qu'elle soit stochastique ou en lien avec la variabilité des plus hautes latitudesDans ce contexte particulier, il est alors question de mécanismes nonlinéaires pour expliquer comment la stabilité d'ENSO peut être influencée par la variabilité climatique. Ceci a servi d'hypothèse de travail pour l'ensemble de cette thèse. Nous avons ainsi abordé la possibilité qu'ENSO pouvait être rectifié sur des échelles de temps longues (interdécennales) par la modulation de la nonlinéarité elle-même. Pour cela, nous avons utilisé des méthodes mathématiques originales qui nous ont permis d'une part de détecter des changements brusques (statistiquement significatifs) de l'état moyen du Pacifique tropical et d'autre part d'accéder à un proxy de la nonlinéarité intégrée dans le système tropical. En combinant ces deux démarches, nous avons pu mettre en évidence une boucle de rétroaction auto entretenue sur des échelles de temps longues qui serait pilotée par des mécanismes nonlinéaires qui auraient la capacité de faire interférer diverses échelles temporelles et ainsi de transférer l'énergie des basses fréquences (état moyen du pacifique tropical) vers les hautes fréquences (oscillation australe) et vice-versa. Dans la seconde partie de cette thèse nous nous sommes focalisés sur la modélisation climatique du Pacifique tropical oriental. En effet, cette région, pourtant au cœur des préoccupations de la communauté scientifique en raison de son écosystème parmi les plus productifs de la planète, reste mal connue du point de vue des processus océanographiques et climatiques. En particulier, les modèles climatiques globaux présentent des biais importants dans cette région en terme d'état climatologique moyen. Nous avons testé, dans une approche de modélisation haute résolution, différentes sources possibles de ces biais : les caractéristiques bathymétriques des îles Galápagos (mal représentées dans les modèles globaux) capables de par leur position équatoriale de modifier la circulation régionale moyenne et donc le bilan thermodynamique; ou alors les processus associés aux mélanges turbulents (et par extension les processus nonlinéaires) à l'aide d'un modèle régional. Pour ce faire, nous avons procédé à des expériences de sensibilité qui nous ont permis d'une part de relativiser le rôle de l'archipel des Galápagos comme source de biais et d'autre part de mettre en exergue le rôle de la variabilité intra-saisonnière dans la rectification de l'état moyen du Pacifique tropical est.
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Boucharel, Julien. "Modes de variabilité climatique dans l'océan Pacifique tropical : quantification des non-linéarités et rôle sur les changements de régimes climatiques". Phd thesis, Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1663/.

Texto completo da fonte
Resumo:
Dans cette thèse, nous nous sommes consacrés au problème d'interaction d'échelles selon deux angles distincts : d'une part une approche globale et grande échelle du système climatique qui nous a permis d'étudier la modulation basse fréquence d'ENSO, d'autre part une démarche plus locale au cours de laquelle nous avons étudié plus particulièrement la dynamique du Pacifique tropical est et du système de courants de Humboldt au large du Pérou. La première partie a été motivée par une approche relativement récente dans la communauté des climatologues. Il s'agit de la question cruciale de la variabilité basse fréquence d'ENSO, et de la possibilité que celle-ci puisse émerger " simplement " du système climatique tropical, sans action extérieure qu'elle soit stochastique ou en lien avec la variabilité des plus hautes latitudes??Dans ce contexte particulier, il est alors question de mécanismes nonlinéaires pour expliquer comment la stabilité d'ENSO peut être influencée par la variabilité climatique. Ceci a servi d'hypothèse de travail pour l'ensemble de cette thèse. Nous avons ainsi abordé la possibilité qu'ENSO pouvait être rectifié sur des échelles de temps longues (interdécennales) par la modulation de la nonlinéarité elle-même. Pour cela, nous avons utilisé des méthodes mathématiques originales qui nous ont permis d'une part de détecter des changements brusques (statistiquement significatifs) de l'état moyen du Pacifique tropical et d'autre part d'accéder à un proxy de la nonlinéarité intégrée dans le système tropical. En combinant ces deux démarches, nous avons pu mettre en évidence une boucle de rétroaction auto entretenue sur des échelles de temps longues qui serait pilotée par des mécanismes nonlinéaires qui auraient la capacité de faire interférer diverses échelles temporelles et ainsi de transférer l'énergie des basses fréquences (état moyen du pacifique tropical) vers les hautes fréquences (oscillation australe) et vice-versa. Dans la seconde partie de cette thèse nous nous sommes focalisés sur la modélisation climatique du Pacifique tropical oriental. En effet, cette région, pourtant au cœur des préoccupations de la communauté scientifique en raison de son écosystème parmi les plus productifs de la planète, reste mal connue du point de vue des processus océanographiques et climatiques. En particulier, les modèles climatiques globaux présentent des biais importants dans cette région en terme d'état climatologique moyen. Nous avons testé, dans une approche de modélisation haute résolution, différentes sources possibles de ces biais : les caractéristiques bathymétriques des îles Galápagos (mal représentées dans les modèles globaux) capables de par leur position équatoriale de modifier la circulation régionale moyenne et donc le bilan thermodynamique; ou alors les processus associés aux mélanges turbulents (et par extension les processus nonlinéaires) à l'aide d'un modèle régional. Pour ce faire, nous avons procédé à des expériences de sensibilité qui nous ont permis d'une part de relativiser le rôle de l'archipel des Galápagos comme source de biais et d'autre part de mettre en exergue le rôle de la variabilité intra-saisonnière dans la rectification de l'état moyen du Pacifique tropical est
ENSO is the dominant mode of climate variability in the Pacific, having widespread socio-economical impacts. ENSO characteristics have been observed to exhibit substantial irregular variability from decadal to millennial timescales. The origin of such richness in ENSO variability timescales is likely due to the combined effects of timescales interaction processes within the tropical Pacific (through self-sustained nonlinear dynamics) and to external forcing (e. G. Volcanic activity, changes in greenhouse gases. . . ). In this thesis, we propose a new statistical framework that allows documenting high statistical moments in observed and simulated timeseries and that provides a robust estimation of nonlinearity in the tropical coupled system. As a first step, from the analysis of long-term CGCM simulations and extended reconstructed SST data sets, it is demonstrated that an interaction between interdecadal mean state changes in the tropical Pacific and extreme El Niño events probability occurs. This supports the hypothesis of ENSO variability being rectified at a wide range of frequencies by the slowly varying mean state through nonlinear processes phase-locked to the seasonal cycle alternatively in the Western and Eastern tropical Pacific. We then question to which extent the increase in greenhouse gases can alter the ENSO properties with a focus on its nonlinear character. Taking advantage of the IPCC database and different projections scenarios, nonlinearities are diagnosed in a model ensemble; and a relevant metric of the change in nonlinearity due to climate change is defined. This new metric allows highlighting a zonal see-saw in nonlinearity patterns associated with the change in El Niño characteristics observed in recent years. The traditional 20th century El Niño fingerprint, localized in the Cold Tongue, is robustly displaced westward in a warmer climate leading to El Niño Modoki-type patterns. We relate this switch in El Niño types to a change in nonlinearity pattern from present-day climate to a warmer climate. Secondly, we focused on the eastern tropical Pacific and the Humboldt Current System modelling and especially on the ability of Galapagos Islands and intra-seasonal activity in rectifying their mean state. Unlike recent studies, we put into perspective the role of this archipelago in altering this regional mean state. On the other hand, the intra seasonal Kelvin waves activity has the potential to revitalize the local mean circulation, the vertical stratification and therefore the Eastern Pacific dynamics, which in turn may have the potential to affect ENSO through upscaling effects
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Torri, Niccolò. "Phénomènes de localisation et d’universalité pour des polymères aléatoires". Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10114/document.

Texto completo da fonte
Resumo:
Le modèle d'accrochage de polymère décrit le comportement d'une chaîne de Markov en interaction avec un état donné. Cette interaction peut attirer ou repousser la chaîne de Markov et elle est modulée par deux paramètres, h et β. Quand β = 0 on parle de modèle homogène, qui est complètement solvable. Le modèle désordonné, i.e. quand β > 0, est mathématiquement le plus intéressant. Dans ce cas, l'interaction dépend d'une source d'aléa extérieur indépendant de la chaîne de Markov, appelée désordre. L'interaction est réalisée en modifiant la loi originelle de la chaîne de Markov par une mesure de Gibbs et la probabilité obtenue définit le modèle d'accrochage de polymère. Le but principal est d'étudier et de comprendre la structure des trajectoires typiques de la chaîne de Markov sous cette nouvelle probabilité. Le premier sujet de recherche concerne le modèle d'accrochage de polymère où le désordre est à queues lourdes et où le temps de retour de la chaîne de Markov suit une distribution sous-exponentielle. Dans notre deuxième résultat nous étudions le modèle d'accrochage de polymère avec un désordre à queues légères et le temps de retour de la chaîne de Markov avec une distribution à queues polynomiales d'exposant α > 0. On peut démontrer qu'il existe un point critique, h(β). Notre but est comprendre le comportement du point critique quand β -> 0. La réponse dépend de la valeur de α. Dans la littérature on a des résultats précis pour α < ½ et α > 1. Nous montrons que α ∈ (1/2, 1) le comportement du modèle dans la limite du désordre faible est universel et le point critique, opportunément changé d'échelle, converge vers la même quantité donnée par un modèle continu
The pinning model describes the behavior of a Markov chain in interaction with a distinguished state. This interaction can attract or repel the Markov chain path with a force tuned by two parameters, h and β. If β = 0 we obtain the homogeneous pinning model, which is completely solvable. The disordered pinning model, i.e. when β > 0, is most challenging and mathematically interesting. In this case the interaction depends on an external source of randomness, independent of the Markov chain, called disorder. The interaction is realized by perturbing the original Markov chain law via a Gibbs measure, which defines the Pinning Model. Our main aim is to understand the structure of a typical Markov chain path under this new probability measure. The first research topic of this thesis is the pinning model in which the disorder is heavy-tailed and the return times of the Markov chain have a sub-exponential distribution. In our second result we consider a pinning model with a light-tailed disorder and the return times of the Markov chain with a polynomial tail distribution, with exponent α > 0. It is possible to show that there exists a critical point, h(β). Our goal is to understand the behavior of the critical point when β -> 0. The answer depends on the value of α and in the literature there are precise results only for the case α < ½ et α > 1. We show that for α ∈ (1/2, 1) the behavior of the pinning model in the weak disorder limit is universal and the critical point, suitably rescaled, converges to the related quantity of a continuum model
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Jaunâtre, Kévin. "Analyse et modélisation statistique de données de consommation électrique". Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS520.

Texto completo da fonte
Resumo:
En octobre 2014, l'Agence De l'Environnement et de la Maîtrise de l'Energie (ADEME) en coopération avec l'entreprise ENEDIS (anciennement ERDF pour Électricité Réseau Distribution France) a démarré un projet de recherche dénommé "smart-grid SOLidarité-ENergie-iNovation" (SOLENN) avec comme objectifs l'étude de la maîtrise de la consommation électrique par un accompagnement des foyers et la sécurisation de l'approvisionnement électrique entre autres. Cette thèse s'inscrit dans le cadre des objectifs susnommés. Le projet SOLENN est piloté par l'ADEME et s'est déroulé sur la commune de Lorient. Le projet a pour but de mettre en œuvre une pédagogie pour sensibiliser les foyers aux économies d'énergie. Dans ce contexte, nous abordons une méthode d'estimation des quantiles extrêmes et des probabilités d'événements rares pour des données fonctionnelles non-paramétriques qui fait l'objet d'un package R. Nous proposons ensuite une extension du fameux modèle de Cox à hasards proportionnels et permet l'estimation des probabilités d'événements rares et des quantiles extrêmes. Enfin, nous donnons l'application de certains modèles statistique développés dans ce document sur les données de consommation électrique et qui se sont avérés utiles pour le projet SOLENN. Une première application est en liaison avec le programme d'écrêtement mené par ENEDIS afin de sécuriser le fonctionnement du réseau électrique. Une deuxième application est la mise en place du modèle linéaire pour étudier l'effet de plusieurs visites individuelles sur la consommation électrique
In October 2014, the French Environment & Energy Management Agency with the ENEDIS company started a research project named SOLENN ("SOLidarité ENergie iNovation") with multiple objectives such as the study of the control of the electric consumption by following the households and to secure the electric supply. The SOLENN project was lead by the ADEME and took place in Lorient, France. The main goal of this project is to improve the knowledge of the households concerning the saving of electric energy. In this context, we describe a method to estimate extreme quantiles and probabilites of rare events which is implemented in a R package. Then, we propose an extension of the famous Cox's proportional hazards model which allows the etimation of the probabilites of rare events. Finally, we give an application of some statistics models developped in this document on electric consumption data sets which were useful for the SOLENN project. A first application is linked to the electric constraint program directed by ENEDIS in order to secure the electric network. The houses are under a reduction of their maximal power for a short period of time. The goal is to study how the household behaves during this period of time. A second application concern the utilisation of the multiple regression model to study the effect of individuals visits on the electric consumption. The goal is to study the impact on the electric consumption for the week or the month following a visit
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Tillier, Charles. "Processus et indicateurs de risque en assurance non-vie et sécurité alimentaire". Thesis, Paris 10, 2017. http://www.theses.fr/2017PA100192.

Texto completo da fonte
Resumo:
L'analyse des risques est devenu un enjeu majeur dans notre société. Quels que soient les champs d'application dans lesquels une situation à risque peut survenir, les mathématiques et plus particulièrement les statistiques et les probabilités se révèlent être des outils essentiels. L'objet principal de cette thèse est de développer des indicateurs de risque pertinents et d'étudier les propriétés extrémales de processus intervenant dans deux domaines d'applications : en risque alimentaire et en assurance. La théorie du risque se situe entre l'analyse des valeurs extrêmes et la théorie des variables aléatoires à variations régulières ou à queues lourdes. Dans le premier chapitre, on définit les éléments clefs de la théorie du risque ainsi que la notion de variation régulière et on introduit différents modèles liés au risque alimentaire qui seront étudiés dans les chapitres 2 et 3. Le chapitre 2 présente les travaux effectués avec Olivier Wintenberger. Pour des classes de processus stochastiques, sous des hypothèses de variations régulières, on développe une méthode qui permet d'obtenir des équivalents asymptotiques en horizon fini d'indicateurs de risque en assurance et en risque alimentaire tels que la probabilité de ruine, le "temps passé au dessus d'un seuil" ou encore la "sévérité de la ruine". Le chapitre 3 se concentre sur des modèles en risque alimentaire. Précisément, on étudie les propriétés extrémales de différentes généralisations d'un processus d'exposition à un contaminant nommé KDEM pour Kinetic Dietary Exposure Model proposé par Patrice Bertail et ses co-auteurs en 2008. Sous des hypothèses de variations régulières, on propose des équivalents asymptotiques du comportement de queue et de l'indice extrémal du processus d'exposition. Enfin, le chapitre 4 passe en revue différentes techniques statistiques particulièrement adaptées à l'étude du comportement extrémal de certains processus de Markov. Grâce à des propriétés de régénérations, il est possible de découper le chemin des observations en blocs indépendants et identiquement distribués et de n'étudier ainsi que le processus sur un bloc. Ces techniques s'appliquent même si la chaîne de Markov n'est pas atomique. On se concentre ici sur l'estimation de l'indice de queue et de l'indice extrémal. On illustre la performance de ces techniques en les appliquant sur deux modèles - en assurance et en finance - dont on connaît les résultats théoriques
Risk analyses play a leading role within fields such as dietary risk, hydrology, nuclear security, finance and insurance and is more and more present in theapplications of various probability tools and statistical methods. We see a significant impact on the scientific literature and on public institutions in the past years. Risk theory, which is really close to extreme value analysis, typically deals with the occurrences of rare events which are functions of heavy-tailed random variables, for example, sums or products of regularly varying random variables. The purpose of this thesis is the following : to develop revelant risk indicators and to study the extremal properties of stochastic processes used in dietary risk assessment and in insurance. In Chapter 1, we present the main tools used in risk theory and the notion of regular variation and introduce different models involved in dietary risk assessment, which will be specifically studied in Chapters 2 and 3. Chapter 2 presents a joint work with Olivier Wintenberger. For a particular class of stochastic processes, under the assumption of regular variation, we propose a method that gives way to asymptotic equivalents on a finite-time horizon of risk indicators such as the ruin probability, the Expected Time over a Threshold or the Expected Severity of the ruin. Chapter 3 focuses on dietary risk models. To be precise, we study the extremal properties of an extension of a model called KDEM for Kinetic Dietary Exposure Model introduced by Patrice Bertail and his co-authors in 2008. Under the assumption of regular variation, we provide asymptotic equivalents for the tail behavior and the extremal index of the exposure process. In Chapter 4, we review different statistical tools specifically tailored for the study of the extremal behavior of Markov processes. Thanks to regeneration properties, we can split the path of observations into blocks which are independent and identically distributed. This technic still works even if the Markov chain is not atomic. We focus here on the estimation of the tail index and the extremal index. We illustrate the performance of these technics applying them on two models in insurance and finance for which we know the theoritical results
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Carreau, Julie. "Modèles Pareto hybrides pour distributions asymétriques et à queues lourdes". Thèse, 2007. http://hdl.handle.net/1866/17889.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Liu, Yunan. "Many-Server Queues with Time-Varying Arrivals, Customer Abandonment, and non-Exponential Distributions". Thesis, 2011. https://doi.org/10.7916/D8XW4RS9.

Texto completo da fonte
Resumo:
This thesis develops deterministic heavy-traffic fluid approximations for many-server stochastic queueing models. The queueing models, with many homogeneous servers working independently in parallel, are intended to model large-scale service systems such as call centers and health care systems. Such models also have been employed to study communication, computing and manufacturing systems. The heavy-traffic approximations yield relatively simple formulas for quantities describing system performance, such as the expected number of customers waiting in the queue. The new performance approximations are valuable because, in the generality considered, these complex systems are not amenable to exact mathematical analysis. Since the approximate performance measures can be computed quite rapidly, they usefully complement more cumbersome computer simulation. Thus these heavy-traffic approximations can be used to improve capacity planning and operational control. More specifically, the heavy-traffic approximations here are for large-scale service systems, having many servers and a high arrival rate. The main focus is on systems that have time-varying arrival rates and staffing functions. The system is considered under the assumption that there are alternating periods of overloading and underloading, which commonly occurs when service providers are unable to adjust the staffing frequently enough to economically meet demand at all times. The models also allow the realistic features of customer abandonment and non-exponential probability distributions for the service times and the times customers are willing to wait before abandoning. These features make the overall stochastic model non-Markovian and thus thus very difficult to analyze directly. This thesis provides effective algorithms to compute approximate performance descriptions for these complex systems. These algorithms are based on ordinary differential equations and fixed point equations associated with contraction operators. Simulation experiments are conducted to verify that the approximations are effective. This thesis consists of four pieces of work, each presented in one chapter. The first chapter (Chapter 2) develops the basic fluid approximation for a non-Markovian many-server queue with time-varying arrival rate and staffing. The second chapter (Chapter 3) extends the fluid approximation to systems with complex network structure and Markovian routing to other queues of customers after completing service from each queue. The extension to open networks of queues has important applications. For one example, in hospitals, patients usually move among different units such as emergency rooms, operating rooms, and intensive care units. For another example, in manufacturing systems, individual products visit different work stations one or more times. The open network fluid model has multiple queues each of which has a time-varying arrival rate and staffing function. The third chapter (Chapter 4) studies the large-time asymptotic dynamics of a single fluid queue. When the model parameters are constant, convergence to the steady state as time evolves is established. When the arrival rates are periodic functions, such as in service systems with daily or seasonal cycles, the existence of a periodic steady state and the convergence to that periodic steady state as time evolves are established. Conditions are provided under which this convergence is exponentially fast. The fourth chapter (Chapter 5) uses a fluid approximation to gain insight into nearly periodic behavior seen in overloaded stationary many-server queues with customer abandonment and nearly deterministic service times. Deterministic service times are of applied interest because computer-generated service times, such as automated messages, may well be deterministic, and computer-generated service is becoming more prevalent. With deterministic service times, if all the servers remain busy for a long interval of time, then the times customers enter service assumes a periodic behavior throughout that interval. In overloaded large-scale systems, these intervals tend to persist for a long time, producing nearly periodic behavior. To gain insight, a heavy-traffic limit theorem is established showing that the fluid model arises as the many-server heavy-traffic limit of a sequence of appropriately scaled queueing models, all having these deterministic service times. Simulation experiments confirm that the transient behavior of the limiting fluid model provides a useful description of the transient performance of the queueing system. However, unlike the asymptotic loss of memory results in the previous chapter for service times with densities, the stationary fluid model with deterministic service times does not approach steady state as time evolves independent of the initial conditions. Since the queueing model with deterministic service times approaches a proper steady state as time evolves, this model with deterministic service times provides an example where the limit interchange (limiting steady state as time evolves and heavy traffic as scale increases) is not valid.
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Barjesteh, Nasser. "Duality relations in finite queueing models". Thesis, 2013. http://hdl.handle.net/10012/7715.

Texto completo da fonte
Resumo:
Motivated by applications in multimedia streaming and in energy systems, we study duality relations in fi nite queues. Dual of a queue is de fined to be a queue in which the arrival and service processes are interchanged. In other words, dual of the G1/G2/1/K queue is the G2/G1/1/K queue, a queue in which the inter-arrival times have the same distribution as the service times of the primal queue and vice versa. Similarly, dual of a fluid flow queue with cumulative input C(t) and available processing S(t) is a fluid queue with cumulative input S(t) and available processing C(t). We are primarily interested in finding relations between the overflow and underflow of the primal and dual queues. Then, using existing results in the literature regarding the probability of loss and the stationary probability of queue being full, we can obtain estimates on the probability of starvation and the probability of the queue being empty. The probability of starvation corresponds to the probability that a queue becomes empty, i.e., the end of a busy period. We study the relations between arrival and departure Palm distributions and their relations to stationary distributions. We consider both the case of point process inputs as well as fluid inputs. We obtain inequalities between the probability of the queue being empty and the probability of the queue being full for both the time stationary and Palm distributions by interchanging arrival and service processes. In the fluid queue case, we show that there is an equality between arrival and departure distributions that leads to an equality between the probability of starvation in the primal queue and the probability of overflow in the dual queue. The techniques are based on monotonicity arguments and coupling. The usefulness of the bounds is illustrated via numerical results.
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Deme, El Hadji. "Quelques contributions à la Théorie univariée des Valeurs Extrêmes et Estimation des mesures de risque actuariel pour des pertes à queues lourdes". Phd thesis, 2013. http://tel.archives-ouvertes.fr/tel-01069382.

Texto completo da fonte
Resumo:
Cette thèse est divisée en cinq chapitres auxquels s'ajoutent une introduction et une conclusion. Dans le premier chapitre, nous rappelons quelques notions de base sur la théorie des valeurs extrêmes. Dans le deuxième chapitre, nous considérons un processus statistique dépendant d'un paramétre continu tau et dont chaque marge peut être considérée comme un estimateur de Hill généralis.. Ce processus statistique permet de discriminer entièrement les domaines d'attraction des valeurs extrêmes. La normalité asymptotique de ce processus statistiquea été seulement donnée pour tau > 1/2. Nous complétons cette étude pour 0 < tau< 1/2, en donnant une approximation des domaines de Gumbel et de Fréchet. Des études de simulations effectuées avec le logiciel " R ", permettent de montrer la performance de ces estimateurs. Comme illustration, nous proposons une application de notre méthodologie aux données hydrauliques. Dans le troisième chapitre, nous étendons l'étude du processus statistique précédent dans un cadre fonctionnel. Nous proposons donc un processus stochastique dépendant d'une fonctionnelle positive pour obtenir une grande classe d'estimateurs de l'indice des valeurs extrêmes dont chaque estimateur est une marge d'un seul processus stochastique. L'étude théorique de ces processus stochastiques que nous avions menée, est basée sur la théorie moderne de convergence vague fonctionnelle. Cette dernière permet de gérer des estimateurs plus complexes sous forme de processus stochastiques. Nous donnons les distributions asymptotiques fonctionnelles de ces processus et nous montrons que pour certaines classes de fonctions, nous avons un comportement asymptotique non Gaussien et qui sera entièrement caractérisé. Dans le quatrième chapitre, on s'intéresse à l'estimation du paramètre du second ordre. Notons que ce paramètre joue un rôle très important dans le choix adaptatif du nombre optimal de valeurs extrêmes utilisé lors de l'estimation de l'indice des valeurs extrêmes. L'estimation de ce paramètre est également utilisée pour la réduction du biais des estimateurs de l'indice de queue et a reçu une grande attention dans la littérature des valeurs extrêmes .Nous proposons une simple et générale approche pour estimer le paramètre du second ordre, permettant de regrouper un grand nombre d'estimateurs. Il est montré que les estimateurs cités précedemment peuvent être vus comme des cas particuliers de notre approche. Nous tirons également parti de notre formalisme pour proposer de nouveaux estimateurs asymptotiquement Gaussiens du paramètre du second ordre. Finalement, certains estimateurs sont comparés tant du point de vue asymptotique que performance sur des échantillons de tailles finies. Comme illustration, nous proposons une application sur des données d'assurance. Dans le dernier chapitre, on s'intéresse aux mesures de risque actuariel pour des phénomènes capables d'engendrer des pertes financières très importantes (ou phenomènes extrêmes c'est-à-dire à des risques dont on ne sait pas si le système d'assurance sera capable de les supporte). De nombreuses mesures de risque ou principes de calcul de la prime ont été proposés dans la littérature actuarielle. Nous nous concentrons sur la prime de risque-ajustée. Jones et Zitikis (2003) ont donné une estimation de cette dernière basée sur la distribution empirique et ont établi sa normalité asymptotique sous certaines conditions appropriées, et qui ne sont pas souvent remplies dans le cas des distributions à queues lourdes. Ainsi, nous regardons ce cadre là et nous considérons une famille d'estimateurs de la prime de risque-ajustée basée sur l'approche de la théorie des valeurs extrêmes. Nous établissons leur normalité asymptotique et nous proposons également une approche de réduction de biais pour ces estimateurs. Des études de simulation permettent d'apprécier la qualité de nos estimateurs. Comme illustration, nous proposons une application sur des données d'assurance.
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Tsafack, Kemassong Georges Desire. "Asymmetric dependence modeling and implications for international diversification and risk management". Thèse, 2007. http://hdl.handle.net/1866/2157.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia