Tesi sul tema "Copules (mathématiques)"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Copules (mathématiques).

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Copules (mathématiques)".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Lmoudden, Aziz. "Une généralisation de la copule de Khoudraji. Copules engendrées par des fonctions complètement monotones". Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28122/28122.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Romdhani, Hela. "Mesures d'association pour des modèles de copules multidimensionnelles". Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/29875/29875.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse nous nous intéressons à la mesure de dépendance sous des modèles de copules. Nous y traitons trois problèmes : la mesure d’association dans le cas bidimensionnel en présence de seuils de détection, la mesure d’association pour des données en grappes et la mesure d’association pour des données hiérarchiques. Le premier problème, indépendant des deux autres, concerne la mesure d’association entre deux variables sujettes à une censure à gauche fixe due à l’existence de seuils de détection. Nous définissons une version conditionnelle du tau de Kendall permettant de mesurer l’association entre de telles variables. Nous en proposons un estimateur non paramétrique et en étudions les propriétés asymptotiques. Nous supposons, ensuite, un modèle de copule Archimédienne et en déduisons un estimateur pour le tau de Kendall global. Un test d’ajustement de copules à ce type de données est développé. Le deuxième problème traite de la mesure d’association dans un cadre multidimensionnel pour des données en grappes telles que les observations à l’intérieur de chaque groupe sont échangeables. Pour cela, nous introduisons le tau de Kendall échangeable comme une mesure d’association intra-classe et présentons un estimateur non paramétrique pour cette mesure. Ses propriétés asymptotiques sont étudiées sous un modèle de copules multidimensionnelles caractérisées par une propriété appelée échangeabilité. Nous en déduisons un estimateur du coefficient de corrélation intra-classe pour des données provenant d’une distribution elliptique. Nous dérivons ses propriétés asymptotiques sous un modèle ANOVA généralisé à un facteur. Enfin, nous développons un test d’indépendence basé sur le tau de Kendall. Le troisième problème est une extension du deuxième au cas de données hiérarchiques avec des sous-groupes imbriqués dans des groupes, dans le cas où les unités à l’intérieur de chaque sous-groupe sont échangeables et où les sous-groupes appartenant à un même groupe sont, eux mêmes, échangeables. Nous définissons alors deux mesures d’association basées sur le tau de Kendall échangeable et en proposons des estimateurs non paramétriques. Nous étudions les propriétés asymptotiques de ces estimateurs sous des modèles de copules hiérarchiques vérifiant certaines propriétés d’échangeabilité partielle. Pour les données provenant de copules meta-elliptiques hiérarchiques, nous déduisons des estimateurs pour les coefficients de corrélation intra-classe associés aux groupes et aux sous-groupes respectivement. Nous développons, enfin, des procédures de tests pour les effets de groupes et de sous-groupes.
In this thesis we are interested in measuring the dependence under copula models. We deal with three problems: the measure of association in the bivariate case in the presence of lower detection limits, the measure of association for clustered data and the measure of association for two-level hierarchical data. The first problem, independent of the other two, deals with the measure of association between two variables subject to fixed left censoring due to the presence of lower detection limits. We define a conditional version of Kendall’s tau to measure the association between such variables. We provide a nonparametric estimator of this measure and study its asymptotic properties. We then assume an Archimedean copula model and deduce an estimator for the copula’s Kendall’s tau. A goodness-of-fit test for the assumed copula is developed. The second problem deals with the measure of intra-class association for clustered data such that observations within each group are exchangeable. For this, we introduce an exchangeable version of Kendall’s tau as a measure of intra-class dependance and provide a nonparametric estimator for this measure. Its asymptotic properties are investigated under a multivariate exchangeable copula model. We derive an estimator of the intra-class correlation coefficient for data drawn from an elliptical distribution. The asymptotic properties of this estimator are investigated under a generalized oneway ANOVA model. Finally, we develop an intra-class independence test based on Kendall’s tau. The third problem is an extension of the second to the case of hierarchical data with a set of subgroups nested into groups, such that the units within each subgroup are exchangeable and the subgroups belonging to the same group are themselves exchangeable. We define two association measures based on the exchangeable Kendall’s tau and propose nonparametric estimators for these measures. We investigate their asymptotic properties under hierarchical copula models satisfying some properties of partial exchangeability. For data drawn from meta-elliptical hierarchical copulas we deduce estimators for the intra-class correlation coefficients associated to groups and subgroups respectively. We also develop procedures for testing the effects of groups and subgroups.
3

Totouom, Tangho Daniel. "Copules dynamiques : applications en finance & en économie". Paris, ENMP, 2007. https://pastel.archives-ouvertes.fr/pastel-00003260.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les dérivés de crédit ont connu en quelques années un développement fulgurant en finance : les volumes de transactions ont augmenté exponentiellement, de nouveaux produits ont été créés. La récente crise du sub-prime a mis en évidence l’insuffisance des modèles actuels. Le but de cette thèse est de créer de nouveaux modèles mathématiques qui prennent en compte la dynamique de dépendance (« tail dependence ») des marchés. Après une revue de la littérature et des modèles existants, nous nous focalisons sur la modélisation de la « corrélation » (ou plus exactement la dynamique de la structure de dépendance) entre différentes entités dans un portefeuille de crédit (CDO). Dans une première phase, une formulation simple des copules dynamiques est proposée. Ensuite, nous présentons une seconde formulation en utilisant des processus de Lévy à spectre positif (i. E. Gamma Ornstein-Uhlenbeck). L’écriture de cette nouvelle famille de copules archimédiennes nous permet d’obtenir une formule asymptotique simple pour la distribution des pertes d’un portefeuille de crédit granulaire. L’une des particularités du modèle proposé est sa capacité de reproduire des dépendances extrêmes comparables aux phénomènes récents de contagion sur les marchés comme la crise du « subprime » aux Etats-Unis. Une application sur l’estimation des prix des tranches de CDOs est aussi présentée. Dans cette thèse, nous proposons également d’utiliser des copules dynamiques pour modéliser des migrations jointes des qualités de crédit afin de prendre en compte les co-migrations extrêmes. En effet, les copules nous permettent d’étendre notre connaissance des processus de migration mono-variable à un cadre multi-variables. Afin de tenir compte de multiples sources de risques systémiques, nous développons des copules dynamiques à plusieurs facteurs. Enfin, nous montrons que la brique élémentaire de structure de dépendance induite par une mesure du temps aléatoire « Time Changed Process » rentre dans le cadre des copules dynamiques
In this thesis, we show that with the growth of credit derivatives markets, new products are continually being created and market liquidity is increasing. After reviewing these products starting out from the credit default swap, CDS, and describing their evolution since their inception in the early 90s, we demonstrate that this development has been market driven, with the mathematical models used for pricing lagging behind. As the market developed, the weak points of the models became apparent and improved models had to be developed. In October 2003 when the work on this thesis started, CDOs (Collateralised Debt Obligations) were becoming standard products. A new generation of products which we will refer to as third generation credit derivatives were starting to come on line: these include forward-starting CDS, forward-starting CDOs, options on CDOs, CPDO (in full) and so forth. In contrast to early products, these derivatives require a dynamic model of the evolution of the “correlation” between the names over time, something which base correlation was not designed to do. Our objective was to develop a family of multivariate copula processes with different types of upper and lower tail dependence so as to be able to reproduce the correlation smiles/skews observed in credit derivatives in practice. We chose to work with a dynamic version of Archimedean copulas because unlike many other copulas found in the literature, they are mathematically consistent multivariate models. Chapter 2 presents two different approaches for developing these processes. The first model developed is a non-additive jump process based on a background gamma process; the second approach is based on time changed spectrally positive Levy process. The first approach is very convenient for simulations; the second approach is based on additive building blocks and hence is a more general. Two applications of these models to credit risk derivatives were carried out. The first one on pricing synthetic CDOs at different maturities (Chapter 5) was presented at the 5th Annual Advances in Econometrics Conference in Baton Rouge, Louisiane, November 3-5 2006 and has been submitted for publication. The second one which presents a comparison of the pricing given by these dynamic copulas with five well-known copula models, has been submitted to the Journal of Derivatives (see Chapter 6). Having tested the basic dynamic copula models in a credit derivative context, we went on to combine this framework with matrix migration approach (Chapter 3). In order to market structured credit derivatives, banks have to get them rated by rating agencies such as S&P, Moody’s and Fitch. A key question is the evolution of the rating over time (i. E. Its migration). As the latest innovations in the credit derivatives markets such as Constant Proportion Debt Obligation (CPDO) require being able to model credit migration and correlation in order to handle substitutions on the index during the roll, we propose a model for the joint dynamics of credit ratings of several firms. We then proposed a mathematical framework were individual credit ratings are modelled by a continuous time Markov chain, and their joint dynamics are modelled using a copula process. Copulas allow us to incorporate our knowledge of single name credit migration processes, into a multivariate framework. This is further extended with the multi-factor and time changed approach. A multifactor approach is developed within the new formulated dynamic copula processes, and a time changed Levy process is used to introduce dependency on spread dynamics
4

Bourdeau-Brien, Michaël. "Les copules en finance : analyse qualitative et quantitative de l'expansion de cette théorie". Master's thesis, Université Laval, 2007. http://hdl.handle.net/20.500.11794/19266.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Desbois-Bédard, Laurence. "Génération de données synthétiques pour des variables continues : étude de différentes méthodes utilisant les copules". Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27748.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’intérêt des agences statistiques à permettre l’accès aux microdonnées d’enquête est grandissant. À cette fin, plusieurs méthodes permettant de publier les microdonnées tout en protégeant la confidentialité des répondants ont été proposées ; ce mémoire se penche sur l’une d’entre-elles : la génération de données synthétiques. Deux approches sont présentées, GADP et C-GADP, et une nouvelle est proposée. La méthode GADP suppose que les variables des données originales et synthétiques sont de loi normale, alors que la méthode C-GADP suppose qu’elles sont jointes par une copule normale. La nouvelle méthode est basée sur les modèles de copules en vigne. Ces modèles sont employés dans l’espoir de mieux modéliser les liens entre les variables. Les trois approches sont évaluées selon les concepts d’utilité et de risque. L’utilité de données confidentielles s’apprécie selon la similitude qu’elles ont avec les données originales et le risque, par la possibilité d’une violation de la confidentialité des répondants. Le risque peut survenir par identification ou par inférence. Seul le risque d’inférence est possible dans le cadre de ce mémoire. Précisément, l’utilité est évaluée avec quelques mesures faites à partir d’analyses spécifiques et une mesure globale basée sur les scores de propension calculés avec une régression logistique. Quant au risque, il est évalué avec une prévision basée sur la distance.
Statistical agencies face a growing demand for releasing microdata to the public. To this end, many techniques have been proposed for publishing microdata while providing confidentiality : synthetic data generation in particular. This thesis focuses on such technique by presenting two existing methods, GAPD and C-GADP, as well as suggesting one based on vine copula models. GADP assumes that the variables of original and synthetic data are normally distributed, while C-GADP assumes that they have a normal copula distribution. Vine copula models are proposed due to their flexibility. These three methods are then assessed according to utility and risk. Data utility depends on maintaining certain similarities between the original and confidential data, while risk can be observed in two types : reidentification and inference. This work will focus on the utility examined with different analysis-specific measures, a global measure based on propensity scores and the risk of inference evaluated with a distance-based prediction.
6

Ben, Ghorbal Noomen. "Étude de certaines mesures d'association multivariées et d'un test de dépendance extrémale fondés sur les rangs". Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27602/27602.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Marri, Fouad. "Évaluation des mesures de ruine dans le cadre de modèles avancés de risque". Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26001/26001.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Cuberos, Andres. "Modélisation de la dépendance et estimation du risque agrégé". Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10321/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte sur l'étude de la modélisation et estimation de la dépendance des portefeuilles de risques et l'estimation du risque agrégé. Dans le Chapitre 2, nous proposons une nouvelle méthode pour estimer les quantiles de haut niveau pour une somme de risques. Elle est basée sur l'estimation du rapport entre la VaR de la somme et la VaR du maximum des risques. Nous utilisons des résultats sur les fonctions à variation régulière. Nous comparons l'efficacité de notre méthode avec quelques estimations basées sur la théorie des valeurs extrêmes, sur plusieurs modèles. Notre méthode donne de bons résultats lors de l'approximation de la VaR à des niveaux élevés lorsque les risques sont fortement dépendants et au moins l'un des risques est à queue épaisse. Dans le Chapitre 3, nous proposons une procédure d'estimation pour la distribution d'un risque agrégé basée sur la copule échiquier. Elle permet d'obtenir de bonnes estimations à partir d'un petit échantillon de la loi multivariée et une connaissance complète des lois marginales. Cette situation est réaliste pour de nombreuses applications. Les estimations peuvent être améliorées en incluant dans la copule échiquier des informations supplémentaires (sur la loi d'un sous-vecteur ou sur des probabilités extrêmes). Notre approche est illustrée par des exemples numériques. Finalement, dans le Chapitre 4, nous proposons un estimateur de la mesure spectrale basé sur l'estimation à noyau de la densité de la mesure spectrale d'une distribution à variation régulière bivariée. Une extension de notre méthode permet d'estimer la mesure spectrale discrète. Certaines propriétés de convergence sont obtenues
This thesis comprises three essays on estimation methods for the dependence between risks and its aggregation. In the first essay we propose a new method to estimate high level quantiles of sums of risks. It is based on the estimation of the ratio between the VaR (or TVaR) of the sum and the VaR (or TVaR) of the maximum of the risks. We use results on regularly varying functions. We compare the efficiency of our method with classical ones, on several models. Our method gives good results when approximating the VaR or TVaR in high levels on strongly dependent risks where at least one of the risks is heavy tailed. In the second essay we propose an estimation procedure for the distribution of an aggregated risk based on the checkerboard copula. It allows to get good estimations from a (quite) small sample of the multivariate law and a full knowledge of the marginal laws. This situation is realistic for many applications. Estimations may be improved by including in the checkerboard copula some additional information (on the law of a sub-vector or on extreme probabilities). Our approach is illustrated by numerical examples. In the third essay we propose a kernel based estimator for the spectral measure density of a bivariate distribution with regular variation. An extension of our method allows to estimate discrete spectral measures. Some convergence properties are obtained
9

Chicheportiche, Rémy. "Dépendances non linéaires en finance". Phd thesis, Ecole Centrale Paris, 2013. http://tel.archives-ouvertes.fr/tel-01003349.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La thèse est composée de trois parties. La partie I introduit les outils mathématiques et statistiques appropriés pour l'étude des dépendances, ainsi que des tests statistiques d'adéquation pour des distributions de probabilité empiriques. Je propose deux extensions des tests usuels lorsque de la dépendance est présente dans les données, et lorsque la distribution des observations a des queues larges. Le contenu financier de la thèse commence à la partie II. J'y présente mes travaux concernant les dépendances transversales entre les séries chronologiques de rendements journaliers d'actions, c'est à dire les forces instantanées qui relient plusieurs actions entre elles et les fait se comporter collectivement plutôt qu'individuellement. Une calibration d'un nouveau modèle à facteurs est présentée ici, avec une comparaison à des mesures sur des données réelles. Finalement, la partie III étudie les dépendances temporelles dans des séries chronologiques individuelles, en utilisant les mêmes outils et mesures de corrélations. Nous proposons ici deux contributions à l'étude du " volatility clustering ", de son origine et de sa description: l'une est une généralisation du mécanisme de rétro-action ARCH dans lequel les rendements sont auto-excitants, et l'autre est une description plus originale des auto-dépendances en termes de copule. Cette dernière peut être formulée sans modèle et n'est pas spécifique aux données financières. En fait, je montre ici aussi comment les concepts de récurrences, records, répliques et temps d'attente, qui caractérisent la dynamique dans les séries chronologiques, peuvent être écrits dans la cadre unifié des copules.
10

Veilleux, Dery. "Modèles de dépendance avec copule Archimédienne : fondements basés sur la construction par mélange, méthodes de calcul et applications". Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/33039.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le domaine de l’assurance est basé sur la loi des grands nombres, un théorème stipulant que les caractéristiques statistiques d’un échantillon aléatoire suffisamment grand convergent vers les caractéristiques de la population complète. Les compagnies d’assurance se basent sur ce principe afin d’évaluer le risque associé aux évènements assurés. Cependant, l’introduction d’une relation de dépendance entre les éléments de l’échantillon aléatoire peut changer drastiquement le profil de risque d’un échantillon par rapport à la population entière. Il est donc crucial de considérer l’effet de la dépendance lorsqu’on agrège des risques d’assurance, d’où l’intérêt porté à la modélisation de la dépendance en science actuarielle. Dans ce mémoire, on s’intéresse à la modélisation de la dépendance à l’intérieur d’un portefeuille de risques dans le cas où une variable aléatoire (v.a.) mélange introduit de la dépendance entre les différents risques. Après avoir introduit l’utilisation des mélanges exponentiels dans la modélisation du risque en actuariat, on démontre comment cette construction par mélange nous permet de définir les copules Archimédiennes, un outil puissant pour la modélisation de la dépendance. Dans un premier temps, on démontre comment il est possible d’approximer une copule Archimédienne construite par mélange continu par une copule construite par mélange discret. Puis, nous dérivons des expressions explicites pour certaines mesures d’intérêt du risque agrégé. Nous développons une méthode de calcul analytique pour évaluer la distribution d’une somme de risques aléatoires d’un portefeuille sujet à une telle structure de dépendance. On applique enfin ces résultats à des problèmes d’agrégation, d’allocation du capital et de théorie de la ruine. Finalement, une extension est faite aux copules Archimédiennes hiérarchiques, une généralisation de la dépendance par mélange commun où il existe de la dépendance entre les risques à plus d’un niveau.
The law of large numbers, which states that statistical characteristics of a random sample will converge to the characteristics of the whole population, is the foundation of the insurance industry. Insurance companies rely on this principle to evaluate the risk of insured events. However, when we introduce dependencies between each component of the random sample, it may drastically affect the overall risk profile of the sample in comparison to the whole population. This is why it is essential to consider the effect of dependency when aggregating insurance risks from which stems the interest given to dependence modeling in actuarial science. In this thesis, we study dependence modeling in a portfolio of risks for which a mixture random variable (rv) introduces dependency. After introducing the use of exponential mixtures in actuarial risk modeling, we show how this mixture construction can define Archimedean copulas, a powerful tool for dependence modeling. First, we demonstrate how an Archimedean copula constructed via a continuous mixture can be approximated with a copula constructed by discrete mixture. Then, we derive explicit expressions for a few quantities related to the aggregated risk. The common mixture representation of Archimedean copulas is then at the basis of a computational strategy proposed to compute the distribution of the sum of risks in a general setup. Such results are then used to investigate risk models with respect to aggregation, capital allocation and ruin problems. Finally, we discuss an extension to nested Archimedean copulas, a general case of dependency via common mixture including different levels of dependency.
Résumé en espagnol
11

Toupin, Marie-Hélène. "La copule khi-carré et son utilisation en statistique spatiale et pour la modélisation de données multidimensionnelles". Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27977.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse étudie les propriétés des copules appartenant à la famille khi-carré. Il s’agit d’une généralisation des copules normales multidimensionnelles obtenue en élevant au carré les composantes d’un vecteur de variables aléatoires normales. Ces copules sont indicées par une matrice de corrélation et par un paramètre de forme. Cette thèse montre comment cette famille de copules peut être utilisée pour faire de l’interpolation spatiale et pour modéliser des données multidimensionnelles. Dans un premier temps, l’utilité de cette classe de structures de dépendance est démontrée par le biais d’une application en statistique spatiale. Un problème important dans ce contexte est de prévoir la valeur d’un champ aléatoire stationnaire en une position où il n’a pas été observé. Cette thèse montre comment construire de telles prévisions à l’aide de modèles spatiaux basés sur les copules. L’accent est mis sur l’utilisation de la famille des copules khi-carré dans ce contexte. Il faut d’abord supposer que la matrice de corrélation a une forme paramétrique standard, telle celle de Matérn, indicée par un paramètre inconnu associé à la force de l’association spatiale. Ce paramètre est d’abord estimé à l’aide d’une pseudo-vraisemblance composite construite à partir des lois bidimensionnelles des données observées. Ensuite, une méthode d’interpolation spatiale utilisant les rangs des observations est suggérée afin d’approximer la meilleure prévision du champ aléatoire à une position non observée. Dans un deuxième temps, les propriétés fondamentales des copules khi-carré sont étudiées en détail. Cette famille de copules permet une grande flexibilité quant à la modélisation de données multidimensionnelles. Dans le cas bivarié, ces copules s’adaptent à de la dépendance autant symétrique qu’asymétrique. En dimension plus grande, le paramètre de forme contrôle le degré d’asymétrie radiale des distributions marginales bidimensionnelles. Des procédures d’estimation de la matrice de corrélation et du paramètre de forme sont comparées dans le cas de répétitions indépendantes et identiquement distribuées. Enfin, des formules de l’espérance conditionnelle pour la meilleure prévision dans un contexte spatiale sont établies. Finalement, des tests d’adéquation basés sur des moments pour la famille des copules khi-carré sont développés. Ces nouveaux tests peuvent être appliqués à un ensemble de données de n’importe quelle dimension. Ces procédures reposent sur deux mesures d’association basées sur les rangs des observations ce qui évite d’avoir à spécifier les lois marginales. Il est démontré que le comportement conjoint de ces deux mesures est asymptotiquement normal. L’efficacité des nouvelles procédures d’adéquation est démontrée via une étude de simulations et est comparée à un test d’adéquation classique basé sur la copule empirique.
This thesis studies the properties of the family of chi-square copulas. This is a generalization of the multidimensional normal copulas obtained by squaring the components of normal random vector. These copulas are indexed by a correlation matrix and by a shape parameter. This thesis shows how this family can be used to perform spatial interpolation and to model multidimensional data. First, the usefulness of this class of dependence structures is demonstrated with an application in spatial statistics. An important problem in that context is to predict the value of a stationary random field at a position where it has not been observed. This thesis shows how to construct such predictions using spatial models based on copulas. One focusses on the use of the family of chi-square copulas in that context. One must first assumes that the correlation matrix has a standard parametric form, such as that of Matérn, indexed by an unknown parameter associated with the force of the spatial association. This parameter is first estimated using a composite pseudo-likelihood constructed from the bivariate distributions of the observed data. Then, a spatial interpolation method using the ranks of the observations is suggested to approximate the best prediction of the random field at an unobserved position under a chi-square copula. In a second work, the fundamental properties of the chi-square copulas are studied in detail. This family allows a lot of flexibility to model multidimensional data. In the bivariate case, this family is adapted to symmetric and asymmetric dependence structures. In larger dimensions, the shape parameter controls the degree of radial asymmetry of the two-dimensional marginal distributions. Parameter estimation procedures of the correlation matrix and of the shape parameter are compared under independent and identically distributed repetitions. Finally, the formulas of the conditional expectation for the best prediction in a spatial context are established. Goodness-of-fit tests for the family of chi-square copulas are then developed. These new tests can be applied to data in any dimension. These procedures are based on two association measures based on the ranks of the observations, which avoids having to specify the marginal distributions. It is shown that the joint behavior of these two measures is asymptotically normal. The efficiency of the new goodness-of-fit procedures is demonstrated through a simulation study and is compared to a classical goodness-of-fit test based on the empirical copula.
12

Chatelain, Simon. "Modélisation de la dépendance entre pré-extrêmes". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1267.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le comportement extrême joint entre variables aléatoires revêt un intérêt particulier dans de nombreuses applications des sciences de l’environnement, de la finance, de l’assurance ou encore de la gestion du risque. Par exemple, ce comportement joue un rôle central dans l’évaluation des risques de catastrophes naturelles. Une erreur de spécification de la dépendance entre des variables aléatoires peut engendrer une sous-estimation dangereuse du risque, en particulier au niveau extrême. Le premier objectif de cette thèse est de développer des techniques d’inférence pour les copules Archimax. Ces modèles de dépendance peuvent capturer tout type de dépendance asymptotique entre les extrêmes et, de manière simultanée, modéliser les risques joints au niveau moyen. Une copule Archimax est caractérisée par ses deux paramètres fonctionnels, la fonction de dépendance caudale stable et le générateur Archimédien qui agit comme une distorsion affectant le régime de dépendance extrême. Des conditions sont dérivées afin que le générateur et la fonction caudale soient identifiables, de sorte qu’une approche d’inférence semi-paramétrique puisse être développée. Deux estimateurs non paramétriques de la fonction caudale et un estimateur du générateur basé sur les moments, supposant que ce dernier appartient à une famille paramétrique, sont avancés. Le comportement asymptotique de ces estimateurs est ensuite établi sous des hypothèses de régularité non restrictives et la performance en échantillon fini est évaluée par le biais d’une étude de simulation. Une construction hiérarchique (ou en “clusters”) qui généralise les copules Archimax est proposée afin d’apporter davantage de flexibilité, la rendant plus adaptée aux applications pratiques. Le comportement extrême de ce nouveau modèle de dépendance est ensuite étudié, ce qui engendre un nouvelle manière de construire des fonctions de dépendance caudale stable. La copule Archimax est ensuite utilisée pour analyser les maxima mensuels de précipitations, observées à trois stations météorologiques en Bretagne. Le modèle semble très bien ajusté aux données, aussi bien aux précipitations faibles qu’aux précipitationsfortes. L’estimateur non paramétrique de la fonction caudale révèle une dépendance extrême asymétrique entre les stations, ce qui reflète le déplacement des orages dans la région. Une application du modèle Archimax hiérarchique à un jeu de données de précipitations contenant 155 stations est ensuite présentée, dans laquelle des groupes de stations asymptotiquement dépendantes sont déterminés via un algorithme de “clustering” spécifiquement adapté au modèle. Enfin, de possibles méthodes pour modéliser la dépendance inter-cluster sont évoquées
In various applications in environmental sciences, finance, insurance or risk management, joint extremal behavior between random variables is of particular interest. For example, this plays a central role in assessing risks of natural disasters. Misspecification of the dependence between random variables can lead to substantial underestimation of risk, especially at extreme levels. This thesis develops inference techniques for Archimax copulas. These copula models can account for any type of asymptotic dependence between extremes and at the same time capture joint risks at medium levels. An Archimax copula is characterized by two functional parameters, the stable tail dependence function (stdf), and the Archimedean generator which acts as a distortion of the extreme-value dependence model. Conditions under which the generator and the stdf are identifiable are derived so that a semiparametric approach for inference can be developed. Two nonparametric estimators of the stdf and a moment-based estimator of the generator, which assumes that the latter belongs to a parametric family, are proposed. The asymptotic behavior of the estimators is then established under broad regularity conditions; performance in small samples is assessed through a comprehensive simulation study. In the second part of the thesis, Archimax copulas are generalized to a clustered constructions in order to bring in more flexibility, which is needed in practical applications. The extremal behavior of this new dependence model is derived herein. Finally, the methodology proposed herein is illustrated on precipitation data. First, a trivariate Archimax copula is used to analyze monthly rainfall maxima at three stations in French Brittany. The model is seen to fit the data very well, both in the lower and in the upper tail. The nonparametric estimator of the stdf reveals asymmetric extremal dependence between the stations, which reflects heavy precipitation patterns in the area. An application of the clustered Archimax model to a precipitation dataset containing 155 stations is then presented, where groups of asymptotically dependent stations are determined via a specifically tailored clustering algorithm. Finally, possible ways to model inter cluster dependence are discussed
13

Beaudoin, David. "Estimation de la dépendance et choix de modèles pour des données bivariées sujettes à censure et à troncation". Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24621/24621.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Mtalai, Itre. "Modélisation de la dépendance à l'aide des mélanges communs et applications en actuariat". Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/32983.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2018-2019
La modélisation de la dépendance entre les risques pour un portefeuille d’une assurance ou d’une entité financière est devenue de plus en plus importante pour la solvabilité des institutions financières et l’examen de solvabilité dynamique et l’analyse financière dynamique des compagnies d’assurance. L’hypothèse d’indépendance entre les risques est parfois réaliste et facilite l’évaluation, l’agrégation et l’allocation des risques. Cependant, dans la majorité des cas, les risques individuels sont influencés par un ou plusieurs facteurs communs, tels que l’environnement économique, les régions géographiques ou les conditions climatiques et il est donc moins réaliste, voire dangereux, de supposer l’indépendance entre les risques d’un même portefeuille. Dans la littérature, un tel cas peut être modélisé par des modèles avec mélange commun. Ces modèles ont de nombreuses applications en assurance et en finance. L’objectif de cette thèse est donc d’explorer les modèles de dépendance construits à l’aide des mélanges communs et de faire sortir, à l’aide de plusieurs applications, la dangerosité de considérer l’indépendance entre les risques au sein d’un portefeuille. En particulier, la focalisation est mise sur un modèle souvent considéré pour modéliser le montant de sinistres, notamment la loi exponentielle mélange. Cette thèse considère les modèles de risque basés sur la loi exponentielle mélange. Le premier chapitre constitue une introduction générale aux modèles avec mélanges communs et introduit les notions qui seront utilisées dans les autres chapitres. Dans le deuxième chapitre, nous considérons un portefeuille de risques représentés par un vecteur de variables aléatoires dont la fonction de répartition conjointe est définie par une copule Archimédienne ou une copule Archimédienne imbriquée. Nous examinons le calcul de la fonction de répartition de la somme ou une variété de fonctions de ces variables aléatoires. En nous basant sur la méthodologie computationnelle présentée dans ce chapitre, nous examinons plusieurs problèmes reliés à différents modèles de risque en actuariat, tels que l’agrégation et l’allocation du capital. De plus, en utilisant une telle structure de dépendance avec des marginales spécifiques, nous obtenons des expressions explicites pour plusieurs quantités relatives au risque agrégé telles que sa fonction de masse de probabilité, sa fonction de répartition, sa TVaR, etc. L’échangeabilité des copules Archimédiennes implique que toutes les marginales sont égales. Afin de généraliser les copules Archimédiennes pour permettre les asymétries, plusieurs chercheurs utilisent une structure hiérarchique obtenue en imbriquant plusieurs copules Archimédiennes. Toutefois, il est difficile de valider la condition d’imbrication permettant d’assurer que la structure résultante est une copule, lorsque les copules impliquées appartiennent à des familles Archimédiennes différentes. Afin de remédier à ce problème, nous présentons, au troisième chapitre, une nouvelle méthode d’imbrication basée sur la construction des lois composées multivariées exponentielles mélange. En introduisant plusieurs paramètres, un large spectre de structures de dépendance peut être couvert par cette nouvelle construction, ce qui semble être très intéressant pour des applications pratiques. Des algorithmes efficients de simulation et d’agrégation sont également présentés. En nous inspirant à la fois des chapitres 2 et 3, nous proposons et examinons en détail au quatrième chapitre une nouvelle extension au modèle collectif de risque en supposant une certaine dépendance entre la fréquence et la sévérité des sinistres. Nous considérons des modèles collectifs de risque avec différentes structures de dépendance telles que des modèles impliquant des lois mélanges d’Erlang multivariées ou, dans un cadre plus général, des modèles basés sur des copules bivariées ou multivariées. Nous utilisons également les copules Archimédiennes et Archimédiennes hiérarchiques afin de modéliser la dépendance entre les composantes de la somme aléatoire représentant le montant de sinistre global. En nous basant encore une fois sur la représentation de notre modèle sous forme d’un mélange commun, nous adaptons la méthodologie computationnelle présentée au chapitre 2 pour calculer la fonction de masse de probabilité d’une somme aléatoire incorporant une dépendance hiérarchique. Finalement, dans le cinquième chapitre, nous soulignons l’utilité des modèles avec mélange commun et nous étudions plus en détail les lois exponentielles mélange dans leurs versions univariée et multivariée et nous expliquons leur lien étroit avec les copules Archimédiennes et Archimédiennes hiérarchiques. Nous proposons également plusieurs nouvelles distributions et nous établissons leurs liens avec des distributions connues.
Risk dependence modelling has become an increasingly important task for the solvency of financial institutions and insurance companies. The independence assumption between risks is sometimes realistic and facilitates risk assessment, aggregation and allocation. However, in most cases individual risks are influenced by at least one common factor, such as the economic environment, geographical regions or climatic conditions, and it is therefore less realistic or even dangerous to assume independence between risks. In the literature, such a case can be modelled by common mixture models. These models have many applications in insurance and finance. The aim of this thesis is to explore the dependence models constructed using common mixtures and to bring out, with the use of several applications, the riskiness of considering the independence between risks within an insurance company or a financial institution. In particular, the focus is on the exponential mixture. Exponential mixture distributions are on the basis of this thesis. The first chapter is a general introduction to models with common mixtures and introduces the concepts that will be used in the other chapters. In the second chapter, we consider a portfolio of risks represented by a vector of random variables whose joint distribution function is defined by an Archimedean copula or a nested Archimedean copula. We examine the computation of the distribution of the sum function or a variety of functions of these random variables. Based on the computational methodology presented in this chapter, we examine risk models regarding aggregation, capital allocation and ruin problems. Moreover, by using such a dependency structure with specific marginals, we obtain explicit expressions for several aggregated risk quantities such as its probability mass function, its distribution function, and its TVaR. The exchangeability of the Archimedean copulas implies that all margins are equal. To generalize Archimedean copulas to allow asymmetries, several researchers use a hierarchical structure obtained by nesting several Archimedean copulas. However, it is difficult to validate the nesting condition when the copulas involved belong to different Archimedean families. To solve this problem, we present, in the third chapter, a new imbrication method via the construction of the multivariate compound distributions. By introducing several parameters, a large spectrum of dependency structures can be achieved by this new construction, which seems very interesting for practical applications. Efficient sampling and aggregation algorithms are also presented. Based on both Chapters 2 and 3, we propose and examine in detail, in the fourth chapter, a new extension to the collective risk model assuming a certain dependence between the frequency and the severity of the claims. We consider collective risk models with different dependence structures such as models based on multivariate mixed Erlang distributions, models involving bivariate or multivariate copulas, or in a more general setting, Archimedean and hierarchical Archimedean copulas. Once again, based on the common mixture representation, we adapt the computational methodology presented in Chapter 2 to compute the probability mass function of a random sum incorporating a hierarchical Archimedean dependency. Finally, in the last chapter, we study, in more details, the exponential mixture distributions in their univariate and multivariate versions and we explain their close relationship to Archimedean and hierarchical Archimedean copulas. We also derive several new distributions, and we establish their links with pre-existent distributions. Keywords : Common mixture models, Exponential mixture, Bernoulli mixture, Archimedean copulas, Nested Archimedean copulas, Compounding, Marshall-Olkin, Hierarchical dependence structures.
15

Albardan, Mahmoud. "Combinaison robuste à la dépendance entre classifieurs dans un contexte d’apprentissage décentralisé". Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I050/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’apprentissage automatique est un domaine en forte croissance à la fois dans le nombre de méthodes employées mais aussi dans le nombre de base de données mises à disposition des utilisateurs. La classification, qui est une tâche qui peut être abordée par l’apprentissage artificiel, est ainsi affectée par ce changement. La présence d’un grand nombre d’algorithmes de classification incite alors à créer des systèmes globaux −basés sur des comités de classifieurs− dont le but est de donner des solutions plus efficaces pour les problèmes de classification complexes. Pour cette raison, on traite dans cette thèse la problématique des systèmes multi-classifieurs ou bien les comités de classifieurs dans un sens général. Le but de mes travaux de recherche est alors la conception de systèmes multi-classifieurs assurant une amélioration des performances de classification ainsi qu’un certain niveau de robustesse. Cependant, une conception de tels systèmes de classifieurs, qu'on peut voir comme des sources d'informations différentes et qui seront entraînés sur des exemples d’apprentissage corrélés, engendre une dépendance dans les différentes décisions individuelles produites par ces classifieurs et par conséquent on rajoute le but de construire des systèmes multi-classifieurs qui s'adaptent à la dépendance à l’intérieur du comité. Ainsi, nous proposons deux solutions qui seront les principales contributions de cette thèse. La première est une approche possibiliste basée sur une règle de combinaison bien connue en logique floue, la t-norme tandis que la deuxième est une approche probabiliste basée sur les copules qui sont des modèles de dépendance entre variables aléatoires
Machine learning is a rapidly growing field of science concerning both the number of methods used and the amount of data available for users. Classification is thus affected by these changes. The presence of a large number of classification algorithms thus encourages the creation of global systems that are based on classifier ensembles, in the purpose of providing efficient solutions to complex classification problems. This is the main motivation behind our thesis whose subject is the study of multi-classifiers systems. A multi-classifiers system is a set of classifiers whose decisions is aggregated according to a specific architecture and using a combination rule. There are different types architectures such as parallel, sequential or hybrid architectures. In this thesis, we are only interested in classifier ensembles having a parallel architecture. Briefly, the purpose of my research is then the design of multi-classifiers systems to improve classification performance and to offer certain level of robustness. However, the design of such systems, that can be seen as a fusion of different sources of information and which will be trained on correlated learning examples, generates dependence in the individual decisions of classifiers and consequently impose the creation of classifier ensembles that are adapted to dependency between individual classifiers. Thus, we propose two approaches that are the main contributions of this thesis. The first one is a possibilistic approach based on a well-known combination rule in fuzzy logic, the t-norm, while the second is a probabilistic approach based on a copula function which are models of dependence between random variables
16

Houdard, Clément. "Analyse de solutions pour limiter l'érosion externe du talus arrière d'une digue en terre soumise à la houle : une approche basée sur la théorie des copules et l’analyse de sensibilité globale". Electronic Thesis or Diss., Université Gustave Eiffel, 2023. http://www.theses.fr/2023UEFL2070.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce projet présente un cadre d'analyse complet pour une digue en terre située en Camargue, en France, qui est régulièrement soumise à l'érosion sur la pente côté terre. L'objectif est d'améliorer la résilience de la digue en fournissant un modèle fiable de fréquence des dommages. Le système développé combine la théorie des copules, la propagation empirique des vagues et les équations de débordement, ainsi qu'une analyse de sensibilité globale pour fournir la période de retour des dommages par érosion sur une digue donnée et des recommandations pour le renforcement de la digue et l'amélioration du modèle. L'analyse de sensibilité globale nécessite de faire varier les paramètres d'entrées un grand nombre de fois et de calculer les grandeurs de sortie pour chaque nouvelle combinaison. Cela permet d'obtenir une distribution des périodes de retour et une approche plus générale du comportement de la digue. La distribution résultante montre un maximum autour de deux ans, ce qui est proche des observations rapportées. Cependant, la distribution étant asymétrique, la valeur moyenne est moins fiable en tant que mesure de la sécurité de la digue. Les résultats de l'analyse de sensibilité globale montrent qu'aucune catégorie particulière de caractéristiques de la digue ne contribue significativement plus à l'incertitude du système. Les facteurs les plus importants sont la hauteur de la digue, la vitesse critique et le coefficient de rugosité de la pente côté mer. Ces résultats soulignent l'importance d'une bonne caractérisation de la digue pour améliorer la prévisibilité des estimations de période de retour. Les périodes de retour obtenues ont été confirmées par des observations in situ actuelles, mais l'incertitude augmente pour les événements les plus graves en raison du manque de données à long terme. Certaines améliorations du système ont été explorées pour une utilisation future
This study presents a comprehensive analysis framework for an earthen dyke located in Camargue, France, which is regularly subjected to erosion on the landward slope. The aim of the study is to improve the resilience of the dyke by providing a reliable model of damage frequency. To achieve this, we developed a system that combines copula theory, empirical wave propagation, and overtopping equations, as well as a global sensitivity analysis. The system provides the return period of erosion damage on a set dyke and recommendations for dyke reinforcement and model self-improvement. The global sensitivity analysis requires calculating a high number of return periods over random observations of the tested parameters. This provides a distribution of the return periods and a more general approach to the behavior of the dyke. The results show a return period peak around the two-year mark, which is close to reported observations. However, the distribution is skewed, and the mean value is less reliable as a measure of dyke safety. The global sensitivity analysis results show that no particular category of dyke features contributes significantly more to the uncertainty of the system. The highest contributing factors are the dyke height, the critical velocity, and the coefficient of seaward slope roughness. These results underline the importance of good dyke characterization to improve the predictability of return period estimations. The obtained return periods have been confirmed by current in-situ observations, but the uncertainty increases for the most severe events due to the lack of long-term data. Some improvements to the system have been explored for future use
17

Depire, Alexandre. "Modélisation Markovienne – Modèles de régression de copules et valeurs extrêmes – Application aux systèmes d’aide à la conduite". Reims, 2008. http://theses.univ-reims.fr/exl-doc/GED00000749.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'organise en deux grandes parties. La première partie porte sur le système d'aide à la conduite ACC. Nous étudions les stratégies de conduite et confirmons une hypothèse de F. Saad dans le premier chapitre. Le second chapitre aborde les automates cellulaires. Le troisième chapitre propose la validation d'une hypothèse dans le domaine de la psychologie de la conduite par l'utilisation de la modélisation markovienne. Le dernier chapitre porte sur la modélisation markovienne avec exogènes. Nous comparons avec une modélisation classique. Un cadre théorique est présente. L'étude d'outils pour l'évaluation d'un système d'aide à la conduite par le biais d'une comparaison avec/sans et cela sur des données réelles non contrôlées est central. Ceci nous a amené à considérer la notion de scène pouvant se définir comme la modification de la dépendance entre plusieurs indicateurs. L’objet central dans la dépendance est la copule, cœur de la seconde partie. Le premier chapitre est un état de l'art, évoque les mesures de dépendance et la fonction de linkage. Le second chapitre aborde une mesure de dépendance multivariée. Nous démontrons une formule de décomposition de l'information mutuelle. Le troisième expose une extension du modèle de cox au cas bivarié s'appuyant sur les copules de valeurs extrêmes. Des résultats d'approximation et de convergence sont prouvés. Pour conclure, une application est présentée sur les données du système lavia (limiteur de vitesse s'adaptant à la vitesse autorisée). Le quatrième chapitre porte l'estimation de la fonction de dépendance d'une copule bivariée. On démontre la convergence uniforme ainsi que la loi asymptotique de notre estimateur
The thesis gets organized in two major parties. The first part turns on the intelligent transportation system (autonomous cruise control). In the first chapter we study strategies of drivers and confirm a hypothesis of F. Saad. The second chapter tackles the cellular automaton. The third chapter suggests validation of an assumption in the field of the driver psychology by the use of the markovian models. The last chapter deals with the input-output hidden markov models. A theoretical framework is presented. The main purpose is the study of tools for the evaluation of such systems through data with / without the system and real data, not controlled. The important notion is the concept of scene, as defined the changes in the dependence between several indicators. The central object in the dependence is the copula, the heart of the second part. The first chapter is a state of the art, refer to the measures of dependence and function of linkage. The second chapter tackles a measure of a multivariate dependence. We demonstrate a formula about the mutual information. In the third chapter, an extension of the cox model in bivariate case is presented, based on extreme value copulas. Some approximation results and the convergence are proved. We give an application on real data from lavia system (speed limiter). The fourth chapter is about the estimating of the dependence function in the bivariate case. We prove the uniform convergence and give the asymptotic law of our estimator
18

Fontaine, Charles. "Utilisation de copules paramétriques en présence de données observationnelles : cadre théorique et modélisations". Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT009/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les études observationnelles (non-randomisées) sont principalement constituées de données ayant des particularités qui sont en fait contraignantes dans un cadre statistique classique. En effet, dans ce type d'études, les données sont rarement continues, complètes et indépendantes du bras thérapeutique dans lequel les observations se situent. Cette thèse aborde l'utilisation d'un outil statistique paramétrique fondé sur la dépendance entre les données à travers plusieurs scénarios liés aux études observationnelles. En effet, grâce au théorème de Sklar (1959), les copules paramétriques sont devenues un sujet d'actualité en biostatistique. Pour commencer, nous présentons les concepts de base relatifs aux copules et aux principales mesures d'association basées sur la concordance retrouvées dans la littérature. Ensuite, nous donnons trois exemples d'application des modèles de copules paramétriques pour autant de cas de données particulières retrouvées dans des études observationnelles. Nous proposons d’abord une stratégie de modélisation de l'analyse coût-efficacité basée uniquement sur une réécriture des fonctions de distribution jointes et évitant les modèles de régression linéaire. Nous étudions ensuite, les contraintes relatives aux données discrètes, particulièrement dans un contexte de non-unicité de la fonction copule, nous réécrivons le score de propension grâce à une approche novatrice basée sur l'extension d'une sous-copule. Enfin, nous évoquons un type particulier de données manquantes : les données censurées à droite, dans un contexte de régression, grâce à l'utilisation de copules semi-paramétriques
Observational studies (non-randomized) consist primarily of data with features that are in fact constraining within a classical statistical framework. Indeed, in this type of study, data are rarely continuous, complete, and independent of the therapeutic arm the observations are belonging to. This thesis deals with the use of a parametric statistical tool based on the dependence between the data, using several scenarios related to observational studies. Indeed, thanks to the theorem of Sklar (1959), parametric copulas have become a topic of interest in biostatistics. To begin with, we present the basic concepts of copulas, as well as the main measures of association based on the concordance founded on an analysis of the literature. Then, we give three examples of application of models of parametric copulas for as many cases of specific data found in observational studies. We first propose a strategy of modeling cost-effectiveness analysis based essentially on rewriting the joint distribution functions, while discarding the use of linear regression models. We then study the constraints relative to discrete data, particularly in a context of non-unicity of the copula function. We rewrite the propensity score, thanks to an innovative approach based on the extension of a sub-copula. Finally, we introduce a particular type of missing data: right censored data, in a regression context, through the use of semi-parametric copulas
19

L'Moudden, Aziz. "Une généralisation de la copule de Khoudraji : copules engendrées par des fonctions complètement monotones". Master's thesis, Université Laval, 2011. http://hdl.handle.net/20.500.11794/22659.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La copule de Abdelhaq Khoudraji permet de décrire complètement le lien de dépendance qui unit deux variables aléatoires continues. Ce mémoire présente une nouvelle copule basée sur les copules de Khoudraji mais avec plus de propriétés. On a étendu les copules de Khoudraji à des cas multidimen-sionnels tout en proposant quelques exemples. Des simulations ont été introduites dans le but de mieux visualiser ces nouvelles classes de copules. Finalement, des applications ont été réalisées afin de mettre en oeuvre les nouvelles copules trouvées.
20

Sloma, Przemyslaw. "Contribution to the weak convergence of empirical copula process : contribution to the stochastic claims reserving in general insurance". Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066563/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans la première partie de la thèse, nous nous intéressons à la convergence faible du processus empirique pondéré des copules. Nous fournissons la condition suffisante pour que cette convergence ait lieu vers un processus Gaussien limite. Nos résultats sont obtenus dans un espace de Banach L^p. Nous donnons des applications statistiques de ces résultats aux tests d'adéquation (tests of goodness of fit) pour les copules. Une attention spéciale est portée aux tests basées sur des statistiques de type Cramér-von Mises.Dans un second temps, nous étudions le problème de provisionnement stochastique pour une compagnie d'assurance non-vie. Les méthodes stochastiques sont utilisées afin d'évaluer la variabilité des réserves. Le point de départ pour cette thèse est une incohérence entre les méthodes utilisées en pratique et celles publiées dans la littérature. Pour remédier à cela, nous présentons un outil général de provisionnement stochastique à horizon ultime (Chapitre 3) et à un an (Chapitre 4), basé sur la méthode Chain Ladder
The aim of this thesis is twofold. First, we concentrate on the study of weak convergence of weighted empirical copula processes. We provide sufficient conditions for this convergence to hold to a limiting Gaussian process. Our results are obtained in the framework of convergence in the Banach space $L^{p}$ ($1\leq p <\infty $). Statistical applications to goodness of fit (GOF) tests for copulas are given to illustrate these results. We pay special attention to GOF tests based on Cramér-von Mises type statistics. Second, we discuss the problem of stochastic claims reserving in general non-life insurance. Stochastic models are needed in order to assess the variability of the claims reserve. The starting point of this thesis is an observed inconsistency between the approaches used in practice and that suggested in the literature. To fill this gap, we present a general tool for measuring the uncertainty of reserves in the framework of ultimate (Chapter 3) and one-year time horizon (Chapter 4), based on the Chain-Ladder method
21

Benoumechiara, Nazih. "Traitement de la dépendance en analyse de sensibilité pour la fiabilité industrielle". Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS047.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les études de fiabilité des structures ont recours à des approches probabilistes permettant de quantifier le risque qu'un événement accidentel se produise. La dépendance entre les variables aléatoires d'entrée d'un modèle peut avoir un impact significatif sur les résultats de l'étude de sureté. Cette thèse apporte une contribution au traitement de la dépendance en fiabilité des structures. Les deux principaux thèmes traités dans ce document sont, d'une part, l'analyse de sensibilité pour variables dépendantes lorsque la dépendance est connue et, d'autre part, l'évaluation d'un risque de fiabilité lorsque la dépendance est inconnue. Dans un premier temps, nous proposons une extension des mesures d'importance par permutation de l'algorithme des forêts aléatoires au cas de données dépendantes. Nous adaptons aussi l'algorithme d'estimation des indices de Shapley, utilisés en théorie des jeux, afin de prendre compte l'erreur d'estimation des indices. Dans un second temps, lorsque la structure de dépendance est inconnue, nous proposons une estimation conservative du risque de fiabilité basée sur une modélisation de la dépendance qui permet de déterminer la structure de dépendance la plus pénalisante. La méthodologie proposée est appliquée à un exemple de fiabilité structurelle permettant d'obtenir une estimation conservative du risque
Structural reliability studies use probabilistic approaches to quantify the risk of an accidental event occurring. The dependence between the random input variables of a model can have a significant impact on the results of the reliability study. This thesis contributes to the treatment of dependency in structural reliability studies. The two main topics covered in this document are the sensitivity analysis for dependent variables when the dependence is known and, as well as the assessment of a reliability risk when the dependence is unknown. First, we propose an extension of the permutation-based importance measures of the random forest algorithm towards the case of dependent data. We also adapt the Shapley index estimation algorithm, used in game theory, to take into account the index estimation error. Secondly, in the case of dependence structure being unknown, we propose a conservative estimate of the reliability risk based on dependency modelling to determine the most penalizing dependence structure. The proposed methodology is applied to an example of structural reliability to obtain a conservative estimate of the risk
22

Derennes, Pierre. "Mesures de sensibilité de Borgonovo : estimation des indices d'ordre un et supérieur, et application à l'analyse de fiabilité". Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30039.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans de nombreuses disciplines, un système complexe est modélisé par une fonction boîte noire dont le but est de simuler le comportement du système réel. Le système est donc représenté par un modèle entrée-sortie, i.e, une relation entre la sortie Y (ce que l'on observe sur le système) et un ensemble de paramètres extérieurs Xi (représentant typiquement des variables physiques). Ces paramètres sont usuellement supposés aléatoires pour prendre en compte les incertitudes phénoménologiques inhérentes au système. L'analyse de sensibilité globale joue alors un rôle majeur dans la gestion de ces incertitudes et dans la compréhension du comportement du système. Cette étude repose sur l'estimation de mesures d'importance dont le rôle est d'identifier et de classifier les différentes entrées en fonction de leur influence sur la sortie du modèle. Les indices de Sobol, dont l'objectif est de quantifier la contribution d'une variable d'entrée (ou d'un groupe de variables) à la variance de la sortie, figurent parmi les mesures d'importance les plus considérées. Néanmoins, la variance est une représentation potentiellement restrictive de la variabilité du modèle de sortie. Le sujet central de cette thèse porte sur une méthode alternative, introduite par Emanuele Borgonovo, et qui est basée sur l'analyse de l'ensemble de la distribution de sortie. Les mesures d'importance de Borgonovo admettent des propriétés très utiles en pratique qui justifient leur récent gain d'intérêt, mais leur estimation constitue un problème complexe. En effet, la définition initiale des indices de Borgonovo fait intervenir les densités inconditionnelles et conditionnelles de la sortie du modèle, malheureusement inconnues en pratique. Dès lors, les premières méthodes proposées menaient à un budget de simulation élevé, la fonction boite noire pouvant être très coûteuse à évaluer. La première contribution de cette thèse consiste à proposer de nouvelles méthodologies pour estimer les mesures d'importance de Borgonovo du premier ordre, i.e, les indices mesurant l'influence de la sortie Y relativement à une entrée Xi scalaire. Dans un premier temps, nous choisissons d'adopter la réinterprétation des indices de Borgonovo en terme de mesure de dépendance, i.e, comme une distance entre la densité jointe de Xi et Y et la distribution produit. En outre, nous développons une procédure d'estimation combinant échantillonnage préférentiel et approximation par noyau gaussien de la densité de sortie et de la densité jointe. Cette approche permet de calculer l'ensemble des indices de Borgonovo d'ordre 1, et ce, avec un faible budget de simulation indépendant de la dimension du modèle. Cependant, l'utilisation de l'estimation par noyau gaussien peut fournir des estimations imprécises dans le cas des distributions à queue lourde. Pour pallier ce problème, nous nous appuyons dans un second temps sur une autre définition des indices de Borgonovo reposant sur le formalisme des copules
In many disciplines, a complex system is modeled by a black box function whose purpose is to mimic the real system behavior. Then, the system is represented by an input-output model, i.e, a relationship between the output Y (the observation made on the system) and a set of external parameters Xi (typically representing physical variables). These parameters are usually assumed to be random in order to take phenomenological uncertainties into account. Then, global sensitivity analysis (GSA) plays a crucial role in the handling of these uncertainties and in the understanding of the system behavior. This study is based on the estimation of importance measures which aim at identifying and ranking the different inputs with respect to their influence on the model output. Variance-based sensitivity indices are one of the most widely used GSA measures. They are based on Sobol's indices which express the share of variance of the output that is due to a given input or input combination. However, by definition they only study the impact on the second-order moment of the output which may a restrictive representation of the whole output distribution. The central subject of this thesis is an alternative method, introduced by Emanuele Borgonovo, which is based on the analysis of the whole output distribution. Borgonovo's importance measures present very convenient properties that justify their recent gain of interest, but their estimation is a challenging task. Indeed, the initial definition of the Borgonovo's indices involves the unconditional and conditional densities of the model output, which are unfortunately unknown in practice. Thus, the first proposed methods led to a high computational burden especially since the black box function may be very costly-to-evaluate. The first contribution of this thesis consists in proposing new methodologies for estimating first order Borgonovo importance measures which quantify the influence of the output Y relatively to a scalar input Xi. First, we choose to adopt the reinterpretation of the Borgonovo indices in term of measure of dependence, i.e, as a distance between the joint density of Xi and Y and the product distribution. In addition, we develop an estimation procedure combining an importance sampling procedure and Gaussian kernel approximation of the output density and the joint density. This approach allows the computation of all first order Borgonovo with a low budget simulation, independent to the model dimension. However, the use of Gaussian kernel estimation may provide inaccurate estimates for heavy tail distributions. To overcome this problem, we consider an alternative definition of the Borgonovo indices based on the copula formalism
23

Aleiyouka, Mohalilou. "Sur la dépendance des queues de distributions". Thesis, Normandie, 2018. http://www.theses.fr/2018NORMLH28/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Pour modéliser de la dépendance entre plusieurs variables peut s'appuyer soit sur la corrélation entre les variables, soit sur d'autres mesures, qui déterminent la dépendance des queues de distributions.Dans cette thèse, nous nous intéressons à la dépendance des queues de distributions, en présentant quelques propriétés et résultats.Dans un premier temps, nous obtenons le coefficient de dépendance de queue pour la loi hyperbolique généralisée selon les différentes valeurs de paramètres de cette loi.Ensuite, nous exposons des propriétés et résultats du coefficient de dépendance extrémale dans le cas où les variables aléatoires suivent une loi de Fréchet unitaire.Finalement, nous présentons un des systèmes de gestion de bases de données temps réel (SGBDTR). Le but étant de proposer des modèles probabilistes pour étudier le comportement des transactions temps réel, afin d'optimiser ses performances
The modeling of the dependence between several variables can focus either on the positive or negative correlation between the variables, or on other more effective ways, which determine the tails dependence of distributions.In this thesis, we are interested in the tail dependence of distributions, by presenting some properties and results. Firstly, we obtain the limit tail dependence coefficient for the generalized hyperbolic law according to different parameter values of this law. Then, we exhibit some properties and results of die extremal dependence coefficient in the case where the random variables follow a unitary Fréchet law.Finally, we present a Real Time Database ManagementSystems (RDBMS). The goal is to propose probabilistic models to study thebehavior of real-time transactions, in order to optimize its performance
24

Sarazin, Marianne. "Elaboration d'un score de vieillissement : propositions théoriques". Phd thesis, Université Jean Monnet - Saint-Etienne, 2013. http://tel.archives-ouvertes.fr/tel-00994941.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le vieillissement fait actuellement l'objet de toutes les attentions, constituant en effet un problème de santé publique majeur. Sa description reste cependant complexe en raison des intrications à la fois individuelles et collectives de sa conceptualisation et d'une dimension subjective forte. Les professionnels de santé sont de plus en plus obligés d'intégrer cette donnée dans leur réflexion et de proposer des protocoles de prise en charge adaptés. Le vieillissement est une évolution inéluctable du corps dont la quantification est établie par l'âge dépendant du temps dit " chronologique ". Ce critère âge est cependant imparfait pour mesurer l'usure réelle du corps soumise à de nombreux facteurs modificateurs dépendant des individus. Aussi, partant de réflexions déjà engagées et consistant à substituer cet âge chronologique par un critère composite appelé " âge biologique ", aboutissant à la création d'un indicateur ou score de vieillissement et sensé davantage refléter le vieillissement individuel, une nouvelle méthodologie est proposée adaptée à la pratique de médecine générale. Une première phase de ce travail a consisté à sonder les médecins généralistes sur leur perception et leur utilisation des scores cliniques en pratique courante par l'intermédiaire d'une enquête qualitative et quantitative effectuée en France métropolitaine. Cette étude a montré que l'adéquation entre l'utilisation déclarée et la conception intellectualisée des scores restait dissociée. Les scores constituent un outil d'aide à la prise en charge utile pour cibler une approche systémique souvent complexe dans la mesure où ils sont simples à utiliser (peu d'items et items adaptés à la pratique) et à la validité scientifiquement comprise par le médecin. Par ailleurs, l'âge du patient a été cité comme un élément prépondérant influençant le choix adéquat du score par le médecin généraliste. Cette base de travail a donc servi à proposer une modélisation de l'âge biologique dont la réflexion a porté tant sur le choix du modèle mathématique que des variables constitutives de ce modèle. Une sélection de variables marqueurs du vieillissement a été effectuée à partir d'une revue de la littérature et tenant compte de leur possible intégration dans le processus de soin en médecine générale. Cette sélection a été consolidée par une approche mathématique selon un processus de sélection ascendant à partir d'un modèle régressif. Une population dite " témoin " au vieillissement considéré comme normal a été ensuite constituée servant de base comparative au calcul de l'âge biologique. Son choix a été influencé dans un premier temps par les données de la littérature puis secondairement selon un tri par classification utilisant la méthode des nuées dynamiques. Un modèle de régression linéaire simple a ensuite été construit mais avec de données normalisées selon la méthode des copules gaussiennes suivi d'une étude des queues de distribution marginales. Les résultats ainsi obtenus laissent entrevoir des perspectives intéressantes de réflexion pour approfondir le calcul d'un âge biologique et du score en découlant en médecine générale, sa validation par une étude de morbidité constituant l'étape ultime de ce travail
25

Romdhani, Héla. "Mesures d'association pour des modèles de copules multidimensionnelles". Doctoral thesis, Université Laval, 2013. http://hdl.handle.net/20.500.11794/24916.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse nous nous intéressons à la mesure de dépendance sous des modèles de copules. Nous y traitons trois problèmes : la mesure d’association dans le cas bidimensionnel en présence de seuils de détection, la mesure d’association pour des données en grappes et la mesure d’association pour des données hiérarchiques. Le premier problème, indépendant des deux autres, concerne la mesure d’association entre deux variables sujettes à une censure à gauche fixe due à l’existence de seuils de détection. Nous définissons une version conditionnelle du tau de Kendall permettant de mesurer l’association entre de telles variables. Nous en proposons un estimateur non paramétrique et en étudions les propriétés asymptotiques. Nous supposons, ensuite, un modèle de copule Archimédienne et en déduisons un estimateur pour le tau de Kendall global. Un test d’ajustement de copules à ce type de données est développé. Le deuxième problème traite de la mesure d’association dans un cadre multidimensionnel pour des données en grappes telles que les observations à l’intérieur de chaque groupe sont échangeables. Pour cela, nous introduisons le tau de Kendall échangeable comme une mesure d’association intra-classe et présentons un estimateur non paramétrique pour cette mesure. Ses propriétés asymptotiques sont étudiées sous un modèle de copules multidimensionnelles caractérisées par une propriété appelée échangeabilité. Nous en déduisons un estimateur du coefficient de corrélation intra-classe pour des données provenant d’une distribution elliptique. Nous dérivons ses propriétés asymptotiques sous un modèle ANOVA généralisé à un facteur. Enfin, nous développons un test d’indépendence basé sur le tau de Kendall. Le troisième problème est une extension du deuxième au cas de données hiérarchiques avec des sous-groupes imbriqués dans des groupes, dans le cas où les unités à l’intérieur de chaque sous-groupe sont échangeables et où les sous-groupes appartenant à un même groupe sont, eux mêmes, échangeables. Nous définissons alors deux mesures d’association basées sur le tau de Kendall échangeable et en proposons des estimateurs non paramétriques. Nous étudions les propriétés asymptotiques de ces estimateurs sous des modèles de copules hiérarchiques vérifiant certaines propriétés d’échangeabilité partielle. Pour les données provenant de copules meta-elliptiques hiérarchiques, nous déduisons des estimateurs pour les coefficients de corrélation intra-classe associés aux groupes et aux sous-groupes respectivement. Nous développons, enfin, des procédures de tests pour les effets de groupes et de sous-groupes.
In this thesis we are interested in measuring the dependence under copula models. We deal with three problems: the measure of association in the bivariate case in the presence of lower detection limits, the measure of association for clustered data and the measure of association for two-level hierarchical data. The first problem, independent of the other two, deals with the measure of association between two variables subject to fixed left censoring due to the presence of lower detection limits. We define a conditional version of Kendall’s tau to measure the association between such variables. We provide a nonparametric estimator of this measure and study its asymptotic properties. We then assume an Archimedean copula model and deduce an estimator for the copula’s Kendall’s tau. A goodness-of-fit test for the assumed copula is developed. The second problem deals with the measure of intra-class association for clustered data such that observations within each group are exchangeable. For this, we introduce an exchangeable version of Kendall’s tau as a measure of intra-class dependance and provide a nonparametric estimator for this measure. Its asymptotic properties are investigated under a multivariate exchangeable copula model. We derive an estimator of the intra-class correlation coefficient for data drawn from an elliptical distribution. The asymptotic properties of this estimator are investigated under a generalized oneway ANOVA model. Finally, we develop an intra-class independence test based on Kendall’s tau. The third problem is an extension of the second to the case of hierarchical data with a set of subgroups nested into groups, such that the units within each subgroup are exchangeable and the subgroups belonging to the same group are themselves exchangeable. We define two association measures based on the exchangeable Kendall’s tau and propose nonparametric estimators for these measures. We investigate their asymptotic properties under hierarchical copula models satisfying some properties of partial exchangeability. For data drawn from meta-elliptical hierarchical copulas we deduce estimators for the intra-class correlation coefficients associated to groups and subgroups respectively. We also develop procedures for testing the effects of groups and subgroups.
26

Tounkara, Fode. "Modèles de copules Archimédiennes pour données de Bernoulli corrélées". Doctoral thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26528.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse introduit et explore une nouvelle classe de modèles probabilistes pour des données de Bernoulli échangeables en forme de grappe. Dans ces modèles, la probabilité conditionnelle de succès est une fonction de la probabilité marginale de succès et d’un effet aléatoire positif spécifique à chaque grappe. La distribution de l’effet aléatoire contient un paramètre d’association qui est estimé pour donner une mesure de la force de la dépendance résiduelle ignorée par les marges. Nous montrons que la transformée de Laplace de l’effet aléatoire est liée au générateur des modèles de copules Archimédiennes, ce qui nous permet d’avoir un nouvel aperçu de ces modèles. L’approche que nous proposons offre de nombreux avantages. En effet, la famille de copules Archimédiennes fournit une large classe de modèles pour la sur-dispersion dans une expérience de Bernoulli. D’un point de vue statistique, la fonction de vraisemblance marginale pour les données de l’échantillon a une expression explicite, les méthodes du maximum de vraisemblance sont alors faciles à mettre en oeuvre. Nous avons considéré quatre applications de nos modèles. Premièrement, nous construisons un intervalle de confiance par vraisemblance profilée pour le coefficient de corrélation intra-grappe (ICC). La deuxième application concerne l’estimation de la taille d’une population en présence d’hétérogénéité observée et non observée (résiduelle) dans une expérience de capture-recapture. Le troisième problème traite de l’estimation dans de petites régions, et enfin le quatrième indépendant des trois premiers, analyse les caractéristiques socio-économiques des hommes qui ont une préférence à épouser des jeunes filles de moins de 18 ans. Dans la première application, nous considérons le cas le plus simple de nos modèles où aucune covariable n’est disponible puis proposons la méthode du maximum de vraisemblance pour l’estimation du coefficient de corrélation intra-grappe (ICC) à l’aide de plusieurs spécifications de copules Archimédiennes. La sélection d’un modèle particulier est effectuée en utilisant le critère d’information d’Akaike (AIC). La procédure comprend l’estimation du maximum de vraisemblance et la méthode du profil de vraisemblance (ou vraisemblance profilée). Nous avons fait des études de simulation pour mesurer la performance de la méthode d’intervalle par vraisemblance profilée sous nos modèles en termes de taux de couverture et de longueur d’intervalle de confiance, et la sensibilité de notre approche à la spécification d’un modèle de copule. La procédure que nous proposons a aussi été appliquée à des données réelles. Nous comparons notre méthode à celle proposée sous le modèle Béta-binomial, et la méthode d’intervalle de type Wald modifié proposée par Zou and Donner (2004). L’une des conclusions importantes de ces études est que l’intervalle de confiance par vraisemblance profilée obtenu sous nos modèles présente de belles propriétés en termes de taux couverture et de longueur d’intervalle de confiance, même lorsque le nombre de grappes est petit. La sélection de modèle est une étape importante : si le modèle est mal spécifié, alors cela pourrait conduire à des résultats erronés. La seconde application, une extension de la première pour accommoder des covariables au niveau des grappes, concerne la modélisation de l’hétérogéneité dans les probabilités de capture lors d’une expérience de capture-recapture dans une population fermée. Dans ce contexte, nos modèles sont utilisés pour modéliser l’hétérogéneité résiduelle qui n’est pas prise en compte par les covariables mesurées sur des unités capturées. Plusieurs modèles sont disponibles pour l’hétérogénéité non observée et la probabilité de capture marginale est modélisée en utilisant les fonctions de liens Logit et Log-Log complémentaire. Les paramètres sont estimés en utilisant la vraisemblance conditionnelle construite à partir des observations collectées sur les unités capturées au moins une fois. Ceci généralise le modèle de Huggins (1991) qui ne tient pas compte de l’hétérogénéité résiduelle. La sensibilité de l’inférence à la spécification d’un modèle est également étudiée par des simulations. Un exemple numérique est présenté. La troisième application traite de la prédiction dans de petites régions. Nous proposons des techniques de Bayes basées sur nos modèles pour estimer des proportions régionales. L’inférence Bayésienne que nous proposons consiste à trouver la distribution a posteriori de l’effet aléatoire et sa transformée de Laplace sachant les données et les paramètres du modèle. Cette transformée de Laplace est ensuite utilisée pour trouver des estimateurs de Bayes et leurs variances a posteriori pour les vraies proportions. Nous développons une étude de comparaison entre le meilleur prédicteur de Bayes (BP) et le meilleur prédicteur linéaire sans biais (BLUP). Nous avons également étudié l’efficacité du BP obtenu sous nos modèles relativement au BLUP. Les paramètres du modèle sont estimés en utilisant la méthode du maximum de vraisemblance. L’avantage de notre approche est que la fonction de vraisemblance et l’expression du meilleur prédicteur (BP) ont une forme explicite, ce qui facilite la mise en oeuvre de leur évaluation sur le plan numérique. Nous obtenons un prédicteur empirique de Bayes (EBP) en remplaçant les paramètres par leurs estimateurs dans l’expression du BP. Nous utilisons le critère d’information d’Akaike (AIC) pour la selection d’un modèle. Nous utilisons la méthode du jackknife pour estimer l’erreur quadratique moyenne des prédicteurs empiriques. Des résultats empiriques obtenus à partir de données simulées et réelles sont également présentés. Enfin, le quatrième problème traité dans cette thèse, qui est indépendant des trois premiers, concerne l’analyse des caractéristiques socio-économiques des hommes qui ont une préférence à épouser des jeunes filles de moins de 18 ans. Dans ce contexte, nous considérons les données de l’EDS 2006 du Niger et utilisons les copules Archimédiennes bidimentionelles pour modéliser l’association entre le niveau d’éducation (variable discrète) des hommes et leur revenu pré-marital (variable continue). Nous construisons la vraisemblance pour un échantillon issu de ce couple de variables aléatoires mixtes, et déduisons une estimation du paramètre de dépendance en utilisant une procédure semi-paramétrique où les marges sont estimées par leurs équivalents empiriques. Nous utilisons la méthode du jackknife pour estimer l’erreur type. Nous utilisons la méthode de Wald pour tester l’égalité entre l’association des caractéristiques socio-économiques des hommes qui épousent des jeunes filles mineures et celle des hommes qui se marient avec des femmes âgées. Les résultats du test contribuent à la validité de notre théorie selon laquelle les hommes qui épousent des jeunes filles de moins de 18 ans ont un niveau d’éducation et un revenu pré-marital faibles, lorsqu’on les compare aux hommes qui ne le font pas.
This thesis introduces and explores a new class of probability models for exchangeable clustered binary data. In these models, the conditional probability of success is characterized by a function of the marginal probability of success and a positive cluster-specific random effect. The marginal probabilities are modeled using the logit and complementary log-log link functions. The distribution of the random effect contains an association parameter that is estimated to give a measure of the strength of the within-cluster residual dependence that is not accounted for by the margins. We show that the random effect distributions can be related to exchangeable Archimedean copula models, thus giving new insights on such models. The copula approach offers many advantages. Indeed, the family of Archimedean copulas provides a large class of models for over-dispersion in a Bernoulli experiment. From a statistical perspective, the marginal likelihood function for the sample data has an explicit expression, the maximum likelihood methods are then easy to implement and computationally straightforward. Based on the proposed models, four applications are considered. First, we investigate the construction of profile likelihood confidence interval (PLCI) for the intra-cluster correlation coefficient (ICC). The second application is concerned with an heterogeneity in capture probabilities in a mark-recapture study for estimating the size of a closed population. The third contribution deals with the estimation in small areas, the fourth and final, independent of the other three, analyzes the socioeconomic characteristics of men who prefer to marry girls under 18 years old. In the first application, we consider a simple case, without covariates and construct maximum likelihood inference procedures for the intra-cluster correlation using several specifications of Archimedean copulas. The selection of a particular model is carried out using the Akaike information criterion (AIC). Profile likelihood confidence intervals for the ICC are constructed and their performance are assessed in a simulation experiment. The sensitivity of the inference to the specification of the copula family is also investigated through simulations. Numerical examples are presented. We compare our approach with that proposed under the Beta-binomial model and with the modified Wald interval method proposed by Zou and Donner (2004). One of the important findings of these studies is that the profile confidence interval obtained under our models presents nice properties, even when the number of clusters is small. Model selection is an important step: if the model is poorly specified, then this could lead to erroneous results. The second application, an extension of the first one to accommodate cluster level covariates, is concerned with an heterogeneity in capture probabilities in a capture-recapture study for estimating the size of a closed population. Unit level covariates are recorded on the units that are captured and copulas are used to model the residual heterogeneity that is not accounted for by covariates. Several models for the unobserved heterogeneity are available and the marginal capture probability is expressed using the Logit and the complementary Log-Log link functions. The parameters are estimated using a conditional likelihood constructed with the data obtained on the units caught at least once. The population size is estimated using a Horvitz-Thompson estimator constructed using the estimated probabilities that a unit is caught at least once. This generalizes the model of Huggins (1991) that does not account for a residual heterogeneity. The sensitivity of the inference to the specification of a model is also investigated through simulations. A numerical example is presented. The third application uses the models of the first two in order to estimate small area proportions. We apply Bayes techniques using a new class of probability models, to estimate small area proportions. The Bayesian inference under the proposed models consists in obtaining the posterior distribution of the random effect and its Laplace transform. This posterior Laplace transform is then used to find Bayes estimates of small area proportions. We develop a comparison between the Best Predictor (BP) and the Best Linear Unbiased Predictor (BLUP). The model parameters are estimated using the maximum likelihood (ML) method. Under the proposed model, the likelihood function and the best predictor (BP) of small area proportion have closed form expressions. Model parameters are replaced by their ML estimates in the BP to obtain the empirical best predictor (EBP). We use the Akaike information criterion (AIC) for selecting a particular model. We propose the jackknife method to estimate the mean square error of the empirical Bayes predictor. Empirical results obtained from simulated and real data are also presented. The fourth and last problem addressed in this thesis, independently of the others three, investigates socioeconomic characteristics of men who prefer to marry girls under 18 years. We consider the data from the 2006 DHS Niger and use a bivariate Archimedean copula to model the association between education level (discrete) of men and their pre-marital income (continuous). We present the likelihood function for a sample from this pair of mixed random variables, and derive an estimate of the dependence parameter using a semiparametric procedure where margins are estimated by their empirical equivalents. We use the jackknife method to estimate the standard error. We use a Wald-type procedure, to perform a parametric hypothesis test of equality between the association of the socio economic characteristics of men who marry underage girls and that of men who marry older women instead. These test results contribute to the validity of our theory that men who marry girls under 18 years old have a low level of education and income pre-marital, when compared to men who did not.
27

Bargès, Mathieu. "Modèles de dépendance dans la théorie du risque". Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00736207.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Initialement, la théorie du risque supposait l'indépendance entre les différentes variables aléatoires et autres paramètres intervenant dans la modélisation actuarielle. De nos jours, cette hypothèse d'indépendance est souvent relâchée afin de tenir compte de possibles interactions entre les différents éléments des modèles. Dans cette thèse, nous proposons d'introduire des modèles de dépendance pour différents aspects de la théorie du risque. Dans un premier temps, nous suggérons l'emploi des copules comme structure de dépendance. Nous abordons tout d'abord un problème d'allocation de capital basée sur la Tail-Value-at-Risk pour lequel nous supposons un lien introduit par une copule entre les différents risques. Nous obtenons des formules explicites pour le capital à allouer à l'ensemble du portefeuille ainsi que la contribution de chacun des risques lorsque nous utilisons la copule Farlie-Gumbel-Morgenstern. Pour les autres copules, nous fournissons une méthode d'approximation. Au deuxième chapitre, nous considérons le processus aléatoire de la somme des valeurs présentes des sinistres pour lequel les variables aléatoires du montant d'un sinistre et de temps écoulé depuis le sinistre précédent sont liées par une copule Farlie-Gumbel-Morgenstern. Nous montrons comment obtenir des formes explicites pour les deux premiers moments puis le moment d'ordre m de ce processus. Le troisième chapitre suppose un autre type de dépendance causée par un environnement extérieur. Dans le contexte de l'étude de la probabilité de ruine d'une compagnie de réassurance, nous utilisons un environnement markovien pour modéliser les cycles de souscription. Nous supposons en premier lieu des temps de changement de phases de cycle déterministes puis nous les considérons ensuite influencés en retour par les montants des sinistres. Nous obtenons, à l'aide de la méthode d'erlangisation, une approximation de la probabilité de ruine en temps fini.
28

Khadraoui, Lobna. "Sélection de copules archimédiennes dans un modèle semi-paramétrique". Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/30251.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail considère un modèle linéaire semi-paramétrique dont les erreurs sont modélisées par une copule choisie parmi la famille archimédienne ou bien la copule normale. La modélisation des erreurs par une copule apporte une flexibilité et permet de caractériser la structure de dépendance d’une manière simple et efficace. La simplicité réside dans le fait qu’un seul paramètre α contrôle le degré de dépendance présent dans les données. L’efficacité réside dans le fait que ce modèle semi-paramétrique permet de lever des hypothèses standards souvent rencontrées en statistique appliquée à savoir la normalité et l’indépendance. Après une mise en œuvre du modèle basée sur une copule nous avons proposé une étude théorique du comportement asymptotique de l’estimateur du paramètre de dépendance α en montrant sa convergence et sa normalité asymptotique sous des hypothèses classiques de régularité. L’estimation des paramètres du modèle a été réalisée en maximisant une pseudo-vraisemblance. La sélection de la meilleure copule pour un jeu de données a été faite à l’aide du critère d’Akaike. Une comparaison avec le critère de la validation croisée a été proposée également. Enfin, une étude numérique sur des jeux de données simulés et réels a été proposée dans la sélection.
This work considers a semi-parametric linear model with error terms modeled by a copula chosen from the Archimedean family or the normal copula. The modeling of errors by a copula provides flexibility and makes it possible to characterize the dependency structure in a simple and effective manner. The simplicity lies in the fact that a single parameter α controls the degree of dependency present in the data. The efficiency is in the fact that this semi-parametric model weakens standard assumptions often encountered in applied statistics namely normality and independence. After an implementation of the model based on a copula we proposed a theoretical study on the asymptotic behavior of the estimator of the dependence parameter α by showing its consistency and its asymptotic normality under classical assumptions of regularity. Estimation of the model parameters is performed by maximizing a pseudo-likelihood. The selection of the best copula that fits the data for each case is based on the Akaike selection criterion. A comparison with the criterion of cross-validation is presented as well. Finally, a numerical study on simulated and real data sets is proposed.
29

Monwanou, Mondji Herbert. "Estimation du paramètre d'une copule archimedienne en présence de censure dépendante". Master's thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/26856.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les méthodes classiques d’analyse de survie notamment la méthode non paramétrique de Kaplan et Meier (1958) supposent l’indépendance entre les variables d’intérêt et de censure. Mais, cette hypothèse d’indépendance n’étant pas toujours soutenable, plusieurs auteurs ont élaboré des méthodes pour prendre en compte la dépendance. La plupart de ces méthodes émettent des hypothèses sur cette dépendance. Dans ce mémoire, nous avons proposé une méthode d’estimation de la dépendance en présence de censure dépendante qui utilise le copula-graphic estimator pour les copules archimédiennes (Rivest etWells, 2001) et suppose la connaissance de la distribution de la variable de censure. Nous avons ensuite étudié la consistance de cet estimateur à travers des simulations avant de l’appliquer sur un jeu de données réelles.
Conventional methods of survival analysis including non-parametric Kaplan-Meier (1958) assume independence between time to death and time to censoring. But this independence assumption is not always sustainable. Thus, several authors have developed methods to take into account the dependence by making assumptions about the relationship between the two times. In this paper, we proposed a method to estimate the dependence in case of competing risk data using the copula-graphic estimator for Archimedean copula (Rivest and Wells, 2001) and assuming knowledge of the distribution of censoring time. Then we studied the consistency of this estimator through simulations and applied to a real dataset.
30

Binois, Mickaël. "Uncertainty quantification on pareto fronts and high-dimensional strategies in bayesian optimization, with applications in multi-objective automotive design". Thesis, Saint-Etienne, EMSE, 2015. http://www.theses.fr/2015EMSE0805/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse traite de l’optimisation multiobjectif de fonctions coûteuses, aboutissant à laconstruction d’un front de Pareto représentant l’ensemble des compromis optimaux. En conception automobile, le budget d’évaluations est fortement limité par les temps de simulation numérique des phénomènes physiques considérés. Dans ce contexte, il est courant d’avoir recours à des « métamodèles » (ou modèles de modèles) des simulateurs numériques, en se basant notamment sur des processus gaussiens. Ils permettent d’ajouter séquentiellement des observations en conciliant recherche locale et exploration. En complément des critères d’optimisation existants tels que des versions multiobjectifs du critère d’amélioration espérée, nous proposons d’estimer la position de l’ensemble du front de Pareto avec une quantification de l’incertitude associée, à partir de simulations conditionnelles de processus gaussiens. Une deuxième contribution reprend ce problème à partir de copules. Pour pouvoir traiter le cas d’un grand nombre de variables d’entrées, nous nous basons sur l’algorithme REMBO. Par un tirage aléatoire directionnel, défini par une matrice, il permet de trouver un optimum rapidement lorsque seules quelques variables sont réellement influentes (mais inconnues). Plusieurs améliorations sont proposées, elles comprennent un noyau de covariance dédié, une sélection du domaine de petite dimension et des directions aléatoires mais aussi l’extension au casmultiobjectif. Enfin, un cas d’application industriel en crash a permis d’obtenir des gainssignificatifs en performance et en nombre de calculs requis, ainsi que de tester le package R GPareto développé dans le cadre de cette thèse
This dissertation deals with optimizing expensive or time-consuming black-box functionsto obtain the set of all optimal compromise solutions, i.e. the Pareto front. In automotivedesign, the evaluation budget is severely limited by numerical simulation times of the considered physical phenomena. In this context, it is common to resort to “metamodels” (models of models) of the numerical simulators, especially using Gaussian processes. They enable adding sequentially new observations while balancing local search and exploration. Complementing existing multi-objective Expected Improvement criteria, we propose to estimate the position of the whole Pareto front along with a quantification of the associated uncertainty, from conditional simulations of Gaussian processes. A second contribution addresses this problem from a different angle, using copulas to model the multi-variate cumulative distribution function. To cope with a possibly high number of variables, we adopt the REMBO algorithm. From a randomly selected direction, defined by a matrix, it allows a fast optimization when only a few number of variables are actually influential, but unknown. Several improvements are proposed, such as a dedicated covariance kernel, a selection procedure for the low dimensional domain and of the random directions, as well as an extension to the multi-objective setup. Finally, an industrial application in car crash-worthiness demonstrates significant benefits in terms of performance and number of simulations required. It has also been used to test the R package GPareto developed during this thesis
31

Abdallah, Anas. "Modèles de dépendance hiérarchique pour l'évaluation des passifs et la tarification en actuariat". Doctoral thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/27001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux.
The objective of this thesis is to propose innovative hierarchical approaches to model dependence within and between risks in non-life insurance in general, and in a loss reserving context in particular. One of the most critical problems in property/casualty insurance is to determine an appropriate reserve for incurred but unpaid losses. These provisions generally comprise most of the liabilities of a non-life insurance company. The global provisions are often determined under an assumption of independence between the lines of business. However, most risks are related to each other in practice, and this correlation needs to be taken into account. Recently, Shi and Frees (2011) proposed to include dependence between lines of business in a pairwise manner, through a copula that captures dependence between two equivalent cells of two different runoff triangles. In this thesis, we propose to generalize this model with two different approaches. Firstly, by using hierarchical Archimedean copulas to accommodate correlation within and between lines of business, and secondly by capturing this dependence through random effects. The first approach will be presented in chapters 2 and 3. In chapter 2, we use partially nested Archimedean copulas to capture dependence within and between two lines of business, through calendar year effects. In chapter 3, we use fully nested Archimedean copulas, to accommodate dependence between more than two lines of business. A copula-based risk aggregation model is also proposed to accommodate dependence. The inference for the dependence structure is performed with a rank-based methodology to bring more robustness to the estimation. In chapter 4, we introduce the Sarmanov family of bivariate distributions to a loss reserving context, and show that its flexibility proves to be very useful for modeling dependence between loss triangles. This dependence is captured by random effects, through calendar years, accident years or development periods. Closed-form expressions are given, and a real life illustration is shown again. In chapter 5, we use the Sarmanov family of bivariate distributions in a dynamic framework, where the random effects are considered evolutionary and evolve over time, to update the information and allow more weight to more recent claims. Hence, we propose an innovative way to jointly model the dependence between risks and over time with an illustration in a ratemaking context. Finally, a brief conclusion recalls the main contributions of this thesis and provides insights into future research and possible extensions to the proposed works.
32

Derien, Anthony. "Solvabilité 2 : une réelle avancée ?" Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00733700.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les futures normes de solvabilité pour l'industrie de l'assurance, Solvabilité 2, ont pour buts d'améliorer la gestion des risques au travers de l'identification de différentes classes et modules de risque, et en autorisant les compagnies à utiliser des modèles internes pour estimer leur capital réglementaire. La formule standard définit ce capital comme étant égal à une VaR à 99.5% sur un horizon d'un an pour chaque module de risque. Puis, à chaque niveau de consolidation intermédiaire, les différentes VaR sont agrégées au travers d'une matrice de corrélation. Plusieurs problèmes apparaissent avec cette méthode : - Le régulateur utilise le terme de "VaR" sans communiquer de distributions marginales ni globale. Cette mesure de risque multi-variée n'est pertinente que si chaque risque suit une distribution normale. - L'horizon temporel à un an ne correspond pas à celui des engagements d'une compagnie d'assurance, et pose des problèmes d'es lors qu'il faut déterminer la fréquence de mises à jour des modèles internes. - La structure de dépendance proposée par la formule standard ne correspond pas à celle habituellement mise en place par les compagnies et est difficilement utilisable dans un modèle interne. La première partie présentera en détail les points clés de la réforme et donnera des axes de réflexion sur son application dans la gestion des risques. Dans une deuxième partie, il sera montré que cette mesure de risque multi-variée ne satisfait pas aux principaux axiomes d'une mesure de risque. De plus, elle ne permet pas de comparer les exigences de capital entre compagnies, puisqu'elle n'est pas universelle. La troisième partie démontrera que pour évaluer un capital à un point intermédiaire avant l'échéance, une mesure de risque doit pouvoir s'ajuster à différentes périodes, et donc être multi-périodique. Enfin, la quatrième partie mettra l'accent sur une alternative à la matrice de corrélation pour modéliser la dépendance, à savoir les copules.
33

Pougaza, Doriano-Boris. "Utilisation de la notion de copule en tomographie". Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00684637.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte sur le lien entre la tomographie et la notion de copule. La tomographie à rayons X consiste à (re)construire la structure cachée d'un objet (une densité de matière, la distribution d'une quantité physique, ou une densité de loi conjointe) à partir de certaines données obtenues ou mesurées de l'objet (les projections, les radiographies, les densités marginales). Le lien entre les mesures et l'objet se modélise mathématiquement par la Transformée à Rayons X ou la Transformée de Radon. Par exemple, dans les problèmes d'imagerie en géométrie parallèle, lorsqu'on a seulement deux projections à deux angles de 0 et pi/2 (horizontale et verticale), le problème peut être identifié comme un autre problème très important en mathématique qui est la détermination d'une densité conjointe à partir de ses marginales. En se limitant à deux projections, les deux problèmes sont des problèmes mal posés au sens de Hadamard. Il faut alors ajouter de l'information a priori, ou bien des contraintes supplémentaires. L'apport principal de cette thèse est l'utilisation des critères de plusieurs entropies (Rényi, Tsallis, Burg, Shannon) permettant d'aboutir à une solution régularisée. Ce travail couvre alors différents domaines. Les aspects mathématiques de la tomographie via l'élément fondamental qui est la transformée de Radon. En probabilité sur la recherche d'une loi conjointe connaissant ses lois marginales d'où la notion de ''copule'' via le théorème de Sklar. Avec seulement deux projections, ce problème est extrêmement difficile. Mais en assimilant les deux projections (normalisées) aux densités marginales et l'image à reconstruire à une densité de probabilité, le lien se fait et les deux problèmes sont équivalents et peuvent se transposer dans le cadre statistique. Pour caractériser toutes les images possibles à reconstruire on a choisi alors l'outil de la théorie de probabilité, c'est-à-dire les copules. Et pour faire notre choix parmi les copules ou les images nous avons imposé le critère d'information a priori qui se base sur différentes entropies. L'entropie est une quantité scientifique importante car elle est utilisée dans divers domaines (en Thermodynamique, en théorie de l'information, etc). Ainsi, en utilisant par exemple l'entropie de Rényi nous avons découvert de nouvelles classes de copules. Cette thèse apporte de nouvelles contributions à l'imagerie, par l'interaction entre les domaines qui sont la tomographie et la théorie des probabilités et statistiques.
34

Gribkova, Svetlana. "Contributions à l'inférence statistique en présence de censure multivariée". Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066178/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de cette thèse est d'explorer plusieurs approches pour l'étude des données censurées multivariées, à savoir l'estimation non paramétrique de la fonction de répartition jointe, la modélisation de dépendance par les modèles de copules et l'étude exploratoire par des méthodes de clustering. Le Chapitre 1 introduit le contexte général de cette thèse ainsi que ses contributions. Le Chapitre 2 est consacré à l'estimation de la distribution jointe des deux variables censurées dans le cadre d'un modèle de durée simplifié où la différence entre deux variables de censure est observée. Un nouvel estimateur non paramétrique de la fonction de répartition jointe y est introduit. La normalité asymptotique a été démontrée, pour les intégrales par rapport à la mesure définie par cet estimateur. Le Chapitre 3 est dédié à la problématique de l'estimation non paramétrique de la copule bivariée, à partir d'un échantillon de données censurées. La copule est d'abord estimée par une fonction discrète qui peut être interprétée comme une extension de la copule empirique en présence de censure, puis par ses versions lisses. Les propriétés asymptotiques et des applications de des estimateurs ont été considérées. Le Chapitre 4 présente une approche exploratoire pour l'étude de données censurées. Plus précisément, une configuration multivariée est considérée où une variable est une durée sujette à la censure, et toutes les autres variables sont observées. Sous ces conditions, une nouvelle méthode de quantification de la loi jointe est introduite. La méthode est étudiée théoriquement et appliquée à la construction d'un algorithme de clustering pour des observations censurées
The main purpose of this thesis is to explore several approaches for studying multivariate censored data: nonparametric estimation of the joint distribution function, modeling dependence with copulas and k-clustering for the exploratory analysis. Chapter 1 presents the general framework and the contributions of this thesis. Chapter 2 deals with the estimation of the joint distribution function of two censored variables in a simplified survival model in which the difference between two censoring variables is observed. We provide a new nonparametric estimator of the joint distribution function and we establish the asymptotic normality of the integrals with respect to its associated measure. Chapter 3 is devoted to nonparametric copula estimation under bivariate censoring. We provide a discrete and two smooth copula estimators along with two estimators of its density. The discrete estimator can be seen as an extension of the empirical copula under censoring. Chapter 4 provides a new exploratory approach for censored data analysis. We consider a multivariate configuration with one variable subjected to censoring and the others completely observed. We extend the probabilistic k-quantization method in the case of random vector with one censored component. The definitions of the empirical distortion and of empirically optimal quantizer are generalized in presence of one-dimensional censoring. We study the asymptotic properties of the distortion of the empirically optimal quantizer and we provide a non-asymptotic exponential bound for the rate of convergence. Our results are then applied to construct a new two-step clustering algorithm for censored data
35

Ben, Hadj Fredj Mejdi. "Les déterminants macro-économiques et financiers de l'efficience bancaire de pays émergents : cas de la Tunisie". Thesis, Tours, 2016. http://www.theses.fr/2016TOUR1005.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Notre objectif de ce travail est d’étudier l’efficience du marché financier tunisien avant et après la révolution de Jasmin de 2011 et de déterminer les facteurs macroéconomiques et financiers qui influencent le score d’efficience de ce marché. Notre méthodologie consiste à utiliser dans un premier temps le modèle GARCH multivarié pour estimer le coefficient de corrélation entre les rendements du marché et ceux des différentes banques et le coefficient Béta. Comme ce modèle suppose des résidus qui suivent la loi normale multivariée qui est une hypothèse non vérifiée dans la pratique, nous allons utiliser dans un deuxième temps la théorie des copules pour donner une plus grande souplesse dans la modélisation des données multivariées. Les facteurs les plus influents sont déterminés en utilisant le modèle de régression linéaire,le modèle de données de Panel et le modèle TOBIT. Les résultats empiriques montrent que le marché tunisien n’est pas efficient ni avant ni après la révolution. Beaucoup d’actions sont proposées pour améliorer le degré d’efficience de ce marché
Our objective of this work is to study the efficiency of the Tunisian financial market before and after the Jasmin revolution of 2011 and identify macro-economic and financial factors that influence the efficiency score of this market. Our methodology is to use at first multivariate GARCH model to estimate the correlation between market returns and those of individual banks and the Beta coefficient. As this model assumes the residues that follow the multivariate normal law is untested in practice, we used in a second step the copula theory to provide more flexibility in modeling multivariate data. The most influential factors are determined using the linear regression model, the panel data model and TOBIT model. The empirical results show that the Tunisian market is not efficient either before or after the revolution. Many actions are proposed to improve the degree of efficiency of this market
36

Le, Faou Yohann. "Contributions à la modélisation des données de durée en présence de censure : application à l'étude des résiliations de contrats d'assurance santé". Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS527.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous nous intéressons aux modèles de durée dans le contexte de la modélisation des durées de résiliation de contrats d’assurance santé. Identifié dès le 17ème siècle et les études de Graunt J. (1662) sur la mortalité, le biais induit par la censure des données de durée observées dans ce contexte doit être corrigé par les modèles statistiques utilisés. À travers la problématique de la mesure de la dépendance entre deux durées successives, et la problématique de la prédiction de la durée de résiliation d’un contrat d'assurance, nous étudions les propriétés théoriques et pratiques de différents estimateurs basés sur une méthode de pondération des observations (méthode dite IPCW) visant à corriger ce biais. L'application de ces méthodes à l'estimation de la valeur client en assurance est également détaillée
In this thesis, we study duration models in the context of the analysis of contract termination time in health insurance. Identified from the 17th century and the original work of Graunt J. (1662) on mortality, the bias induced by the censoring of duration data observed in this context must be corrected by the statistical models used. Through the problem of the measure of dependence between successives durations, and the problem of the prediction of contract termination time in insurance, we study the theoretical and practical properties of different estimators that rely on a proper weighting of the observations (the so called IPCW method) designed to compensate this bias. The application of these methods to customer value estimation is also carefully discussed
37

Faugeras, Olivier Paul. "Contributions à la prévision statistique". Paris 6, 2008. http://www.theses.fr/2008PA066436.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Ben, Abdallah Nadia. "Modeling sea-level rise uncertainties for coastal defence adaptation using belief functions". Thesis, Compiègne, 2014. http://www.theses.fr/2014COMP1616.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’adaptation côtière est un impératif pour faire face à l’élévation du niveau marin,conséquence directe du réchauffement climatique. Cependant, la mise en place d’actions et de stratégies est souvent entravée par la présence de diverses et importantes incertitudes lors de l’estimation des aléas et risques futurs. Ces incertitudes peuvent être dues à une connaissance limitée (de l’élévation du niveau marin futur par exemple) ou à la variabilité naturelle de certaines variables (les conditions de mer extrêmes). La prise en compte des incertitudes dans la chaîne d’évaluation des risques est essentielle pour une adaptation efficace.L’objectif de ce travail est de proposer une méthodologie pour la quantification des incertitudes basée sur les fonctions de croyance – un formalisme de l’incertain plus flexible que les probabilités. Les fonctions de croyance nous permettent de décrire plus fidèlement l’information incomplète fournie par des experts (quantiles,intervalles, etc.), et de combiner différentes sources d’information. L’information statistique peut quand à elle être décrite par de fonctions des croyance définies à partir de la fonction de vraisemblance. Pour la propagation d’incertitudes, nous exploitons l’équivalence mathématique entre fonctions de croyance et intervalles aléatoires, et procédons par échantillonnage Monte Carlo. La méthodologie est appliquée dans l’estimation des projections de la remontée du niveau marin global à la fin du siècle issues de la modélisation physique, d’élicitation d’avis d’experts, et de modèle semi-empirique. Ensuite, dans une étude de cas, nous évaluons l’impact du changement climatique sur les conditions de mers extrêmes et évaluons le renforcement nécessaire d’une structure afin de maintenir son niveau de performance fonctionnelle
Coastal adaptation is an imperative to deal with the elevation of the global sealevel caused by the ongoing global warming. However, when defining adaptationactions, coastal engineers encounter substantial uncertainties in the assessment of future hazards and risks. These uncertainties may stem from a limited knowledge (e.g., about the magnitude of the future sea-level rise) or from the natural variabilityof some quantities (e.g., extreme sea conditions). A proper consideration of these uncertainties is of principal concern for efficient design and adaptation.The objective of this work is to propose a methodology for uncertainty analysis based on the theory of belief functions – an uncertainty formalism that offers greater features to handle both aleatory and epistemic uncertainties than probabilities.In particular, it allows to represent more faithfully experts’ incomplete knowledge (quantiles, intervals, etc.) and to combine multi-sources evidence taking into account their dependences and reliabilities. Statistical evidence can be modeledby like lihood-based belief functions, which are simply the translation of some inference principles in evidential terms. By exploiting the mathematical equivalence between belief functions and random intervals, uncertainty can be propagated through models by Monte Carlo simulations. We use this method to quantify uncertainty in future projections of the elevation of the global sea level by 2100 and evaluate its impact on some coastal risk indicators used in coastal design. Sea-level rise projections are derived from physical modelling, expert elicitation, and historical sea-level measurements. Then, within a methodologically-oriented case study,we assess the impact of climate change on extreme sea conditions and evaluate there inforcement of a typical coastal defence asset so that its functional performance is maintained
39

Deschatre, Thomas. "Dependence modeling between continuous time stochastic processes : an application to electricity markets modeling and risk management". Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED034/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse traite de problèmes de dépendance entre processus stochastiques en temps continu. Ces résultats sont appliqués à la modélisation et à la gestion des risques des marchés de l'électricité.Dans une première partie, de nouvelles copules sont établies pour modéliser la dépendance entre deux mouvements Browniens et contrôler la distribution de leur différence. On montre que la classe des copules admissibles pour les Browniens contient des copules asymétriques. Avec ces copules, la fonction de survie de la différence des deux Browniens est plus élevée dans sa partie positive qu'avec une dépendance gaussienne. Les résultats sont appliqués à la modélisation jointe des prix de l'électricité et d'autres commodités énergétiques. Dans une seconde partie, nous considérons un processus stochastique observé de manière discrète et défini par la somme d'une semi-martingale continue et d'un processus de Poisson composé avec retour à la moyenne. Une procédure d'estimation pour le paramètre de retour à la moyenne est proposée lorsque celui-ci est élevé dans un cadre de statistique haute fréquence en horizon fini. Ces résultats sont utilisés pour la modélisation des pics dans les prix de l'électricité.Dans une troisième partie, on considère un processus de Poisson doublement stochastique dont l'intensité stochastique est une fonction d'une semi-martingale continue. Pour estimer cette fonction, un estimateur à polynômes locaux est utilisé et une méthode de sélection de la fenêtre est proposée menant à une inégalité oracle. Un test est proposé pour déterminer si la fonction d'intensité appartient à une certaine famille paramétrique. Grâce à ces résultats, on modélise la dépendance entre l'intensité des pics de prix de l'électricité et de facteurs exogènes tels que la production éolienne
In this thesis, we study some dependence modeling problems between continuous time stochastic processes. These results are applied to the modeling and risk management of electricity markets. In a first part, we propose new copulae to model the dependence between two Brownian motions and to control the distribution of their difference. We show that the class of admissible copulae for the Brownian motions contains asymmetric copulae. These copulae allow for the survival function of the difference between two Brownian motions to have higher value in the right tail than in the Gaussian copula case. Results are applied to the joint modeling of electricity and other energy commodity prices. In a second part, we consider a stochastic process which is a sum of a continuous semimartingale and a mean reverting compound Poisson process and which is discretely observed. An estimation procedure is proposed for the mean reversion parameter of the Poisson process in a high frequency framework with finite time horizon, assuming this parameter is large. Results are applied to the modeling of the spikes in electricity prices time series. In a third part, we consider a doubly stochastic Poisson process with stochastic intensity function of a continuous semimartingale. A local polynomial estimator is considered in order to infer the intensity function and a method is given to select the optimal bandwidth. An oracle inequality is derived. Furthermore, a test is proposed in order to determine if the intensity function belongs to some parametrical family. Using these results, we model the dependence between the intensity of electricity spikes and exogenous factors such as the wind production
40

Zheng, Ce. "Impulsive and dependent interference in IoT networks". Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I064.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le nombre de dispositifs dans l’Internet des objets (IoT) communiquant sans fil est en rapide augmentation et devrait continuer à croître dans les années à venir. Pour soutenir cette connectivité massive, un certain nombre de nouvelles technologies, collectivement connu sous le nom de Low Power Wide Area Network (LPWAN), ont été développées. Le nombre de transmission des objets dans les LPWANs est limitée par les contraintes de duty cycle qui fixe la proportion de temps d’occupation d’une ressource radio. Pour des réseaux sans fil coexistant dans une même zone géographique et utilisant les mêmes ressources fréquentielles, le nombre croissant d’appareils entraîne la présence fréquente de signaux non désirés par le récepteur et connus sous le nom d’interférences. Dans cette thèse, nous caractérisons les statistiques d’interférence dans des LPWANs, avec un accent particulier mis sur le NB-IoT et les approches émergentes telles que le Sparse Code Multiple Access (SCMA). Une telle caractérisation est essentielle pour améliorer le traitement du signal au niveau du récepteur afin d’atténuer l’impact de l’interférence. Plusieurs facteurs influent sur les propriétés statistiques de l’interférence : l’emplacement des dispositifs, l’atténuation des signaux, les protocoles d’accès à la ressource radio. De nombreux travaux récents développent des modèles d’interférence mais beaucoup se limitent à la puissance ce qui n’est pas suffisant pour la conception des récepteurs. Nous proposons dans cette thèse un modèle de l’amplitude (complexe) de l’interférence en le liant aux principaux paramètres du réseau. La première contribution est de réexaminer l’interférence dans une seule dimension (par exemple une sous-porteuse), un cas largement rencontré dans les solutions actuelles de l’IoT. Dans ce scénario, l’hypothèse de départ est de distribuer les dispositifs interférents selon un processus de Poisson homogène. Il est connu depuis longtemps que l’interférence résultante est bien approximée par un modèle α-stable, plutôt qu’un modèle gaussien. Ce modèle est étendu au cas complexe (sous-Gaussien) et confronté à des hypothèses plus réalistes, notamment la présence de zones de garde, un réseau de rayon fini et des processus non homogènes régissant l’emplacement des appareils. La deuxième contribution est l’étude, pour la première fois, des statistiques sur les interférences dans les réseaux IoT multi-porteuses, par exemple le NB-IoT ou le SCMA. Motivé par les résultats obtenus dans le cas d’une seule sous-porteuse, un modèle multivarié basé sur des marginales α-stable et des relations de dépendance modélisées par des copules est proposé. Ce modèle est vérifié par simulation et justifié par un nouvel algorithme d’estimation des paramètres qui se révèle très proche de l’optimal mais avec une très faible complexité. Dans la troisième partie, les modèles d’interférence sont utilisées pour améliorer la conception des récepteurs. Les récepteurs non linéaires améliorent de manière significative les performances des systèmes. Si l’on se limite à des récepteurs linéaires, il est possible d’obtenir le système optimal et le taux d’erreurs binaires. Les résultats illustrent également comment la charge du réseau et la quantité moyenne d’information que chaque noeud essaie de transmettre affecte les performances du récepteur
The number of devices in wireless Internet of Things (IoT) networks is now rapidly increasing and is expected to continue growing in the coming years. To support this massive connectivity, a number of new technologies, collectively known as Low Power Wide Area Network (LPWAN), have been developed. Many devices in LPWANs limit their transmissions by duty cycle constraints; i.e., the proportion of time allocated for transmission. For nearby wireless networks using the same time-frequency resources, the increasing number of devices leads to a high level of unintended signals, known as interference. In this thesis, we characterize the statistics of interference arising from LPWANs, with a focus on protocols related to Narrowband IoT (NB-IoT) and emerging approaches such as Sparse Code Multiple Access (SCMA). Such a characterization is critical to improve signal processing at the receiver in order to mitigate the interference. We approach the characterization of the interference statistics by exploiting a mathematical model of device locations, signal attenuation, and the access protocols of individual interfering devices. While there has been recent work developing empirical models for the interference statistics, this has been limited to studies of the interference power, which has limited utility in receiver design. The approach adopted in this thesis has the dual benefits of providing a model for the amplitude and phase statistics and while also yielding insights into the impact of key network parameters. The first contribution in this work is to revisit interference in a single subcarrier system, which is widely used in current implementations of IoT networks. A basic model in this scenario distributes interfering devices according to a homogeneous Poisson point process. It has been long known that the resulting interference is well approximated via an α-stable model, rather than a Gaussian model. In this work, the α-stable model is shown via theoretical and simulation results to be valid in a wider range of models, including the presence of guard zones, finite network radii, and non-Poisson point processes governing device locations. The second contribution in this thesis is the study, for the first time, of interference statistics in multi-carrier IoT networks, including those that exploit NB-IoT and SCMA. Motivated by the results in the single subcarrier setting, a multivariate model based on α-stable marginals and copula theory is developed. This model is verified by extensive simulations and further justified via a new, near-optimal, parameter estimation algorithm, which has very low complexity.The third part of this thesis applies the characterizations of the interference statistics to receiver design. A new design for nonlinear receivers is proposed that can significantly outperform the state-of-the-art in multicarrier IoT systems. When receivers are restricted to be linear, the optimal structure is identified and the bit error rate characterized. Numerical results also illustrate how the average quantity of data interfering devices are required to transmit affects the receiver performance
41

Iacopini, Matteo. "Essays on econometric modelling of temporal networks". Thesis, Paris 1, 2018. http://www.theses.fr/2018PA01E058/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La théorie des graphes a longtemps été étudiée en mathématiques et en probabilité en tant qu’outil pour décrire la dépendance entre les nœuds. Cependant, ce n’est que récemment qu’elle a été mise en œuvre sur des données, donnant naissance à l’analyse statistique des réseaux réels.La topologie des réseaux économiques et financiers est remarquablement complexe: elle n’est généralement pas observée, et elle nécessite ainsi des procédures inférentielles adéquates pour son estimation, d’ailleurs non seulement les nœuds, mais la structure de la dépendance elle-même évolue dans le temps. Des outils statistiques et économétriques pour modéliser la dynamique de changement de la structure du réseau font défaut, malgré leurs besoins croissants dans plusieurs domaines de recherche. En même temps, avec le début de l’ère des “Big data”, la taille des ensembles de données disponibles devient de plus en plus élevée et leur structure interne devient de plus en plus complexe, entravant les processus inférentiels traditionnels dans plusieurs cas. Cette thèse a pour but de contribuer à ce nouveau champ littéraire qui associe probabilités, économie, physique et sociologie en proposant de nouvelles méthodologies statistiques et économétriques pour l’étude de l’évolution temporelle des structures en réseau de moyenne et haute dimension
Graph theory has long been studied in mathematics and probability as a tool for describing dependence between nodes. However, only recently it has been implemented on data, giving birth to the statistical analysis of real networks.The topology of economic and financial networks is remarkably complex: it is generally unobserved, thus requiring adequate inferential procedures for it estimation, moreover not only the nodes, but the structure of dependence itself evolves over time. Statistical and econometric tools for modelling the dynamics of change of the network structure are lacking, despite their increasing requirement in several fields of research. At the same time, with the beginning of the era of “Big data” the size of available datasets is becoming increasingly high and their internal structure is growing in complexity, hampering traditional inferential processes in multiple cases.This thesis aims at contributing to this newborn field of literature which joins probability, economics, physics and sociology by proposing novel statistical and econometric methodologies for the study of the temporal evolution of network structures of medium-high dimension
42

Dubecq, Simon. "Stress-Test Exercises and the Pricing of Very Long-Term Bonds". Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00871760.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
In the first part of this thesis, we introduce a new methodology for stress-test exercises. Our approach allows to consider richer stress-test exercises, which assess the impact of a modification of the whole distribution of asset prices' factors, rather than focusing as the common practices on a single realization of these factors, and take into account the potential reaction to the shock of the portfolio manager. The second part of the thesis is devoted to the pricing of bonds with very long-term time-to-maturity (more than ten years). Modeling the volatility of very long-term rates is a challenge, due to the constraints put by no-arbitrage assumption. As a consequence, most of the no-arbitrage term structure models assume a constant limiting rate (of infinite maturity). The second chapter investigates the compatibility of the so-called "level" factor, whose variations have a uniform impact on the modeled yield curve, with the no-arbitrage assumptions. We introduce in the third chapter a new class of arbitrage-free term structure factor models, which allows the limiting rate to be stochastic, and present its empirical properties on a dataset of US T-Bonds.
43

Ajavon, Ayi. "Sur les prolongements de sous-copules". Thèse, 2015. http://hdl.handle.net/1866/11969.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’objet du travail est d’étudier les prolongements de sous-copules. Un cas important de l’utilisation de tels prolongements est l’estimation non paramétrique d’une copule par le lissage d’une sous-copule (la copule empirique). Lorsque l’estimateur obtenu est une copule, cet estimateur est un prolongement de la souscopule. La thèse présente au chapitre 2 la construction et la convergence uniforme d’un estimateur bona fide d’une copule ou d’une densité de copule. Cet estimateur est un prolongement de type copule empirique basé sur le lissage par le produit tensoriel de fonctions de répartition splines. Le chapitre 3 donne la caractérisation de l’ensemble des prolongements possibles d’une sous-copule. Ce sujet a été traité par le passé; mais les constructions proposées ne s’appliquent pas à la dépendance dans des espaces très généraux. Le chapitre 4 s’attèle à résoudre le problème suivant posé par [Carley, 2002]. Il s’agit de trouver la borne supérieure des prolongements en dimension 3 d’une sous-copule de domaine fini.
The extension of subcopulas is an important domain. One of possible applications is the nonparametric estimation of a copula: it consists of the smoothing of a subcopula (the empirical copula) while preserving the copulas properties. In Chapter 2, we present an extension of the empirical copula based on the tensor product of splines functions. Our estimators are bona fide estimators of the copula. Chapter 3 tackles the problem of finding all possible extensions of a given subcopula. This subject has been treated in the literature but these characterizations do not apply on very general spaces. Chapter 4 deals with the following problem: finding the expression of the upper bound of the extensions of a finite subcopula in dimension 3.
44

Pham, David. "Densités de copules archimédiennes hiérarchiques". Thèse, 2012. http://hdl.handle.net/1866/8529.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les copulas archimédiennes hiérarchiques ont récemment gagné en intérêt puisqu’elles généralisent la famille de copules archimédiennes, car elles introduisent une asymétrie partielle. Des algorithmes d’échantillonnages et des méthodes ont largement été développés pour de telles copules. Néanmoins, concernant l’estimation par maximum de vraisemblance et les tests d’adéquations, il est important d’avoir à disposition la densité de ces variables aléatoires. Ce travail remplie ce manque. Après une courte introduction aux copules et aux copules archimédiennes hiérarchiques, une équation générale sur les dérivées des noeuds et générateurs internes apparaissant dans la densité des copules archimédiennes hiérarchique. sera dérivée. Il en suit une formule tractable pour la densité des copules archimédiennes hiérarchiques. Des exemples incluant les familles archimédiennes usuelles ainsi que leur transformations sont présentés. De plus, une méthode numérique efficiente pour évaluer le logarithme des densités est présentée.
Nested Archimedean copulas recently gained interest since they generalize the well-known class of Archimedean copulas to allow for partial asymmetry. Sampling algorithms and strategies have been well investigated for nested Archimedean copulas. However, for likelihood based inference such as estimation or goodness-of-fit testing it is important to have the density. The present work fills this gap. After a short introduction on copula and nested Archimedean copulas, a general formula for the derivatives of the nodes and inner generators appearing in nested Archimedean copulas is developed. This leads to a tractable formula for the density of nested Archimedean copulas. Various examples including famous Archimedean families and transformations of such are given. Furthermore, a numerically efficient way to evaluate the log-density is presented.
45

Ndoye, Babacar. "Étude de la puissance de tests de symétrie radiale pour copules multidimensionnelles sous de la dépendance de type Fisher". Thèse, 2020. http://depot-e.uqtr.ca/id/eprint/9423/1/eprint9423.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
46

Simard, Clarence. "Modélisation du carnet d'ordres limites et prévision de séries temporelles". Thèse, 2014. http://hdl.handle.net/1866/11670.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
This thesis is structured as follows. After a first chapter of introduction, Chapter 2 exposes as simply as possible different notions that are going to be used in the two first papers. First, we discuss the main steps required to build stochastic integrals for semimartingales with space parameters. Secondly, we describe the main results of risk neutral evaluation theory and, finally, we give a short description of an optimization method known as duality. Chapters 3 and 4 consider the problem of modelling illiquidity, which is covered by two papers. The first one proposes a continuous time model for the structure and the dynamic of the limit order book. The dynamic of a portfolio for an investor using market orders is deduced and conditions to rule out arbitrage are given. With the help of Itô’s generalized formula, it is also possible to write the value of the portfolio as a stochastic differential equation. A complete example of market model along with a calibration method is also given. In the second paper, written in collaboration with Bruno Rémillard, we propose a similar model with discrete time trading. We study the problem of derivatives pricing and give explicit formulas for European option prices. Specific conditions to rule out arbitrage are also provided. Using the dual optimization method, we show that the price of European options can be written as the optimization of an expectation over a set of probability measures. Chapter 5 contained the third paper and studies a different topic. In this paper, also written with Bruno Rémillard, we propose a forecasting method for time series based on multivariate copulas. To provide a better understanding of the proposed method, with the help of numerical experiments, we study the effect of the strength and the structure of the different dependencies on predictions performance. Since copulas allow to isolate the dependence structure and marginal distributions, we study the impact of different marginal distributions on predictions performance. Finally, we also study the effect of estimation errors on the predictions. In all the cases, we compare the performance of predictions by using predictions based on a bivariate series and predictions based on a univariate series, which allows to illustrate the advantage of the proposed method. For practical matters, we provide a complete example of application on financial data.
47

Bouvier, Pierre. "Application des copules à la finance de marché". Thèse, 2010. http://www.archipel.uqam.ca/2765/1/D1897.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de la thèse est de montrer l'importance et l'utilité de la théorie mathématique que les copules apportent à la finance de marché. La motivation première de ces applications réside dans le fait que les comportements des rendements conjoints des marchés financiers s'éloignent de la normalité. Ainsi les méthodes statistiques traditionnelles, reposant sur cette hypothèse, ne peuvent pas être appliquées à la finance de marché. Dans cc document, avec l'aide des copules nous apportons un éclairage nouveau sur les comportements conjoints et des mesures de corrélations entre les marchés. Les copules sont des outils mathématiques puissants qui remédient aux lacunes laissées par les mesures traditionnelles de corrélations et de risque. Les copules reposent sur un cadre mathématique formel qui en permet l'application. Nous montrons aussi que les copules sont utilisées pour explorer la dépendance entre les rendements des actifs d'un portefeuille. Elles trouvent application à la valorisation de titres dont les valeurs marchandes dépendent de plusieurs actifs financiers, par exemple une option de type européen sur plusieurs actifs sous-jacents. Nous montrons aussi leurs utilités comme outils de mesure de diversification d'un portefeuille avec l'ajout de un ou plusieurs fonds de couverture. Finalement, nous exposons comment la théorie des copules vient en aide aux gestionnaires d'actifs d'une caisse de retraite dans le choix des titres et la composition d'un portefeuille. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Copules elliptiques, Copules archimédiennes, Copules hiérarchiques, Distributions marginales, Fonctions de dépendance, Chi-plots, Tau de Kendall, Rho de Pearson, Corrélations de rangs, Valorisation d'options-plusieurs sous-jacents, Fonds de couverture.
48

Groparu-Cojocaru, Ionica. "A class of bivariate Erlang distributions and ruin probabilities in multivariate risk models". Thèse, 2012. http://hdl.handle.net/1866/8947.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous y introduisons une nouvelle classe de distributions bivariées de type Marshall-Olkin, la distribution Erlang bivariée. La transformée de Laplace, les moments et les densités conditionnelles y sont obtenus. Les applications potentielles en assurance-vie et en finance sont prises en considération. Les estimateurs du maximum de vraisemblance des paramètres sont calculés par l'algorithme Espérance-Maximisation. Ensuite, notre projet de recherche est consacré à l'étude des processus de risque multivariés, qui peuvent être utiles dans l'étude des problèmes de la ruine des compagnies d'assurance avec des classes dépendantes. Nous appliquons les résultats de la théorie des processus de Markov déterministes par morceaux afin d'obtenir les martingales exponentielles, nécessaires pour établir des bornes supérieures calculables pour la probabilité de ruine, dont les expressions sont intraitables.
In this contribution, we introduce a new class of bivariate distributions of Marshall-Olkin type, called bivariate Erlang distributions. The Laplace transform, product moments and conditional densities are derived. Potential applications of bivariate Erlang distributions in life insurance and finance are considered. Further, our research project is devoted to the study of multivariate risk processes, which may be useful in analyzing ruin problems for insurance companies with a portfolio of dependent classes of business. We apply results from the theory of piecewise deterministic Markov processes in order to derive exponential martingales needed to establish computable upper bounds of the ruin probabilities, as their exact expressions are intractable.
49

Bélisle, Jessica. "Nouvelle loi exponentielle bidimensionnelle basée sur la méthode des chocs comonotones". Thèse, 2020. http://depot-e.uqtr.ca/id/eprint/9405/1/eprint9405.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Cissé, Mamadou Lamine. "De nouveaux estimateurs semi-paramétriques de l'indice de dépendance extrême de queue". Thèse, 2020. http://depot-e.uqtr.ca/id/eprint/9410/1/eprint9410.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Vai alla bibliografia