Littérature scientifique sur le sujet « Modélisation de la dépendance extrémale »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Modélisation de la dépendance extrémale ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Modélisation de la dépendance extrémale"

1

Esso, Loesse Jacques. « La dépendance démographique est-elle un obstacle à l’épargne et à la croissance en Côte d’Ivoire ? » Articles 85, no 4 (8 décembre 2010) : 361–82. http://dx.doi.org/10.7202/045069ar.

Texte intégral
Résumé :
Cette étude analyse empiriquement l’influence de la dépendance démographique sur l’épargne et la croissance en Côte d’Ivoire. En utilisant des données de la Banque mondiale (2008) et de la Banque africaine de développement (2008) sur la Côte d’Ivoire entre 1960 et 2007, nous montrons à partir d’une modélisation à correction d’erreur que la dépendance démographique influence négativement le taux d’épargne et le PIB à long terme. À court terme, les variations du ratio de dépendance démographique influencent négativement les variations du taux d’épargne et le taux de croissance du PIB réel. Cependant, les tests de causalité montrent que la dépendance démographique ne cause ni l’épargne ni la croissance économique de la Côte d’Ivoire.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Nicolet, Gilles, Nicolas Eckert, Samuel Morin et Juliette Blanchet. « Inférence et modélisation de la dépendance spatiale des extrêmes neigeux dans les Alpes françaises par processus max-stables ». La Houille Blanche, no 5-6 (décembre 2019) : 150–58. http://dx.doi.org/10.1051/lhb/2019047.

Texte intégral
Résumé :
La gestion des risques dans les régions montagneuses nécessite une caractérisation des extrêmes neigeux. Nous utilisons le cadre des processus max-stables, qui relient statistique des valeurs extrêmes et géostatistique, pour étudier la dépendance spatiale des maxima hivernaux de chutes de neige cumulées sur 3 jours et de hauteurs de neige dans les Alpes françaises. Deux questions sont abordées : la sélection de modèle et la non-stationnarité temporelle. Nous commençons par introduire une procédure de validation-croisée que nous utilisons pour évaluer les capacités de plusieurs processus max-stables à capturer la structure de dépendance spatiale des maxima de chutes de neige. Ensuite, nous mettons en évidence une baisse de la dépendance spatiale des chutes de neige extrêmes durant ces dernières décennies. Enfin, nous montrons comment modéliser des tendances temporelles dans une structure de dépendance spatiale des extrêmes à travers l'exemple des maxima de hauteurs de neige. Pour les extrêmes de chutes comme de hauteurs de neige, la dépendance spatiale est fortement impactée par le changement climatique, premièrement par l'effet de la hausse de la température sur la phase (neige ou pluie) de la précipitation, et ensuite par la baisse du cumul hivernal des chutes de neige.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Andrieux, P., M. Voltz et A. Durbec. « Fonctionnement hydrologique d'un interfluve sédimentaire de la plaine côtière ancienne de Guyane Française ». Revue des sciences de l'eau 9, no 1 (12 avril 2005) : 51–74. http://dx.doi.org/10.7202/705242ar.

Texte intégral
Résumé :
Le fonctionnement hydrologique de la plaine côtière ancienne de Guyane française constitue une des contraintes majeures à sa mise en valeur agricole, du fait de l'existence de périodes d'excès d'eau prolongées. L'objectif de cet article est d'analyser, sur un interfluve caractéristique de la plaine côtière ancienne, la forme et la dynamique de la nappe et ses sources d'alimentation en relation avec la variabilité des propriétés physiques des sols. Sur le plan expérimental, le travail est conduit à partir d'un suivi hydrologique in situ des fluctuations de la nappe observées sur 21 stations et d'une caractérisation de la variabilité spatiale de la conductivité hydraulique des sols par la méthode du trou de tarière à charge variable. Sur le plan de la modélisation, l'identification de la répartition spatiale de la recharge sur l'interfluve est déterminée par une modélisation inverse. Les suivis montrent d'une part la rapidité de réponse de la nappe aux pluies et d'autre part des temps de présence de la nappe en surface variables selon les sols. La modélisation conforte l'hypothèse d'isolement hydraulique de l'interfluve. La dynamique de la nappe est directement reliée aux entrées pluviométriques et dans une moindre mesure aux sols. La variabilité spatiale de la recharge est par ailleurs sous la dépendance de la topographie et de l'hétérogénéité spatiale de la conductivité hydraulique. Enfin, une estimation du ruissellement de surface souligne son importance sur l'interfluve. Les résultats obtenus montrent que l'engorgement des sols de la plaine côtière est sous la dépendance directe des processus hydrologiques observés à l'échelle de chaque interfluve. La prédiction des zones à excès d'eau marqué et des zones où la recharge est homogène peut être envisagée à partir de la connaissance de la topographie et de la distribution des sols. Sur le plan agronomique et pour les sols à forte contrainte hydrique, la mise en place de systèmes de drainage permettant leur mise en valeur agricole est à considérer.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Lardic, Sandrine, et Valérie Mignon. « Essai de mesure du «degré» de mémoire longue des séries. L’exemple de la modélisation ARFIMA ». Économie appliquée 50, no 2 (1997) : 161–95. http://dx.doi.org/10.3406/ecoap.1997.1635.

Texte intégral
Résumé :
L’objet de cet article est d’étudier les modalités de détection et de mesure de la mémoire longue en économie. D’un point de vue économique, on retrouve dans nombre d’analyses théoriques comme empiriques des inerties, des délais d’ajustement, des rigidités témoignant de l’intérêt de la quantification de la structure de dépendance des séries. Les modèles fractionnairement intégrés sont des inventions statistiques visant à être de bonnes approximations de cette persistance. A cet égard, nous proposons d’appliquer les méthodes d’estimation les plus puissantes (méthode de Geweke et Porter-Hudak et du maximum de vraisemblance exact) des processus ARFIMA sur diverses séries macro-économiques et financières.
Styles APA, Harvard, Vancouver, ISO, etc.
5

El Adlouni, Salaheddine, et Taha B. M. J. Ouarda. « Étude de la loi conjointe débit-niveau par les copules : Cas de la rivière Châteauguay ». Canadian Journal of Civil Engineering 35, no 10 (octobre 2008) : 1128–37. http://dx.doi.org/10.1139/l08-054.

Texte intégral
Résumé :
Plusieurs catastrophes naturelles sont le résultat de l’occurrence simultanée de deux ou plusieurs événements extrêmes. L’évaluation du risque d’apparition de ces catastrophes repose sur une bonne estimation de la probabilité conjointe de ces événements. Le présent travail étudie l’effet combiné des débits extrêmes à l’embouchure de la rivière Châteauguay avec le niveau au Lac Saint-Louis. La modélisation de la loi conjointe de ces deux variables est basée sur la notion de copule qui permet de séparer le choix des lois marginales de la structure de dépendance. Les résultats montrent que le fait d’ignorer l’effet combiné du débit de la rivière ou du niveau du lac, conduit à une sous-estimation des événements extrêmes.
Styles APA, Harvard, Vancouver, ISO, etc.
6

GARGOURI-ELLOUZE, EMNA, et ASSIA CHEBCHOUB. « Modélisation de la structure de dépendance hauteur—durée d'événements pluvieux par la copule de Gumbel ». Hydrological Sciences Journal 53, no 4 (août 2008) : 802–17. http://dx.doi.org/10.1623/hysj.53.4.802.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Hoarau, Jean-François. « L’évolution de la fréquentation touristique de La Réunion au regard de la détection de ruptures structurelles ». Revue française d'économie Vol. XXXVIII, no 3 (5 février 2024) : 155–96. http://dx.doi.org/10.3917/rfe.233.0155.

Texte intégral
Résumé :
L’objectif de cet article est de faire un état des lieux sur l’évolution de l’attractivité de l’économie réunionnaise en matière de tourisme international. Pour ce faire, nous nous appuyons sur l’observation et la modélisation économétrique en séries temporelles pour détecter des régimes de croissance potentiels dans la dynamique des entrées touristiques internationales de La Réunion sur la période 1981-2019. Nos résultats montrent que la destination ultramarine française est bloquée depuis le début des années 2000 dans un régime structurel de stagnation, trouvant de multiples explications à la fois exogènes et relevant de défaillances en termes de politiques économiques. Finalement, une stratégie de développement reposant sur une dépendance forte au tourisme international est trop risquée pour constituer un modèle soutenable à moyen et long terme pour ce territoire.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Alhaj Hussen, Kutaiba, Emna Chabaane et Bruno Canque. « Organisation bipartite de la lymphopoïèse humaine ». médecine/sciences 34, no 8-9 (août 2018) : 665–70. http://dx.doi.org/10.1051/medsci/20183408012.

Texte intégral
Résumé :
L’étude de l’hématopoïèse humaine a longtemps été limitée par l’accès aux prélèvements primaires de moelle osseuse. Afin de s’affranchir de cette contrainte, une approche originale de modélisation chez la souris immunodéficiente a été développée dans notre laboratoire. L’analyse de l’ensemble des populations cellulaires humaines générées dans la moelle osseuse des animaux greffés a permis d’établir une nouvelle cartographie de l’hématopoïèse humaine. Nous montrons que, contrairement aux prédictions du modèle canonique de l’hématopoïèse, la lymphopoïèse humaine présente une organisation bipartite, articulée autour de l’existence de deux familles de progéniteurs lymphoïdes identifiées par l’expression différentielle du récepteur de l’interleukine 7 (CD127). Outre leurs différences phénotypiques, les progéniteurs lymphoïdes CD127- et CD127+ se distinguent par leurs capacités de différenciation, leur dépendance vis-à-vis de facteurs de croissance, leurs modalités de restriction de potentiel, ainsi que par leurs signatures transcriptionnelles.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Fabiani, Jean-Louis. « Pour en finir avec la réalité unilinéaire : Le parcours méthodologique de Andrew Abbott ». Annales. Histoire, Sciences Sociales 58, no 3 (juin 2003) : 547–65. http://dx.doi.org/10.1017/s0395264900004777.

Texte intégral
Résumé :
RésuméLa lecture des travaux récents de Andrew Abbott, particulièrement l’ouvrage Time Matters (2001), permet de s’interroger sur l’état et la prospective de la méthodologie en sciences sociales :à la « routinisation » constatée de l’analyse de causalité, fondée sur l’examen des relations de dépendance entre variables et porteuse d’illusions sur les modes de structuration du social, le sociologue de Chicago oppose des méthodologies susceptibles de conserver dans l’analyse la dimension contextuelle, à la fois spatiale et temporelle, des unités prélevées sur le cours historique du monde. En fondant le travail sur la recherche de séquences, on ne traite plus les faits sociaux comme des choses mais comme des procès. On peut alors s’interroger sur la possibilité d’une modélisation qui respecterait toutes les spécificités de la nature interprétative des sciences historiques :pour l’instant, cette question relève plus de la prospective que de l’expérimentation.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Arnaud, P., J. Lavabre et J. M. Masson. « Amélioration des performances d'un modèle stochastique de génération de hyétogrammes horaires : application au pourtour méditerranéen français ». Revue des sciences de l'eau 12, no 2 (12 avril 2005) : 251–71. http://dx.doi.org/10.7202/705351ar.

Texte intégral
Résumé :
Depuis quelques années, un modèle stochastique de génération de hyétogrammes horaires est développé au groupement d'Aix-en-Provence du Cemagref, pour être couplé à une modélisation de la pluie en débit, fournissant ainsi une multitude de scénarios de crues analysés statistiquement et utilisés en prédétermination des débits de crues. L'extension de la zone d'application du modèle de pluies horaires au-delà de sa zone de conception, a fait apparaître une hétérogénéité dans les résultats. Ce constat a entraîné certaines modifications du modèle comme : la recherche d'une loi de probabilité théorique peu sensible aux problèmes d'échantillonnage pour une variable du modèle (intensité d'une averse), la prise en compte originale de la dépendance observée entre deux variables du modèle (durée et intensité d'une averse), et la modélisation de la persistance des averses au sein d'une même période pluvieuse. Ces différentes modifications apportées au modèle initial ont entraîné une très nette amélioration de ses performances sur la cinquantaine de postes pluviographiques du pourtour méditerranéen français. On obtient ainsi un outil beaucoup plus robuste et validé sur une zone étendue, capable de fournir de multiples formes de hyétogrammes, couvrant toute la gamme des fréquences, permettant ainsi de s'affranchir des pluies de projet uniques. On aborde aussi une nouvelle approche du comportement à l'infini des distributions de fréquences des pluies qui semble parfois supérieur à une tendance strictement exponentielle. De plus, l'étude de plusieurs événements par an dont chacun présente plusieurs réalisations des différentes variables du modèle augmente la taille des échantillons analysés, semblant rendre la méthode plus rapidement fiable qu'une approche statistique classique basée par exemple sur l'ajustement de valeurs maximales annuelles.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Modélisation de la dépendance extrémale"

1

Boulin, Alexis. « Partitionnement des variables de séries temporelles multivariées selon la dépendance de leurs extrêmes ». Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ5039.

Texte intégral
Résumé :
Dans un grand éventail d'applications allant des sciences du climat à la finance, des événements extrêmes avec une probabilité loin d'être négligeable peuvent se produire, entraînant des conséquences désastreuses. Les extrêmes d'évènements climatiques tels que le vent, la température et les précipitations peuvent profondément affecter les êtres humains et les écosystèmes, entraînant des événements tels que des inondations, des glissements de terrain ou des vagues de chaleur. Lorsque l'emphase est mise sur l'étude de variables mesurées dans le temps sur un grand nombre de stations ayant une localisation spécifique, comme les variables mentionnées précédemment, le partitionnement de variables devient essentiel pour résumer et visualiser des tendances spatiales, ce qui est crucial dans l'étude des événements extrêmes. Cette thèse explore plusieurs modèles et méthodes pour partitionner les variables d'un processus stationnaire multivarié, en se concentrant sur les dépendances extrémales.Le chapitre 1 présente les concepts de modélisation de la dépendance via les copules, fondamentales pour la dépendance extrême. La notion de variation régulière est introduite, essentielle pour l'étude des extrêmes, et les processus faiblement dépendants sont abordés. Le partitionnement est discuté à travers les paradigmes de séparation-proximité et de partitionnement basé sur un modèle. Nous abordons aussi l'analyse non-asymptotique pour évaluer nos méthodes dans des dimensions fixes.Le chapitre 2 est à propos de la dépendance entre valeurs maximales est cruciale pour l'analyse des risques. Utilisant la fonction de copule de valeur extrême et le madogramme, ce chapitre se concentre sur l'estimation non paramétrique avec des données manquantes. Un théorème central limite fonctionnel est établi, démontrant la convergence du madogramme vers un processus Gaussien tendu. Des formules pour la variance asymptotique sont présentées, illustrées par une étude numérique.Le chapitre 3 propose les modèles asymptotiquement indépendants par blocs (AI-blocs) pour le partitionnement de variables, définissant des clusters basés sur l'indépendance des maxima. Un algorithme est introduit pour récupérer les clusters sans spécifier leur nombre à l'avance. L'efficacité théorique de l'algorithme est démontrée, et une méthode de sélection de paramètre basée sur les données est proposée. La méthode est appliquée à des données de neurosciences et environnementales, démontrant son potentiel.Le chapitre 4 adapte des techniques de partitionnement pour analyser des événements extrêmes composites sur des données climatiques européennes. Les sous-régions présentant une dépendance des extrêmes de précipitations et de vitesse du vent sont identifiées en utilisant des données ERA5 de 1979 à 2022. Les clusters obtenus sont spatialement concentrés, offrant une compréhension approfondie de la distribution régionale des extrêmes. Les méthodes proposées réduisent efficacement la taille des données tout en extrayant des informations cruciales sur les événements extrêmes.Le chapitre 5 propose une nouvelle méthode d'estimation pour les matrices dans un modèle linéaire à facteurs latents, où chaque composante d'un vecteur aléatoire est exprimée par une équation linéaire avec des facteurs et du bruit. Contrairement aux approches classiques basées sur la normalité conjointe, nous supposons que les facteurs sont distribués selon des distributions de Fréchet standards, ce qui permet une meilleure description de la dépendance extrémale. Une méthode d'estimation est proposée garantissant une solution unique sous certaines conditions. Une borne supérieure adaptative pour l'estimateur est fournie, adaptable à la dimension et au nombre de facteurs
In a wide range of applications, from climate science to finance, extreme events with a non-negligible probability can occur, leading to disastrous consequences. Extremes in climatic events such as wind, temperature, and precipitation can profoundly impact humans and ecosystems, resulting in events like floods, landslides, or heatwaves. When the focus is on studying variables measured over time at numerous specific locations, such as the previously mentioned variables, partitioning these variables becomes essential to summarize and visualize spatial trends, which is crucial in the study of extreme events. This thesis explores several models and methods for partitioning the variables of a multivariate stationary process, focusing on extreme dependencies.Chapter 1 introduces the concepts of modeling dependence through copulas, which are fundamental for extreme dependence. The notion of regular variation, essential for studying extremes, is introduced, and weakly dependent processes are discussed. Partitioning is examined through the paradigms of separation-proximity and model-based clustering. Non-asymptotic analysis is also addressed to evaluate our methods in fixed dimensions.Chapter 2 study the dependence between maximum values is crucial for risk analysis. Using the extreme value copula function and the madogram, this chapter focuses on non-parametric estimation with missing data. A functional central limit theorem is established, demonstrating the convergence of the madogram to a tight Gaussian process. Formulas for asymptotic variance are presented, illustrated by a numerical study.Chapter 3 proposes asymptotically independent block (AI-block) models for partitioning variables, defining clusters based on the independence of maxima. An algorithm is introduced to recover clusters without specifying their number in advance. Theoretical efficiency of the algorithm is demonstrated, and a data-driven parameter selection method is proposed. The method is applied to neuroscience and environmental data, showcasing its potential.Chapter 4 adapts partitioning techniques to analyze composite extreme events in European climate data. Sub-regions with dependencies in extreme precipitation and wind speed are identified using ERA5 data from 1979 to 2022. The obtained clusters are spatially concentrated, offering a deep understanding of the regional distribution of extremes. The proposed methods efficiently reduce data size while extracting critical information on extreme events.Chapter 5 proposes a new estimation method for matrices in a latent factor linear model, where each component of a random vector is expressed by a linear equation with factors and noise. Unlike classical approaches based on joint normality, we assume factors are distributed according to standard Fréchet distributions, allowing a better description of extreme dependence. An estimation method is proposed, ensuring a unique solution under certain conditions. An adaptive upper bound for the estimator is provided, adaptable to dimension and the number of factors
Styles APA, Harvard, Vancouver, ISO, etc.
2

Kacem, Manel. « Processus de risque : modélisation de la dépendance et évaluation du risque sous des contraintes de convexité ». Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10051/document.

Texte intégral
Résumé :
Ce travail de thèse porte principalement sur deux problématiques différentes mais qui ont pour point commun, la contribution à la modélisation et à la gestion du risque en actuariat. Dans le premier thème de recherche abordé dans cette thèse, on s'intéresse à la modélisation de la dépendance en assurance et en particulier, on propose une extension des modèles à facteurs communs qui sont utilisés en assurance. Dans le deuxième thème de recherche, on considère les distributions discrètes décroissantes et on s'intéresse à l'étude de l'effet de l'ajout de la contrainte de convexité sur les extrema convexes. Des applications en liaison avec la théorie de la ruine motivent notre intérêt pour ce sujet. Dans la première partie de la thèse, on considère un modèle de risque en temps discret dans lequel les variables aléatoires sont dépendantes mais conditionnellement indépendantes par rapport à un facteur commun. Dans ce cadre de dépendance on introduit un nouveau concept pour la modélisation de la dépendance temporelle entre les risques d'un portefeuille d'assurance. En effet, notre modélisation inclut des processus de mémoire non bornée. Plus précisément, le conditionnement se fait par rapport à un vecteur aléatoire de longueur variable au cours du temps. Sous des conditions de mélange du facteur et d'une structure de mélange conditionnel, nous avons obtenu des propriétés de mélanges pour les processus non conditionnels. Avec ces résultats on peut obtenir des propriétés asymptotiques intéressantes. On note que dans notre étude asymptotique c'est plutôt le temps qui tend vers l'infini que le nombre de risques. On donne des résultats asymptotiques pour le processus agrégé, ce qui permet de donner une approximation du risque d'une compagnie d'assurance lorsque le temps tend vers l'infini. La deuxième partie de la thèse porte sur l'effet de la contrainte de convexité sur les extrema convexes dans la classe des distributions discrètes dont les fonctions de masse de probabilité (f.m.p.) sont décroissantes sur un support fini. Les extrema convexes dans cette classe de distributions sont bien connus. Notre but est de souligner comment les contraintes de forme supplémentaires de type convexité modifient ces extrema. Deux cas sont considérés : la f.m.p. est globalement convexe sur N et la f.m.p. est convexe seulement à partir d'un point positif donné. Les extrema convexes correspondants sont calculés en utilisant de simples propriétés de croisement entre deux distributions. Plusieurs illustrations en théorie de la ruine sont présentées
In this thesis we focus on two different problems which have as common point the contribution to the modeling and to the risk management in insurance. In the first research theme, we are interested by the modeling of the dependence in insurance. In particular we propose an extension to model with common factor. In the second research theme we consider the class of nonincreasing discrete distributions and we are interested in studying the effect of additional constraint of convexity on the convex extrema. Some applications in ruin theory motivate our interest to this subject. The first part of this thesis is concerned with factor models for the modeling of the dependency in insurance. An interesting property of these models is that the random variables are conditionally independent with respect to a factor. We propose a new model in which the conditioning is with respect to the entire memory of the factor. In this case we give some mixing properties of risk process under conditions related to the mixing properties of the factor process and to the conditional mixing risk process. The law of the sum of random variables has a great interest in actuarial science. Therefore we give some conditions under which the law of the aggregated process converges to a normal distribution. In the second part of the thesis we consider the class of discrete distributions whose probability mass functions (p.m.f.) are nonincreasing on a finite support. Convex extrema in that class of distributions are well-known. Our purpose is to point out how additional shape constraints of convexity type modify these extrema. Two cases are considered : the p.m.f. is globally convex on N or it is convex only from a given positive point. The corresponding convex extrema are derived by using a simple crossing property between two distributions. Several applications to some ruin problems are presented for illustration
Styles APA, Harvard, Vancouver, ISO, etc.
3

Ben, Ghorbal Noomen. « Étude de certaines mesures d'association multivariées et d'un test de dépendance extrémale fondés sur les rangs ». Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27602/27602.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Chatelain, Simon. « Modélisation de la dépendance entre pré-extrêmes ». Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1267.

Texte intégral
Résumé :
Le comportement extrême joint entre variables aléatoires revêt un intérêt particulier dans de nombreuses applications des sciences de l’environnement, de la finance, de l’assurance ou encore de la gestion du risque. Par exemple, ce comportement joue un rôle central dans l’évaluation des risques de catastrophes naturelles. Une erreur de spécification de la dépendance entre des variables aléatoires peut engendrer une sous-estimation dangereuse du risque, en particulier au niveau extrême. Le premier objectif de cette thèse est de développer des techniques d’inférence pour les copules Archimax. Ces modèles de dépendance peuvent capturer tout type de dépendance asymptotique entre les extrêmes et, de manière simultanée, modéliser les risques joints au niveau moyen. Une copule Archimax est caractérisée par ses deux paramètres fonctionnels, la fonction de dépendance caudale stable et le générateur Archimédien qui agit comme une distorsion affectant le régime de dépendance extrême. Des conditions sont dérivées afin que le générateur et la fonction caudale soient identifiables, de sorte qu’une approche d’inférence semi-paramétrique puisse être développée. Deux estimateurs non paramétriques de la fonction caudale et un estimateur du générateur basé sur les moments, supposant que ce dernier appartient à une famille paramétrique, sont avancés. Le comportement asymptotique de ces estimateurs est ensuite établi sous des hypothèses de régularité non restrictives et la performance en échantillon fini est évaluée par le biais d’une étude de simulation. Une construction hiérarchique (ou en “clusters”) qui généralise les copules Archimax est proposée afin d’apporter davantage de flexibilité, la rendant plus adaptée aux applications pratiques. Le comportement extrême de ce nouveau modèle de dépendance est ensuite étudié, ce qui engendre un nouvelle manière de construire des fonctions de dépendance caudale stable. La copule Archimax est ensuite utilisée pour analyser les maxima mensuels de précipitations, observées à trois stations météorologiques en Bretagne. Le modèle semble très bien ajusté aux données, aussi bien aux précipitations faibles qu’aux précipitationsfortes. L’estimateur non paramétrique de la fonction caudale révèle une dépendance extrême asymétrique entre les stations, ce qui reflète le déplacement des orages dans la région. Une application du modèle Archimax hiérarchique à un jeu de données de précipitations contenant 155 stations est ensuite présentée, dans laquelle des groupes de stations asymptotiquement dépendantes sont déterminés via un algorithme de “clustering” spécifiquement adapté au modèle. Enfin, de possibles méthodes pour modéliser la dépendance inter-cluster sont évoquées
In various applications in environmental sciences, finance, insurance or risk management, joint extremal behavior between random variables is of particular interest. For example, this plays a central role in assessing risks of natural disasters. Misspecification of the dependence between random variables can lead to substantial underestimation of risk, especially at extreme levels. This thesis develops inference techniques for Archimax copulas. These copula models can account for any type of asymptotic dependence between extremes and at the same time capture joint risks at medium levels. An Archimax copula is characterized by two functional parameters, the stable tail dependence function (stdf), and the Archimedean generator which acts as a distortion of the extreme-value dependence model. Conditions under which the generator and the stdf are identifiable are derived so that a semiparametric approach for inference can be developed. Two nonparametric estimators of the stdf and a moment-based estimator of the generator, which assumes that the latter belongs to a parametric family, are proposed. The asymptotic behavior of the estimators is then established under broad regularity conditions; performance in small samples is assessed through a comprehensive simulation study. In the second part of the thesis, Archimax copulas are generalized to a clustered constructions in order to bring in more flexibility, which is needed in practical applications. The extremal behavior of this new dependence model is derived herein. Finally, the methodology proposed herein is illustrated on precipitation data. First, a trivariate Archimax copula is used to analyze monthly rainfall maxima at three stations in French Brittany. The model is seen to fit the data very well, both in the lower and in the upper tail. The nonparametric estimator of the stdf reveals asymmetric extremal dependence between the stations, which reflects heavy precipitation patterns in the area. An application of the clustered Archimax model to a precipitation dataset containing 155 stations is then presented, where groups of asymptotically dependent stations are determined via a specifically tailored clustering algorithm. Finally, possible ways to model inter cluster dependence are discussed
Styles APA, Harvard, Vancouver, ISO, etc.
5

Lebrun, Régis. « Contributions à la modélisation de la dépendance stochastique ». Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-00913510.

Texte intégral
Résumé :
Dans cette thèse, nous étudions la modélisation de la dépendance stochastique entre composantes d'un vecteur aléatoire sous l'angle des copules. La première partie des travaux consiste en une exploration numérique des notions de copule et de mesure de dépendance stochastique dans le contexte de la modélisation des incertitudes en simulation numérique. La seconde partie des travaux porte sur l'étude des transformations de Nataf et de Rosenblatt. Nous montrons que la transformation de Nataf consiste à supposer que le vecteur aléatoire est muni d'une copule Gaussienne. Nous généralisons cette transformation à une distribution absolument continue à copule elliptique quelconque. Nous montrons également l'équivalence entre les transformations de Nataf et de Rosenblatt dans le cas d'une copule Gaussienne. La troisième partie étudie la notion de dépendance stochastique sous contrainte. Nous caractérisons les lois jointes de statistiques d'ordre continues en termes de lois marginales et de copules, et nous proposons une nouvelle famille de copules adaptée à cette modélisation. Nous caractérisons l'existence et l'unicité d'un élément maximal dans cette famille. La quatrième partie s'intéresse aux lois multivariées discrètes, pour lesquelles la notion de copule n'est plus en bijection avec celle de fonction de répartition jointe. Nous établissons un algorithme innovant pour le calcul de probabilités rectangulaires pour une large classe de tels modèles, surclassant les meilleurs algorithmes disponibles tant en termes de précision numérique que de temps de calcul et d'occupation mémoire.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Di, Bernardino Éléna. « Modélisation de la dépendance et mesures de risque multidimensionnelles ». Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00838598.

Texte intégral
Résumé :
Cette thèse a pour but le développement de certains aspects de la modélisation de la dépendance dans la gestion des risques en dimension plus grande que un. Le premier chapitre est constitué d'une introduction générale. Le deuxième chapitre est constitué d'un article s'intitulant " Estimating Bivariate Tail : a copula based approach ", soumis pour publication. Il concerne la construction d'un estimateur de la queue d'une distribution bivariée. La construction de cet estimateur se fonde sur une méthode de dépassement de seuil (Peaks Over Threshold method) et donc sur une version bivariée du Théorème de Pickands-Balkema-de Haan. La modélisation de la dépendance est obtenue via la Upper Tail Dependence Copula. Nous démontrons des propriétés de convergence pour l'estimateur ainsi construit. Le troisième chapitre repose sur un article: " A multivariate extension of Value-at-Risk and Conditional-Tail-Expectation", soumis pour publication. Nous abordons le problème de l'extension de mesures de risque classiques, comme la Value-at-Risk et la Conditional-Tail-Expectation, dans un cadre multidimensionnel en utilisant la fonction de Kendall multivariée. Enfin, dans le quatrième chapitre de la thèse, nous proposons un estimateur des courbes de niveau d'une fonction de répartition bivariée avec une méthode plug-in. Nous démontrons des propriétés de convergence pour les estimateurs ainsi construits. Ce chapitre de la thèse est lui aussi constitué d'un article, s'intitulant " Plug-in estimation of level sets in a non-compact setting with applications in multivariate risk theory", accepté pour publication dans la revue ESAIM:Probability and Statistics.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Cuberos, Andres. « Modélisation de la dépendance et estimation du risque agrégé ». Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10321/document.

Texte intégral
Résumé :
Cette thèse porte sur l'étude de la modélisation et estimation de la dépendance des portefeuilles de risques et l'estimation du risque agrégé. Dans le Chapitre 2, nous proposons une nouvelle méthode pour estimer les quantiles de haut niveau pour une somme de risques. Elle est basée sur l'estimation du rapport entre la VaR de la somme et la VaR du maximum des risques. Nous utilisons des résultats sur les fonctions à variation régulière. Nous comparons l'efficacité de notre méthode avec quelques estimations basées sur la théorie des valeurs extrêmes, sur plusieurs modèles. Notre méthode donne de bons résultats lors de l'approximation de la VaR à des niveaux élevés lorsque les risques sont fortement dépendants et au moins l'un des risques est à queue épaisse. Dans le Chapitre 3, nous proposons une procédure d'estimation pour la distribution d'un risque agrégé basée sur la copule échiquier. Elle permet d'obtenir de bonnes estimations à partir d'un petit échantillon de la loi multivariée et une connaissance complète des lois marginales. Cette situation est réaliste pour de nombreuses applications. Les estimations peuvent être améliorées en incluant dans la copule échiquier des informations supplémentaires (sur la loi d'un sous-vecteur ou sur des probabilités extrêmes). Notre approche est illustrée par des exemples numériques. Finalement, dans le Chapitre 4, nous proposons un estimateur de la mesure spectrale basé sur l'estimation à noyau de la densité de la mesure spectrale d'une distribution à variation régulière bivariée. Une extension de notre méthode permet d'estimer la mesure spectrale discrète. Certaines propriétés de convergence sont obtenues
This thesis comprises three essays on estimation methods for the dependence between risks and its aggregation. In the first essay we propose a new method to estimate high level quantiles of sums of risks. It is based on the estimation of the ratio between the VaR (or TVaR) of the sum and the VaR (or TVaR) of the maximum of the risks. We use results on regularly varying functions. We compare the efficiency of our method with classical ones, on several models. Our method gives good results when approximating the VaR or TVaR in high levels on strongly dependent risks where at least one of the risks is heavy tailed. In the second essay we propose an estimation procedure for the distribution of an aggregated risk based on the checkerboard copula. It allows to get good estimations from a (quite) small sample of the multivariate law and a full knowledge of the marginal laws. This situation is realistic for many applications. Estimations may be improved by including in the checkerboard copula some additional information (on the law of a sub-vector or on extreme probabilities). Our approach is illustrated by numerical examples. In the third essay we propose a kernel based estimator for the spectral measure density of a bivariate distribution with regular variation. An extension of our method allows to estimate discrete spectral measures. Some convergence properties are obtained
Styles APA, Harvard, Vancouver, ISO, etc.
8

Sbai, Mohamed. « Modélisation de la dépendance et simulation de processus en finance ». Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00451008.

Texte intégral
Résumé :
La première partie de cette thèse est consacrée aux méthodes numériques pour la simulation de processus aléatoires définis par des équations différentielles stochastiques (EDS). Nous commençons par l'étude de l'algorithme de Beskos et al. [13] qui permet de simuler exactement les trajectoires d'un processus solution d'une EDS en dimension 1. Nous en proposons une extension à des fins de calcul exact d'espérances et nous étudions l'application de ces idées à l'évaluation du prix d'options asiatiques dans le modèle de Black & Scholes. Nous nous intéressons ensuite aux schémas numériques. Dans le deuxième chapitre, nous proposons deux schémas de discrétisation pour une famille de modèles à volatilité stochastique et nous en étudions les propriétés de convergence. Le premier schéma est adapté à l'évaluation du prix d'options path-dependent et le deuxième aux options vanilles. Nous étudions également le cas particulier où le processus qui dirige la volatilité est un processus d'Ornstein-Uhlenbeck et nous exhibons un schéma de discrétisation qui possède de meilleures propriétés de convergence. Enfin, dans le troisième chapitre, il est question de la convergence faible trajectorielle du schéma d'Euler. Nous apportons un début de réponse en contrôlant la distance de Wasserstein entre les marginales du processus solution et du schéma d'Euler, uniformément en temps. La deuxième partie de la thèse porte sur la modélisation de la dépendance en finance et ce à travers deux problématiques distinctes : la modélisation jointe entre un indice boursier et les actions qui le composent et la gestion du risque de défaut dans les portefeuilles de crédit. Dans le quatrième chapitre, nous proposons un cadre de modélisation original dans lequel les volatilités de l'indice et de ses composantes sont reliées. Nous obtenons un modèle simplifié quand la taille de l'indice est grande, dans lequel l'indice suit un modèle à volatilité locale et les actions individuelles suivent un modèle à volatilité stochastique composé d'une partie intrinsèque et d'une partie commune dirigée par l'indice. Nous étudions la calibration de ces modèles et montrons qu'il est possible de se caler sur les prix d'options observés sur le marché, à la fois pour l'indice et pour les actions, ce qui constitue un avantage considérable. Enfin, dans le dernier chapitre de la thèse, nous développons un modèle à intensités permettant de modéliser simultanément, et de manière consistante, toutes les transitions de ratings qui surviennent dans un grand portefeuille de crédit. Afin de générer des niveaux de dépendance plus élevés, nous introduisons le modèle dynamic frailty dans lequel une variable dynamique inobservable agit de manière multiplicative sur les intensités de transitions. Notre approche est purement historique et nous étudions l'estimation par maximum de vraisemblance des paramètres de nos modèles sur la base de données de transitions de ratings passées
Styles APA, Harvard, Vancouver, ISO, etc.
9

Ahdida, Abdelkoddousse, et Abdelkoddousse Ahdida. « Processus matriciels : simulation et modélisation de la dépendance en finance ». Phd thesis, Université Paris-Est, 2011. http://pastel.archives-ouvertes.fr/pastel-00674813.

Texte intégral
Résumé :
La première partie de cette thèse est consacrée à la simulation des équations différentielles stochastiques définies sur le cône des matrices symétriques positives. Nous présentons de nouveaux schémas de discrétisation d'ordre élevé pour ce type d'équations différentielles stochastiques, et étudions leur convergence faible. Nous nous intéressons tout particulièrement au processus de Wishart, souvent utilisé en modélisation financière. Pour ce processus nous proposons à la fois un schéma exact en loi et des discrétisations d'ordre élevé. A ce jour, cette méthode est la seule qui soit utilisable quels que soient les paramètres intervenant dans la définition de ces modèles. Nous montrons, par ailleurs, comment on peut réduire la complexité algorithmique de ces méthodes et nous vérifions les résultats théoriques sur des implémentations numériques. Dans la deuxième partie, nous nous intéressons à des processus à valeurs dans l'espace des matrices de corrélation. Nous proposons une nouvelle classe d'équations différentielles stochastiques définies dans cet espace. Ce modèle peut être considéré comme une extension du modèle Wright-Fisher (ou processus Jacobi) àl'espace des matrice de corrélation. Nous étudions l'existence faible et forte des solutions. Puis, nous explicitons les liens avec les processus de Wishart et les processus de Wright-Fisher multi-allèles. Nous démontrons le caractère ergodique du modèle et donnons des représentations de Girsanov susceptibles d'être employées en finance. En vue d'une utilisation pratique, nous explicitons deux schémas de discrétisation d'ordre élevé. Cette partie se conclut par des résultats numériques illustrant le comportement de la convergence de ces schémas. La dernière partie de cette thèse est consacrée à l'utilisation des ces processus pour des questions de modélisation multi-dimensionnelle en finance. Une question importante de modélisation, aujourd'hui encore difficile à traiter, est l'identification d'un type de modèle permettant de calibrer à la fois le marché des options sur un indice et sur ses composants. Nous proposons, ici, deux types de modèles : l'un à corrélation locale et l'autre à corrélation stochastique. Dans ces deux cas, nous expliquons quelle procédure on doit adopter pour obtenir une bonne calibration des données de marché
Styles APA, Harvard, Vancouver, ISO, etc.
10

Ahdida, Abdelkoddousse. « Processus matriciels : simulation et modélisation de la dépendance en finance ». Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1154/document.

Texte intégral
Résumé :
La première partie de cette thèse est consacrée à la simulation des équations différentielles stochastiques définies sur le cône des matrices symétriques positives. Nous présentons de nouveaux schémas de discrétisation d'ordre élevé pour ce type d'équations différentielles stochastiques, et étudions leur convergence faible. Nous nous intéressons tout particulièrement au processus de Wishart, souvent utilisé en modélisation financière. Pour ce processus nous proposons à la fois un schéma exact en loi et des discrétisations d'ordre élevé. A ce jour, cette méthode est la seule qui soit utilisable quels que soient les paramètres intervenant dans la définition de ces modèles. Nous montrons, par ailleurs, comment on peut réduire la complexité algorithmique de ces méthodes et nous vérifions les résultats théoriques sur des implémentations numériques. Dans la deuxième partie, nous nous intéressons à des processus à valeurs dans l'espace des matrices de corrélation. Nous proposons une nouvelle classe d'équations différentielles stochastiques définies dans cet espace. Ce modèle peut être considéré comme une extension du modèle Wright-Fisher (ou processus Jacobi) àl'espace des matrice de corrélation. Nous étudions l'existence faible et forte des solutions. Puis, nous explicitons les liens avec les processus de Wishart et les processus de Wright-Fisher multi-allèles. Nous démontrons le caractère ergodique du modèle et donnons des représentations de Girsanov susceptibles d'être employées en finance. En vue d'une utilisation pratique, nous explicitons deux schémas de discrétisation d'ordre élevé. Cette partie se conclut par des résultats numériques illustrant le comportement de la convergence de ces schémas. La dernière partie de cette thèse est consacrée à l'utilisation des ces processus pour des questions de modélisation multi-dimensionnelle en finance. Une question importante de modélisation, aujourd'hui encore difficile à traiter, est l'identification d'un type de modèle permettant de calibrer à la fois le marché des options sur un indice et sur ses composants. Nous proposons, ici, deux types de modèles : l'un à corrélation locale et l'autre à corrélation stochastique. Dans ces deux cas, nous expliquons quelle procédure on doit adopter pour obtenir une bonne calibration des données de marché
After a short introduction (in French) to the multi dimensional modelling for index pricing problems, the first part of the thesis treats the simulation of stochastic differential equations defined on the cone of symmetric positive semi-definite matrices. Indeed, we present several second order discretization schemes associated to a general class of affine processes defined on $posm.$ We study also their weak convergence. We pay a special attention to Wishart processes, which are considered as a particular case of this class and have been frequently used in finance. In this case, we give an exact scheme and a third order discretization one. To the best of our knowledge, this is the first exact sampling of the Wishart distribution without any restrictions on its parameters. Some algorithm are proposed in order to enhance all scheme in term of computation of time. We show numerical illustrations of our convergence and compare it to the theoretical rate. We then focus on other type of processes defined on the correlation matrix space. For this purposes, We propose a new stochastic differential equation defined on $crr.$ We prove the weak and the strong existence of such solutions. These processes are considered as the extension of Wright-Fisher processes (or Jacobi process) on correlation matrices. We shed light on a useful connection with Wishart processes and Wright-Fisher multi-allèles. Moreover, we explicitly present their moments, which enable us to describe the ergodic limit. Other results about Girsanov representations are also given. Finally, in order to use these processes in practice, we propose second order discretization schemes based on two different methods. Numerical experiments are presented to show the convergence. The last part is devoted to multi dimension modelling in finance for baskets and indices pricing. After giving a mathematical analysis of models defined either by the correlation matrix or in the positive semi-definite semi positive one, we ask if we find the adequate structure of correlation models which is able to calibrate both the index options market and the single options market related to each component of this index. For this purpose, we propose two types of modelling, the first uses a local model correlation and the second derives from a pure stochastic correlation model. Moreover, we explain different routines that have been used for improved calibration
Styles APA, Harvard, Vancouver, ISO, etc.

Livres sur le sujet "Modélisation de la dépendance extrémale"

1

Cristau, Cécile. Définition, mesure et modélisation de l'attachement à une marque avec deux composantes : La dépendance et l'amitié vis-a-vis d'une marque. Grenoble : A.N.R.T, Université Pierre Mendes France (Grenoble II), 2001.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Actes de conférences sur le sujet "Modélisation de la dépendance extrémale"

1

Fischer, R., A. Dutfoy, C. Butucea et J.-F. Delmas. « Modélisation de la dépendance sous contrainte déterministe ». Dans Congrès Lambda Mu 19 de Maîtrise des Risques et Sûreté de Fonctionnement, Dijon, 21-23 Octobre 2014. IMdR, 2015. http://dx.doi.org/10.4267/2042/56165.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie