Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Modélisation de la dépendance extrémale.

Thèses sur le sujet « Modélisation de la dépendance extrémale »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Modélisation de la dépendance extrémale ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Boulin, Alexis. « Partitionnement des variables de séries temporelles multivariées selon la dépendance de leurs extrêmes ». Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ5039.

Texte intégral
Résumé :
Dans un grand éventail d'applications allant des sciences du climat à la finance, des événements extrêmes avec une probabilité loin d'être négligeable peuvent se produire, entraînant des conséquences désastreuses. Les extrêmes d'évènements climatiques tels que le vent, la température et les précipitations peuvent profondément affecter les êtres humains et les écosystèmes, entraînant des événements tels que des inondations, des glissements de terrain ou des vagues de chaleur. Lorsque l'emphase est mise sur l'étude de variables mesurées dans le temps sur un grand nombre de stations ayant une localisation spécifique, comme les variables mentionnées précédemment, le partitionnement de variables devient essentiel pour résumer et visualiser des tendances spatiales, ce qui est crucial dans l'étude des événements extrêmes. Cette thèse explore plusieurs modèles et méthodes pour partitionner les variables d'un processus stationnaire multivarié, en se concentrant sur les dépendances extrémales.Le chapitre 1 présente les concepts de modélisation de la dépendance via les copules, fondamentales pour la dépendance extrême. La notion de variation régulière est introduite, essentielle pour l'étude des extrêmes, et les processus faiblement dépendants sont abordés. Le partitionnement est discuté à travers les paradigmes de séparation-proximité et de partitionnement basé sur un modèle. Nous abordons aussi l'analyse non-asymptotique pour évaluer nos méthodes dans des dimensions fixes.Le chapitre 2 est à propos de la dépendance entre valeurs maximales est cruciale pour l'analyse des risques. Utilisant la fonction de copule de valeur extrême et le madogramme, ce chapitre se concentre sur l'estimation non paramétrique avec des données manquantes. Un théorème central limite fonctionnel est établi, démontrant la convergence du madogramme vers un processus Gaussien tendu. Des formules pour la variance asymptotique sont présentées, illustrées par une étude numérique.Le chapitre 3 propose les modèles asymptotiquement indépendants par blocs (AI-blocs) pour le partitionnement de variables, définissant des clusters basés sur l'indépendance des maxima. Un algorithme est introduit pour récupérer les clusters sans spécifier leur nombre à l'avance. L'efficacité théorique de l'algorithme est démontrée, et une méthode de sélection de paramètre basée sur les données est proposée. La méthode est appliquée à des données de neurosciences et environnementales, démontrant son potentiel.Le chapitre 4 adapte des techniques de partitionnement pour analyser des événements extrêmes composites sur des données climatiques européennes. Les sous-régions présentant une dépendance des extrêmes de précipitations et de vitesse du vent sont identifiées en utilisant des données ERA5 de 1979 à 2022. Les clusters obtenus sont spatialement concentrés, offrant une compréhension approfondie de la distribution régionale des extrêmes. Les méthodes proposées réduisent efficacement la taille des données tout en extrayant des informations cruciales sur les événements extrêmes.Le chapitre 5 propose une nouvelle méthode d'estimation pour les matrices dans un modèle linéaire à facteurs latents, où chaque composante d'un vecteur aléatoire est exprimée par une équation linéaire avec des facteurs et du bruit. Contrairement aux approches classiques basées sur la normalité conjointe, nous supposons que les facteurs sont distribués selon des distributions de Fréchet standards, ce qui permet une meilleure description de la dépendance extrémale. Une méthode d'estimation est proposée garantissant une solution unique sous certaines conditions. Une borne supérieure adaptative pour l'estimateur est fournie, adaptable à la dimension et au nombre de facteurs
In a wide range of applications, from climate science to finance, extreme events with a non-negligible probability can occur, leading to disastrous consequences. Extremes in climatic events such as wind, temperature, and precipitation can profoundly impact humans and ecosystems, resulting in events like floods, landslides, or heatwaves. When the focus is on studying variables measured over time at numerous specific locations, such as the previously mentioned variables, partitioning these variables becomes essential to summarize and visualize spatial trends, which is crucial in the study of extreme events. This thesis explores several models and methods for partitioning the variables of a multivariate stationary process, focusing on extreme dependencies.Chapter 1 introduces the concepts of modeling dependence through copulas, which are fundamental for extreme dependence. The notion of regular variation, essential for studying extremes, is introduced, and weakly dependent processes are discussed. Partitioning is examined through the paradigms of separation-proximity and model-based clustering. Non-asymptotic analysis is also addressed to evaluate our methods in fixed dimensions.Chapter 2 study the dependence between maximum values is crucial for risk analysis. Using the extreme value copula function and the madogram, this chapter focuses on non-parametric estimation with missing data. A functional central limit theorem is established, demonstrating the convergence of the madogram to a tight Gaussian process. Formulas for asymptotic variance are presented, illustrated by a numerical study.Chapter 3 proposes asymptotically independent block (AI-block) models for partitioning variables, defining clusters based on the independence of maxima. An algorithm is introduced to recover clusters without specifying their number in advance. Theoretical efficiency of the algorithm is demonstrated, and a data-driven parameter selection method is proposed. The method is applied to neuroscience and environmental data, showcasing its potential.Chapter 4 adapts partitioning techniques to analyze composite extreme events in European climate data. Sub-regions with dependencies in extreme precipitation and wind speed are identified using ERA5 data from 1979 to 2022. The obtained clusters are spatially concentrated, offering a deep understanding of the regional distribution of extremes. The proposed methods efficiently reduce data size while extracting critical information on extreme events.Chapter 5 proposes a new estimation method for matrices in a latent factor linear model, where each component of a random vector is expressed by a linear equation with factors and noise. Unlike classical approaches based on joint normality, we assume factors are distributed according to standard Fréchet distributions, allowing a better description of extreme dependence. An estimation method is proposed, ensuring a unique solution under certain conditions. An adaptive upper bound for the estimator is provided, adaptable to dimension and the number of factors
Styles APA, Harvard, Vancouver, ISO, etc.
2

Kacem, Manel. « Processus de risque : modélisation de la dépendance et évaluation du risque sous des contraintes de convexité ». Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10051/document.

Texte intégral
Résumé :
Ce travail de thèse porte principalement sur deux problématiques différentes mais qui ont pour point commun, la contribution à la modélisation et à la gestion du risque en actuariat. Dans le premier thème de recherche abordé dans cette thèse, on s'intéresse à la modélisation de la dépendance en assurance et en particulier, on propose une extension des modèles à facteurs communs qui sont utilisés en assurance. Dans le deuxième thème de recherche, on considère les distributions discrètes décroissantes et on s'intéresse à l'étude de l'effet de l'ajout de la contrainte de convexité sur les extrema convexes. Des applications en liaison avec la théorie de la ruine motivent notre intérêt pour ce sujet. Dans la première partie de la thèse, on considère un modèle de risque en temps discret dans lequel les variables aléatoires sont dépendantes mais conditionnellement indépendantes par rapport à un facteur commun. Dans ce cadre de dépendance on introduit un nouveau concept pour la modélisation de la dépendance temporelle entre les risques d'un portefeuille d'assurance. En effet, notre modélisation inclut des processus de mémoire non bornée. Plus précisément, le conditionnement se fait par rapport à un vecteur aléatoire de longueur variable au cours du temps. Sous des conditions de mélange du facteur et d'une structure de mélange conditionnel, nous avons obtenu des propriétés de mélanges pour les processus non conditionnels. Avec ces résultats on peut obtenir des propriétés asymptotiques intéressantes. On note que dans notre étude asymptotique c'est plutôt le temps qui tend vers l'infini que le nombre de risques. On donne des résultats asymptotiques pour le processus agrégé, ce qui permet de donner une approximation du risque d'une compagnie d'assurance lorsque le temps tend vers l'infini. La deuxième partie de la thèse porte sur l'effet de la contrainte de convexité sur les extrema convexes dans la classe des distributions discrètes dont les fonctions de masse de probabilité (f.m.p.) sont décroissantes sur un support fini. Les extrema convexes dans cette classe de distributions sont bien connus. Notre but est de souligner comment les contraintes de forme supplémentaires de type convexité modifient ces extrema. Deux cas sont considérés : la f.m.p. est globalement convexe sur N et la f.m.p. est convexe seulement à partir d'un point positif donné. Les extrema convexes correspondants sont calculés en utilisant de simples propriétés de croisement entre deux distributions. Plusieurs illustrations en théorie de la ruine sont présentées
In this thesis we focus on two different problems which have as common point the contribution to the modeling and to the risk management in insurance. In the first research theme, we are interested by the modeling of the dependence in insurance. In particular we propose an extension to model with common factor. In the second research theme we consider the class of nonincreasing discrete distributions and we are interested in studying the effect of additional constraint of convexity on the convex extrema. Some applications in ruin theory motivate our interest to this subject. The first part of this thesis is concerned with factor models for the modeling of the dependency in insurance. An interesting property of these models is that the random variables are conditionally independent with respect to a factor. We propose a new model in which the conditioning is with respect to the entire memory of the factor. In this case we give some mixing properties of risk process under conditions related to the mixing properties of the factor process and to the conditional mixing risk process. The law of the sum of random variables has a great interest in actuarial science. Therefore we give some conditions under which the law of the aggregated process converges to a normal distribution. In the second part of the thesis we consider the class of discrete distributions whose probability mass functions (p.m.f.) are nonincreasing on a finite support. Convex extrema in that class of distributions are well-known. Our purpose is to point out how additional shape constraints of convexity type modify these extrema. Two cases are considered : the p.m.f. is globally convex on N or it is convex only from a given positive point. The corresponding convex extrema are derived by using a simple crossing property between two distributions. Several applications to some ruin problems are presented for illustration
Styles APA, Harvard, Vancouver, ISO, etc.
3

Ben, Ghorbal Noomen. « Étude de certaines mesures d'association multivariées et d'un test de dépendance extrémale fondés sur les rangs ». Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27602/27602.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Chatelain, Simon. « Modélisation de la dépendance entre pré-extrêmes ». Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1267.

Texte intégral
Résumé :
Le comportement extrême joint entre variables aléatoires revêt un intérêt particulier dans de nombreuses applications des sciences de l’environnement, de la finance, de l’assurance ou encore de la gestion du risque. Par exemple, ce comportement joue un rôle central dans l’évaluation des risques de catastrophes naturelles. Une erreur de spécification de la dépendance entre des variables aléatoires peut engendrer une sous-estimation dangereuse du risque, en particulier au niveau extrême. Le premier objectif de cette thèse est de développer des techniques d’inférence pour les copules Archimax. Ces modèles de dépendance peuvent capturer tout type de dépendance asymptotique entre les extrêmes et, de manière simultanée, modéliser les risques joints au niveau moyen. Une copule Archimax est caractérisée par ses deux paramètres fonctionnels, la fonction de dépendance caudale stable et le générateur Archimédien qui agit comme une distorsion affectant le régime de dépendance extrême. Des conditions sont dérivées afin que le générateur et la fonction caudale soient identifiables, de sorte qu’une approche d’inférence semi-paramétrique puisse être développée. Deux estimateurs non paramétriques de la fonction caudale et un estimateur du générateur basé sur les moments, supposant que ce dernier appartient à une famille paramétrique, sont avancés. Le comportement asymptotique de ces estimateurs est ensuite établi sous des hypothèses de régularité non restrictives et la performance en échantillon fini est évaluée par le biais d’une étude de simulation. Une construction hiérarchique (ou en “clusters”) qui généralise les copules Archimax est proposée afin d’apporter davantage de flexibilité, la rendant plus adaptée aux applications pratiques. Le comportement extrême de ce nouveau modèle de dépendance est ensuite étudié, ce qui engendre un nouvelle manière de construire des fonctions de dépendance caudale stable. La copule Archimax est ensuite utilisée pour analyser les maxima mensuels de précipitations, observées à trois stations météorologiques en Bretagne. Le modèle semble très bien ajusté aux données, aussi bien aux précipitations faibles qu’aux précipitationsfortes. L’estimateur non paramétrique de la fonction caudale révèle une dépendance extrême asymétrique entre les stations, ce qui reflète le déplacement des orages dans la région. Une application du modèle Archimax hiérarchique à un jeu de données de précipitations contenant 155 stations est ensuite présentée, dans laquelle des groupes de stations asymptotiquement dépendantes sont déterminés via un algorithme de “clustering” spécifiquement adapté au modèle. Enfin, de possibles méthodes pour modéliser la dépendance inter-cluster sont évoquées
In various applications in environmental sciences, finance, insurance or risk management, joint extremal behavior between random variables is of particular interest. For example, this plays a central role in assessing risks of natural disasters. Misspecification of the dependence between random variables can lead to substantial underestimation of risk, especially at extreme levels. This thesis develops inference techniques for Archimax copulas. These copula models can account for any type of asymptotic dependence between extremes and at the same time capture joint risks at medium levels. An Archimax copula is characterized by two functional parameters, the stable tail dependence function (stdf), and the Archimedean generator which acts as a distortion of the extreme-value dependence model. Conditions under which the generator and the stdf are identifiable are derived so that a semiparametric approach for inference can be developed. Two nonparametric estimators of the stdf and a moment-based estimator of the generator, which assumes that the latter belongs to a parametric family, are proposed. The asymptotic behavior of the estimators is then established under broad regularity conditions; performance in small samples is assessed through a comprehensive simulation study. In the second part of the thesis, Archimax copulas are generalized to a clustered constructions in order to bring in more flexibility, which is needed in practical applications. The extremal behavior of this new dependence model is derived herein. Finally, the methodology proposed herein is illustrated on precipitation data. First, a trivariate Archimax copula is used to analyze monthly rainfall maxima at three stations in French Brittany. The model is seen to fit the data very well, both in the lower and in the upper tail. The nonparametric estimator of the stdf reveals asymmetric extremal dependence between the stations, which reflects heavy precipitation patterns in the area. An application of the clustered Archimax model to a precipitation dataset containing 155 stations is then presented, where groups of asymptotically dependent stations are determined via a specifically tailored clustering algorithm. Finally, possible ways to model inter cluster dependence are discussed
Styles APA, Harvard, Vancouver, ISO, etc.
5

Lebrun, Régis. « Contributions à la modélisation de la dépendance stochastique ». Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-00913510.

Texte intégral
Résumé :
Dans cette thèse, nous étudions la modélisation de la dépendance stochastique entre composantes d'un vecteur aléatoire sous l'angle des copules. La première partie des travaux consiste en une exploration numérique des notions de copule et de mesure de dépendance stochastique dans le contexte de la modélisation des incertitudes en simulation numérique. La seconde partie des travaux porte sur l'étude des transformations de Nataf et de Rosenblatt. Nous montrons que la transformation de Nataf consiste à supposer que le vecteur aléatoire est muni d'une copule Gaussienne. Nous généralisons cette transformation à une distribution absolument continue à copule elliptique quelconque. Nous montrons également l'équivalence entre les transformations de Nataf et de Rosenblatt dans le cas d'une copule Gaussienne. La troisième partie étudie la notion de dépendance stochastique sous contrainte. Nous caractérisons les lois jointes de statistiques d'ordre continues en termes de lois marginales et de copules, et nous proposons une nouvelle famille de copules adaptée à cette modélisation. Nous caractérisons l'existence et l'unicité d'un élément maximal dans cette famille. La quatrième partie s'intéresse aux lois multivariées discrètes, pour lesquelles la notion de copule n'est plus en bijection avec celle de fonction de répartition jointe. Nous établissons un algorithme innovant pour le calcul de probabilités rectangulaires pour une large classe de tels modèles, surclassant les meilleurs algorithmes disponibles tant en termes de précision numérique que de temps de calcul et d'occupation mémoire.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Di, Bernardino Éléna. « Modélisation de la dépendance et mesures de risque multidimensionnelles ». Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00838598.

Texte intégral
Résumé :
Cette thèse a pour but le développement de certains aspects de la modélisation de la dépendance dans la gestion des risques en dimension plus grande que un. Le premier chapitre est constitué d'une introduction générale. Le deuxième chapitre est constitué d'un article s'intitulant " Estimating Bivariate Tail : a copula based approach ", soumis pour publication. Il concerne la construction d'un estimateur de la queue d'une distribution bivariée. La construction de cet estimateur se fonde sur une méthode de dépassement de seuil (Peaks Over Threshold method) et donc sur une version bivariée du Théorème de Pickands-Balkema-de Haan. La modélisation de la dépendance est obtenue via la Upper Tail Dependence Copula. Nous démontrons des propriétés de convergence pour l'estimateur ainsi construit. Le troisième chapitre repose sur un article: " A multivariate extension of Value-at-Risk and Conditional-Tail-Expectation", soumis pour publication. Nous abordons le problème de l'extension de mesures de risque classiques, comme la Value-at-Risk et la Conditional-Tail-Expectation, dans un cadre multidimensionnel en utilisant la fonction de Kendall multivariée. Enfin, dans le quatrième chapitre de la thèse, nous proposons un estimateur des courbes de niveau d'une fonction de répartition bivariée avec une méthode plug-in. Nous démontrons des propriétés de convergence pour les estimateurs ainsi construits. Ce chapitre de la thèse est lui aussi constitué d'un article, s'intitulant " Plug-in estimation of level sets in a non-compact setting with applications in multivariate risk theory", accepté pour publication dans la revue ESAIM:Probability and Statistics.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Cuberos, Andres. « Modélisation de la dépendance et estimation du risque agrégé ». Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10321/document.

Texte intégral
Résumé :
Cette thèse porte sur l'étude de la modélisation et estimation de la dépendance des portefeuilles de risques et l'estimation du risque agrégé. Dans le Chapitre 2, nous proposons une nouvelle méthode pour estimer les quantiles de haut niveau pour une somme de risques. Elle est basée sur l'estimation du rapport entre la VaR de la somme et la VaR du maximum des risques. Nous utilisons des résultats sur les fonctions à variation régulière. Nous comparons l'efficacité de notre méthode avec quelques estimations basées sur la théorie des valeurs extrêmes, sur plusieurs modèles. Notre méthode donne de bons résultats lors de l'approximation de la VaR à des niveaux élevés lorsque les risques sont fortement dépendants et au moins l'un des risques est à queue épaisse. Dans le Chapitre 3, nous proposons une procédure d'estimation pour la distribution d'un risque agrégé basée sur la copule échiquier. Elle permet d'obtenir de bonnes estimations à partir d'un petit échantillon de la loi multivariée et une connaissance complète des lois marginales. Cette situation est réaliste pour de nombreuses applications. Les estimations peuvent être améliorées en incluant dans la copule échiquier des informations supplémentaires (sur la loi d'un sous-vecteur ou sur des probabilités extrêmes). Notre approche est illustrée par des exemples numériques. Finalement, dans le Chapitre 4, nous proposons un estimateur de la mesure spectrale basé sur l'estimation à noyau de la densité de la mesure spectrale d'une distribution à variation régulière bivariée. Une extension de notre méthode permet d'estimer la mesure spectrale discrète. Certaines propriétés de convergence sont obtenues
This thesis comprises three essays on estimation methods for the dependence between risks and its aggregation. In the first essay we propose a new method to estimate high level quantiles of sums of risks. It is based on the estimation of the ratio between the VaR (or TVaR) of the sum and the VaR (or TVaR) of the maximum of the risks. We use results on regularly varying functions. We compare the efficiency of our method with classical ones, on several models. Our method gives good results when approximating the VaR or TVaR in high levels on strongly dependent risks where at least one of the risks is heavy tailed. In the second essay we propose an estimation procedure for the distribution of an aggregated risk based on the checkerboard copula. It allows to get good estimations from a (quite) small sample of the multivariate law and a full knowledge of the marginal laws. This situation is realistic for many applications. Estimations may be improved by including in the checkerboard copula some additional information (on the law of a sub-vector or on extreme probabilities). Our approach is illustrated by numerical examples. In the third essay we propose a kernel based estimator for the spectral measure density of a bivariate distribution with regular variation. An extension of our method allows to estimate discrete spectral measures. Some convergence properties are obtained
Styles APA, Harvard, Vancouver, ISO, etc.
8

Sbai, Mohamed. « Modélisation de la dépendance et simulation de processus en finance ». Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00451008.

Texte intégral
Résumé :
La première partie de cette thèse est consacrée aux méthodes numériques pour la simulation de processus aléatoires définis par des équations différentielles stochastiques (EDS). Nous commençons par l'étude de l'algorithme de Beskos et al. [13] qui permet de simuler exactement les trajectoires d'un processus solution d'une EDS en dimension 1. Nous en proposons une extension à des fins de calcul exact d'espérances et nous étudions l'application de ces idées à l'évaluation du prix d'options asiatiques dans le modèle de Black & Scholes. Nous nous intéressons ensuite aux schémas numériques. Dans le deuxième chapitre, nous proposons deux schémas de discrétisation pour une famille de modèles à volatilité stochastique et nous en étudions les propriétés de convergence. Le premier schéma est adapté à l'évaluation du prix d'options path-dependent et le deuxième aux options vanilles. Nous étudions également le cas particulier où le processus qui dirige la volatilité est un processus d'Ornstein-Uhlenbeck et nous exhibons un schéma de discrétisation qui possède de meilleures propriétés de convergence. Enfin, dans le troisième chapitre, il est question de la convergence faible trajectorielle du schéma d'Euler. Nous apportons un début de réponse en contrôlant la distance de Wasserstein entre les marginales du processus solution et du schéma d'Euler, uniformément en temps. La deuxième partie de la thèse porte sur la modélisation de la dépendance en finance et ce à travers deux problématiques distinctes : la modélisation jointe entre un indice boursier et les actions qui le composent et la gestion du risque de défaut dans les portefeuilles de crédit. Dans le quatrième chapitre, nous proposons un cadre de modélisation original dans lequel les volatilités de l'indice et de ses composantes sont reliées. Nous obtenons un modèle simplifié quand la taille de l'indice est grande, dans lequel l'indice suit un modèle à volatilité locale et les actions individuelles suivent un modèle à volatilité stochastique composé d'une partie intrinsèque et d'une partie commune dirigée par l'indice. Nous étudions la calibration de ces modèles et montrons qu'il est possible de se caler sur les prix d'options observés sur le marché, à la fois pour l'indice et pour les actions, ce qui constitue un avantage considérable. Enfin, dans le dernier chapitre de la thèse, nous développons un modèle à intensités permettant de modéliser simultanément, et de manière consistante, toutes les transitions de ratings qui surviennent dans un grand portefeuille de crédit. Afin de générer des niveaux de dépendance plus élevés, nous introduisons le modèle dynamic frailty dans lequel une variable dynamique inobservable agit de manière multiplicative sur les intensités de transitions. Notre approche est purement historique et nous étudions l'estimation par maximum de vraisemblance des paramètres de nos modèles sur la base de données de transitions de ratings passées
Styles APA, Harvard, Vancouver, ISO, etc.
9

Ahdida, Abdelkoddousse, et Abdelkoddousse Ahdida. « Processus matriciels : simulation et modélisation de la dépendance en finance ». Phd thesis, Université Paris-Est, 2011. http://pastel.archives-ouvertes.fr/pastel-00674813.

Texte intégral
Résumé :
La première partie de cette thèse est consacrée à la simulation des équations différentielles stochastiques définies sur le cône des matrices symétriques positives. Nous présentons de nouveaux schémas de discrétisation d'ordre élevé pour ce type d'équations différentielles stochastiques, et étudions leur convergence faible. Nous nous intéressons tout particulièrement au processus de Wishart, souvent utilisé en modélisation financière. Pour ce processus nous proposons à la fois un schéma exact en loi et des discrétisations d'ordre élevé. A ce jour, cette méthode est la seule qui soit utilisable quels que soient les paramètres intervenant dans la définition de ces modèles. Nous montrons, par ailleurs, comment on peut réduire la complexité algorithmique de ces méthodes et nous vérifions les résultats théoriques sur des implémentations numériques. Dans la deuxième partie, nous nous intéressons à des processus à valeurs dans l'espace des matrices de corrélation. Nous proposons une nouvelle classe d'équations différentielles stochastiques définies dans cet espace. Ce modèle peut être considéré comme une extension du modèle Wright-Fisher (ou processus Jacobi) àl'espace des matrice de corrélation. Nous étudions l'existence faible et forte des solutions. Puis, nous explicitons les liens avec les processus de Wishart et les processus de Wright-Fisher multi-allèles. Nous démontrons le caractère ergodique du modèle et donnons des représentations de Girsanov susceptibles d'être employées en finance. En vue d'une utilisation pratique, nous explicitons deux schémas de discrétisation d'ordre élevé. Cette partie se conclut par des résultats numériques illustrant le comportement de la convergence de ces schémas. La dernière partie de cette thèse est consacrée à l'utilisation des ces processus pour des questions de modélisation multi-dimensionnelle en finance. Une question importante de modélisation, aujourd'hui encore difficile à traiter, est l'identification d'un type de modèle permettant de calibrer à la fois le marché des options sur un indice et sur ses composants. Nous proposons, ici, deux types de modèles : l'un à corrélation locale et l'autre à corrélation stochastique. Dans ces deux cas, nous expliquons quelle procédure on doit adopter pour obtenir une bonne calibration des données de marché
Styles APA, Harvard, Vancouver, ISO, etc.
10

Ahdida, Abdelkoddousse. « Processus matriciels : simulation et modélisation de la dépendance en finance ». Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1154/document.

Texte intégral
Résumé :
La première partie de cette thèse est consacrée à la simulation des équations différentielles stochastiques définies sur le cône des matrices symétriques positives. Nous présentons de nouveaux schémas de discrétisation d'ordre élevé pour ce type d'équations différentielles stochastiques, et étudions leur convergence faible. Nous nous intéressons tout particulièrement au processus de Wishart, souvent utilisé en modélisation financière. Pour ce processus nous proposons à la fois un schéma exact en loi et des discrétisations d'ordre élevé. A ce jour, cette méthode est la seule qui soit utilisable quels que soient les paramètres intervenant dans la définition de ces modèles. Nous montrons, par ailleurs, comment on peut réduire la complexité algorithmique de ces méthodes et nous vérifions les résultats théoriques sur des implémentations numériques. Dans la deuxième partie, nous nous intéressons à des processus à valeurs dans l'espace des matrices de corrélation. Nous proposons une nouvelle classe d'équations différentielles stochastiques définies dans cet espace. Ce modèle peut être considéré comme une extension du modèle Wright-Fisher (ou processus Jacobi) àl'espace des matrice de corrélation. Nous étudions l'existence faible et forte des solutions. Puis, nous explicitons les liens avec les processus de Wishart et les processus de Wright-Fisher multi-allèles. Nous démontrons le caractère ergodique du modèle et donnons des représentations de Girsanov susceptibles d'être employées en finance. En vue d'une utilisation pratique, nous explicitons deux schémas de discrétisation d'ordre élevé. Cette partie se conclut par des résultats numériques illustrant le comportement de la convergence de ces schémas. La dernière partie de cette thèse est consacrée à l'utilisation des ces processus pour des questions de modélisation multi-dimensionnelle en finance. Une question importante de modélisation, aujourd'hui encore difficile à traiter, est l'identification d'un type de modèle permettant de calibrer à la fois le marché des options sur un indice et sur ses composants. Nous proposons, ici, deux types de modèles : l'un à corrélation locale et l'autre à corrélation stochastique. Dans ces deux cas, nous expliquons quelle procédure on doit adopter pour obtenir une bonne calibration des données de marché
After a short introduction (in French) to the multi dimensional modelling for index pricing problems, the first part of the thesis treats the simulation of stochastic differential equations defined on the cone of symmetric positive semi-definite matrices. Indeed, we present several second order discretization schemes associated to a general class of affine processes defined on $posm.$ We study also their weak convergence. We pay a special attention to Wishart processes, which are considered as a particular case of this class and have been frequently used in finance. In this case, we give an exact scheme and a third order discretization one. To the best of our knowledge, this is the first exact sampling of the Wishart distribution without any restrictions on its parameters. Some algorithm are proposed in order to enhance all scheme in term of computation of time. We show numerical illustrations of our convergence and compare it to the theoretical rate. We then focus on other type of processes defined on the correlation matrix space. For this purposes, We propose a new stochastic differential equation defined on $crr.$ We prove the weak and the strong existence of such solutions. These processes are considered as the extension of Wright-Fisher processes (or Jacobi process) on correlation matrices. We shed light on a useful connection with Wishart processes and Wright-Fisher multi-allèles. Moreover, we explicitly present their moments, which enable us to describe the ergodic limit. Other results about Girsanov representations are also given. Finally, in order to use these processes in practice, we propose second order discretization schemes based on two different methods. Numerical experiments are presented to show the convergence. The last part is devoted to multi dimension modelling in finance for baskets and indices pricing. After giving a mathematical analysis of models defined either by the correlation matrix or in the positive semi-definite semi positive one, we ask if we find the adequate structure of correlation models which is able to calibrate both the index options market and the single options market related to each component of this index. For this purpose, we propose two types of modelling, the first uses a local model correlation and the second derives from a pure stochastic correlation model. Moreover, we explain different routines that have been used for improved calibration
Styles APA, Harvard, Vancouver, ISO, etc.
11

Dias, Neto David. « Modélisation de la dépendance dans l'analyse multivariée des séries financières ». Paris 1, 2004. http://www.theses.fr/2004PA010013.

Texte intégral
Résumé :
Les séries financières sont connues pour présenter de nombreuses "anomalies" qui portent à mal l'inférence statistique traditionnelle basée sur la normalité des processus. Les faits stylisés observés dans l'analyse statistique univariée sont essentiellement l'hétéroscedasticité variable dans le temps et le caractère leptokurtique et asymétrique des distributions empiriques. En analyse multivariée vient s'ajouter à ces difficultés celle de la spécificité de la dépendance qui a pendant longtemps été absente de la littérature économétrique. Ce n'est que très récemment, avec la redécouverte des fonctions copules, que cet aspect a pris une place non négligeable dans les études économétriques. Cette thèse a pour objet de montrer que les structures de dépendance des séries financières, lorsqu'elles font l'objet d'une analyse jointe, correspondent rarement au cas Gaussien.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Sbaï, Mohamed. « Modélisation de la dépendance et simulation de processus en finance ». Thesis, Paris Est, 2009. http://www.theses.fr/2009PEST1046/document.

Texte intégral
Résumé :
La première partie de cette thèse est consacrée aux méthodes numériques pour la simulation de processus aléatoires définis par des équations différentielles stochastiques (EDS). Nous commençons par l’étude de l’algorithme de Beskos et al. [13] qui permet de simuler exactement les trajectoires d’un processus solution d’une EDS en dimension 1. Nous en proposons une extension à des fins de calcul exact d’espérances et nous étudions l’application de ces idées à l’évaluation du prix d’options asiatiques dans le modèle de Black & Scholes. Nous nous intéressons ensuite aux schémas numériques. Dans le deuxième chapitre, nous proposons deux schémas de discrétisation pour une famille de modèles à volatilité stochastique et nous en étudions les propriétés de convergence. Le premier schéma est adapté à l’évaluation du prix d’options path-dependent et le deuxième aux options vanilles. Nous étudions également le cas particulier où le processus qui dirige la volatilité est un processus d’Ornstein-Uhlenbeck et nous exhibons un schéma de discrétisation qui possède de meilleures propriétés de convergence. Enfin, dans le troisième chapitre, il est question de la convergence faible trajectorielle du schéma d’Euler. Nous apportons un début de réponse en contrôlant la distance de Wasserstein entre les marginales du processus solution et du schéma d’Euler, uniformément en temps. La deuxième partie de la thèse porte sur la modélisation de la dépendance en finance et ce à travers deux problématiques distinctes : la modélisation jointe entre un indice boursier et les actions qui le composent et la gestion du risque de défaut dans les portefeuilles de crédit. Dans le quatrième chapitre, nous proposons un cadre de modélisation original dans lequel les volatilités de l’indice et de ses composantes sont reliées. Nous obtenons un modèle simplifié quand la taille de l’indice est grande, dans lequel l’indice suit un modèle à volatilité locale et les actions individuelles suivent un modèle à volatilité stochastique composé d’une partie intrinsèque et d’une partie commune dirigée par l’indice. Nous étudions la calibration de ces modèles et montrons qu’il est possible de se caler sur les prix d’options observés sur le marché, à la fois pour l’indice et pour les actions, ce qui constitue un avantage considérable. Enfin, dans le dernier chapitre de la thèse, nous développons un modèle à intensités permettant de modéliser simultanément, et de manière consistante, toutes les transitions de ratings qui surviennent dans un grand portefeuille de crédit. Afin de générer des niveaux de dépendance plus élevés, nous introduisons le modèle dynamic frailty dans lequel une variable dynamique inobservable agit de manière multiplicative sur les intensités de transitions. Notre approche est purement historique et nous étudions l’estimation par maximum de vraisemblance des paramètres de nos modèles sur la base de données de transitions de ratings passées
The first part of this thesis deals with probabilistic numerical methods for simulating the solution of a stochastic differential equation (SDE). We start with the algorithm of Beskos et al. [13] which allows exact simulation of the solution of a one dimensional SDE. We present an extension for the exact computation of expectations and we study the application of these techniques for the pricing of Asian options in the Black & Scholes model. Then, in the second chapter, we propose and study the convergence of two discretization schemes for a family of stochastic volatility models. The first one is well adapted for the pricing of vanilla options and the second one is efficient for the pricing of path-dependent options. We also study the particular case of an Orstein-Uhlenbeck process driving the volatility and we exhibit a third discretization scheme which has better convergence properties. Finally, in the third chapter, we tackle the trajectorial weak convergence of the Euler scheme by providing a simple proof for the estimation of the Wasserstein distance between the solution and its Euler scheme, uniformly in time. The second part of the thesis is dedicated to the modelling of dependence in finance through two examples : the joint modelling of an index together with its composing stocks and intensity-based credit portfolio models. In the forth chapter, we propose a new modelling framework in which the volatility of an index and the volatilities of its composing stocks are connected. When the number of stocks is large, we obtain a simplified model consisting of a local volatility model for the index and a stochastic volatility model for the stocks composed of an intrinsic part and a systemic part driven by the index. We study the calibration of these models and show that it is possible to fit the market prices of both the index and the stocks. Finally, in the last chapter of the thesis, we define an intensity-based credit portfolio model. In order to obtain stronger dependence levels between rating transitions, we extend it by introducing an unobservable random process (frailty) which acts multiplicatively on the intensities of the firms of the portfolio. Our approach is fully historical and we estimate the parameters of our model to past rating transitions using maximum likelihood techniques
Styles APA, Harvard, Vancouver, ISO, etc.
13

Béranger, Boris. « Modélisation de la structure de dépendance d'extrêmes multivariés et spatiaux ». Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066004/document.

Texte intégral
Résumé :
La prédiction de futurs évènements extrêmes est d’un grand intérêt dans de nombreux domaines tels que l’environnement ou la gestion des risques. Alors que la théorie des valeurs extrêmes univariées est bien connue, la complexité s’accroît lorsque l’on s’intéresse au comportement joint d’extrêmes de plusieurs variables. Un intérêt particulier est porté aux évènements de nature spatiale, définissant le cadre d’un nombre infini de dimensions. Sous l’hypothèse que ces évènements soient marginalement extrêmes, nous focalisons sur la structure de dépendance qui les lie. Dans un premier temps, nous faisons une revue des modèles paramétriques de dépendance dans le cadre multivarié et présentons différentes méthodes d’estimation. Les processus maxstables permettent l’extension au contexte spatial. Nous dérivons la loi en dimension finie du célèbre modèle de Brown- Resnick, permettant de faire de l’inférence par des méthodes de vraisemblance ou de vraisemblance composée. Nous utilisons ensuite des lois asymétriques afin de définir la représentation spectrale d’un modèle plus large : le modèle Extremal Skew-t, généralisant la plupart des modèles présents dans la littérature. Ce modèle a l’agréable propriété d’être asymétrique et non-stationnaire, deux notions présentées par les évènements environnementaux spatiaux. Ce dernier permet un large spectre de structures de dépendance. Les indicateurs de dépendance sont obtenus en utilisant la loi en dimension finie.Enfin, nous présentons une méthode d’estimation non-paramétrique par noyau pour les queues de distributions et l’appliquons à la sélection de modèles. Nous illustrons notre méthode à partir de l’exemple de modèles climatiques
Projection of future extreme events is a major issue in a large number of areas including the environment and risk management. Although univariate extreme value theory is well understood, there is an increase in complexity when trying to understand the joint extreme behavior between two or more variables. Particular interest is given to events that are spatial by nature and which define the context of infinite dimensions. Under the assumption that events correspond marginally to univariate extremes, the main focus is then on the dependence structure that links them. First, we provide a review of parametric dependence models in the multivariate framework and illustrate different estimation strategies. The spatial extension of multivariate extremes is introduced through max-stable processes. We derive the finite-dimensional distribution of the widely used Brown-Resnick model which permits inference via full and composite likelihood methods. We then use Skew-symmetric distributions to develop a spectral representation of a wider max-stable model: the extremal Skew-t model from which most models available in the literature can be recovered. This model has the nice advantages of exhibiting skewness and nonstationarity, two properties often held by environmental spatial events. The latter enables a larger spectrum of dependence structures. Indicators of extremal dependence can be calculated using its finite-dimensional distribution. Finally, we introduce a kernel based non-parametric estimation procedure for univariate and multivariate tail density and apply it for model selection. Our method is illustrated by the example of selection of physical climate models
Styles APA, Harvard, Vancouver, ISO, etc.
14

Bosc, Damien. « Trois essais sur la modélisation de la dépendance entre actifs financiers ». Phd thesis, Ecole Polytechnique X, 2012. http://pastel.archives-ouvertes.fr/pastel-00721674.

Texte intégral
Résumé :
Cette thèse porte sur deux aspects de la dépendance entre actifs financiers. La première partie concerne la dépendance entre vecteurs aléatoires. Le premier chapitre consiste en une comparaison d'algorithmes calculant l'application de transport optimal pour le coût quadratique entre deux probabilités sur R^n, éventuellement continues. Ces algorithmes permettent de calculer des couplages ayant une propriété de dépendance extrême, dits couplage de corrélation maximale, qui apparaissent naturellement dans la définition de mesures de risque multivariées. Le second chapitre propose une définition de la dépendance extrême entre vecteurs aléatoires s'appuyant sur la notion de covariogramme ; les couplages extrêmes sont caractérisés comme des couplages de corrélation maximale à modification linéaire d'une des marginales multivariées près. Une méthode numérique permettant de calculer ces couplages est fournie, et des applications au stress-test de dépendance pour l'allocation de portefeuille et la valorisation d'options européennes sur plusieurs sous-jacents sont détaillées. La dernière partie décrit la dépendance spatiale entre deux diffusions markoviennes, couplées à l'aide d'une fonction de corrélation dépendant de l'état des deux diffusions. Une EDP de Kolmogorov forward intégrée fait le lien entre la famille de copules spatiales de la diffusion et la fonction de corrélation. On étudie ensuite le problème de la dépendance spatiale atteignable par deux mouvements Browniens, et nos résultats montrent que certaines copules classiques ne permettent pas de décrire la dépendance stationnaire entre des mouvements Browniens couplés.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Tankov, Peter. « Processus de Lévy en Finance : Problèmes Inverses et Modélisation de Dépendance ». Phd thesis, Ecole Polytechnique X, 2004. http://tel.archives-ouvertes.fr/tel-00007944.

Texte intégral
Résumé :
Cette thèse traite de la modélisation de prix boursiers par les exponentielles de processus de Lévy. La première partie développe une méthode non-paramétrique stable de calibration de modèles exponentielle-Lévy, c'est-à-dire de reconstruction de ces modèles à partir des prix d'options cotées sur un marché financier. J'étudie les propriétés de convergence et de stabilité de cette méthode de calibration, décris sa réalisation numérique et donne des exemples de son utilisation. L'approche adoptée ici consiste à reformuler le problème de calibration comme celui de trouver un modèle exponentielle-Lévy risque-neutre qui reproduit les prix d'options cotées avec la plus grande précision possible et qui a l'entropie relative minimale par rapport à un processus "a priori" donné. Ce problème est alors résolu en utilisant la méthode de régularisation, provenant de la théorie de problèmes inverses mal posés. L'application de ma méthode de calibration aux données empiriques de prix d'options sur indice permet d'étudier certaines propriétés des mesures de Lévy implicites qui correspondent aux prix de marché.

La deuxième partie est consacrée au développement d'une méthode permettant de caractériser les structures de dépendance entre les composantes d'un processus de Lévy multidimensionnel et de construire des modèles exponentielle-Lévy multidimensionnels. Cet objectif est atteint grâce à l'introduction de la notion de copule de Lévy, qui peut être considérée comme l'analogue pour les processus de Lévy de la notion de copule, utilisée en statistique pour modéliser la dépendance entre les variables aléatoires réelles. Les exemples de familles paramétriques de copules de Lévy sont donnés et une méthode de simulation de processus de Lévy multidimensionnels, dont la structure de dépendance est décrite par une copule de Lévy, est proposée.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Eksioglu, Kamil Murat. « Modélisation de la dépendance contextuelle des concepts flous la structure SFC ». Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0035/NQ67104.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
17

Vermette, Richard. « Modélisation de la dépendance entre les garanties applicables en assurance automobile ». Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28287/28287.pdf.

Texte intégral
Résumé :
Dans un portefeuille d’assurance automobile, différents types de réclamations peuvent survenir pour chaque police en vigueur. En cas de collision entre deux véhicules, l’assuré peut déposer une réclamation pour dommages corporels et matériels à luimême et à autrui. Traditionnellement, ces types de risques ont été considérés comme indépendants afin d’en faciliter la modélisation stochastique. Dans la pratique, on observe toutefois une dépendance entre les montants de ces réclamations dont il importe de tenir compte pour mieux quantifier le risque global du portefeuille. Frees et Valdez (2008) ont proposé un modèle permettant de considérer certaines dépendances entre les fréquences et les sévérités des garanties impliquées dans les réclamations d’une même police d’assurance. Dans ce mémoire, deux structures de modèles inspirées de celle de Frees et Valdez (2008) sont proposées pour modéliser les sinistres d’un portefeuille d’assurance automobile de l’Ontario. L’ajustement des modèles est réalisé par la méthode de vraisemblance maximale ainsi que par une approche bayésienne.
Tableau d'honneur de la FÉS
Styles APA, Harvard, Vancouver, ISO, etc.
18

Fischer, Richard. « Modélisation de la dépendance pour des statistiques d'ordre et estimation non-paramétrique ». Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1039/document.

Texte intégral
Résumé :
Dans cette thèse, on considère la modélisation de la loi jointe des statistiques d'ordre, c.à.d. des vecteurs aléatoires avec des composantes ordonnées presque sûrement. La première partie est dédiée à la modélisation probabiliste des statistiques d'ordre d'entropie maximale à marginales fixées. Les marginales étant fixées, la caractérisation de la loi jointe revient à considérer la copule associée. Dans le Chapitre 2, on présente un résultat auxiliaire sur les copules d'entropie maximale à diagonale fixée. Une condition nécessaire et suffisante est donnée pour l'existence d'une telle copule, ainsi qu'une formule explicite de sa densité et de son entropie. La solution du problème de maximisation d'entropie pour les statistiques d'ordre à marginales fixées est présentée dans le Chapitre 3. On donne des formules explicites pour sa copule et sa densité jointe. On applique le modèle obtenu pour modéliser des paramètres physiques dans le Chapitre 4.Dans la deuxième partie de la thèse, on étudie le problème d'estimation non-paramétrique des densités d'entropie maximale des statistiques d'ordre en distance de Kullback-Leibler. Le chapitre 5 décrit une méthode d'agrégation pour des densités de probabilité et des densités spectrales, basée sur une combinaison convexe de ses logarithmes, et montre des bornes optimales non-asymptotiques en déviation. Dans le Chapitre 6, on propose une méthode adaptative issue d'un modèle exponentiel log-additif pour estimer les densités considérées, et on démontre qu'elle atteint les vitesses connues minimax. L'application de cette méthode pour estimer des dimensions des défauts est présentée dans le Chapitre 7
In this thesis we consider the modelling of the joint distribution of order statistics, i.e. random vectors with almost surely ordered components. The first part is dedicated to the probabilistic modelling of order statistics of maximal entropy with marginal constraints. Given the marginal constraints, the characterization of the joint distribution can be given by the associated copula. Chapter 2 presents an auxiliary result giving the maximum entropy copula with a fixed diagonal section. We give a necessary and sufficient condition for its existence, and derive an explicit formula for its density and entropy. Chapter 3 provides the solution for the maximum entropy problem for order statistics with marginal constraints by identifying the copula of the maximum entropy distribution. We give explicit formulas for the copula and the joint density. An application for modelling physical parameters is given in Chapter 4.In the second part of the thesis, we consider the problem of nonparametric estimation of maximum entropy densities of order statistics in Kullback-Leibler distance. Chapter 5 presents an aggregation method for probability density and spectral density estimation, based on the convex combination of the logarithms of these functions, and gives non-asymptotic bounds on the aggregation rate. In Chapter 6, we propose an adaptive estimation method based on a log-additive exponential model to estimate maximum entropy densities of order statistics which achieves the known minimax convergence rates. The method is applied to estimating flaw dimensions in Chapter 7
Styles APA, Harvard, Vancouver, ISO, etc.
19

Mtalai, Itre. « Modélisation de la dépendance à l'aide des mélanges communs et applications en actuariat ». Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/32983.

Texte intégral
Résumé :
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2018-2019
La modélisation de la dépendance entre les risques pour un portefeuille d’une assurance ou d’une entité financière est devenue de plus en plus importante pour la solvabilité des institutions financières et l’examen de solvabilité dynamique et l’analyse financière dynamique des compagnies d’assurance. L’hypothèse d’indépendance entre les risques est parfois réaliste et facilite l’évaluation, l’agrégation et l’allocation des risques. Cependant, dans la majorité des cas, les risques individuels sont influencés par un ou plusieurs facteurs communs, tels que l’environnement économique, les régions géographiques ou les conditions climatiques et il est donc moins réaliste, voire dangereux, de supposer l’indépendance entre les risques d’un même portefeuille. Dans la littérature, un tel cas peut être modélisé par des modèles avec mélange commun. Ces modèles ont de nombreuses applications en assurance et en finance. L’objectif de cette thèse est donc d’explorer les modèles de dépendance construits à l’aide des mélanges communs et de faire sortir, à l’aide de plusieurs applications, la dangerosité de considérer l’indépendance entre les risques au sein d’un portefeuille. En particulier, la focalisation est mise sur un modèle souvent considéré pour modéliser le montant de sinistres, notamment la loi exponentielle mélange. Cette thèse considère les modèles de risque basés sur la loi exponentielle mélange. Le premier chapitre constitue une introduction générale aux modèles avec mélanges communs et introduit les notions qui seront utilisées dans les autres chapitres. Dans le deuxième chapitre, nous considérons un portefeuille de risques représentés par un vecteur de variables aléatoires dont la fonction de répartition conjointe est définie par une copule Archimédienne ou une copule Archimédienne imbriquée. Nous examinons le calcul de la fonction de répartition de la somme ou une variété de fonctions de ces variables aléatoires. En nous basant sur la méthodologie computationnelle présentée dans ce chapitre, nous examinons plusieurs problèmes reliés à différents modèles de risque en actuariat, tels que l’agrégation et l’allocation du capital. De plus, en utilisant une telle structure de dépendance avec des marginales spécifiques, nous obtenons des expressions explicites pour plusieurs quantités relatives au risque agrégé telles que sa fonction de masse de probabilité, sa fonction de répartition, sa TVaR, etc. L’échangeabilité des copules Archimédiennes implique que toutes les marginales sont égales. Afin de généraliser les copules Archimédiennes pour permettre les asymétries, plusieurs chercheurs utilisent une structure hiérarchique obtenue en imbriquant plusieurs copules Archimédiennes. Toutefois, il est difficile de valider la condition d’imbrication permettant d’assurer que la structure résultante est une copule, lorsque les copules impliquées appartiennent à des familles Archimédiennes différentes. Afin de remédier à ce problème, nous présentons, au troisième chapitre, une nouvelle méthode d’imbrication basée sur la construction des lois composées multivariées exponentielles mélange. En introduisant plusieurs paramètres, un large spectre de structures de dépendance peut être couvert par cette nouvelle construction, ce qui semble être très intéressant pour des applications pratiques. Des algorithmes efficients de simulation et d’agrégation sont également présentés. En nous inspirant à la fois des chapitres 2 et 3, nous proposons et examinons en détail au quatrième chapitre une nouvelle extension au modèle collectif de risque en supposant une certaine dépendance entre la fréquence et la sévérité des sinistres. Nous considérons des modèles collectifs de risque avec différentes structures de dépendance telles que des modèles impliquant des lois mélanges d’Erlang multivariées ou, dans un cadre plus général, des modèles basés sur des copules bivariées ou multivariées. Nous utilisons également les copules Archimédiennes et Archimédiennes hiérarchiques afin de modéliser la dépendance entre les composantes de la somme aléatoire représentant le montant de sinistre global. En nous basant encore une fois sur la représentation de notre modèle sous forme d’un mélange commun, nous adaptons la méthodologie computationnelle présentée au chapitre 2 pour calculer la fonction de masse de probabilité d’une somme aléatoire incorporant une dépendance hiérarchique. Finalement, dans le cinquième chapitre, nous soulignons l’utilité des modèles avec mélange commun et nous étudions plus en détail les lois exponentielles mélange dans leurs versions univariée et multivariée et nous expliquons leur lien étroit avec les copules Archimédiennes et Archimédiennes hiérarchiques. Nous proposons également plusieurs nouvelles distributions et nous établissons leurs liens avec des distributions connues.
Risk dependence modelling has become an increasingly important task for the solvency of financial institutions and insurance companies. The independence assumption between risks is sometimes realistic and facilitates risk assessment, aggregation and allocation. However, in most cases individual risks are influenced by at least one common factor, such as the economic environment, geographical regions or climatic conditions, and it is therefore less realistic or even dangerous to assume independence between risks. In the literature, such a case can be modelled by common mixture models. These models have many applications in insurance and finance. The aim of this thesis is to explore the dependence models constructed using common mixtures and to bring out, with the use of several applications, the riskiness of considering the independence between risks within an insurance company or a financial institution. In particular, the focus is on the exponential mixture. Exponential mixture distributions are on the basis of this thesis. The first chapter is a general introduction to models with common mixtures and introduces the concepts that will be used in the other chapters. In the second chapter, we consider a portfolio of risks represented by a vector of random variables whose joint distribution function is defined by an Archimedean copula or a nested Archimedean copula. We examine the computation of the distribution of the sum function or a variety of functions of these random variables. Based on the computational methodology presented in this chapter, we examine risk models regarding aggregation, capital allocation and ruin problems. Moreover, by using such a dependency structure with specific marginals, we obtain explicit expressions for several aggregated risk quantities such as its probability mass function, its distribution function, and its TVaR. The exchangeability of the Archimedean copulas implies that all margins are equal. To generalize Archimedean copulas to allow asymmetries, several researchers use a hierarchical structure obtained by nesting several Archimedean copulas. However, it is difficult to validate the nesting condition when the copulas involved belong to different Archimedean families. To solve this problem, we present, in the third chapter, a new imbrication method via the construction of the multivariate compound distributions. By introducing several parameters, a large spectrum of dependency structures can be achieved by this new construction, which seems very interesting for practical applications. Efficient sampling and aggregation algorithms are also presented. Based on both Chapters 2 and 3, we propose and examine in detail, in the fourth chapter, a new extension to the collective risk model assuming a certain dependence between the frequency and the severity of the claims. We consider collective risk models with different dependence structures such as models based on multivariate mixed Erlang distributions, models involving bivariate or multivariate copulas, or in a more general setting, Archimedean and hierarchical Archimedean copulas. Once again, based on the common mixture representation, we adapt the computational methodology presented in Chapter 2 to compute the probability mass function of a random sum incorporating a hierarchical Archimedean dependency. Finally, in the last chapter, we study, in more details, the exponential mixture distributions in their univariate and multivariate versions and we explain their close relationship to Archimedean and hierarchical Archimedean copulas. We also derive several new distributions, and we establish their links with pre-existent distributions. Keywords : Common mixture models, Exponential mixture, Bernoulli mixture, Archimedean copulas, Nested Archimedean copulas, Compounding, Marshall-Olkin, Hierarchical dependence structures.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Kodia, Banzouzi Bernédy Nel Messie. « Mesures de dépendance pour une modélisation alpha-stable : application aux séries chronologiques stables ». Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1468/.

Texte intégral
Résumé :
Dans cette thèse, nous apportons une contribution à l'étude de la dépendance entre des variables aléatoires à queues lourdes, et en particulier symétriques a-stables, en introduisant un nouveau coefficient de dépendance : le coefficient de covariation symétrique signé. Nous utilisons ce coefficient ainsi que le paramètre d'association généralisé introduit par Paulauskas (1976), dans le contexte des séries chronologiques, à des fins d'identification des processus MA et AR stables. Dans le premier chapitre, nous donnons une vue d'ensemble des lois a-stables. Nous rappelons les concepts fondamentaux, quelques unes des représentations des variables aléatoires associées, tant dans le cas univarié que multivarié. La mesure spectrale porte toute l'information sur la structure de dépendance d'un vecteur aléatoire a-stable. Sa forme est donnée pour deux sous-familles de lois : les vecteurs aléatoires sous-gaussiens et les combinaisons linéaires de variables aléatoires indépendantes. La covariation et la codifférence sont présentées. Nous introduisons le coefficient de covariation symétrique signé dans le deuxième chapitre. Ce coefficient possède la plupart des propriétés du coefficient de corrélation de Pearson. Dans le cas des vecteurs aléatoires sous-gaussiens, il coïncide avec le coefficient d'association généralisé. La consistance des estimateurs proposés pour ces deux quantités est démontrée. Les résultats d'une étude sur les comportements asymptotiques des estimateurs sont présentés. Dans le troisième chapitre, nous introduisons les notions d'autocovariation symétrique signée et d'auto-association généralisée pour des processus linéaires stationnaires. Nous utilisons ces coefficients pour l'identification de l'ordre d'un processus MA stable. Nous proposons une statistique jouant le rôle d'un coefficient d'autocorrélation partielle. Nous comparons cette statistique avec les statistiques quadratiques asymptotiquement invariantes fondées sur les rangs et utilisées par Garel et Hallin (1999) pour l'identification des AR stables. Une étude des résultats obtenus est réalisée à partir de simulations
This thesis is a contribution to the study of the dependence between heavy tails random variables, and especially symmetric a-stable random variables, by introducing a new coefficient of dependence: the signed symmetric covariation coefficient. We use this coefficient and the generalized association parameter introduced by Paulauskas (1976), in the context of time series, for Identification of MA and AR stable processes. In the first chapter, we give an overview of a-stable laws. We recall the basic concepts, some representations of associated random variables in both the univariate and multivariate cases. The spectral measure carries all the information about the dependence structure of an a-stable random vector. Its form is given for two sub-families of laws : the sub-Gaussian random vectors and linear combinations of independent random variables. Covariation and codifference are presented. We introduce the signed symmetric covariation coefficient in the second chapter. This coefficient has most of the properties of the correlation coefficient of Pearson. In the case of sub-Gaussian random vectors, it coincides with the generalized association parameter. The consistency of the proposed estimators for these quantities is demonstrated. The results of a study on the asymptotic behavior of estimators are presented. In the third chapter, we introduce the concepts of signed symmetric autocovariation and generalized auto-association for linear stationary processes. We use these coefficients for identifying the order of a MA stable process. We propose a statistic acting as a partial autocorrelation coefficient. We compare this statistic with quadratic statistics asymptotically invariant based on the ranks and used by Garel and Hallin (1999) for the identification of AR stables. A study of the results is performed using simulations
Styles APA, Harvard, Vancouver, ISO, etc.
21

Limam, Mohamed-Ali. « Modélisation de la dynamique des rentabilités des hedge funds : dépendance, effets de persistance et problèmes d’illiquidité ». Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTD031/document.

Texte intégral
Résumé :
Dans cette thèse nous combinons les processus à mémoire longue ainsi que les modèles à changement de régime markovien afin d’étudier la dynamique non linéaire des rentabilités des hedge funds et leur exposition au risque de marché. L’attractivité des hedge funds réside dans leur capacité à générer des rentabilités décorrélées avec celles des actifs traditionnels tout en permettant d’améliorer les rentabilités et/ou de réduire le risque, indépendamment des conditions de marché. Cependant, certaines spécificités des rentabilités des hedge funds (non linéarité, asymétrie et présence d’une forte autocorrélation émanant des problèmes d’illiquidités) remettent en cause cet aspect qui n’est valable que dans un univers gaussien. Nous adoptons de ce fait une approche économétrique permettant de réconcilier la notion de mémoire longue et celle de la persistance pure des performances. Nous mettons l’accent sur le risque de confusion entre vraie mémoire longue et mémoire longue fallacieuse dans la mesure où certains processus peuvent générer des caractéristiques similaires à celles des processus à mémoire longue. Il ressort de cette étude non seulement l’insuffisance des modèles standards à prendre en compte les caractéristiques des séries des rentabilités financières mais aussi la pertinence du recours aux modèles mixtes pour mieux cerner l’ensemble de ces spécificités dans un cadre unifié. Le modèle Beta Switching ARFIMA-FIGARCH que nous proposons révèle la complexité de la dynamique des rentabilités des hedge funds. Il est donc nécessaire de mieux appréhender cette dynamique afin d'expliquer convenablement les interactions qui existent entre les hedge funds eux-mêmes et entre les hedge funds et les marchés standards. La composante mémoire longue est prise en compte à la fois au niveau de la moyenne conditionnelle à travers le processus ARFIMA ainsi qu’au niveau de la variance conditionnelle à travers plusieurs spécifications des processus hétéroscédastiques fractionnaires notamment les processus FIGARCH, FIAPARCH et HYGARCH. Cette modélisation mieux adaptée aux spécificités des hedge funds met en évidence le risque caché de ces derniers et représente une nouvelle perspective vers laquelle les gérants et les responsables d’agence pourraient s’orienter
In this thesis we combine long memory processes and regime switching models to study the nonlinear dynamics of hedge funds returns and their exposure to market risk. The attractiveness of hedge funds lies in their ability to generate returns uncorrelated to those of traditional assets while allowing to improve returns and/or reduce the risk, regardless of market conditions. However, some specificity of returns of hedge funds as their nonlinear and asymmetric nature as well as the presence of a strong autocorrelation in related to illiquidity problems make this aspect only valid in a Gaussian framework. In this study, we adopt an econometric approach that reconciles the notion of long memory and that of pure performance persistence. In this regard, we focus on the risk of confusion between real and spurious long memory long memory since certain processes can generate similar characteristics to that of long memory processes. It appears from this study not only the inadequacy of standard models to take into account the characteristics of the series of financial returns but also the relevance of using mixed models to better understand all of these features within a unified framework. The Beta Switching ARFIMA-FIGARCH mode we suggest reveals the complexity of hedge fund return dynamics and proves the need to better understand the dynamics of returns of hedge funds in order to explain the interactions between hedge funds themselves and between hedge funds and standard markets. The long memory component is taken into account both at the conditional mean through the ARFIMA process and at the conditional variance through several specifications heteroscedatic fractional processes including FIGARCH, FIAPARCH and HYGARCH models. This model take into account several features of hedge fund returns, highlights their hidden risks and represents a new perspective to which managers could move
Styles APA, Harvard, Vancouver, ISO, etc.
22

Keiflin, Ronald. « La rechute chez le toxicomane et sa modélisation chez l'animal : analyse des processus comportementaux élémentaires ». Bordeaux 2, 2008. http://www.theses.fr/2008BOR21528.

Texte intégral
Résumé :
L'addiction est une pathologie chronique caractérisée par de fréquentes rechutes même après des périodes prolongées d'abstinence. Chez le toxicomane, il a été démontré que la réexposition à la drogue contribue à précipiter le rétablissement d'une consommation compulsive. Chez l'animal de laboratoire, la réexposition à la drogue induit la réinstallation d'un comportement éteint de recherche de drogue. Pourtant, les mécanismes intimes par lesquels la réexpositionà la drogue entraîne cette réinstallation restent mal connus. L'objectif de ce trévail était de déterminer les processus comportementaux impliqués dans la réinstallation induite par la réexposition à la cocaine. Nous avons mis en évidence que : 1/ l'administration de cocaine constitue un stimulus (interne) discriminatif qui contrôle l'expression du comportement préalablement exécuté en présence de ce stimulus. Ainsi, la réexposition à la cocaine peut réinstaller un commportement de recherche de nourriture, à condition que ce comportement ait été préalablement exécuté sous les effets de la cocaine. 2/ la réinstallation induite par la cocaine ne dépend pas de la valeur de la récompense préalablement obtenue. Ce résultat indique que la réinstallation n'est pas guidée par la représentation des conséquences du comportement (la réinstallation n'est pas un comportement par lequel l'animal cherche à obtenir la drogue). Ces résultats démontrent que la réexposition à la cocaine constitue un stimulus discriminatif qui contrôle l'expression de certains automatismes comportementaux. Cette réinstallation aitomatique non intentionnelle, pourrait expliquer la forte probabilité de rechute malgré la connaissance des cponséquences négatives
Relapse to drug taking, evenafter extended periods of abstinence, is one od the main obstacles to the effective treatment of drug addiction. Although the factors responsible for the resumption of drug taking in human addicts are not completely understood, acute re-exposure to the drug has been identified as a major determinant of relapse. In an animal model of relapse, an acute "priming" injection of the drug results in a robust reinstatement of a formerly acquired and then extinguished drug self-administration behavior. In order to determine more precisely which feature of human relapse is captured by the reinstatement model, we intended to tease apart the contribution of several elemental psychological processes in the cocaine-induced reinstatement model. We found that : 1/ Cocaine acts as a (internal) stimulus and acquires discriminative control over behavior. Hence, cocaine can reinstate an extinguished food-seeking gehavior when this behavior has been previously trained under the influence of cocaine. 2/ Cocaine-induced reinstatement is independent of the current value of the outcome. This result indicates that cocaine-induced reinstatement is not a goal-directed behavior (reinstatement is not necessarly equivalent to drug seeking). This series of experiments indicates that the reinstatement model, cocaine acts as a discriminative stimulus that controls the activation of automatic, habit-based behaviors. In human addicts, such a discriminative control of automatic drug-related behaviors might explain the high probability of relapse, even after extended periods of abstinence and conscious knowledge of the long-term aversive consequences
Styles APA, Harvard, Vancouver, ISO, etc.
23

Bourhis, Yoann. « Dynamique de population et dépendance multi-échelle au paysage - modélisation mécaniste appliquée à la protection des cultures ». Thesis, Rennes, Agrocampus Ouest, 2016. http://www.theses.fr/2016NSARA079/document.

Texte intégral
Résumé :
Dans un objectif de réduction de l'utilisation des pesticides, des méthodes alternatives doivent assurer la protection des cultures. Les dégâts causés par les insectes ravageurs sont les manifestations de dynamiques de population dont certains déterminants paysagers sont des éléments structuraux potentiellement relocalisables. Nous explorons ici, par la simulation numérique, la modification du paysage comme stratégie de protection des cultures.Les éléments paysagers peuvent impacter les populations d'insectes par leur influence sur les comportements individuels. Nous avons développé un modèle de population tenant compte de l'approvisionnement individuel. Ce processus résulte (1) de la perception des ressources distantes par l'individu, (2) de la localisation de la population sur une dimension additionnelle quantifiant les réserves énergétiques, et (3) d'une procédure d'optimisation qui définit des mouvements dirigés adaptés.Une heuristique évolutionnaire de modification de paysages a été développée. Elle produit des réarrangements sous contraintes de composition et de structure. Les modèles de paysages et de dynamique de population ont été appliqués à un problème théorique d'aménagement du paysage. La description mécaniste de l'approvisionnement optimal offre des leviers d'action efficaces, basés sur la perturbation des comportements d'approvisionnement. Nos travaux montrent la réactivité de la population aux modifications du paysage, ainsi que la capacité des algorithmes évolutionnaires à proposer des paysages résistants, sous contraintes agronomiques
Environmental and health issues call for a switch in crop protection towards less chemically driven strategies. Pest damages on crops result of population dynamics that are influenced by landscape features. Those features may be relocated or dismissed to improve landscapes resistance to pest damages. Here we explore numerically the landscape modification as a crop protection strategy.Landscape features can influence population dynamics through their impact on individuals. Therefore, we developed a multiscale population dynamics model accounting for individual foraging. The foraging process results of (1) the perception of distant features used as resources by the individuals, (2) the localisation of the population along an additional dimension quantifying individual energy supply, (3) an optimisation procedure defining adapted directed motionsWe developed an evolutionary heuristic for landscape modification. It is able to rearrange landscapes with respect to compositional and structural constraints. Population and landscape models were applied to a theoretical landscape planning problem. The mechanistic description of the optimal foraging process enables new and efficient levers for crop protection, building on the disruption of the foraging behaviours. This application enlightens the responsiveness of the simulated population to landscape modifications, as well as the ability of evolutionary algorithms to produce resilient landscapes under agronomic productive constraints
Styles APA, Harvard, Vancouver, ISO, etc.
24

Araichi, Sawssen. « Modélisation de la dépendance temporelle des sinistres en assurance non vie et enjeux de l’évaluation du Passif ». Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10170/document.

Texte intégral
Résumé :
Initialement, la modélisation des risques en assurance non vie, supposait l'indépendance entre les différentes variables des modèles actuariels. De nos jours, cette hypothèse d'indépendance est souvent relâchée afin de tenir compte de possibles interactions entre les différents éléments. Cette thèse a pour but de contribuer à la littérature existante de la modélisation de la dépendance en assurance non vie. Concrètement, nous introduisons une nouvelle méthodologie d'analyse des risques en assurance à travers le développement des modèles de dépendance, principalement dans un cadre dynamique. Dans le premier chapitre de la thèse nous introduisons le contexte actuel de solvabilité, ainsi que la modélisation de la dépendance en assurance, avec une présentation des principaux résultats. Le deuxième chapitre est essentiellement constitué d'un article coécrit avec Christian de Peretti et Lotfi Belkacem, intitulé "Modelling Temporal Dependence of Claims In Insurance Using Autoregressive Conditional Amount Models" (voir Araichi et al. (2013)). Dans ce chapitre nous montrons l'existence d'une forme de dépendance temporelle (dynamique) entre les montants de sinistres d'une même branche d'assurance. Nous proposons un nouveau modèle nommé Autoregressive Conditional Amount Model (ACA), qui permet de capturer le comportement dynamique des sinistres. Également, nous développons un nouveau modèle nommé Generalized Extreme Value ACA model (GEVACA), afin d'analyser la dépendance dynamique des montants élevés, au niveau des queues de distribution. Enfin, nous donnons une nouvelle expression pour la Value at Risk (VaR) paramétrique adaptée pour des risques à dépendance temporelle. Des applications sur des données réelles et des techniques de backtesting sont ensuite effectuées afin de montrer la pertinence des modèles proposés. Le troisième chapitre est constitué d'un article coécrit avec Christian de Peretti et Lotfi Belkacem, intitulé "Generalized Autoregressive Conditional Sinistrality Model : A novel model for claims reserving in Non life insurance", (voir Araichi et al. (2015)). Dans ce chapitre, nous abordons d'abord le problème de l'évaluation des réserves dans un cadre dynamique. Nous montrons l'existence d'une forme de dépendance dynamique dans un triangle de liquidation. En particulier, nous nous intéressons à l'analyse de la dépendance temporelle entre les sinistres, ainsi qu'entre les années de développement. Nous proposons un nouveau modèle nommé "Generalized Autoregressive Conditional Sinistrality Model (GACSM), qui constitue une extension du modèle linéaire généralisé classique. Ensuite, nous fournissons une méthode de simulation bootstrap basée sur le modèle GACSM, qui permet d'évaluer les réserves en tenant compte du caractère dynamique des sinistres. Enfin, afin de montrer l'impact du modèle proposé sur l'évaluation des réserves et du capital, nous effectuons une comparaison des résultats obtenus avec ceux obtenus des modèles classiques (Chain Ladder et modèle linéaire généralisé). Dans le quatrième chapitre de la thèse, qui est constitué d'un article, coécrit avec Christian de Peretti et Lotfi Belkacem, intitulé "Time Varying Copula Model for claims reserving in Non life insurance". Nous intéressons à évaluer le montant agrégé des sinistres, en analysant conjointement la dépendance dynamique inter-sinistres ainsi qu'entre les sinistres de deux branches. Nous proposons un modèle basé sur le modèle GACSM et les copules conditionnelles, qui permettent de suivre l'évolution de la dépendance au cours du temps. Enfin, nous effectuons des applications sur des données réelles, ainsi que des méthodes de simulation sont considérées. En comparant les résultats obtenus, nous avons pu illustrer l'impact de la dépendance dynamique sur les réserves et le besoin en capital
In this thesis a different aspects of dependence modeling are considered. Indeed, temporal dependence structures between claims amounts and between lines of business are analyzed. In the first chapter, a general introduction on modeling dependence in insurance is provided. The second chapter is essentially constituted by the article "Modeling Temporal Dependence of Claims In Insurance Using Autoregressive Conditional Amount Models", written with Christian de Peretti and Lotfi Belkacem, (see Araichi et al. (2013)) It deals with the problem of existing a temporal dependence structure between claims amounts of one line of business. To this end, we propose a new model for handling the dynamic behaviour of claims amounts in insurance companies using an Autoregressive Conditional Amount (ACA) framework. This model will be named Autoregressive Conditional Amount Model (ACA). A Gamma ACA model and a Generalized Extreme Value ACA model are proposed. It is shown that these models are more appropriate to describe and to forecast the process of claims of the lines Auto Damage and Auto Liability than traditional models. Furthermore, a parametric Value at Risk based on ACA framework (VaR ACA) is proposed for evaluating a coverage amount of these claims. Using backtesting techniques, the VaR ACA provides an accurate estimation of risk. The third chapter of this thesis is based on the article "Generalized Autoregressive Conditional Sinistrality Model: A novel model for claims reserving in Non life insurance", written with Christian de Peretti and Lotfi Belkacem, (see Araichi et al. (2015)). In this chapter, a Generalized Autoregressive Conditional Sinistrality Model (GACSM) for claims is proposed. We extend the Generalized Linear Model (GLM) by incorporating temporal dependence between claims amounts of one triangle. The GACSM is used for model parameter estimation and consistency of such estimate is proved. Bootstrap procedure is implemented for prediction reserves and prediction errors. Results show that taking into account the temporal dependence between losses improves the precision of the reserve distribution estimate, and thus evaluates an accurate SCR. Finally the fourth chapter is based on the article "Time Varying Copula Model for claims reserving in Non life insurance", written with Christian de Peretti and LotfiBelkacem. In this chapter, a time varying copula models to understand the behavior of claims amounts of two lines of business. Time varying copula functions with a Generalized Autoregressive Conditional Sinistrality model are used to analyze the evolution in time of dependence between two lines and the temporal dependence between claims of each line. Simulation study is performed to highlight the impact on reserves and Solvency Capital Requirement. Results show that our approach provides a diversification effect between claims amounts
Styles APA, Harvard, Vancouver, ISO, etc.
25

Zequeira, Alfonso Romulo Isbel. « Modélisation stochastique pour l'évalusation de politiques d'inspection et de maintenance des systèmes de sécurité ». Troyes, 2005. http://www.theses.fr/2005TROY0008.

Texte intégral
Résumé :
Les systèmes de sécurité ont un rôle important pour la maîtrise des risques dans l’exploitation des systèmes industriels. Fréquemment, on ne peut diagnostiquer la panne de ces systèmes qu’au moyen d’inspections périodiques. De plus, on peut supposer qu’ils vieillissent. Donc, il peut s’avérer efficace de les remplacer périodiquement. On s’intéresse à la détermination de politiques d’inspection et de maintenance des systèmes de sécurité. On considère des aspects pratiques importants : la qualité des inspections, la qualité de la maintenance et la prise en considération d’actions de maintenance prédictive. On étudie la prise en compte dans la modélisation des opportunités pour la réalisation des inspections et des actions de maintenance et on examine les politiques d’inspection et de maintenance pour des systèmes à deux composants avec durées de vie dépendantes pour deux critères : le taux du coût et l’intégrité de sécurité
High safety systems availability is important to keep industrial risks at low levels. Usually the failures of those systems can be detected only by periodic inspections. Besides, they deteriorate in time. Hence to replace them periodically may decrease total cost. We consider the determination of inspection and maintenance policies of safety systems. Important practical aspects considered in this thesis are the quality of inspections, the quality of maintenance actions and the use of predictive maintenance. We study how to include in the models the opportunities for inspecting and replacing the system. Further, we examine the inspection and maintenance policy for two-components parallel systems with dependent component lifetimes, for two criteria: the cost rate and a reliability constraint
Styles APA, Harvard, Vancouver, ISO, etc.
26

Guicharnaud, Chloé. « Dynamiques éco-évolutives de la densité-dépendance au sein des fronts d'expansion poussés ». Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ6041.

Texte intégral
Résumé :
La densité de population, c'est-à-dire le nombre d'individus présents dans un espace donné, a une grande influence sur les performances des individus et populations. La présence générale de densité-dépendance et de traits densité-dépendants au sein de l'arbre du vivant fait qu'il est important d'en savoir plus sur comment cette densité-dépendance peut évoluer et influencer les dynamiques de populations. Quand une population se propage dans l'espace, la densité de population peut dramatiquement varier sur une courte échelle spatiale, allant d'un cœur déjà occupé et parfois densément peuplé, aux zones vides au-delà du bord de l'expansion. Dans ce contexte, comprendre comment les traits liés à la dispersion répondent à la densité est essentiel car cela pourrait potentiellement changer les dynamiques écologiques et évolutives le long d'une expansion. Notamment, la densité-dépendance positive au niveau de la dispersion (ou du taux de croissance de la population) peut générer des expansions dites « poussées », où les individus provenant de populations éloignées du front sont la force motrice de l'expansion. Ces dynamiques sont comparées à des expansions plus « tirées » pour lesquelles la propagation est dirigée par les individus au bord du front d'expansion. Beaucoup d'études sur ce continuum tiré/poussé ignorent la possibilité d'une évolution de la densité-dépendance positive, mais aussi comment les traits générant cette densité-dépendance peuvent être corrélés, entre eux ou à d'autres traits. Au cours de cette thèse, j'ai combiné expansions expérimentales et simulées afin d'explorer comment l'évolution de traits d'histoire de vie corrélés et densité-dépendants peuvent influencer les dynamiques éco-évolutives d'un point de vue tiré/poussé. Tout d'abord, j'ai démontré que pour différentes espèces de trichogrammes, des micro-hyménoptères parasitoïdes, la position sur l'axe d'histoire de vie dit du Train-de-Vie (ou Pace-of-Life en anglais) était partiellement corrélée avec le statut poussé ou tiré d'une expansion, l'espèce plus « lente » générant des expansions plus poussées. Ensuite, à l'aide de Modèles Individus-Centrés, j'ai trouvé, contrairement à mes hypothèses, que la force de la corrélation entre traits d'histoire de vie n'influence pas de façon significative les dynamiques tirées/poussées globales. Cependant, les coûts de la dispersion peuvent remodeler de façon marquée la relation entre la diversité génétique et la densité-dépendance, un lien clé au sein des dynamiques poussées. Enfin, de nouveau à l'aide d'expansions simulées, j'ai tenté de construire des modèles prédictifs pour inférer des paramètres clés d'expansions poussées, à partir d'un ensemble de métriques basées sur la génétique ou la démographie des populations. Ces métriques seraient facilement récupérables sur le terrain ou à partir de jeux de données empiriques. Notre première preuve de concept présente des résultats encourageants, avec des modèles ayant de bonnes performances pour prédire la présence de densité-dépendance positive sur la dispersion ou une mesure spatiale de la diversité génétique neutre. Globalement, cette thèse démontre l'importance d'inclure l'évolution des traits densité-dépendants au sein des études sur les expansions biologiques tirées versus poussées, car cela pourrait amener à des changements de dynamiques tirées/poussées ; l'histoire (co-)évolutive semble aussi avoir un effet sur le statut poussé ou tiré d'une expansion, ce qui n'est pas le cas pour la structure de la corrélation. Des indications de trajectoires évolutives divergentes entre les expansions poussées générées par de la densité-dépendance positive sur la dispersion ou la croissance de la population ouvre la porte à de futures études sur l'évolution des expansions biologiques, et comment inclure cette évolution afin de réaliser de meilleures prédictions sur des scénarios d'expansions réelles
Population density, i.e. the number of individuals present in a given space, has a major influence on individual performance and ultimately population biology. The nearly ubiquitous presence of density-dependence and density-dependent traits within the Tree of Life makes it important to know more about how density-dependence can evolve and influence population dynamics. When a population is expanding over space, density varies dramatically over a short spatial scale from the already occupied, sometimes densely populated, core area to the empty spaces beyond the expanding edge. In this context, understanding how dispersal traits respond to density is essential to know as it will potentially lead to or shape various ecological and evolutionary changes along the expansion. Notably, positive density-dependence in dispersal (but also in population growth rates) can generate so-called "pushed" expansions, where individuals in populations well behind the leading edge mostly drive the spread. Such dynamics are compared to more "pulled" expansions, in which the spread is driven by individuals at the leading edge. Many studies on this pulled/pushed continuum ignore the possibility of an evolving positive density dependence, and how traits driving that density dependence may be correlated with other traits or each other. During this thesis, I combined experimental and simulated expansions to explore how the evolution of correlated density-dependent life-history traits could influence eco-evolutionary dynamics under the lens of pulled/pushed dynamics. First, I demonstrated that among different species of Trichogramma microwasps, each species' position on a pace-of-life continuum was partially correlated with how pushed or pulled the expansion is. Slower species generating more pushed expansions. Then, using an Individual-Based Model, I found, conversely to my expectations, that the strength of life-history trait correlation does not significantly influence overall pulled/pushed dynamics. However, there is evidence that dispersal costs can markedly reshape the relationship between neutral genetic diversity and density-dependence that is key to pushed dynamics. Finally, using simulated expansions again, I attempted to build predictive models that can infer key pushed expansion parameters from a set of metrics based on population genetics or demography that could be easily obtainable from empirical datasets or in the field. Our first proof of concept presented encouraging results, with good model performances when predicting the presence of positive density-dependence in dispersal or the spatial neutral genetic diversity. Overall, this thesis presents the importance of including the evolution of density-dependent traits within studies on pulled versus pushed expansions, as it may result in shifts within this continuum. The (co)evolutionary history also seems to influence how much the expansion is pushed or pulled, but not the correlation structure itself. Indications of divergent evolutionary trajectories between pushed expansions generated by positive density-dependence in dispersal or population growth open the door for further studies on the evolution of biological expansions, and on how to include it to make better predictions in real-life scenarios
Styles APA, Harvard, Vancouver, ISO, etc.
27

Nicolet, Gilles. « Inférence et modélisation de la dépendance spatiale des extrêmes neigeux dans les Alpes françaises par processus max-stables ». Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAU017/document.

Texte intégral
Résumé :
Les extrêmes neigeux sont parmi les risques naturels les plus dangereux dans les régions montagneuses. Les processus max-stables, qui relient statistique des valeurs extrêmes et géostatistique, offrent un cadre approprié pour les étudier. Deux questions importantes concernant la dépendance spatiale des extrêmes sont traitées dans cette thèse à travers les cas des chutes et des hauteurs de neige dans les Alpes françaises : la sélection de modèle et la non-stationnarité temporelle. Nous utilisons pour cela deux jeux de données de maxima hivernaux de chutes de neige (90 stations de 1958 à 2013) et de hauteurs de neige (82 stations de 1970 à 2013). Nous décrivons d'abord une procédure de validation-croisée appropriée pour évaluer les capacités des processus max-stables à capturer la structure de dépendance des extrêmes spatiaux. Nous mettons en exergue trois processus max-stables pour leur aptitude à modéliser la dépendance spatiale des chutes de neige extrêmes : les processus de Brown-Resnick, géométrique gaussien et extrémal-t. Les performances de ces trois modèles sont extrêmement similaires, quel que soit le nombre de stations ou d'années. Ensuite, nous présentons une approche par fenêtre glissante pour évaluer l'évolution temporelle de la dépendance des extrêmes spatiaux. Nous montrons ainsi que les chutes de neige extrêmes ont tendance à être de moins en moins dépendantes spatialement. Nous montrons que cela est dû à une augmentation de la température provoquant une baisse du ratio neige/pluie. Il existe aussi un effet d'intensité avec des extrêmes moins dépendants à cause d'une baisse du cumul hivernal de chutes de neige. Enfin, nous présentons la première utilisation de processus max-stables avec des tendances temporelles dans la structure de dépendance spatiale. Cette approche est appliquée aux maxima de hauteurs de neige modélisés par un processus de Brown-Resnick. Nous montrons que leur dépendance spatiale est impactée par le changement climatique d'une manière similaire que celle des chutes de neige extrêmes
Extreme snowfall and extreme snow depths are among the most dangerous hazards in the mountainous regions. Max-stable processes, which connect extreme value statistics and geostatistics by modeling the spatial dependence of extremes, offer a suitable framework to deal with. Two challenging issues concerning spatial dependence of extremes are broached in this thesis through the examples of snowfall and snow depths in the French Alps: model selection and temporal nonstationarity. We process two winter maxima data sets of 3-day snowfall (90 stations from 1958 to 2013) and snow depths (82 stations from 1970 to 2013). First, we introduce a leave-two-out cross-validation procedure appropriate for evaluating the predictive ability of max-stable processes to model the dependence structure of spatial extremes. We compare five of the most commonly used max-stable processes, using as a case study the snowfall maxima data set. This approach allows us to show that the extremal-t, geometric Gaussian and Brown-Resnick processes are able to represent as well the structure of dependence of the data, regardless of the number of stations or years. Then, we show, using a data-based approach allowing to make minimal modeling assumptions, that snowfall extremes tended to become less spatially dependent over time, with the dependence range reduced roughly by half during the study period. We demonstrate that this is attributable at first to the increase in temperature and its major control on the snow/rain partitioning. A magnitude effect, with less dependent extremes due to a decrease in winter cumulated snowfall, also exists. Finally, we tackle the first-ever use of max-stable processes with temporal trends in the spatial dependence structure. This approach is applied to snow depth winter maxima modeled by a Brown-Resnick process. We show that the spatial dependence of extreme snow depths is impacted by climate change in a similar way to that has been observed for extreme snowfall
Styles APA, Harvard, Vancouver, ISO, etc.
28

Bubák, Vít. « Chapitres en modélisation économétrique appliquée des marchés financiers d'Europe centrale ». Paris 1, 2010. http://www.theses.fr/2010PA010033.

Texte intégral
Résumé :
Cette thèse de doctorat se compose de trois chapitres sur la modélisation économétrique appliquée des marchés financiers d'Europe centrale (EC). Dans le premier chapitre, nous étudions le comportement des taux de change EC (EURlCZK, EURIHUF et EUR/PLN) dans la période allant de 2002 à 2008 en utilisant les données intra-quotidiennes de 5 minutes. Nous estimons également un modèle simple de trois équations pour les rentabilités quotidiennes, la variance réalisée et la volatilité de la variance réalisée qui saisit très bien toutes les caractéristiques principales des données et peut alors servir très bien pour la construction des prévisions de la volatilité future. Le deuxième chapitre analyse la dynamique de la transmission de volatilité entre les taux de change EC et le dollar américain en utilisant les estimations modèle libre de la volatilité du taux de change quotidien basées sur les données intra-journalières. On propose un modèle paramétrique flexible mais parcimonieux dans lequel la volatilité réalisée quotidienne du taux de change particulier dépend en même temps de ses décalages propres et de décalages des volatilités réalisées des autres taux de change. Pour mesurer l'ampleur globale et l'évolution de la transmission de la volatilité au fil du temps, on construit une version dynamique de l'indice des retombées de Diebold-Yilmaz. Le troisième chapitre enquête sur l'existence de structures de dépendance entre les marchés d'actions EC et occidentaux et les implications potentielles de ces structures (non-linéaires) pour la diversification du portefeuille et la gestion de risques. À cette fin, nous employons un cadre semi-paramétrique de copules.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Rapicault, Pascal. « Modèles et techniques pour spécifier, développer et utiliser un framework : une approche par méta-modélisation ». Phd thesis, Université de Nice Sophia-Antipolis, 2002. http://tel.archives-ouvertes.fr/tel-00505470.

Texte intégral
Résumé :
L'utilisation d'un framework pose des problèmes liés au respect de la structure et du comportement de celui-ci. Ces problèmes sont la conséquence de la perte des informations de conception lors de l'implémentation, ce qui se traduit par l'absence d'une documentation pertinente lors de l'utilisation. Ainsi le but de cette thèse est de fournir un modèle d'expression des dépendances structurelles et comportementales. Ces modèles sont intégrés au cycle de vie du framework, de la spécification jusqu'à la finalisation. Le modèle de dépendances structurelles propose une expression explicite des dépendances grâce à une réification partielle du framework. Ce modèle, indépendant de tout langage permet au développeur du framework aussi bien qu'à un utilisateur, de consulter les dépendances entre les éléments du framework, et de bénéficier d'une aide dynamique ainsi que d'un système de vérification. Le modèle de dépendances comportementales étend l'interface statique des classespar une spécification dynamique (protocole) de celles-ci. Cette spécification définit les séquences valides d'enchaînement de messages entrant et sortant de la classe. Cette spécification, basée sur le modèle formel d'Esterel, permet des vérifications statiques et dynamiques.
Styles APA, Harvard, Vancouver, ISO, etc.
30

CHAOUCHE, Keltoum. « Approche multifractale de la modélisation stochastique en hydrologie ». Phd thesis, ENGREF (AgroParisTech), 2001. http://tel.archives-ouvertes.fr/tel-00005781.

Texte intégral
Résumé :
La plupart des séries d'observations hydrologiques possèdent des caractéristiques peu communes (grande variabilité sur une large gamme d'échelles spatiales et temporelles, périodicité, corrélation temporelle à faible décroissance), difficiles à mesurer (séries tronquées et intégrées sur des pas de temps qui ne respectent pas la nature du phénomène) et compliquées à intégrer dans un modèle stochastique classique (ARMA, Markov). Le modélisateur doit aussi faire face aux problèmes liés à l'échelle : en hydrologie (et en météorologie) où les données sont issues de pas de temps très divers, il est particulièrement intéressant de disposer de modèles à la fois capable d'intégrer des données à pas de temps différents et de fournir des résultats à un pas de temps différent de celui des entrées (désagrégation ou agrégation de séries temporelles).Ce travail de thèse explore les possibilités d'application d'un nouveau type de modèle, les modèles multifractals, qui traduisent le plus simplement possible des propriétés d'invariance de certains paramètres (invariance spatiale, temporelle ou spatio-temporelle). En particulier, dans les modèles de cascades multifractales de générateur algébrique, c'est le coefficient de décroissance algébrique qui est un invariant d'échelle. Des résultats issus de la théorie probabiliste des valeurs extrêmes sont dès lors très utiles pour estimer ce paramètre. L'élaboration d'un outil statistique capable de détecter un comportement algébrique et d'estimer le paramètre de décroissance algébrique constitue une étape préalable au développement de cette thèse. Il est aussi montré dans ce travail, que la forme de dépendance (longue ou courte) des modèles en cascade multifractale diffère selon le générateur de la cascade.
L'étude exploite une base de données de 232 séries annuelles de divers sites, de nombreuses séries de pluie à divers pas de temps (mois, jour, heure, minute) ainsi que quelques séries de débits. Elle conduit aux résultats suivants :
- Les lois de type algébrique sont adaptées à la modélisation des grandes périodes de retour des séries de pluie étudiées.
- Sur ces mêmes séries, le coefficient de décroissance algébrique est un paramètre invariant d'échelle (sur des gammes d'échelles supérieures à l'heure).
- L'estimation de ce coefficient en divers sites à travers le monde est très peu variable.
- La propriété de longue dépendance est décelable au sein de certaines séries de débits, notamment des séries de rivières sur craie.
Ces résultats incitent donc à l'emploi de cascades multifractales pour la modélisation des séries de pluie, bien qu'un travail concernant la détection et l'estimation de longue dépendance reste à accomplir pour que le choix du générateur respecte la forme de dépendance de la série.
Styles APA, Harvard, Vancouver, ISO, etc.
31

Cristau, Cécile. « Définition, mesure et modélisation de l'attachement à une marque avec deux composantes : la dépendance et l'amitié vis-à-vis d'une marque ». Aix-Marseille 3, 2001. http://www.theses.fr/2001AIX32060.

Texte intégral
Résumé :
La critique de la rentabilité des investissements publicitaires replace la fidélité aux marques au centre des préoccupations du marketing. Les comportements de résistances aux changements de marques en magasin (rupture de stock, hausse/baisse de prix, promotions. . . ) se sont avérés insuffisants pour capter durablement la véritable fidélité active. L'engagement, souvent défini comme la forte propension à vouloir maintenir la ligne d'acahts, associe la force des croyances à la pérennité et un certain degré d'exclusivité des achats. Mais les panels démontrent l'existence durable de plusieurs marques parallèles dans certains paniers d'achat. La littérature propose alors d'analyser la valeur affective des marques et envisage la fidélité comme une relation entre deux personnes, en acceptant l'anthropomorphisation des marques. Les travaux sur l'attachement qui en découlent se heurtent à des difficultés conceptuelles. Les auteurs comme Fournier 1994, Lacoeuilhe 2000 et Heilbrunn 1996 se trouvent devant la difficulté de séparer, dans les définitions et dans les mesures, les causes et les conséquences des seuls constituants caractéristiques de la relation affective durable avec la marque. .
Research on affective loyalty to a brand faces conceptual confusions. The doctoral research points them out and characterize attachement as a sentimental relationship in which brand is personnified. Attachement has two indications : dependency and friendship. Two antecedents, the functional reliability and the emotional attraction, describe the practical and sensitive sources of the relationship of attachement to a brand. The roles of functional reliability, emotional attraction, dependency, friendship, and engagement have been studied to contrast cognitive and affective effects. Research describes possible future studies on the interactions in the model
Styles APA, Harvard, Vancouver, ISO, etc.
32

Lenuzza, Natacha. « Modélisation de la réplications des Prions : Implication de la dépendance en taille des agrégats de PrP et de l'hétérogénéité des populations cellulaires ». Phd thesis, Ecole Centrale Paris, 2009. http://tel.archives-ouvertes.fr/tel-00453321.

Texte intégral
Résumé :
Les maladies à Prions sont des maladies neurodégénératives fatales, touchant l'homme et l'animal. Même si le risque de transmission de la maladie de la vache folle à l'homme semble maîtrisé, il persiste actuellement un risque de santé publique lié à la transmission iatrogène de cette forme, notamment par transfusion sanguine. Pour contrôler cette transmission, il est donc essentiel de mieux comprendre les mécanismes moléculaires et cellulaires de réplication et de dissémination des Prions. Ces mécanismes de réplication se produisent à des échelles de temps et de taille difficilement accessibles expérimentalement, et ont ainsi fait l'objet de nombreuses modélisations théoriques utiles pour aider à la compréhension des mécanismes. L'objectif de cette thèse est de compléter ces modèles mathématiques, afin d'étudier plus spécifiquement les conséquences dynamiques sur la réplication des Prions, des propriétés de réplication taille-dépendante d'une part, et de l'hétérogénéité des cellules impliquées dans la réplication d'autre part. Dans un premier temps, nous avons généralisé un modèle de polymérisation nucléée pour prendre en compte un taux d'élongation des fibrilles dépendant de leur taille. Nous avons principalement déduit de cette étude que la distribution en taille des agrégats semble une donnée expérimentale très informative sur les mécanismes élémentaires de réplication, au contraire du profil cinétique d'accumulation de la PrPres peu sensibles aux propriétés de réplication taille-dépendantes. Dans un second temps, après une caractérisation expérimentale de l'hétérogénéité cellulaire de réplication, nous avons intégré le mécanisme de réplication intracellulaire à un modèle multicellulaire par automate cellulaire continu stochastique. De manière appliquée, cette étude nous a permis d'identifier des étapes du processus de culture cellulaire critiques pour l'établissement d'une infection chronique, et nous a permis de proposer plusieurs protocoles pour augmenter la sensibilité des cultures cellulaires aux infections à Prions.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Ardon, Jean. « Modélisation probabiliste de la dépendance spatiale et temporelle appliquée à l’étude du péril sécheresse dans le cadre du régime français d’indemnisation des catastrophes naturelles ». Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS002.

Texte intégral
Résumé :
Les travaux présentés s’inscrivent dans le cadre des études menées par la Caisse centrale de réassurance (CCR) pour modéliser les événements catastrophes naturelles et en particulier le péril sécheresse. La sécheresse est le nom utilisé couramment pour désigner les dommages aux bâtiments causés par le phénomène de retrait-gonflement des argiles. Les recherches effectuées sont en lien avec un modèle d’estimation du coût annuel d’un événement sécheresse conçu en interne à CCR. Celui-ci croise des données assurantielles et des données d’humidité du sol pour estimer le coût d’un événement survenu. CCR souhaite faire évoluer ce modèle vers une version probabiliste qui consiste à concevoir un générateur d’événements fictifs, non nécessairement survenus mais possibles d’un point de vue physique. Ce générateur doit permettre notamment d’estimer la distribution de probabilité du coût d’une sécheresse potentielle. Afin de concevoir un générateur d’événements fictifs pour le modèle sécheresse de CCR, nous avons étudié puis mis en oeuvre différents outils mathématiques permettant de modéliser la dépendance de variables aléatoires spatio-temporelles. La méthode choisie consiste à étudier et modéliser séparément la dépendance spatiale et la dépendance temporelle. Pour modéliser la dépendance temporelle, les modèles retenus sont des modèles classiques utilisés pour les séries temporelles. Nous décomposons les séries temporelles des observations en identifiant tendance et saisonnalité puis en ajustant un modèle autorégressif aux résidus. Pour modéliser la dépendance spatiale, notre choix s’est porté sur le krigeage et sur la théorie des copules. Les copules permettent de générer du bruit spatial pour ensuite lui appliquer les modèles de séries temporelles univariées. Le krigeage nous sert à interpoler spatialement les données générées dans le cas où une sélection de sites a été effectuée pour diminuer la dimension spatiale du problème. L’exploitation du générateur, pour laquelle nous donnons quelques résultats, va servir à CCR pour ses politiques de provisionnement et de tarification, et s’intègre également dans l’estimation de la charge deux-centennale liée aux catastrophes naturelles dans le cadre de la directive européenne Solvabilité II
This work was performed at CCR, a French reinsurance company, within the studies that are conducted to model natural disasters, and particularly the drought hazard. Drought is the word used to denote the shrink-swell clay phenomenon that damages individual houses. These researches are related to an internal model that estimates the annual cost of a drought. This model crosses insurance data and soil moisture data to evaluate the cost of a occured event. CCR wants this model to be improved towards a probabilistic version by conceiving a generator of drought events that have to be realistic, although they are fictive. This generator will allow the estimation of the probability distribution of the drought cost. In order to conceive a fictive event generator for CCR’s drought model, mathematical tools have been used to model dependence between spatio-temporal random variables. The chosen method consists of studying and modeling separately spatial dependence and temporal dependence. Temporal dependence is modelized with time series models such as classical decomposition and autoregressive processes. Spatial dependence is modelized with kriging and copula theory. Spatial random noise is generated with a copula and then time series models are applied to rebuild original process. Kriging is used when generated data need to be interpolated, for example when data are generated only on a subset of the main grid. Results of the generator exploitation are given. They will be used by CCR for provisionning and pricing. These results will also be used for the estimation of the two-hundred-year cost of natural disasters within the new European Solvency II Directive
Styles APA, Harvard, Vancouver, ISO, etc.
34

Alhadad, Nagham. « Bridging the gap between social and digital works : system modeling and trust evaluation) ». Nantes, 2014. http://archive.bu.univ-nantes.fr/pollux/show.action?id=9f95fd53-f840-42e5-aef8-42fe66c89199.

Texte intégral
Résumé :
Aujourd’hui, les systèmes numériques sont interconnectés au travers d’architectures complexes. Les participants à ces systèmes réalisent activités telles que communiquer ou partager des données. Humains, matériels et logiciels sont impliqués dans ces activités, de sorte qu’un système peut être décrit comme la représentation de deux mondes, le monde social et le monde numérique et leurs relations. L’évaluation de ces systèmes est limitée aux aspects techniques. Aujourd’hui, la confiance envers les est devenue un facteur important dans les procédures d’évaluation. Dans ce contexte, nous soulevons deux questions : comment formaliser les entités composant un système ainsi que leurs relations pour une activité particulière ? et comment évaluer la confiance envers un système pour cette activité ? Nos contributions sont divisées en deux parties. La première partie propose un métamodèle formel, nommé SocioPath, qui permet de modéliser un système avec les entités du monde social et numérique et leurs relations. La deuxième partie consiste à évaluer la confiance des utilisateurs envers les systèmes qu’ils utilisent pour une activité donnée. Nous proposons une approche, nommé SocioTrust permettant de calculer le niveau de confiance, qui utilise la théorie des probabilités. Puis nous proposons une seconde approche, sous le nom de SubjectiveTrust, pour prendre en compte l’incertitude dans les valeurs de confiance, cette approche se basant sur la logique subjective
Nowadays, digital systems are connected through complex architectures. Participants to these systems perform activities like chatting or sharing data. Persons, physical and digital resources are involved in these activities, such that a system can be considered as a representation of two worlds, the social world and the digital world and their relations. Evaluating these systems is generally limited to technical aspects. Today, trust becomes an important key in the evaluation process. In this context, we raise two questions: how to formalize the entities that compose a system and their relations for a particular activity? and how to evaluate trust in a system for this activity? Our contributions are divided into two parts. The first part proposes a formal metamodel named SocioPath, to model a system with all entities of social and digital worlds and their relations. The second part evaluates the users’ trust in the systems they use for a given activity. We propose an approach named, SocioTrust, to compute the user’s trust in a system using probability theory. Then we propose a second approach named, SubjectiveTrust that takes into account the uncertainty in the trust values. This approach is based on subjective logic
Styles APA, Harvard, Vancouver, ISO, etc.
35

Jridi, Nidhal. « Contribution à la modélisation du comportement dynamique d'un dispositif élastomérique ». Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEC032/document.

Texte intégral
Résumé :
Ce travail s’inscrit dans le cadre d’un partenariat international Airbus Safran Launchers ", " Ecole Centrale de Lyon " et " Ecole Nationale d’Ingénieurs de Tunis ". Les composés élastomériques sont largement utilisés dans l’industrie pour leurs déformabilité et leurs capacités d’amortissement. Soumis aux combinaisons complexes de fabrication et de charges de service, les élastomères montrent la capacité de subir des conditions de chargement sévères et le cas de pré-déformation statique superposée par une excitation dynamique de petite amplitude est couramment utilisé pour des applications industrielles, par exemple des pneus, des amortisseurs, applications aérospatiales ... Pour concevoir efficacement ces composés industriels, il est primordial de prédire la réponse des produits à travers des processus de modélisation simples qui ont multiplié les méthodes d’analyse: expérimentale, théorique et numérique. Dans ce contexte, le présent travail se concentre sur la conception et l’analyse des propriétés dynamiques d’un dispositif élastomère autour d’une configuration préformée. À cette fin, trois mélanges de caoutchouc ont été expérimentés: Caoutchouc naturel (NR), Bromobutyl (BIIR) et un mélange des deux (NR / BIIR). Une discussion est faite avec préoccupation pour la mise en place expérimentale ainsi que les procédures utilisées pour des essais expérimentaux efficaces. Avec ces conclusions, nous avons fait un jugement sur les capacités de prévision, dans les domaines temporels et fréquentiels, de certains modèles hyper-visco-élastique à base d’intégrale unique sous l’hypothèse de séparabilité des effets temps-déformation. Les modèles considérés sont largement utilisés pour les applications d’ingénierie. Ce travail est suivi d’une application sur un composant industriel. Dans le cadre de cette thèse, le code de calcul d’éléments finis ABAQUS 6.14 a été utilisé pour étudier les propriétés dynamiques de cette structure. Une méthodologie d’analyse a été présentée pour identifier soigneusement l’ensemble des paramètres dans le but de satisfaire certaines exigences industrielles, principalement des capacités de masse, de rigidité et d’amortissement
This work is conducted as international collaboration with " Airbus Safran Launchers ", " Ecole Centrale de Lyon " and " National Engineering School of Tunis ". Elastomeric compounds are widely used in industry for their high deformability and damping capabilities. Subjected to complex combinations of manufacturing and service loadings, elastomers show the fact to undergo severe loading conditions and the load case of large static predeformation superimposed by small amplitude dynamic excitation is commonly encountred for industrial applications e.g tires, shock-absorbing bushes, construction industry, aerospace applications... To design such industrial compounds efficiently, it is of major importance to predict the response of the products through simple modeling processes which have multiplied analysis methods: experimental, theoretical and numerical. Within this context, the present work focuses on design and analysis of dynamic properties of an elastomeric device at a predeformed configuration. To this end, three rubber mixtures have been experimentally investigated: Natural Rubber (NR), Bromobutyl (BIIR) and a mixture of both (NR/BIIR). A discussion is made with concern to experimental set-up as well as the used procedures for an efficient specimens testings. Within these findings, we made judgement on the predictive capabilities, in time and frequency domains, of some single integral based hyper-visco-elastic models under time-strain seperability assumption. The considered models are widely used for engineering applications and focus have been made on the Simo model implemented in finite element commercial software Abaqus. This work is followed by an application on an industrial component. In the framework of this thesis, the finite element calculation code ABAQUS 6.14 was used to investigate the dynamic properties of such structure. An analysis methodology have been presented to carefully identify the set of parameters with the objective of satisfaction of some industrial requirements mainly mass, stiffness and damping capabilities
Styles APA, Harvard, Vancouver, ISO, etc.
36

Essabbar, Driss. « Modélisation et analyse du déséquilibre décisionnel dans les réseaux d'entreprises et son impact sur les relations de collaboration ». Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0097.

Texte intégral
Résumé :
Etre membre d'un réseau offre à l'entreprise un lieu, un espace d'échanges et de progression. C'est un moyen de valoriser ses savoir-faire et se différencier de ses concurrents. Une collaboration efficace mise en place entre les entreprises est avant tout fondée sur la confiance mutuelle. Selon les termes contractualisés du partenariat, les bénéfices voire les risques peuvent alors être partagés aboutissant à une relation gagnant-gagnant. Si au contraire les parties prenantes n'ont pas pris toute la mesure des conséquences de ces collaborations, elles peuvent se trouver dans des situations peu confortables mettant en danger la survie même des plus dépendantes d'entre elles. L'analyse du déséquilibre et des pouvoirs relatifs des partenaires au sein d'un réseau est une clé méthodologique pertinente pour comprendre le comportement de chaque membre et son influence sur le fonctionnement global. Un acteur puissant peut imposer des conditions défavorables à ses fournisseurs ou clients. Si une entreprise sur-estime ou sous-estime son pouvoir, elle pourrait affecter sa capacité de négociation avec le fournisseur ou le client. Dans ce contexte, la contribution majeure visée par nos travaux est l'élaboration d'une étude fondamentale mais surtout pratique sur le concept du pouvoir. Ainsi, nous proposons un cadre d'analyse et une boîte à outils permettant à une entreprise de comprendre le réseau d'influences l'englobant afin de réduire au maximum les impacts négatifs d'un déséquilibre des pouvoirs. Nous mettons au point une méthode d'analyse situationnelle conçue pour aider les gestionnaires à analyser les situations de collaboration lesquelles les acteurs seront impliqués, et à prédire leurs stratégies et tactiques plausibles. Nous proposons également une étude pour évaluer et comparer le pouvoir relatif entre deux acteurs sur la base de la dépendance. Une validation de nos résultats sur pouvoir a été réalisée via des interviews dans quatre entreprises du secteur higt tech au Maroc. Les résultats de nos recherches permettent d'apporter une contribution à la connaissance des enjeux théoriques et empiriques du Pouvoir
Being a menber of a network offers the company a place, s space for exchange and progression. This is a way to develop its expertise and distinguish it from other competitors. Effective collaboration established betqeen companies is primarily based on mutual trust. under the terms of the partnership contracted, benefits or risks can therefore be shared, which results in a xin-win relationship. on the contrary, unless the stakeholders have taken into account the powerful effects of these collaborations, thez may find themselves in uncomfortable situation. The analysis of the imbalance of powers of the partners in a network is a pertinent methodological key to understanding the behavior of each member and its influence on the global functioning of network. A powerful actor may impose unfavorable contions to its suppliers, or even customers Il a company overestimates or underestimates its power, il could affact its ability to negotiate with the supplier or the customer. In this context, our xork intends mainly to contribute to the development of a basic study of power. We propose an anlysis framework allowing a company to understand the power in order to reduce the negative impact of power imbalance. Additionally, we develop a situational analysis method with a vezwq to assisting managers in collaborative situations to predict their plausible strategies and tactics. We also provide a method to evaluate the relative power between two actors on the basis of dependency. Validation of our results research on power comes from interviews conductef in four high tech sector companies in Morocco. Thus, the results of our research aim to contribute to the understanding of the theoretical and empirical issues of power
Styles APA, Harvard, Vancouver, ISO, etc.
37

Teymoori, Fariba. « Evaluation du poids médico-social de la dépendance liée au vieillissement de la population Iranienne par une enquête prospective sur le terrain et une modélisation démographique. Proposition d'organisation du système de prise en charge sanitaire et sociale ». Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00583407.

Texte intégral
Résumé :
Alors que le nombre et la proportion de personnes âgées de 60 ans et plus vont continuer de s'accroître dans les pays en voie de développent comme l'Iran au cours des prochaines décennies, l'augmentation de la demande et des dépenses de santé et particulièrement les soins de longue durée poseront les mêmes problèmes de santé publique auxquels les pays développées sont confrontés aujourd'hui.Face au vieillissement de la population marquée par la transition démographique, face à l'augmentation de la longévité et du nombre de personnes en situation de dépendance, de fragilité et de handicap, face à la réduction des possibilités d'aides familiales, les communautés et les nations s'engagent le plus souvent vers une augmentation des structures d'hébergement et de soins, puis reconsidèrent pour des questions économiques la prise en charge à domicile.L'accélération de la transition démographique sur une courte période pour les pays en développement comme l'Iran doit être alarmante pour leurs responsables politiques car aucune planification stratégique de ces impacts socio-économiques n'a été élaborée. Les baby-boomers de 1991-1996 en Iran arriveront à l âge de + de 60 ans vers 2050. Les iraniens et les autorités sociales ont 40 ans (Windows oppurtunity =fenêtre démographique "d'opportunité ") pour couvrir les besoins de cette population âgée. Bien que le vieillissement des personnes soit important le besoin de soins pour une partie d'entre eux le sera encore plus en raison d'une limitation dans leur autonomie quotidienne. La prévalence de l'incapacité va croître rapidement avec l'âge.Dans notre étude, nous concluons qu'en 2009, 136 personnes âgées de plus de 60 ans sur 10.000 habitants sont modérément ou très dépendantes (1.005.400 personnes en 2009). Cela signifie qu'ils ne peuvent pas faire leurs activités de la vie quotidienne et qu'ils ont besoin d'aide des autres. Ils ont besoin d'une autre personne pour les aider dans leur toilette, l'alimentation, de transfert, faire des courses, ménage de la maison, et ainsi de suite. Pour les personnes âgées avec la dépendance est sévère, ont besoin d'aide 24/24 heures. Cela signifie qu'ils sont incontinents, grabataires et ont parfois besoin d'une alimentation artificielle (Alimentation par sonde naso-gastrique, ou gastrostomie). A l'avenir, en 2050, le nombre de personnes dépendantes âgées peut être estimé à 544 personnes / 10000. (5.449.465 personnes en Iran en 2050) Cela signifie que le nombre de personnes âgées qui ont besoin de soins pour leur vie sera multiplié par 4. En même temps, en raison du déclin de la fécondité de cette période (2009-2049), le nombre d'enfants va baisser. Ainsi, les parents n'auront pas assez d'enfants pour leur soutien et leurs soins. Un autre résultat de notre travail évalue que 45% de la population iranienne en 2050 sera âgée entre 50-80 ans, donc l'âge moyen des aidant familiaux va augmenter.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Bajeux, Nicolas. « Modélisation de stratégies d'introduction de populations, effets Allee et stochasticité ». Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4056/document.

Texte intégral
Résumé :
Cette thèse s'intéresse à l'étude des stratégies d'introduction de populations dans l'environnement. Les deux principaux contextes présentés sont la lutte biologique et la réintroduction d'espèces. Si ces deux types d'introduction diffèrent, des processus biotiques et abiotiques les influencent de manière similaire. En particulier les populations introduites, souvent de petite taille, peuvent être sensibles à diverses formes de stochasticité, voire subir une baisse de leur taux de croissance à faible effectif, ce qu'on appelle « effet Allee ». Ces processus peuvent interagir avec les stratégies d'introduction des organismes et moduler leur efficacité. Dans un premier temps, nous modélisons le processus d'introduction à l'aide de systèmes dynamiques impulsionnels : la dynamique de la population est décrite par des équations différentielles ordinaires qui, à des instants donnés, sont perturbées par des augmentations soudaines de la taille de la population. Cette approche se concentre sur l'influence des effets Allee sur les populations isolées (réintroduction) ou dans un cadre proie-prédateur (lutte biologique). Dans un second temps, en nous concentrant sur l'aspect réintroduction, nous étendons ce cadre de modélisation pour prendre en compte des aspects stochastiques liés à l'environnement ou aux introductions elles-mêmes. Finalement, nous considérons un modèle individu centré pour étudier l'effet de la stochasticité démographique inhérente aux petites populations. Ces différentes approches permettent d'analyser l'influence de la distribution temporelle des introductions et ainsi déterminer les stratégies qui maximisent les chances de succès des introductions
This thesis investigates introduction strategies of populations in the environment. Two main situations are considered: biological control and species reintroduction. Although these two kinds of introductions are different, many biotic and abiotic processes influence them in a similar way. Introduced populations are often small and may be sensitive to various stochastic factors. Further, small populations may suffer from a decrease of their growth rate when the population is small, a feature called "Allee effect". These processes may interact with introduction strategies and modulate their efficiency. First, we represent the introduction process using impulsive dynamical systems: population dynamics are described by ordinary differential equations that are disrupted at some instants by instantaneous increases of the population size. This approach focuses on the influence of Allee effects on single-species (reintroduction) or predator-prey interactions (biological control). Then, we concentrate on the reintroduction approach and extend the previous deterministic framework to take into consideration stochastic factors arising from the environment or from introductions themselves. Finally, we consider an individual-based model to study the effects of demographic stochasticity which is inherent to small populations. These different approaches allow to investigate the temporal distribution of introductions and determine which introduction strategies maximize the probability of success of introductions
Styles APA, Harvard, Vancouver, ISO, etc.
39

Bègue, Boris. « Transports et urbanisation à La Réunion : le rôle de l’accessibilité dans les phénomènes de périurbanisation et de dépendance automobile, modélisation systémique sur la région Est-Nord-Est ». Thesis, La Réunion, 2013. http://www.theses.fr/2013LARE0023/document.

Texte intégral
Résumé :
À l'instar des États-Unis et de l'Australie, l'urbanisation à La Réunion s'est développée autour de l'automobile à partir de la Départementalisation en 1946. On est passé en moins de 20 ans d'une « urbanisation pédestre et ferroviaire » à une « urbanisation automobile ». La ville est étalée et la ségrégation fonctionnelle des espaces urbains les rend dépendants les uns des autres.C'est le cas des espaces périurbains résidentiels qui sont fonctionnellement dépendants de leurs zones d'emplois. Les flux engendrés se caractérisent par des déplacements qui se font à 86% en automobile. Ces phénomènes de périurbanisation et de dépendance automobile sont devenus très problématiques dans l'organisation spatiale et son aménagement en termes environnementaux, sociaux et économiques. Ainsi, cette thèse explore l'identification de ce phénomène d'« urbanisation automobile » en se basant sur trois concepts reconnus en géographie : la périurbanisation, la dépendance automobile et l'accessibilité. Sa représentation sous forme de système permet d'une part de rendre intelligible la complexité du phénomène en identifiant des processus ville – transport et d'autre part d'offrir un diagnostic transversal pour alimenter une stratégie d'aménagement intégrée du territoire
Urbanization in Reunion Island has been developed and planned around automobile as the new country like the United States or Australia. The sprawl city and the functional segregation of urban activities shape interdependence between the zones. It's the case of suburban residential area who is functionally dependent of their activities center. The transits lead to an automobile dependence that became a major problem of the spatial organization and planning. This thesis explores the mechanism and process that shape that “automobile urbanization”. A systemic approach is used to modeling through using three concepts of transportation and urban geography and planning: suburbanization, automobile dependence and accessibility. This systemic approach contributes to allows territories to make transverse diagnostic toward an integrated strategy of urban and regional planning
Styles APA, Harvard, Vancouver, ISO, etc.
40

Marot, Guillemette. « Modélisation statistique pour la recherche de gènes différentiellement exprimés : modèles de variance-covariance, analyse séquentielle et méta-analyse ». Phd thesis, AgroParisTech, 2009. http://tel.archives-ouvertes.fr/tel-00458988.

Texte intégral
Résumé :
Les puces à ADN permettent d'étudier simultanément l'expression de plusieurs milliers de gènes à partir de peu d'individus biologiques. Trois approches sont considérées dans cette thèse pour résoudre les problèmes de sensibilité dans la recherche de gènes différentiellement exprimés: la modélisation des variances-covariances, l'analyse séquentielle et la méta-analyse. La première et la troisième partie reposent principalement sur des approches dites de 'shrinkage' qui estiment les valeurs de chaque gène à partir de l'information provenant de l'ensemble des gènes. En diminuant le nombre de paramètres à estimer, elles permettent d'augmenter la sensibilité. La modélisation des variances se révèle particulièrement utile dans le cas d'expériences avec de petits échantillons. La modélisation des covariances est quant à elle particulièrement pertinente pour les études de suivi longitudinal où les mesures sont répétées sur les mêmes individus au cours du temps. Côté analyse séquentielle, la sensibilité est étudiée en tant que règle d'arrêt. On cherche alors à arrêter une expérience en cours dès que ce critère dépasse un certain seuil, afin d'en diminuer les coûts. La méta-analyse est ensuite étudiée dans un contexte beaucoup plus général que celui de l'analyse séquentielle où on combinait les analyses intermédiaires. Elle permet de gagner de la sensibilité en regroupant des résultats d'études individuelles qui ne sont pas comparables directement mais qui répondent à une même question biologique. La méta-analyse est abordée à la fois sous l'angle fréquentiste (combinaison de grandeurs des effets ou combinaison de p-values) et sous l'angle bayésien.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Guennery, Sophie. « L'hébergement de la personne âgée dépendante – Modélisation prospective : exemple de la région Poitou-Charentes ». Thesis, Paris, CNAM, 2014. http://www.theses.fr/2015CNAM0962/document.

Texte intégral
Résumé :
Face au vieillissement démographique, l’adéquation de l’offre et de la demande de la prise en charge de la dépendance est au cœur des politiques de santé publique. L’objectif de ce travail est d’estimer la consommation d’hébergement des personnes âgées dépendantes pour un horizon de 5 à 10 ans en intégrant l’origine géographique des résidents. En effet, ces derniers ne cherchent pas nécessairement une réponse d’hébergement à proximité de leur lieu de résidence. On peut ainsi bâtir un « scénario moyen » pour mesurer la consommation d’hébergement actuelle, construire des bassins gérontologiques et envisager des projections d’hébergement les plus précises possibles, selon le postulat « toute chose égale par ailleurs ». Cette recherche menée en Poitou-Charentes en 2010 permet une analyse prospective qui annonce un déficit du nombre de places d’hébergement dès 2017 et qui devrait s’amplifier au cours des années suivantes. Ces résultats trouvent toute leur légitimité pour aider la planification gérontologique et adapter l’offre à la demande à différentes échelles. De plus, ils rendent possible l’appréhension du volume d’emplois non « délocalisables »
In view of demographic ageing, the adequacy between supply and demand of older population needs is placed in the heart of the public health policy. The aim of this work is to estimate the housing consumption of dependent older people for the time horizon from 5 to 10 years by integrating the geographical origins of residents. In fact, these latter don't necessarily look for an accommodation close to their place of residence. Thus a 'medium scenario' can be proposed to measure the current consumption,build gerontological basins and plan the most accurate possible senior housing projections according to 'all else being equal' principle. This research conducted in Poitou-Charentes in 2010 allows to do a prospective analysis which reveals a deficit in the number of rousing places from 2017 and this deficit is expected to increase over the following years. These results have all legitimacy to help gerontological planning and adapt supply to demand at different scales. Moreover, they make possible the estimation of the volume of 'non relocatable' jobs
Styles APA, Harvard, Vancouver, ISO, etc.
42

Pannekoucke, Olivier. « Modélisation des structures locales de covariance des erreurs de prévision à l'aide des ondelettes ». Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00285515.

Texte intégral
Résumé :
La représentation des variations spatio-temporelles des fonctions de covariance d'erreur d'ébauche reste un problème majeur dans les algorithmes d'assimilation. Dans cette thèse le diagnostic des variations géographiques des corrélations locales est introduit via le diagnostic de la portée locale. L'estimation de cette portée ainsi que les propriétés de l'estimation sont étudiés en détail. Ce travail utilise des ondelettes sphériques, suivant la formulation introduite par Mike Fisher (ECMWF), pour modéliser les fonctions de corrélation locale "du jour". Il est montré que cette formulation moyenne spatialement les corrélations locales, permettant de réduire le bruit d'échantillonnage. D'autre part, cette formulation ondelette fournit une estimation robuste même pour un petit ensemble. Elle est aussi capable de capturer la dynamique spatio-temporelle des corrélations, ceci est illustré à l'aide de la dynamique des portées locales du jour.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Fick, Rutger. « Modélisation avancée du signal dMRI pour la caractérisation de la microstructure tissulaire ». Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4006/document.

Texte intégral
Résumé :
Cette thèse est dédiée à améliorer la compréhension neuro-scientifique à l'aide d'imagerie par résonance magnétique de diffusion (IRMd). Nous nous concentrons sur la modélisation du signal de diffusion et l'estimation par IRMd des biomarqueurs liés à la microstructure, appelé «Microstructure Imaging». Cette thèse est organisée en trois parties. Dans partie I nous commençons par la base de l'IRMd et un aperçu de l'anisotropie en diffusion. Puis nous examinons la plupart des modèles de microstructure utilisant PGSE, en mettant l'accent sur leurs hypothèses et limites, suivi par une validation par l'histologie de la moelle épinière de leur estimation. La partie II présente nos contributions à l'imagerie en 3D et à l’estimation de microstructure. Nous proposons une régularisation laplacienne de la base fonctionnelle MAP, ce qui nous permet d'estimer de façon robuste les indices d'espace q liés au tissu. Nous appliquons cette approche aux données du Human Connectome Project, où nous l'utilisons comme prétraitement pour d'autres modèles de microstructure. Enfin, nous comparons les biomarqueurs dans une étude ex-vivo de rats Alzheimer à différents âges. La partie III présente nos contributions au représentation de l’espace qt - variant sur l'espace q 3D et le temps de diffusion. Nous présentons une approche initiale qui se concentre sur l'estimation du diamètre de l'axone depuis l'espace qt. Nous terminons avec notre approche finale, où nous proposons une nouvelle base fonctionnelle régularisée pour représenter de façon robuste le signal qt, appelé qt-IRMd. Ce qui permet l'estimation des indices d’espace q dépendants du temps, quantifiant la dépendance temporelle du signal IRMd
This thesis is dedicated to furthering neuroscientific understanding of the human brain using diffusion-sensitized Magnetic Resonance Imaging (dMRI). Within dMRI, we focus on the estimation and interpretation of microstructure-related markers, often referred to as ``Microstructure Imaging''. This thesis is organized in three parts. Part I focuses on understanding the state-of-the-art in Microstructure Imaging. We start with the basic of diffusion MRI and a brief overview of diffusion anisotropy. We then review and compare most state-of-the-art microstructure models in PGSE-based Microstructure Imaging, emphasizing model assumptions and limitations, as well as validating them using spinal cord data with registered ground truth histology. In Part II we present our contributions to 3D q-space imaging and microstructure recovery. We propose closed-form Laplacian regularization for the recent MAP functional basis, allowing robust estimation of tissue-related q-space indices. We also apply this approach to Human Connectome Project data, where we use it as a preprocessing for other microstructure models. Finally, we compare tissue biomarkers in a ex-vivo study of Alzheimer rats at different ages. In Part III, we present our contributions to representing the qt-space - varying over 3D q-space and diffusion time. We present an initial approach that focuses on 3D axon diameter estimation from the qt-space. We end with our final approach, where we propose a novel, regularized functional basis to represent the qt-signal, which we call qt-dMRI. Our approach allows for the estimation of time-dependent q-space indices, which quantify the time-dependence of the diffusion signal
Styles APA, Harvard, Vancouver, ISO, etc.
44

Rolland, Chloé. « Modèles orientés objet pour une meilleure prédiction du trafic internet ». Paris 6, 2008. http://www.theses.fr/2008PA066657.

Texte intégral
Résumé :
Cette thèse s’intéresse à la modélisation du trafic Internet. Elle propose une approche dont le but est de dépasser les limites des modèles traditionnels et des modèles de type boîte noire, afin de concevoir des modèles de trafic structurels, alliant précision et simplicité d'utilisation. Elle s'intéresse en premier lieu à un modèle hiérarchique, Basic LiTGen, orienté utilisateur et application, où les entités de trafic considérées sont les sessions, les pages, les objets et les paquets. Une analyse en ondelettes permet d'aiguiller l'analyse sur l'organisation des paquets dans les objets et de proposer une structure originale s'imbriquant au niveau paquet du modèle, permettant de reproduire la dépendance à long terme observée de manière réaliste. Le modèle ainsi obtenu, Extended LiTGen, est très précis, mais la structure introduite le rend aussi complexe. Une deuxième étape s'intéresse alors à simplifier le modèle. Elle se concentre sur la structure en rafales des paquets dans les objets, et propose un modèle simple pour la modéliser, Bursts LiTGen, reproduisant finement la dépendance à long terme observée. Les modèles proposés, Extended et Bursts LiTGen, reproduisent des paramètres de performance réalistes et peuvent être utilisés dans le cadre de la prédiction de trafic.
Styles APA, Harvard, Vancouver, ISO, etc.
45

Chen, Youbin. « Modélisation de la rupture ductile par approche locale : simulation robuste de la déchirure ». Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM038/document.

Texte intégral
Résumé :
Cette étude a pour objectif principal d’établir une stratégie de modélisation robuste, fiable et performante pour décrire des propagations de fissures d’échelle centimétrique en régime ductile dans des composants industriels. Le modèle d’endommagement de GTN écrit en grandes déformations est utilisé pour modéliser l’endommagement ductile. Ce modèle conduit généralement à une localisation de la déformation, conformément à l’expérience. L’échelle caractéristique de ce phénomène est introduite dans les équations de comportement via l’adoption d’une formulation non locale.Sur le plan numérique, ce modèle non local rend bien compte de la localisation dans une bande d’épaisseur donnée lorsqu’on raffine suffisamment le maillage. Par ailleurs, le problème de verrouillage numérique associé au caractère initialement isochore de la déformation plastique est limité en utilisant une formulation à base d’éléments finis mixtes. Enfin, la distorsion des éléments totalement cassés (i.e. sans rigidité apparente), qui pourrait nuire à la bonne convergence des simulations numériques, est traitée par une régularisation viscoélastique.L’ensemble de ces ingrédients sont appliqués pour simuler la propagation de fissure dans un milieu infini plasticité confinée), de sorte à établir un lien avec les approches globales en J-Δa. L’émoussement, l’amorçage et la (grande) propagation de fissure sont bien prédits. Le modèle est également appliqué à une tuyauterie métallique testée en grandeur réelle dans le cadre du projet européen Atlas+. Après une phase d’identification des paramètres sur éprouvette, les réponses globales et locales d’autres éprouvettes et du tube sont confrontés aux résultats expérimentaux. Ces résultats illustrent le degré de robustesse, de fiabilité et de performance qu’on peut attendre du modèle
The major goal of this work is to establish a robust, reliable and efficient modeling technique so as to describe ductile tearing over a distance of several centimeters in industrial cases. The GTN damage model expressed in the context of finite strains is chosen to model ductile damage. Generally, the model leads to strain localization in agreement with experimental observations. The characteristic length scale of this phenomenon is introduced into the constitutive equations through the use of a nonlocal formulation.On a numerical ground, the nonlocal model controls the width of the localization band as soon as the mesh is sufficiently refined. Besides, the issue of volumetric-locking associated with plastic incompressibility is handled using a mixed finite element formulation. Finally, the distortion of broken elements (i.e. without any stiffness), which may affect the computational convergence of numerical simulations, is treated using a viscoelastic regularization.The improved GTN model is applied to simulate crack propagation under small-scale yielding conditions, so as to establish a relation with the global (J-Δa) approach. Crack tip blunting, crack initiation and (large) crack propagation are well captured. The model is also applied to a full-scale metallic pipe in the framework of the UE project Atlas+. After a phase of parameter calibration based on the experimental results on some small specimens, the global and local responses of other small specimens and of the full-scale pre-cracked pipe are compared with the experimental results. The results illustrates the robustness, the reliability and the efficiency of the current model
Styles APA, Harvard, Vancouver, ISO, etc.
46

Akoussan, Komlan. « Modélisation et conception de structures composites viscoélastiques à haut pouvoir amortissant ». Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0188/document.

Texte intégral
Résumé :
L’objectif de ce travail est de développer des outils numériques utilisables dans la détermination de manière exacte des propriétés modales des structures sandwichs viscoélastiques composites au vue de la conception des structures sandwichs viscoélastiques légères mais à haut pouvoir amortissant. Pour cela nous avons tout d’abord développé un outil générique implémenté en Matlab pour la détermination des propriétés modales en vibration libre des plaques sandwichs viscoélastiques dont les faces sont en stratifié de plusieurs couches orientées dans diverses directions. L’intérêt de cet outil, basé sur une formulation éléments finis, réside dans sa capacité à prendre en compte l’anisotropie des couches composites, la non linéarité matérielle de la couche viscoélastique traduit par diverses lois viscoélastiques dépendant de la fréquence ainsi que diverses conditions aux limites. La résolution du problème aux valeurs propres non linéaires complexes se fait par le couplage entre la technique d’homotopie, la méthode asymptotique numérique et la différentiation automatique. Ensuite pour permettre une étude continue des effets d’un paramètre de modélisation sur les propriétés modales des sandwichs viscoélastiques, nous avons proposé une méthode générique de résolution de problème résiduel non linéaire aux valeurs propres complexes possédant en plus de la dépendance en fréquence introduite par la couche viscoélastique du coeur, la dépendance du paramètre de modélisation qui décrit un intervalle d’étude bien spécifique. Cette résolution est basée sur la méthode asymptotique numérique, la différentiation automatique, la technique d’homotopie et la continuation et prend en compte diverses lois viscoélastiques. Nous proposons après cela, deux formulations distinctes pour étudier les effets, sur les propriétés amortissantes, de deux paramètres de modélisation qui sont importants dans la conception de sandwichs viscoélastiques à haut pouvoir amortissement. Le premier est l’orientation des fibres des composites dans la référence du sandwich et le second est l’épaisseur des couches qui lorsqu’elles sont bien définies permettent d’obtenir non seulement des structures sandwichs à haut pouvoir amortissant mais très légères. Les équations fortement non linéaires aux valeurs propres complexes obtenues dans ces formulations sont résolues par la nouvelle méthode de résolution d’équation résiduelle développée. Des comparaisons avec des résultats discrets sont faites ainsi que les temps de calcul pour montrer non seulement l’utilité de ces deux formulations mais également celle de la méthode de résolution d’équations résiduelles non linéaires aux valeurs propres complexes à double dépendance
Modeling and design of composite viscoelastic structures with high damping powerThe aim of this thesis is to develop numerical tools to determine accurately damping properties of composite sandwich structures for the design of lightweight viscoelastic sandwichs structures with high damping power. In a first step, we developed a generic tool implemented in Matlab for determining damping properties in free vibration of viscoelastic sandwich plates with laminate faces composed of multilayers. The advantage of this tool, which is based on a finite element formulation, is its ability to take into account the anisotropy of composite layers, the material non-linearity of the viscoelastic core induiced by the frequency-dependent viscoelastic laws and various boundary conditions . The nonlinear complex eigenvalues problem is solved by coupling homotopy technic, asymptotic numerical method and automatic differentiation. Then for the continuous study of a modeling parameter on damping properties of viscoelastic sandwichs, we proposed a generic method to solve the nonlinear residual complex eigenvalues problem which has in addition to the frequency dependence introduced by the viscoelastic core, a modeling parameter dependence that describes a very specific study interval. This resolution is based on asymptotic numerical method, automatic differentiation, homotopy technique and continuation technic and takes into account various viscoelastic laws. We propose after that, two separate formulations to study effects on the damping properties according to two modeling parameters which are important in the design of high viscoelastic sandwichs with high damping power. The first is laminate fibers orientation in the sandwich reference and the second is layers thickness which when they are well defined allow to obtain not only sandwich structures with high damping power but also very light. The highly nonlinear complex eigenvalues problems obtained in these formulations are solved by the new method of resolution of eigenvalue residual problem with two nonlinearity developed before. Comparisons with discrete results and computation time are made to show the usefulness of these two formulations and of the new method of solving nonlinear complex eigenvalues residual problem of two dependances
Styles APA, Harvard, Vancouver, ISO, etc.
47

Pacoureau, Nathan. « Influence de la variabilité climatique, de l’abondance de proies, de la densité-dépendance et de l'hétérogénéité individuelle chez des prédateurs supérieurs longévifs : de l’individu à la population ». Thesis, La Rochelle, 2018. http://www.theses.fr/2018LAROS026/document.

Texte intégral
Résumé :
Une question fondamentale en écologie des populations est l’identification des facteurs influençant la dynamique d’une population. L’objectif principal de cette thèse est de déterminer quelles sont les réponses démographiques et populationnelles de prédateurs marins supérieurs face aux fluctuations d’abondance de leurs proies, aux variations climatiques, à la densité-dépendance tout en tenant compte de l’hétérogénéité inter et intra-individuelle (âge, expérience, sexe, qualité ou stratégie). Pour ce faire, nous nous baserons sur l’analyse de suivis à long-terme individuels et populationnels d’oiseaux marins longévifs et prédateurs apicaux phylogénétiquement très proches dans deux biomes contrastés : le labbe de McCormick Catharacta maccormicki sur l’archipel de Pointe Géologie en Antarctique et le labbe subantarctique Catharacta lonnbergi sur l’archipel des Kerguelen en milieu subantarctique. Nous tirerons parti d’estimations d’abondances de leurs proies respectives : le manchot Adélie Pygoscelis adeliae et le manchot empereur Aptenodytes forsteri en Antarctique, et le pétrel bleu Halobaena caerulea et le prion de Belcher Pachyptila belcheri à Kerguelen. Ces jeux de données offrent une opportunité unique de pouvoir déterminer et quantifier simultanément les différentes sources de variabilité dans les changements de taille de populations naturelles occupant l’un des niveaux trophiques les plus élevés des réseaux alimentaires antarctiques et subantarctiques. Nous avons mis en évidence de la variation dans plusieurs traits vitaux des deux populations influencées par les performances des individus et de l’hétérogénéité individuelle latente. Nous discutons des mécanismes par lesquels la variabilité climatique, l’abondance de proie et la densité de population peuvent affecter différentiellement les différentes classes d’âges de chaque trait vital, et les conséquences potentielles de futurs changements environnementaux
A fundamental endeavor in population ecology is to identify the drivers of population dynamics. The main objective of this thesis is to determine what are the demographic and population responses of superior marine predators to the fluctuations of their prey abundance, to climatic variations, to density-dependence while taking into account inter and intra individual heterogeneity (age, experience, sex, quality or strategy). To do this, we analysed long-term individual and population-based monitoring of long-lived seabirds and phylogenetically close apical predators in two contrasting biomes: the south polar skua Catharacta maccormicki at Pointe Géologie archipelago, Antarctica, and the brown skua Catharacta lonnbergi on the sub-Antarctic Kerguelen Archipelago. We will use direct abundance of their respective prey: Adélie penguin Pygoscelis adeliae and emperor penguin Aptenodytes forsteri in Antarctica, and the blue petrel Halobaena caerulea and the thin-billed prion Pachyptila belcheri prion in Kerguelen islands. These datasets provide a unique opportunity to simultaneously disentangle and quantify the different sources of variability driving variation in natural populations occupying one of the highest trophic levels of the Antarctic and sub-Antarctic food webs. We found variation in several vital traits of both populations influenced by individual performance and latent individual heterogeneity. We discuss the mechanisms by which climatic variability, prey abundance, and population density can differentially affect the different age classes of each age class, and the potential consequences of future environmental changes
Styles APA, Harvard, Vancouver, ISO, etc.
48

Thiebaut, Sophie. « Maladies chroniques et pertes d'autonomie chez les personnes âgees : évolutions des dépenses de santé et de la prise en charge de la dépendance sous l'effet du vieillissement de la population ». Thesis, Aix-Marseille 2, 2011. http://www.theses.fr/2011AIX24026.

Texte intégral
Résumé :
Fondée sur deux analyses empiriques et sur un travail de modélisation théorique, cette thèse traite de la problématique du vieillissement de la population, en France, en termes de dépenses de biens et services de santé, et en termes de prise en charge des personnes âgées dépendantes. Dans un premier chapitre, une méthode de microsimulation dynamique est mise au point afin d'évaluer l'évolution des dépenses de médicaments remboursables (en médecine de ville) sous l'effet du vieillissement de la population et de l'évolution de l'état de santé chronique des personnes âgées. Un deuxième chapitre s'intéresse aux tenants d'une possible réforme de l'Allocation Personnalisée d'Autonomie (APA), qui viserait à récupérer sur la succession une partie des fonds versés aux personnes dépendantes. Nous développons un modèle théorique de transfert intergénérationnel en individualisant les décisions des deux membres d'une famille, un parent dépendant et un enfant aidant informel potentiel. Enfin, dans une dernière partie, nous évaluons empiriquement les facteurs modifiant la demande d'aide à domicile des bénéficiaires de l'APA, en nous concentrant, afin d'anticiper sur de possibles réformes de l'aide publique, sur l'évaluation des effets-prix dans la demande d'aide formelle
This thesis addresses, using an elaborated theoretical model and two empirical applications, issues related to population ageing and health care expenditures as per the French context. In the first chapter, a method of dynamic microsimulation is developed to assess the evolution of outpatient reimbursable drugs expenditures as a result of the ageing population and the evolution of health status of chronically ill elderly people. The second chapter focuses on the ins and outs of a possible reform of the Personal Allowance for Autonomy (APA), which would seek to recover a portion of the funds paid to disabled elderly on the inheritance of their heirs. A theoretical model of intergenerational transfers is developed to study the individual decisions of a two-member family - a disabled parent and a child who can play the role of informal care giver. The final section presents an empirical evaluation of the factors affecting the demand of APA's recipients for home care. This work examines the price effects in the demand for formal care in order to anticipate possible reforms of public allowance
Styles APA, Harvard, Vancouver, ISO, etc.
49

Péron, Guillaume. « Dynamique des populations : apport de la modélisation intégrée à l’échelle du paysage et de la prise en compte de l’hétérogénéité individuelle dans les modèles de capture-recapture ». Montpellier 2, 2009. http://www.theses.fr/2009MON20076.

Texte intégral
Résumé :
Entre l’échelle locale et l’échelle du paysage (plusieurs populations connectées) la dynamique de population peut varier d’un extrême à l’autre. Au cours de cette thèse je me suis intéressé à deux méthodes permettant de mieux détailler les dynamiques locales et régionales d’une population multi-colonie de mouettes rieuses Chroicocephalus ridibundus où l’on suit le devenir d’individus marqués. Les modèles intégrés de population combinent les informations issues des comptages à l’échelle régionale, et les données issues de capture(recapture d’individus marqués, pour obtenir des estimations précises des paramètres démographiques, notamment les taux de transferts entre différents sites. Cette méthode a permis de mettre en évidence l’effet de la taille des colonies sur la démographie : émigration des jeunes, âge de première reproduction, attraction des adultes. Ce patron de variation indique que la compétition entre individus est non négligeable sur les colonies les plus grandes. Dès lors, on pouvait attendre une hétérogénéité entre individus, liée à la capacité compétitrice, qui s’ajoute aux autres sources de variations connues. Les modèles multiévènement permettent d’accommoder cette hétérogénéité de source multiple dans le double but d’obtenir des modèles bien ajustés aux données, pouvant servir de base à des tests fiables d’hypothèses biologiques, et de corriger les biais liés à l’hétérogénéité individuelle. Je me suis intéressé à l’étude de la sénescence, le déclin du taux de survie avec l’âge, qui a donné lieu à une application des modèles multiévènement et à une analyse comparative incluant 72 espèces d’oiseaux et de mammifères
Between the local and the landscape scales (several connected populations), population dynamics can vary from one extreme to the other. During this thesis work I was interested in two methods that provide more insight into the local and regional dynamics of a population of black-headed gull Chroicocephalus ridibundus studied by capture-recapture of marked individuals. Integrated population models combine the information from population surveys at the landscape scale and information from capture-recapture data, in order to obtain precise estimates for the demographic parameters, in particular the transfer rates between different sites. This method made it possible to prove the effect of the colony size on demography: emigration of young individuals, age at first reproduction, and attraction of adults. This pattern indicates that intra-specific competition is non-negligible on the largest colonies. From then on, one could expect individual heterogeneity, due to competitive ability, which adds to the sex-biased dispersal effect. It is possible to accommodate this heterogeneity of multiple origin using multievent models, in order to obtain well-fitted models, which can be used as a basis for further hypothesis testing, and to simultaneously correct for the bias induced by individual heterogeneity. I worked on senescence, the decline in survival with age, with an application of multievent models and a comparative analysis across 72 species of birds and mammals
Styles APA, Harvard, Vancouver, ISO, etc.
50

Huynh, Ngoc Tho. « A development process for building adaptative software architectures ». Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0026/document.

Texte intégral
Résumé :
Les logiciels adaptatifs sont une classe de logiciels qui peuvent modifier leur structure et comportement à l'exécution afin de s'adapter à des nouveaux contextes d'exécution. Le développement de logiciels adaptatifs a été un domaine de recherche très actif les dix dernières années. Plusieurs approches utilisent des techniques issues des lignes des produits afin de développer de tels logiciels. Ils proposent des outils, des frameworks, ou des langages pour construire des architectures logicielles adaptatives, mais ne guident pas les ingénieurs dans leur utilisation. De plus, ils supposent que tous les éléments spécifiés à la conception sont disponibles dans l'architecture pour l'adaptation, même s'ils ne seront jamais utilisés. Ces éléments inutiles peuvent être une cause de soucis lors du déploiement sur une cible dont l'espace mémoire est très contraint par exemple. Par ailleurs, le remplacement de composants à l'exécution reste une tâche complexe, elle doit assurer non seulement la validité de la nouvelle version, mais aussi préserver la terminaison correcte des transactions en cours. Pour faire face à ces problèmes, cette thèse propose un processus de développement de logiciels adaptatifs où les tâches, les rôles, et les artefacts associés sont explicites. En particulier, le processus vise la spécification d'informations nécessaires pour construire des architectures logicielles adaptatives. Le résultat d'un tel processus est une architecture logicielle adaptative qui contient seulement des éléments utiles pour l'adaptation. De plus, un mécanisme d'adaptation est proposé basé sur la gestion de transactions pour assurer une adaptation dynamique cohérente. Elle assure la terminaison correcte des transactions en cours. Nous proposons pour cela la notion de dépendance transactionnelle : dépendance entre des actions réalisées par des composants différents. Nous proposons la spécification de ces dépendances dans le modèle de variabilité, et de l'exploiter pour décider des fonctions de contrôle dans les composants de l'architecture, des fonctions qui assurent une adaptation cohérente à l'exécution
Adaptive software is a class of software which is able to modify its own internal structure and hence its behavior at runtime in response to changes in its operating environment. Adaptive software development has been an emerging research area of software engineering in the last decade. Many existing approaches use techniques issued from software product lines (SPLs) to develop adaptive software architectures. They propose tools, frameworks or languages to build adaptive software architectures but do not guide developers on the process of using them. Moreover, they suppose that all elements in the SPL specified are available in the architecture for adaptation. Therefore, the adaptive software architecture may embed unnecessary elements (components that will never be used) thus limiting the possible deployment targets. On the other hand, the components replacement at runtime remains a complex task since it must ensure the validity of the new version, in addition to preserving the correct completion of ongoing activities. To cope with these issues, this thesis proposes an adaptive software development process where tasks, roles, and associate artifacts are explicit. The process aims at specifying the necessary information for building adaptive software architectures. The result of such process is an adaptive software architecture that only contains necessary elements for adaptation. On the other hand, an adaptation mechanism is proposed based on transactions management for ensuring consistent dynamic adaptation. Such adaptation must guarantee the system state and ensure the correct completion of ongoing transactions. In particular, transactional dependencies are specified at design time in the variability model. Then, based on such dependencies, components in the architecture include the necessary mechanisms to manage transactions at runtime consistently
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie