Siga este link para ver outros tipos de publicações sobre o tema: Optimisation du Risque.

Teses / dissertações sobre o tema "Optimisation du Risque"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Optimisation du Risque".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Seck, Babacar. "Optimisation stochastique sous contrainte de risque et fonctions d'utilité". Phd thesis, Ecole des Ponts ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004576.

Texto completo da fonte
Resumo:
Dans un contexte d'ouverture à la concurrence et d'émergence des marchés de l'énergie, la production d'électricité est affectée par de nouvelles sources d'aléas : le risque de marché. Nous étudions la possibilité d'introduire des contraintes de risque financier dans le processus d'optimisation de la production de l'électricité. Nous distinguons l'approche "ingénieur" (prise en compte du risque par des mesures de risque) de l'approche "économiste" (prise en compte du risque par des fonctions d'utilité), au Chapitre 1. Ces deux points de vue sont rapprochés dans le Chapitre 2. Une application numérique relativement simple est présentée pour illustrer le lien qui existe entre la Conditional Value-at-Risk et l'aversion aux pertes. Le résultat d'équivalence obtenu dans le Chapitre 2 est étendu à un cadre d'optimisation dynamique dans le Chapitre 3. Une application numérique de cette approche et une programmation dynamique sous contrainte de risque sont faites au Chapitre 4 pour résoudre un problème de gestion de production de l'électricité sous une contrainte de Condition al Value-at-Risk.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Ngoupeyou, Armand Brice. "Optimisation des portefeuilles d'actifs soumis au risque de défaut". Thesis, Evry-Val d'Essonne, 2010. http://www.theses.fr/2010EVRY0012/document.

Texto completo da fonte
Resumo:
Cette thèse porte sur l'optimisation des portefeuilles d'actifs soumis au risque de défaut. La crise actuelle nous a permis de comprendre qu'il est important de tenir compte du risque de défaut pour pouvoir donner la valeur réelle de son portefeuille. En effet dûs aux différents échanges des acteurs du marché financier, le système financier est devenu un réseau de plusieurs connections dont il est indispensable d'identifier pour évaluer le risque d'investir dans un actif financier. Dans cette thèse, nous définissons un système financier avec un nombre fini de connections et nous proposons un modèle de la dynamique d'un actif dans un tel système en tenant compte des connections entre les différents actifs. La mesure de la corrélation sera faite à travers l'intensité de sauts des processus. A l'aide des Equations stochastiques Différentielles Rétrogrades (EDSR), nous déduirons le prix d'un actif contingent et nous tiendrons compte du risque de modèle afin de mieux évaluer la consommation et la richesse optimal si on investit dans un tel marché
The topic of this thesis is about the optimization of portfolio of defaultable assets. The subprime crisis show us that in the future, we should deal with the default risk to get the real value of the portfolio. In fact, there are so many exchanges in the markets that the financial market become a network with many connections and we should identity it to understand the real risk that we take when we deal with financial assets. In this thesis; we define a financial system with a finite number of connections and we give a model for the dynamics of the asset in such system considering the connections in the network. We deal with the jumps intensity processes to take account the correlation in the network. Using Backward Stochastic Differential Equations (BSDE), we get the price of a contingent claim and we consider the model risk to get the optimal consumption and terminal wealth in such financial network
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Andrieu, Laetitia. "Optimisation sous contrainte en probabilité". Phd thesis, Ecole des Ponts ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00001239.

Texto completo da fonte
Resumo:
La décision dans l'incertain est un theme de recherche particulièrement actif à l'heure actuelle, en raison notamment de ses nombreuses applications dans différents domaines de l'ingéniérie (télécommunications, transports,...), de la gestion et de la finance, etc. La formulation de ces problèmes en termes de problèmes d'optimisation sous contraintes est une approche classique. Cependant, dans un contexte aléatoire (ou stochastique), la nature des contraintes prises en compte requiert une attention particulière : -les contraintes à satisfaire "presque sûrement" sont généralement irréalistes ou anti-économiques (on ne dimensionne pas les réseaux pour écouler le traffic des heures de pointe de l'année), en dehors bien sûr des relations mathématiques qui représentent les lois de la Physique ; -les contraintes à satisfaire "en espérance", quoique mathématiquement agréables, n'ont pas de signification pratique très utile dans la mesure où le respect d'une inégalité sur l'espérance ne garantit rien sur la fréquence des dépassements de cette inégalité; -les contraintes à satisfaire avec une certaine probabilité sont généralement celles qui ont le plus de signification pratique, mais elles sont dificiles à traiter mathématiquement; -d'autres mesures de risque ont été récemment proposées CVaR, ordres stochastiques,...), notamment dans le domaine de la finance, pour aller dans le sens d'un traitement mathématique plus facile (préservation de la convexité par exemple), mais avec une certaine perte de l'interprétation intuitive qu'on peut leur donner. Sur le plan théorique, l'une des difficultés fondamentales que soulève le traitement des contraintes en probabilité est que ces contraintes s'expriment essentiellement comme l'espérance d'une fonction indicatrice d'ensemble, fonction à la fois non convexe et discontinue: le traitement de telles quantités par des méthodes d'approximation stochastique est donc très difficile. Dans cette thèse, trois voies sont explorées pour contourner ces difficultés : -le recours à d'autres formulations du risque qui amènent à des problèmes mathématiques plus simples ; -des méthodes d'intégration par parties ou de changement de variables dans le calcul de l'espérance permettent, sous certaine condition, de remplacer la fonction indicatrice par sa primitive, évidemment plus régulière, et donc plus facile à traiter du point de vue de l'approximation stochastique: on obtient ainsi des stimateurs non biaisés mais présentant une certaine variance ; -des méthodes de "lissage" remplaçant la fonction indicatrice par une approximation "adoucie", ce qui introduit un certain biais dans l'estimation, biais que l'on cherche ensuite à faire tendre asymptotiquement vers zéro. Ces méthodes sont évaluées et comparées à la fois sur les plans théorique et numérique, en utilisant pour cela deux exemples issus l'un d'un problèeme de parcours optimal avec risque et l'autre d'un problème d'investissement en finance.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Alais, Jean-Christophe. "Risque et optimisation pour le management d'énergies : application à l'hydraulique". Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST1071/document.

Texto completo da fonte
Resumo:
L'hydraulique est la principale énergie renouvelable produite en France. Elle apporte une réserve d'énergie et une flexibilité intéressantes dans un contexte d'augmentation de la part des énergies intermittentes dans la production. Sa gestion soulève des problèmes difficiles dus au nombre des barrages, aux incertitudes sur les apports d'eau et sur les prix, ainsi qu'aux usages multiples de l'eau. Cette thèse CIFRE, effectuée en partenariat avec Electricité de France, aborde deux questions de gestion hydraulique formulées comme des problèmes d'optimisation dynamique stochastique. Elles sont traitées dans deux grandes parties.Dans la première partie, nous considérons la gestion de la production hydroélectrique d'un barrage soumise à une contrainte dite de cote touristique. Cette contrainte vise à assurer une hauteur de remplissage du réservoir suffisamment élevée durant l'été avec un niveau de probabilité donné. Nous proposons différentes modélisations originales de ce problème et nous développons les algorithmes de résolution correspondants. Nous présentons des résultats numériques qui éclairent différentes facettes du problème utiles pour les gestionnaires du barrage.Dans la seconde partie, nous nous penchons sur la gestion d'une cascade de barrages. Nous présentons une méthode de résolution approchée par décomposition-coordination, l'algorithme Dual Approximate Dynamic Programming (DADP). Nousmontrons comment décomposer, barrage par barrage, le problème de la cascade en sous-problèmes obtenus en dualisant la contrainte de couplage spatial ``déversé supérieur = apport inférieur''. Sur un cas à trois barrages, nous sommes en mesure de comparer les résultats de DADP à la solution exacte (obtenue par programmation dynamique), obtenant desgains à quelques pourcents de l'optimum avec des temps de calcul intéressants. Les conclusions auxquelles nous sommes parvenu offrent des perspectives encourageantes pour l'optimisation stochastique de systèmes de grande taille
Hydropower is the main renewable energy produced in France. It brings both an energy reserve and a flexibility, of great interest in a contextof penetration of intermittent sources in the production of electricity. Its management raises difficulties stemming from the number of dams, from uncertainties in water inflows and prices and from multiple uses of water. This Phd thesis has been realized in partnership with Electricité de France and addresses two hydropower management issues, modeled as stochastic dynamic optimization problems. The manuscript is divided in two parts. In the first part, we consider the management of a hydroelectric dam subject to a so-called tourist constraint. This constraint assures the respect of a given minimum dam stock level in Summer months with a prescribed probability level. We propose different original modelings and we provide corresponding numerical algorithms. We present numerical results that highlight the problem under various angles useful for dam managers. In the second part, we focus on the management of a cascade of dams. We present the approximate decomposition-coordination algorithm called Dual Approximate Dynamic Programming (DADP). We show how to decompose an original (large scale) problem into smaller subproblems by dualizing the spatial coupling constraints. On a three dams instance, we are able to compare the results of DADP with the exact solution (obtained by dynamic programming); we obtain approximate gains that are only at a few percents of the optimum, with interesting running times. The conclusions we arrived at offer encouraging perspectives for the stochastic optimization of large scale problems
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Martin, Yvan. "Maintenance par la fiabilité : optimisation au sens de la maîtrise des risques". Lyon, INSA, 1996. http://www.theses.fr/1996ISAL0015.

Texto completo da fonte
Resumo:
Le thème de recherche, objet de la thèse, concerne l'étude de modèles probabilistes et l'élaboration d'outils et techniques statistiques permettant une gestion optimisée des procédures de maintenance industrielle, avec prise en compte des concepts liés, de qualité et de sûreté de fonctionnement. Après avoir effectué une modélisation pertinente de la loi de survie la plus couramment observée en Fiabilité mécanique ("la courbe en baignoire"), une fréquence optimale de remplacement intégrant des critères économiques a été déterminée par une simulation auto-adaptative. Une optimisation des commandes de pièces détachées, pour une demande aléatoire, a été développée par une technique évolutionnaire, avec, comme préalable, une étude de complexité. A partir de typologies d'arrêts d'exploitation (approche systémique), une heuristique d'optimisation financière a été développée concernant la maintenance opportuniste. Dans le cadre d'une maîtrise de risques financiers, une partie des calculs précédents a été affinée en intégrant une dimension aléatoire prenant en compte la connaissance imparfaite de la loi de survie et des délais de réapprovisionnement
The aim of our work is the study of probabilistic models and the design of tools and statistical methods in order to optimize industrial maintenance process, taking into account Reliability, Quality and Availability. After a careful modelling of the most common life-cycle function (namely the "Bath-Curve"), an optimal frequency of replacement is determined using a "self-adaptive" Simulation method. A complexity study lead us to use a numerical method, based on evolutionary algorithm, in order to optimize stock management in case of hazardous material requisition. Through an analysis of the standards of production: stops, an heuristical method allows us to optimize maintenance policy in the context of opportunistic maintenance. Thinking about financial risk assessment, we integrate imperfect knowledge of life-cycle function and supplies process in all methods developed above
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Therrien, Karine. "Validation et optimisation d'une méthode d'indice de risque de perte de phosphore". Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24468/24468.pdf.

Texto completo da fonte
Resumo:
La dégradation de la qualité des eaux de surface par le phosphore (P) provenant de sources diffuses, surtout agricoles, a initié le développement d’outils de prédiction des risques de perte de P tenant compte des facteurs transport et source. Aux États-Unis, plusieurs indices de perte de phosphore (IPP) ont été mis au point. Ces IPP n'étant pas nécessairement applicables au Québec, une méthode d’indice modifiée a été proposée : l'Indice de Risque de Phosphore (IRP). L’objectif de ce projet de recherche était de valider et, possiblement, d’améliorer la méthode IRP en se basant sur les pertes de P mesurées sur neuf parcelles expérimentales situées sur la ferme de l’IRDA à Saint-Lambert-de-Lauzon. Les pertes de P par érosion hydrique, par ruissellement et par drainage souterrain ont été mesurées en continu durant deux années (2001-2002) par des systèmes automatiques de mesure et d’échantillonnage quantifiant les volumes d’eau ruisselée et drainée et leur concentration en P pour chaque parcelle. Les pertes de P total (PT) ont été en moyenne de 540 g ha-1, dont 95 % a été perdu par le drainage souterrain. Pour chaque parcelle expérimentale, l’indice de classe de risque sélectionné pour chaque composante de la méthode IRP a été multiplié par le poids de chaque composante pour obtenir une valeur pondérée. Les valeurs pondérées de chaque composante ont ensuite été additionnées pour donner la valeur finale de l’IRP. Les résultats montrent que les masses de PT perdues et les valeurs de l'IRP correspondantes sont corrélées à 0,63. Afin d’améliorer la relation entre les pertes réelles de P et les valeurs de l'IRP, l’algorithme Trust-region de la procédure de programmation non-linéaire (proc NLP) de SAS a été utilisée pour optimiser la valeur des poids et le classement de la valeur des composantes. L'optimisation a résulté en un ensemble de poids et de valeurs de classement ayant une corrélation de 0,92. Les changements apportés ont conservé la structure additive de la méthode IRP. Il faut souligner que les résultats ne sont valides que pour le site de Saint-Lambert. Une généralisation à l'ensemble du territoire agricole du Québec nécessiterait des sites expérimentaux couvrant un plus large éventail de conditions climatiques, édaphiques et agronomiques. Néanmoins, les résultats obtenus montrent la possibilité d'améliorer la capacité prédictive de la méthode IRP. Mots-clés : indice de risque de phosphore, perte de phosphore, optimisation, évaluation du risque, facteurs source, facteurs transport.
Surface water quality impairment is primarily caused by phosphorus (P) lost from surrounding agricultural fields. This knowledge triggered the development of P losses predicting tools taking into account transport and source factors. In the United States, a great number of P index (PI) approaches has been developed and adopted. Because these PIs are not necessarily applicable in the province of Québec, a P index specific to Québec has been developed : the Phosphorus Risk Index (PRI). The objective of this research was to validate and possibly improve the PRI method using P losses measured on nine experimental agricultural plots located on the IRDA farm in Saint-Lambert-de-Lauzon. For each plot, P losses and the amounts of water from runoff and tile-drainage were continuously measured during a two-year period (2001-2002) using automated systems. The total P losses were on average 540 g ha-1 from which 95% was exported via the subsurface drainage system. For each plots, the selected P loss value of each of the PRI components were multiplied by the weight assigned to each components and summed to obtain the final PRI value which is associated to one of the five P loss ratings (i.e. very low, low, medium, high and very high). Results indicate that the measured total P losses and PRI values showed a correlation coefficient of 0.63. In order to improve the relationship between P losses and the IRP, the Trust-region algorithm of the SAS none-linear programming (proc. NLP) was used to optimize weights and P loss potential values of the components. Optimization resulted in a correlation coefficient of 0.92. Modifications to the method kept the additive structure of the PRI method. Results were only valid for the Saint-Lambert plots. Generalization across Québec would require experiments on a range of soil, climate, and agronomic conditions. Results from this research indicated possible improvement in the predictive accuracy of the PRI method. Keywords: Phosphorus index, phosphorus losses, optimization, risk assessment, source factors, transport factors.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Hamdi, Faiza. "Optimisation et planification de l'approvisionnement en présence du risque de rupture des fournisseurs". Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2017. http://www.theses.fr/2017EMAC0002/document.

Texto completo da fonte
Resumo:
La libéralisation des échanges, le développement des moyens de transport de marchandises à faible coût et l’essor économique des pays émergents font de la globalisation (mondialisation) des chaînes logistiques un phénomène irréversible. Si ces chaines globalisées permettent de réduire les coûts, en contrepartie, elles multiplient les risques de rupture depuis la phase d’approvisionnement jusqu’à la phase finale de distribution. Dans cette thèse, nous nous focalisons sur la phase amont. Nous traitons plus spécifiquement le cas d’une centrale d’achat devant sélectionner des fournisseurs et allouer les commandes aux fournisseurs retenus. Chacun des fournisseurs risque de ne pas livrer ses commandes pour des raisons qui lui sont propres (problèmes internes, mauvaise qualité) ou externes (catastrophe naturelle, problèmes de transport). Selon que les fournisseurs sélectionnés livrent ou non leurs commandes, l’opération dégagera un profit ou sera déficitaire. L’objectif de cette thèse, est de fournir des outils d’aide à la décision à un décideur confronté à ce problème tout en prenant en compte le comportement du dit décideur face au risque. Des programmes stochastiques en nombre entiers mixtes ont été proposés pour modéliser ce problème. La première partie du travail porte sur l’élaboration d’un outil visuel d’aide à la décision permettant à un décideur de trouver une solution maximisant le profit espéré pour un risque de perte fixé. La deuxième partie applique les techniques d’estimation et de quantification du risque VAR et CVaR à ce problème. L’objectif est d’aider un décideur qui vise à minimiser la valeur de l’espérance du coût (utilisation de VaR) ou à minimiser la valeur de l’espérance du coût dans le pire des cas (utilisation de VAR et CVaR). Selon nos résultats, il apparaît que le décideur doit prendre en compte les différents scénarios possibles quelque soit leurs probabilités de réalisation, pour que la décision soit efficace
Trade liberalization, the development of mean of transport and the development economic of emerging countries which lead to globalization of supply chain is irreversible phenomen. They can reduce costs, in return, they multiply the risk of disruption from upstream stage to downstream stage. In this thesis, we focus on the inbound supply chain stage. We treat more specifically the case of a purchasing central to select suppliers and allocate the orders. Each of the suppliers cannot deliver its orders due to internal reasons (poor quality problems) or external reasons (natural disasters, transport problems). According to the selected suppliers deliver their orders or not, the transaction operation will generate a profit or loss. The objective of this thesis is to provide decision support tools to a decision maker faced with this problem by taking into account the behavior of decision maker toward risk. We proposed stochastic mixed integer linear programs to model this problem. In the first part, we focuses on the development of a decision support visual tool that allows a decision maker to find a compromise between maximizing the expected profit and minimize the risk of loss. In the second part, we integrated the techniques of estimation of risk VaR and CVaR in this problem. The objective is to help decision maker to minimize the expected cost and minimize the conditional value at risk simultanously via calculating of VaR. Result shows that the decision maker must tack into account the different scenarios of disruption regardless their probability of realisation
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Forsell, Nicklas. "Planification dans le risque et l'incertain : optimisation des stratégies de gestion spatiale des forêts". Toulouse 3, 2009. http://www.theses.fr/2009TOU30260.

Texto completo da fonte
Resumo:
Cette thèse s'intéresse à l'optimisation de politiques de gestion à grande échelle dans le risque et l'incertain. Dans l'article I, nous nous concentrons sur le problème de résolution de problèmes de gestion à grande échelle des ressources naturelles spatiales et temporelles. Pour modéliser ce type de problème, le cadre des Processus Décisionnels de Markov sur Graphe (PDMG) peut être utilisé. Deux algorithmes pour le calcul de politiques de gestion de grande qualité sont proposés : le premier basé sur le Programmation Linéaire Approchée (PLA), le second sur une Itération de la Politique Approchée et sur une approximation de Champ Moyen (IPA-CM). L'efficacité et l'adéquation de ces algorithmes ont été démontrées par leur capacité à calculer des politiques de gestion quasi-optimales pour deux problèmes de gestion à grande échelle. La conclusion a été que ces deux algorithmes calculent des politiques de qualité semblable. Cependant, l'algorithme IPACM est souhaitable lorsque l'on requiert à la fois la politique et la valeur attendue de la politique calculée, alors que l'algorithme PLA est préférable lorsque seulement la politique est demandée. Dans l'article II, sont présentés certains algorithmes d'apprentissage par renforcement que l'on peut utiliser pour calculer des politiques de gestion pour des PDMG lorsque la fonction de transition ne peut être simulée parce que sa formulation explicite est inconnue. Des études sur l'efficacité de ces algorithmes dans le cas de trois problèmes de gestion nous ont amenés à conclure que certains de ces algorithmes pouvaient calculer des politiques quasi-optimales. Dans l'article III, nous avons utilisé le cadre PDMG pour optimiser des politiques de gestion forestière à long terme dans le cas d'événements liés aux risques de tempête stochastiques. Ce modèle a été démontré dans l'étude par l'étude d'un domaine forestier de 1 200 hectares, divisé en 623 parcelles. .
This thesis concentrates on the optimization of large-scale management policies under conditions of risk and uncertainty. In paper I, we address the problem of solving large-scale spatial and temporal natural resource management problems. To model these types of problems, the framework of graph-based Markov decision processes (GMDPs) can be used. Two algorithms for computation of high-quality management policies are presented: the first is based on approximate linear programming (ALP) and __ the second is based on mean-field approximation and approximate policy iteration (MF-API). The applicability and efficiency of the algorithms were demonstrated by their ability to compute near-optimal management policies for two large-scale management problems. It was concluded that the two algorithms compute policies of similar quality. However, the MF-API algorithm should be used when both the policy and the expected value of the computed policy are required, while the ALP algorithm may be preferred when only the policy is required. In paper II, a number of reinforcement learning algorithms are presented that can be used to compute management policies for GMDPs when the transition function can only be simulated because its explicit formulation is unknown. Studies of the efficiency of the algorithms for three management problems led us to conclude that some of these algorithms were able to compute near-optimal management policies. In paper III, we used the GMDP framework to optimize long-term forestry management policies under stochastic wind-damage events. The model was demonstrated by a case study of an estate consisting of 1,200 ha of forest land, divided into 623 stands. We concluded that managing the estate according to the risk of wind damage increased the expected net present value (NPV) of the whole estate only slightly, less than 2%, under different wind-risk assumptions. Most of the stands were managed in the same manner as when the risk of wind damage was not considered. However, the analysis rests on properties of the model that need to be refined before definite conclusions can be drawn
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Gérard, Henri. "Stochastic optimization problems : decomposition and coordination under risk". Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1111/document.

Texto completo da fonte
Resumo:
Nous considérons des problèmes d'optimisation stochastique et de théorie des jeux avec des mesures de risque. Dans une première partie, nous mettons l'accent sur la cohérence temporelle. Nous commençons par prouver une équivalence entre cohérence temporelle et l'existence d'une formule imbriquée pour des fonctions. Motivés par des exemples bien connus dans les mesures de risque, nous étudions trois classes de fonctions: les fonctions invariantes par translation, les transformées de Fenchel-Moreau et les fonctions supremum. Ensuite, nous étendons le concept de cohérence temporelle à la cohérence entre joueurs, en remplaçant le temps séquentiel par un ensemble non ordonné et les fonctions par des relations binaires. Enfin, nous montrons comment la cohérence entre joueurs est liée à des formes de décomposition séquentielles et parallèles en optimisation. Dans une seconde partie, nous étudions l'impact des mesures de risque sur la multiplicité des équilibres dans les problèmes de jeux dynamiques dans les marchés complets et incomplets. Nous concevons un exemple où l'introduction de mesures de risque conduit à l'existence de trois équilibres au lieu d'un dans le cas risque neutre. Nous analysons la capacité de deux algorithmes différents à trouver les différents équilibres. Nous discutons des liens entre la cohérence des joueurs et les problèmes d'équilibre dans les jeux. Dans une troisième partie, nous étudions l'optimisation robuste pour l'apprentissage automatique. En utilisant des mesures de risque convexes, nous fournissons un cadre unifié et proposons un algorithme adapté couvrant trois ensembles d'ensembles d'ambiguïté étudiés dans la littérature
We consider stochastic optimization and game theory problems with risk measures. In a first part, we focus on time consistency. We begin by proving an equivalence between time consistent mappings and the existence of a nested formula. Motivated by well-known examples in risk measures, we investigate three classes of mappings: translation invariant, Fenchel-Moreau transform and supremum mappings. Then, we extend the concept of time consistency to player consistency, by replacing the sequential time by any unordered set and mappings by any relations. Finally, we show how player consistency relates to sequential and parallel forms of decomposition in optimization. In a second part, we study how risk measures impact the multiplicity of equilibria in dynamic game problems in complete and incomplete markets. We design an example where the introduction of risk measures leads to the existence of three equilibria instead of one in the risk neutral case. We analyze the ability of two different algorithms to recover the different equilibria. We discuss links between player consistency and equilibrium problems in games. In a third part, we study distribution ally robust optimization in machine learning. Using convex risk measures, we provide a unified framework and propose an adapted algorithm covering three ambiguity sets discussed in the literature
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Torossian, Léonard. "Méthodes d'apprentissage statistique pour la régression et l'optimisation globale de mesures de risque". Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30192.

Texto completo da fonte
Resumo:
Cette thèse s'inscrit dans le contexte général de l'estimation et de l'optimisation de fonctions de type boîte noire dont la sortie est une variable aléatoire. Motivé par la nécessité de quantifier l'occurrence d'événements extrêmes dans des disciplines comme la médecine, l'agriculture ou la finance, dans cette thèse des indicateurs sur certaines propriétés de la distribution en sortie, comme la variance ou la taille des queues de dis- tribution, sont étudiés. De nombreux indicateurs, aussi connus sous le nom de mesure de risque, ont été proposés dans la littérature ces dernières années. Dans cette thèse nous concentrons notre intérêt sur les quantiles, CVaR et expectiles. Dans un premier temps, nous comparons les approches K-plus proches voisins, forêts aléatoires, régression dans les RKHS, régression par réseaux de neurones et régression par processus gaussiens pour l'estimation d'un quantile conditionnel d'une fonction boite noire. Puis, nous proposons l'utilisation d'un modèle de régression basé sur le couplage de deux processus gaussiens estimés par une méthode variationnelle. Nous montrons que ce modèle, ini- tialement développé pour la régression quantile, est facilement adaptable à la régression d'autres mesures de risque. Nous l'illustrons avec l'expectile. Dans un second temps, nous analysons le problème relatif à l'optimisation d'une mesure de risque. Nous proposons une approche générique inspirée de la littérature X-armed bandits, permettantde fournir un algorithme d'optimisation, ainsi qu'une borne supérieure sur le regret, adaptable au choix de la mesure de risque. L'applicabilité de cette approche est illustrée par l'optimisation d'un quantile ou d'une CVaR. Enfin, nous proposons des algorithmes d'optimisation utilisant des processus gaussiens associés aux stratégies UCB et Thompson sampling, notre objectif étant l'optimisation d'un quantile ou d'un expectile
This thesis presents methods for estimation and optimization of stochastic black box functions. Motivated by the necessity to take risk-averse decisions in medecine, agriculture or finance, in this study we focus our interest on indicators able to quantify some characteristics of the output distribution such as the variance or the size of the tails. These indicators also known as measure of risk have received a lot of attention during the last decades. Based on the existing literature on risk measures, we chose to focus this work on quantiles, CVaR and expectiles. First, we will compare the following approaches to perform quantile regression on stochastic black box functions: the K-nearest neighbors, the random forests, the RKHS regression, the neural network regression and the Gaussian process regression. Then a new regression model is proposed in this study that is based on chained Gaussian processes inferred by variational techniques. Though our approach has been initially designed to do quantile regression, we showed that it can be easily applied to expectile regression. Then, this study will focus on optimisation of risk measures. We propose a generic approach inspired from the X-armed bandit which enables the creation of an optimiser and an upper bound on the simple regret that can be adapted to any risk measure. The importance and relevance of this approach is illustrated by the optimization of quantiles and CVaR. Finally, some optimisation algorithms for the conditional quantile and expectile are developed based on Gaussian processes combined with UCB and Thompson sampling strategies
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Papa, Guillaume. "Méthode d'échantillonnage appliqué à la minimisation du risque empirique". Electronic Thesis or Diss., Paris, ENST, 2018. http://www.theses.fr/2018ENST0005.

Texto completo da fonte
Resumo:
Dans ce manuscrit, nous présentons et étudions des stratégies d’échantillonnage appliquées, à problèmes liés à l’apprentissage statistique. L’objectif est de traiter les problèmes qui surviennent généralement dans un contexte de données volumineuses lorsque le nombre d’observations et leur dimensionnalité contraignent le processus d’apprentissage. Nous proposons donc d’aborder ce problème en utilisant deux stratégies d’échantillonnage: - Accélérer le processus d’apprentissage en échantillonnant les observations les plus utiles. - Simplifier le problème en écartant certaines observations pour réduire la complexité et la taille du problème. Pour commencer, nous nous plaçons dans le contexte de la classification binaire, lorsque les observations utilisées pour former un classificateur sont issues d’un schéma d’échantillonnage/sondage et présentent une structure de dépendance complexe pour lequel nous établissons des bornes de généralisation. Ensuite nous étudions le problème d’implémentation de la descente de gradient stochastique quand les observations sont tirées non uniformément. Nous concluons cette thèse par l’étude du problème de reconstruction de graphes pour lequel nous établissons de nouveau résultat théoriques
In this manuscript, we present and study applied sampling strategies, with problems related to statistical learning. The goal is to deal with the problems that usually arise in a context of large data when the number of observations and their dimensionality constrain the learning process. We therefore propose to address this problem using two sampling strategies: - Accelerate the learning process by sampling the most helpful. - Simplify the problem by discarding some observations to reduce complexity and the size of the problem. We first consider the context of the binary classification, when the observations used to form a classifier come from a sampling / survey scheme and present a complex dependency structure. for which we establish bounds of generalization. Then we study the implementation problem of stochastic gradient descent when observations are drawn non uniformly. We conclude this thesis by studying the problem of graph reconstruction for which we establish new theoretical results
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Blanchet-Scalliet, Christophette. "Processus à sauts et risque de défaut". Phd thesis, Université d'Evry-Val d'Essonne, 2001. http://tel.archives-ouvertes.fr/tel-00192209.

Texto completo da fonte
Resumo:
Cette thèse est constitué de deux partie : dans la première partie, nous etudions un marché complet dont l'actif risqué est un processus discontinu.
La seconde est consacrée à une modélisation du risque de défaut. Nous insistons sur la différence entre l'information liée au défaut de celle du marché sans défaut. Nous établissons des théorèmes de représentation prévisibles pour les martingales dans la filtration élargie.
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Perchet, Romain. "Construction et gestion d'un portefeuille en budget de risque". Paris, EHESS, 2015. http://www.theses.fr/2015EHES0179.

Texto completo da fonte
Resumo:
Cette thèse, basée sur des articles, propose des solutions aux investisseurs pour construire et gérer des portefeuilles en tenant compte de la fréquence des crises. Le premier chapitre explique la motivation de ces articles. Le deuxième chapitre propose une solution pour construire une allocation robuste aux risques de moyen terme alors que les trois et quatrièmes chapitres proposent des solutions pour gérer les risques de court terme. En utilisant des formulations différentes de la "robust optimization" de portefeuille, quadratique et absolue, je montre que, (a) dans la limite d'une faible incertitude sur les rendements attendus, l'allocation obtenue converge vers le portefeuille Moyenne-Variance, et que (b) dans la limite d'une grande incertitude sur les rendements attendus l'allocation obtenue converge vers une allocation "risk based" selon la forme d'incertitude définie sur les rendements. La stratégie "Inter-temporal risk parity" rééquilibre en effet un portefeuille entre un actif risqué et un actif monétaire afin de viser un risque constant au fil du temps. Lorsque la stratégie est appliquée aux actions par rapport à un portefeuille "Buy-and-Hold", il est bien connu qu'elle améliore le ratio de Sharpe et réduit les pertes maximum. J'utilise des simulations Monte-Carlo basées sur des modèles de séries temporelles de la famille GARCH afin d'analyser les effets qui expliquent ces avantages. Je décline également la stratégie aux facteurs d'investissements communément appelés "value" et "momentum", appliqués aux actions, obligations et taux de changes
This thesis, based on articles, propose solutions to investors to build and manage portfolios taking into account the frequency of crisis. The first chapter explains the motivation of these articles. The second chapter proposes a solution to build robust mid-term asset allocation whereas the chapter three and four offer solutions to manage short term risk. For a number of different formulations of robust portfolio optimization, quadratic and absolute, I show that (a) in the limit of low uncertainty in estimated asset mean returns the robust portfolio converges towards the mean-variance portfolio obtained with the same inputs, and (b) in the limit of high uncertainty the robust portfolio converges towards a risk-based portfolio, which is a function of how the uncertainty in estimated asset mean returns is defined. Inter-temporal risk parity is a strategy which rebalances between a risky asset and cash in order to target a constant level of risk over time. When applied to equities and compared to a buy and hold strategy it is known to improve the Sharpe ratio and reduce drawdowns. I used Monte Carlo simulations based on a number of time-series parametric models from the GARCH family in order to analyze the relative importance of a number of effects in explaining those benefits. I also apply these strategies to factor investing, namely value and momentum investing in equities, government bonds and foreign exchange. Value and momentum factors generate a premium which is traditionally captured by dollar-neutral long-short portfolios rebalanced every month to take into account changes in stock, bond or foreign exchange factor exposures and keep leverage constant
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Favier, Philomène. "Une approche intégrée du risque avalanche : quantification de la vulnérabilité physique et humaine et optimisation des structures de protection". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENU051/document.

Texto completo da fonte
Resumo:
La quantification du risque avalanche à long terme dans un but de zonage et d'optimisation des moyens de protection est fait dans la plupart des pays sur la base de la connaissance des événements de forte intensité. Ces approches fondées sur les périodes de retours, centrées uniquement sur l'aléa, ne considèrent pas explicitement les éléments à risque étudiés (bâtiments, personnes à l'intérieur, etc.) et négligent les possibles contraintes budgétaires. Afin de palier à ces limitations, les méthodes de zonage basés sur le risque et les analyses coût-bénéfice ont récemment émergées. Elles combinent la distribution de l'aléa avec les relations de vulnérabilité des éléments étudiés. Ainsi, l'évaluation systématisée de la vulnérabilité des bâtiments permet de mieux quantifier le risque dans un couloir d'avalanche donné. Cependant, en pratique, les relations de vulnérabilité disponibles restent principalement limitées à de rares estimations empiriques déduites de l'analyse de quelques catastrophes survenues. De plus, les méthodes existantes basées sur le risque font face à des calculs encore lourds, et les hypothèses sur la modélisation de l'aléa sont discutables (choix de quelques scénarios, faible considération des valeurs extrêmes, etc.). Dans cette thèse, ces problèmes sont abordés en construisant grâce à une approche fiabiliste des relations de fragilité de différents configurations de bâtiments en béton armé (BA) sollicités par des avalanches de neige et également des relations de fragilité pour les personnes potentiellement à l'intérieur de ces bâtiments. Ces relations sont ensuite utilisées dans un cadre de quantification du risque et de recherche de structure de défense optimale. L'apport de cette thèse est donc l'enrichissement de la caractérisation de la vulnérabilité et du risque face aux avalanches par des approches de complexités variables utilisables en fonction de la spécificité du cas et du temps imparti pour conduire l'étude. La thèse est composée de quatre volets. D'abord, les courbes de fragilité associées à différents états limites de murs en BA soumis au chargement uniforme d'une avalanche sont obtenues à partir d'approches classiques de dimensionnement du BA. Ensuite, l'approche est étendue à des modèles numériques de bâtis plus riches (modèle masse-ressort) permettant de décrire en particulier l'évolution temporelle de la réponse du système. A partir de ces relations de fragilité, de nouvelles relations pour les personnes à l'intérieur de ces bâtiments sont proposées. Ces relations pour les bâtiments et les personnes sont utilisées dans une analyse complète de sensibilité du risque. Enfin, une formule analytique du risque basée sur la statistique des valeurs extrêmes est proposée pour efficacement quantifier le risque et obtenir une caractéristique optimale de digue paravalanche
Long term avalanche risk quantification for mapping and the design of defense structures is done in mostcountries on the basis of high magnitude events. Such return period/level approaches, purely hazardoriented,do not consider elements at risk (buildings, people inside, etc.) explicitly, and neglect possiblebudgetary constraints. To overcome these limitations, risk based zoning methods and cost-benefit analyseshave emerged recently. They combine the hazard distribution and vulnerability relations for the elementsat risk. Hence, the systematic vulnerability assessment of buildings can lead to better quantify the riskin avalanche paths. However, in practice, available vulnerability relations remain mostly limited to scarceempirical estimates derived from the analysis of a few catastrophic events. Besides, existing risk-basedmethods remain computationally intensive, and based on discussable assumptions regarding hazard modelling(choice of few scenarios, little consideration of extreme values, etc.). In this thesis, we tackle theseproblems by building reliability-based fragility relations to snow avalanches for several building types andpeople inside them, and incorporating these relations in a risk quantification and defense structure optimaldesign framework. So, we enrich the avalanche vulnerability and risk toolboxes with approaches of variouscomplexity, usable in practice in different conditions, depending on the case study and on the time availableto conduct the study. The developments made are detailed in four papers/chapters.In paper one, we derive fragility curves associated to different limit states for various reinforced concrete(RC) buildings loaded by an avalanche-like uniform pressure. Numerical methods to describe the RCbehaviour consist in civil engineering abacus and a yield line theory model, to make the computations asfast as possible. Different uncertainty propagation techniques enable to quantify fragility relations linkingpressure to failure probabilities, study the weight of the different parameters and the different assumptionsregarding the probabilistic modelling of the joint input distribution. In paper two, the approach is extendedto more complex numerical building models, namely a mass-spring and a finite elements one. Hence, muchmore realistic descriptions of RC walls are obtained, which are useful for complex case studies for whichdetailed investigations are required. However, the idea is still to derive fragility curves with the simpler,faster to run, but well validated mass-spring model, in a “physically-based meta-modelling” spirit. Inpaper three, we have various fragility relations for RC buildings at hand, thus we propose new relationsrelating death probability of people inside them to avalanche load. Second, these two sets of fragilitycurves for buildings and human are exploited in a comprehensive risk sensitivity analysis. By this way,we highlight the gap that can exist between return period based zoning methods and acceptable riskthresholds. We also show the higher robustness to vulnerability relations of optimal design approaches ona typical dam design case. In paper four, we propose simplified analytical risk formulas based on extremevalue statistics to quantify risk and perform the optimal design of an avalanche dam in an efficient way. Asensitivity study is conducted to assess the influence of the chosen statistical distributions and flow-obstacleinteraction law, highlighting the need for precise risk evaluations to well characterise the tail behaviour ofextreme runouts and the predominant patterns in avalanche - structure interactions
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Grüss, Sandrine. "Optimisation de la prise en charge de l'hémorragie du postpartum : analyse des facteurs de risque et des pratiques professionnelles". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASR026.

Texto completo da fonte
Resumo:
Résumé : L'hémorragie du post-partum représente une des causes principales de morbi-mortalité maternelle en France. Malgré les progrès médicaux, la gestion optimale de l'hémorragie du post-partum reste un défi, notamment en raison de la complexité de coordonner différents traitements de façon pluri professionnelle dans un contexte d'urgence. Ce travail de thèse s'est concentré sur l'optimisation de la prise en charge de l'hémorragie du postpartum à travers une analyse approfondie des facteurs de risque et des pratiques professionnelles liés en particulier à l'utilisation des utérotoniques. Ce travail de recherche est structuré en trois volets. Tout d'abord, nous avons effectué une analyse des facteurs de risque associés à l'hémorragie du post-partum, en stratifiant nos analyses sur la parité afin de mieux en comprendre les déterminants et d'identifier les populations à haut risque grâce aux données d'un essai clinique randomisé. Ensuite, le deuxième volet a évalué les pratiques professionnelles des sage-femmes en mettant l'accent notamment sur l'utilisation parfois inappropriée de l'oxytocine en traitement de première intention en identifiant les écarts aux recommandations grâce à une enquête par vignette clinique diffusée aux sages-femmes françaises.Enfin, ce travail a permis d'identifier les facteurs d'échec du traitement par sulprostone, utérotonique de seconde ligne, ayant pour but de réduire les procédures invasives génératrices d'une morbidité importante à l'aide une analyse statistique bayésienne, à partir des données d'une cohorte bicentrique.En conclusion, ce travail fournit des pistes de réflexions pour une détection et une prise en charge optimisée de l'hémorragie du post-partum, en mettant l'accent sur l'identification précoce des facteurs de risques modifiables tel que l'utilisation appropriée des utérotoniques
Abstract : Post-partum hemorrhage is one of the most important causes of maternal morbidity and mortality in France. Despite medical advances, the optimal management of post-partum hemorrhage remains a challenge, not least because of the complexity of coordinating different treatments in a multi-professional emergency setting. This thesis focused on optimizing the management of postpartum hemorrhage through an in-depth analysis of risk factors and professional practices, particularly in relation to the use of uterotonics. This research is structured in three parts. Firstly, we carried out an analysis of the risk factors associated with postpartum hemorrhage, stratifying our analyses by parity in order to gain a better understanding of the determinants and to identify high-risk populations using data from a randomized clinical trial. Secondly, this study assessed the professional practices of midwives, focusing in particular on the sometimes-inappropriate use of oxytocin as a first-line treatment, by identifying deviations from recommendations using a clinical vignette survey distributed to French midwives.Finally, this work identified the factors leading to failure of treatment with sulproston, a second-line uterotonic, to reduce the invasive procedures that generate significant morbidity, using Bayesian statistics analysis based on data from a bicentric cohort.In conclusion, this work provides food for thought for optimized detection and management of post-partum hemorrhage, with the emphasis on early identification of modifiable risk factors such as appropriate use of uterotonics
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Capitanul, Elena Mihaela. "Airport strategic planning under uncertainty : fuzzy dual dynamic programming approach". Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30109/document.

Texto completo da fonte
Resumo:
Les aéroports sont des connecteurs critiques dans le système opérationnel de transport aérien. Afin de répondre à leurs obligations opérationnelles, économiques et sociales dans un environnement très volatil, ont besoin d'aéroports à embrasser le changement plutôt que d'y résister. Comme toute autre industrie, font face à des aéroports un large éventail de risques, dont certains spécifiques au transport aérien, les autres ayant seulement une influence indirecte mais assez puissant pour perturber les activités aéroportuaires. La planification longue terme de l'aéroport est devenue une question complexe en raison de la croissance constante de la demande de trafic aérien. Une nouvelle dimension de complexité est apparue lorsque l'incertitude a commencé à avoir un impact plus en plus perturbatrice, et significativement coûteuse sur le développement des infrastructures aéroportuaires. Historiquement, la capacité des outils traditionnels pour atténuer le risque et l'incertitude ont avérée inefficace. D'innombrables événements imprévus comme les attaques terroristes, la récession économique, les catastrophes naturelles, ont eu un impact dramatique sur les niveaux de trafic, certains avec une portée mondiale. Pour ce type hautement improbable d'événements peut être ajouté les progrès technologiques, de nouvelles modèles d'affaires des compagnies aériennes et aéroports, les changements de politique et de réglementation, préoccupation croissante pour l'impact environnemental. Dans ce contexte, la thèse met en avant une approche novatrice pour aborder l'évaluation des risques et de l'atténuation dans l'incertitude dans les projets de développement des infrastructures aéroportuaires à long terme. La thèse se développe sur le formalisme récemment développée de nombres flous comme un outil clé pour aborder l'incertitude. Après un examen approfondi de l'industrie aéroportuaire dans le contexte des environnements incertains, nombres double flous et double floue arithmétiques sont introduits. Comme le projet de développement des infrastructures aéroportuaires est un autre cas de problème de prise de décision en plusieurs étapes, la programmation dynamique est prise en compte afin d'optimiser le processus séquentiel de prise de décision. L'originalité de l'approche réside dans le fait que l'ensemble du processus sera floue et la composante double floue de la programmation dynamique sera introduite. Pour valider notre méthode, une étude de cas sera développée
Airports are critical connectors in the air transportation operational system. In order to meet their operational, economic and social obligations in a very volatile environment, airports need to embrace change rather than resist it. Like any other industry, airports face a wide array of risks, some specific to air transportation, other having only an indirect influence but powerful enough to disrupt airport activities. Long term airport planning has become a complex issue due to the constant growth in air traffic demand. A new dimension of complexity emerged when uncertainty began having a more, and more disruptive, and significantly costly impact on developing airport infrastructure. Historically, the ability of traditional risk and uncertainty mitigation tools proved inefficient. Countless unforeseen events like terrorist attacks, economic recession, natural disasters, had a dramatic impact on traffic levels, some with a global reach. To these highly improbable type of events can be added technological advancements, new airlines and airports business models, policy and regulation changes, increasing concern for environmental impact. In this context, the thesis puts forward an innovative approach for addressing risk assessment and mitigation under uncertainty in long-term airport infrastructure development projects. The thesis expands on the newly developed formalism of fuzzy dual numbers as a key tool to address uncertainty. After a comprehensive review of the airport industry in the context of uncertain environments, fuzzy dual numbers and fuzzy dual calculus are introduced. Since airport infrastructure development project is another case of multi-stage decision-making problem, dynamic programming is considered in order to optimize the sequential decision making process. The originality of the approach resides in the fact that the entire process will be fuzzified and fuzzy dual dynamic programming components will be introduced. To validate our method, a study case will be developed
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Apparigliato, Romain. "Règles de décision pour la gestion du risque : Application à la gestion hebdomadaire de la production électrique". Phd thesis, Ecole Polytechnique X, 2008. http://pastel.archives-ouvertes.fr/pastel-00004166.

Texto completo da fonte
Resumo:
Nous étudions dans cette thèse le problème de gestion du risque physique en production électrique à l'horizon hebdomadaire. Dans un premier temps, nous nous intéressons à l'intégration de l'aléa d'apport hydraulique dans la gestion locale d'une vallée hydraulique. Cette approche est menée à l'aide de l'optimisation robuste et de règles de décision linéaires. Les résultats de multiples modes de simulation montrent que ces approches permettent de réduire notoirement les déversés en comparaison des modèles déterministes appliqués en exploitation, moyennant une faible augmentation du coût. La deuxième problématique traitée est la gestion active de la marge de production, définie comme l'écart entre l'offre totale et la demande totale, compte tenu des aléas affectant le système électrique. Il s'agit de déterminer quelles décisions optimales prendre, selon un certain critère économique, pour se couvrir contre un risque trop élevé de non-satisfaction de la demande dans au moins 99% des situations. Pour cela, une formulation inédite en boucle ouverte, basée sur le processus stochastique de marge de production et des contraintes en probabilité est proposée. Pour les besoins de cette formulation, nous générons des scénarios à l'aide de techniques plus réalistes qu'en exploitation. Enfin, une résolution moins anticipative est étudiée en appliquant l'heuristique «Programmation Stochastique avec Règles de Décision Constantes par Morceaux» introduite par Thénié et Vial. Les premiers résultats sont très encourageants en comparaison avec les modèles en boucle ouverte.
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Tsimaratos, Alkis. "Optimisation du portefeuille de chiffre d'affaires d'une société d'assurance non-vie sur le marché de la réassurance et des grands risques". Université Louis Pasteur (Strasbourg) (1971-2008), 2002. http://www.theses.fr/2002STR1EC02.

Texto completo da fonte
Resumo:
Les tarifs pratiqués sur le marché de la Réassurance et des Grands Risques sont sujets à de fortes variations annuelles. Ces variations sont induites par la survenance ou non de sinistre importants. Les compagnies opérant sur ce marché révisent donc annuellement l'allocation par branche de leur portefeuille de chiffre d'affaires. L'objectif de la compagnie est de maximiser sa création de valeur en limitant son risque au regard des fonds propres dont elle dispose et des règles de solvabilité. Les fondamentaux de cette problématique sont similaires à ceux de l'optimisation d'un portefeuille d'actifs financiers. Après avoir présenté le contexte industriel du marché de la Réassurance et des Grands Risques, notre thèse formalise un cadre analytique original et y développe des modèles d'optimisation du chiffre d'affaires d'une société opérant sur ce marché. Multipériodiques, les modèles étudiés sont articulés autour d'un système de projection financière opérationnel en environnement stochastique. Le principal aléa est celui de sinistralité, pour lequel une modélisation particulière des sinistres majeurs est proposée. Le comportement de la compagnie face au risque est étudié par l'analyse des stratégies optimales associées à différentes fonctions objectif et contraintes. Ces développements originaux nous conduisent à proposer un nouveau modèle opérationnel d'optimisation du portefeuille de chiffre d'affaires, transposition des modèles d'actifs financiers à notre problématique. Ce modèle repose sur la formulation analytique des bilan et compte de résultats de la compagnie en environnement stochastique. Par opposition aux approches simulatoires, notre approche analytique se caractérise par sa rapidité de résolution. Elle permet notamment la construction instantanée de frontières efficientes opérationnelles de l'activité. Nous illustrons cette approche par les résultats numériques sur le portefeuille d'AXA Réassurance, dans le cadre de son exercice de planification stratégique
Insurance prices in the Reinsurance and Large Industrial Risks markets are highly volatile. Their variations are conditioned by the occurrence (or not) of Major Losses. Companies operating in this market therefore review their underwriting portfolio every year. Doing so, their objective is to maximize value creation, limiting the risk they can take with respect to the shareholders funds that they have. The underlying principles of this problematic can be compared to asset portfolio management. In this Ph. D. We first present the industrial context of the Reinsurance and Large Risks market that raised this subject. We then formalize an original analytical framework where we develop various models for optimizing the underwriting portfolio of a company in that market. These models are multiperiodic and rely on a financial projection model in a stochastic environment. The main source of uncertainty we have considered is that of insurance claims charges. We have proposed a separated treatment for the Major Loss components. A Company's behavior toward risk is analyzed through different objective functions and constraints and the associated optimal strategies. These developments led us to propose a new operational model for optimizing underwriting portfolios derived from asset allocation models. Our model relies on an analytical expression of the Balance Sheet and the Result of the company in a stochastic environment. Compared to traditional simulations approaches, our analytical one is characterized by its fast processing. It enables us to build instantaneously operational efficient frontiers for our business. We illustrate numerically the benefits of this approach by its application to the AXA Réassurance underwriting portfolio, in the strategic planing context
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Dubuc, Carole. "Vers une amélioration de l’analyse des données et une optimisation des plans d’expérience pour une analyse quantitative du risque en écotoxicologie". Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10039/document.

Texto completo da fonte
Resumo:
En écotoxicologie, les effets des substances toxiques sur les organismes vivants sont classiquement mesurés au niveau individuel, en laboratoire et selon des normes, ce qui assure la reproductibilité des bioessais et le contrôle des facteurs environnementaux. Ces tests standardisés, en toxicité aiguë ou chronique, portent généralement sur la survie, la reproduction et la croissance d'organismes modèles de laboratoire ; leur analyse statistique conduit à l'estimation de concentrations critiques d'effet. Ce sont ces concentrations qui sont utilisées en analyse quantitative du risque en écotoxicologie. Cependant, pour l'estimation d'un même type de concentration critique d'effet, différentes méthodes/modèles peuvent être utilisés qui sont plus ou moins adaptés en fonction du type de jeux de données. Le premier objectif de ce travail de thèse est donc de sélectionner les méthodes/modèles les plus adaptés afin d'améliorer l'analyse des données issus des tests de toxicité et donc l'estimation des concentrations critiques d'effet. Habituellement, les jeux de données sont construits à partir de tests standards en fonction de l'organisme étudié : la durée du test est généralement fixée et des recommandations sont faites, par exemple sur le nombre minimal d'organismes à exposer à un nombre minimal de concentrations. Il est donc légitime de penser que ces recommandations ne sont pas forcément les plus adaptées pour toutes les concentrations critiques d'effet et les méthodes/modèles les plus adaptés. C'est pourquoi, le deuxième objectif de cette thèse est d'optimiser les plans d'expérience afin d'aller soit vers une amélioration des estimations des concentrations critiques d'effet à coût constant soit pour un même niveau de qualité des estimations, d'éviter le gaspillage en temps et en organismes
In ecotoxicology, the effects of toxic compounds on living organisms are usually measured at the individual level, in the laboratory and according to standards. This ensures the reproducibility of bioassays and the control of environmental factors. Bioassays, in acute or chronic toxicity, generally apply to survival, reproduction and growth of organisms. The statistical analysis of standardized bioassays classically leads to the estimation of critical effect concentrations used in risk assessment. Nevertheless, several methods/models are used to determine a critical effect concentration. These methods/models are more and less adapted to the data type. The first aim of this work is to select the most adapted methods/models to improve data analysis and so the critical effect concentration estimation. Usually, data sets are built from standard bioassays and so follow recommendations about exposure duration, number and range of tested concentrations and number of individuals per concentration. We can think that these recommendations are not the most adapted for each critical effect concentration and each method/model. That’s why, the second aim of this work is to optimize the experimental design in order to improve the critical effect concentration estimations for a fixed cost or at least to reduce the waste of time and organisms
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Jaziri, Wassim. "Modélisation et gestion des contraintes pour un problème d'optimisation sur-contraint : application à l'aide à la décision pour la gestion du risque de ruissellement". Phd thesis, Rouen, INSA, 2004. http://www.theses.fr/2004ISAM0007.

Texto completo da fonte
Resumo:
Les travaux présentés dans ce mémoire traitent du problème de la modélisation des contraintes et de l'interaction système-utilisateurs pour la résolution de problèmes complexes et sur-contraints. La satisfaction des contraintes des décideurs constitue un élément fondamental dans tout processus de décision, contraint la marge de manoeuvre du système et la qualité de la réponse pouvant être apportée au problème étudié. Cependant, il semble que cet aspect soit peu défini, manque de modélisation et de fondements génériques de traitement et de gestion. L'intérêt reste souvent porté sur la démarche et les techniques de résolution plutôt que sur la modélisation du problème lui-même. Ce travail se focalise sur ce besoin de modélisation. Nous proposons une nouvelle démarche interactive de progression dans la résolution des problèmes d'optimisation sous contraintes, notamment en intégrant les décideurs dans la définition de leurs contraintes et dans la prise de décision finale afin de les aider à décider au lieu de décider à leur place. L'approche développée a été appliquée pour l'optimisation des assolements dans la prévention des risques de ruissellement touchant les territoires agricoles. Les simulations ont été effectuées sur le territoire du Pays de Caux au nord-ouest de la France.
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Jaziri, Wassim. "Modélisation et gestion des contraintes pour un problème d'optimisation sur-contraint : Application à l'aide à la décision pour la gestion du risque de ruissellement". Phd thesis, INSA de Rouen, 2004. http://tel.archives-ouvertes.fr/tel-00008124.

Texto completo da fonte
Resumo:
Les travaux présentés dans ce mémoire traitent du problème de la modélisation des contraintes et de l'interaction système-utilisateurs pour la résolution de problèmes complexes et sur-contraints. La satisfaction des contraintes des décideurs constitue un élément fondamental dans tout processus de décision, contraint la marge de manœuvre du système et la qualité de la réponse pouvant être apportée au problème étudié. Cependant, il semble que cet aspect soit peu défini, manque de modélisation et de fondements génériques de traitement et de gestion. L'intérêt reste souvent porté sur la démarche et les techniques de résolution plutôt que sur la modélisation du problème lui-même. Ce travail se focalise sur ce besoin de modélisation. Nous proposons une nouvelle démarche interactive de progression dans la résolution des problèmes d'optimisation sous contraintes, notamment en intégrant les décideurs dans la définition de leurs contraintes et dans la prise de décision finale afin de les aider à décider au lieu de décider à leur place. L'approche développée a été appliquée pour l'optimisation des assolements dans la prévention des risques de ruissellement touchant les territoires agricoles. Les simulations ont été effectuées sur le territoire du Pays de Caux au nord-ouest de la France.
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Morhun, Nicolas. "Optimisation et sécurisation des investissements immobiliers russes en France". Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLED067.

Texto completo da fonte
Resumo:
Basée sur une analyse économique de l’investissement qui tend à se développer de plus en plus en droit contemporain, l’étude de l’optimisation et de la sécurisation de l’investissement immobilier russe en France vient reléguer le risque lié au blanchiment au second plan. Il ne s’agit pas ici de nier ce risque mais de démontrer que la mise en place d’une démarche de gestion de patrimoine visant à prendre en compte les intérêts et les enjeux du client en cherchant même à les optimiser, permet d’évaluer le risque que représente cet investissement. Cette analyse du risque de l’investissement nécessite de s’interroger sur les problématiques de droit international privé, de fiscalité internationale résultant de l’investissement ainsi que sur les problématiques liées au financement de l’opération et à la mise en œuvre de garanties. De contrainte faisant craindre le pire aux divers professionnels intervenant dans l’opération, le risque de blanchiment apparaît ici être la résultante d’une analyse économico-juridique visant à servir l’intérêt de l’investisseur. Comprendre les enjeux, les motivations de l’investissement et chercher à y répondre tout en sécurisant les diverses personnes intervenant dans le processus d’investissement, telle est la problématique que cette thèse se propose de résoudre
Based on an economic analysis of the investment, which is increasingly tending to develop in contemporary law, the study of optimisation and security of Russian real estate investment in France relegates the risk of money laundering. This thesis shows that although such a risk cannot be denied, it can still be evaluated by implementing a management approach in order to optimise client’s issues and interests.The investment risk analysis requires consideration regarding questions relating to international private law, international taxation, as well as financing for transactions and implementation of guarantees. As a rule, the money laundering risk is leading various professionals involved in the transaction to fear the worst; however such risks seem to appear as a result of economic and legal analysis which aims to serve investor’s interests. Understanding the issues and reasons for investment, whilst trying to find solutions in order to secure the investment process is the objective of this thesis
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Guillet, Julie. "Les papillomavirus Humains dans les cancers des Voies Aéro-Digestives Supérieures : optimisation de méthodes de détection et étude de populations à risque". Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0050/document.

Texto completo da fonte
Resumo:
Les Papillomavirus Humains (HPV) sont responsables de près de 100% des cancers du col utérin. Récemment, ces HPV sont apparus comme étant aussi la cause de certaines tumeurs des voies aérodigestives supérieures, et particulièrement des carcinomes épidermoïdes de l’oropharynx. En France, la proportion des tumeurs oropharyngées HPV-induites est mal connue, notamment parce que le dépistage viral n’est pas recommandé. De plus, il est difficile d’évaluer la proportion de tumeurs HPV positives dans les tumorothèques car les échantillons tumoraux sont fixés dans du formol puis inclus en paraffine (FFIP), ce qui complexifie les techniques de détection. Nous avons, au cours de nos travaux, testé une méthode de détection des HPV à haut risque oncogène indiquée pour le traitement des frottis en phase liquide. Nous l’avons mise à l’épreuve sur des prélèvements FFIP et comparée à la technique de référence qu’est la PCR (Polymerase Chain Reaction) suivie d’une électrophorèse sur gel. Nos résultats indiquent que cette technique est applicable aux prélèvements tissulaires et apparaît même comme étant plus sensible. En France, deux tiers des patients atteints de tumeurs des VADS sont pris en charge à des stades tardifs. Ceci s’explique en partie par l’absence de dépistage organisé de ces cancers. Nous avons donc mené une étude prospective sur des patients atteints d’une tumeur des VADS afin de tester le frottis oral comme technique de dépistage des cancers mais également des infections par les HPV. Nos résultats indiquent que le frottis a une spécificité proche de celle de la biopsie (94,4%) pour le dépistage des cancers des VADS, mais une moindre sensibilité (66,7%). Cette étude nous a permis de mettre en évidence une tumeur HPV-induite dans 12,2% des cas. Parmi eux, nous avons détecté grâce à un frottis buccal (en zone saine) une infection par un HPV à haut risque oncogène dans 53,3% des cas. L’OMS a classé les HPV comme agents carcinogènes depuis 1995, et a établi que les patientes ayant développé un cancer du col utérin avaient un risque 6 fois plus élevé de développer une autre tumeur HPV-induite. Dans ce contexte, nous avons prévu une étude prospective multi-centrique visant à dépister une infection orale par un HPV oncogène chez des patientes porteuses d’une lésion pré-néoplasique ou néoplasique du col utérin. Le taux de co-infection des deux sites anatomiques est inconnu chez les femmes infectées au niveau génital. Dans la mesure où l’infection orale pourrait être à l’origine d’une seconde localisation tumorale, il semble important d’en connaître la proportion afin de proposer par la suite un suivi particulier aux populations « à risque ». Au-delà des traitements des cancers avérés se pose la question de la vaccination préventive, qui existe contre les HPV 16 et 18 dans la prévention des cancers du col utérin. Le type 16 étant retrouvé dans 90% des tumeurs épidermoïdes de l’oropharynx HPV-induites, l’extension des recommandations vaccinales apparaît comme une nouvelle question de santé publique
The Human Papillomavirus (HPV) are involved in almost 100% of cervical cancers. Recently, HPVs have been recognized as the cause of tumors of the upper aerodigestive tract, especially of squamous cell carcinoma of the oropharynx. In France, the proportion of oropharyngeal HPV-related tumors is unknown, partly because viral testing is not in guidelines. Moreover, assess the proportion of HPV-positive tumors in tumor banks is difficult because the tumor samples were fixed in formalin and embedded in paraffin (FFPE), which complicates detection techniques. We tested a high risk HPV detection method, indicated for liquid based pap smear, on FFPE samples. We compared this technique to the gold-standard : PCR (Polymerase Chain Reaction) followed by electrophoresis. Our results indicate that this technique is applicable to FFPE samples and even appears to be more sensitive. The majority of French patients (2/3) with head and neck consult with an advanced stage of disease. This is explained in part by the lack of organized screening of these cancers, contrary to breast, prostate, cervical, or colorectal cancers. But an early treatment is essential to increase the survival rate. We therefore conducted a prospective study on patients with head and neck tumors to test the oral brushing as screening cancer and HPV detection. We found tumor and/or dystrophic cells in 97.8% of patients with biopsy, and in 88.9% of patients by brushing. Compared with biopsy, our results suggested that smear has similar specificity for HPV detection in tumors (94.4%), but lower sensitivity (66.7%). This study has shown an HPV-related tumor in 12.2% of cases. Among them, we detected by brushing (in healthy area) an oral infection by high-risk HPV in 53.3% of cases. WHO has classified HPV as carcinogenic agents since 1995, and determined that patients who developed cervical cancer are six-times more likely to develop another HPV-related tumor. In this context, we have planned a multicenter prospective study to detect oral HPV infection in patients with a pre-neoplastic or neoplastic lesion of the cervix. Co-infection rate of the two anatomical sites is unknown in women infected with genital level. Insofar oral infection could be the cause of a second tumor location, it seems important to know how much women are co-infected to propose thereafter a special monitoring. The preventive vaccination, which exists against HPV 16 and 18 in the prevention of cervical cancer, is a future perspective. Because HPV 16 is found in 90% of HPV-related squamous cell carcinoma of the oropharynx, extending vaccine recommendations emerge as a new public health issue
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Yacoub, Mohamed. "Conception des systèmes : calculs technico-économiques et aide à la décision dans la conduite d'un projet "recherche"". Toulouse 3, 2004. http://www.theses.fr/2004TOU30064.

Texto completo da fonte
Resumo:
Les exigences croissantes en gestion de Recherche et Développement invitent à mettre en œuvre une méthodologie de conduite de projet spécifique. Il y a, en effet, des particularités évidentes de se trouver tout proche de l'innovation et très éloigné des étapes d'industrialisation et de commercialisation. La méthodologie de conduite que nous avons exploré est de fonder les décisions sur une modélisation technico-économique à long terme de type " Life Cycle Cost ", de prendre en compte l'évolution technologique sous la forme d'ajustement des étapes d'optimisation ou de sélection de scénarios réalisant la cible spécifiée pour le projet. La modélisation à long terme est réalisée par le couplage des outils : Microsoft Project, pour la planification et WinNag, pour l'évaluation économique et financière Dans le prolongement des recommandations du PMBOK, nous proposons que l'établissement de la planification se fonde sur la définition des fonctions établies par la conception amont sous la forme d'une référence aux fonctions de conception amont des systèmes en lui associant les données non fonctionnelles : coûts, délais, utiles aux calculs de sélection des scénarios possibles et à l'optimisation d'un scénario courant. L'optimisation peut concerner des objectifs multiples techniques et non techniques : cela peut impliquer des méthodes différentes selon les cas. Nous insistons, dans notre manuscrit, sur la question de tolérance valable pour l'optimisation technique de conception ou l'optimisation de gestion en conduite de projet : Si les exigences sont très importantes les coûts associés vont grandir. Si les exigences sont relâchées, c'est le client qui va être insatisfait et qui ne va pas acheter le produit. Deux méthodes sont proposées pour réaliser cette optimisation : méthode statistique de Monte-Carlo ou optimisation sur modèle déterministe à réseau de neurones. Nous tentons dans ce travail de voir la faisabilité opérationnelle de nos recommandations sur un exemple de projet : conception et réalisation d'un bistouri électrique en robotique chirurgicale. Nous pouvons aussi illustrer le bien fondé des propriétés et les lourdeurs de la méthode. Nous en arrivons à établir des équivalences entre notre approche de modélisation technico-économique à long terme et l'approche plus pragmatique par la fonction de pertes de TAGUCHI. Ce travail fait une analyse très globale des méthodes et des outils qui peuvent être utilisés dans la conduite de projet. Des propositions sont faites sur le couplage : conception de produits et conduite de projet, sur la planification, sur l'évaluation technico-économique, sur la prise en compte des trajectoires technologiques Mais, il reste encore beaucoup à faire sur les techniques de sélection et d'optimisation surtout si, comme on l'a supposé, on applique une méthodologie ouverte sur toutes les possibilités technologiques de réaliser le proje
The increasing requirements in management of Research & Development invite to implement a methodology of specific project control. Indeed, it has obvious characteristics: to be very closed with the innovation and very far from the stages of industrialization and marketing. The methodology of control that we explored is to base the decisions on a technico-economic modelling in the long-term, to take into account the technological development in the form of optimization stages or selection of scenarios producing the specified target for the project. Long-term modelling is carried out by the coupling of the tools: Microsoft Project, for planning and WinNag, for economic and financial evaluation We propose that the establishment of the planning is based on the definition of the functions established by the design upstream and associating the non-functional data with it:. .
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Mouti, Saad. "Le management du risque pour les compagnies d'assurance : une approche marchés financiers". Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066744.

Texto completo da fonte
Resumo:
Cette thèse traite plusieurs aspects des risques financiers liés aux contrats d’assurance vie. Elle étudie trois sujets distincts et est composée en six chapitres qui peuvent être lus indépendamment. Le comportement de l’assuré est un risque majeur pour les assureurs dans le cadre de produits d’assurance vie comme les annuités variables. Ainsi, nous nous penchons dans les premiers chapitres sur le comportement optimal pour deux classes de produits commercialisés. Nous traitons le cas du rachat total pour les « guaranteed minimum account benefits » (GMAB), et le retrait optimal dans le cadre des « guaranteed minimum income benefit » (GMIB). Le troisième chapitre est dédié au management et à la couverture d’une classe de produits à unité de compte également commercialisés par les assurances.Le second sujet consiste en un chapitre et traite l’exécution optimal d’un large portefeuille d’options. En effet, les produits d’assurance vie sont partiellement couverts statiquement par la détention d’options vanilles. Nous considérons le cas où la taille des trades affecte le prix des options et cherchons à définir la stratégie optimale permettant de minimiser le coût de l’acquisition de ce portefeuille de couverture, en prenant en compte l’impact de marché.Enfin, le dernier thème de la thèse étudie le processus de volatilité. A cet effet, nous utilisons deux types d’estimateurs. En l’absence de données haute fréquence, les estimateurs dit de « range » permettent de revérifier que la volatilité est rugueuse. Ensuite, en utilisant les prix d’options, la volatilité implicite et une version raffinée de cette dernière permettent encore une fois d’aboutir à la même conclusion
This thesis tackles several aspects of financial risks encountered in the life insurance industry and particularly in a class of the products insurers offer; namely variable annuities and unit-linked products. It consists of three distinct topics and is split into six chapter that can be read independently.In variable annuities (VAs), policyholders’ behavior is a major risk for the insurer that affects life insurance industry in almost every aspect. The first two chapters of this first part deal with policyholders’ optimal policyholder for two VAs products. We address the rational lapse behavior in the guaranteed minimum account benefit (GMAB), and optimal withdrawals in the guaranteed minimum income benefit (GMIB). The third chapter is dedicated to a class of unit-linked products from a managing and hedging point of view. The second topic consists of one chapter and addresses the optimal execution of a large book of options. Typically, life insurance products are partially hedged using vanilla options. We consider the case where trades are affected by the traded quantity, and seek to find an optimal strategy that minimizes the expected cost and the mean-variance criterion.Finally, in the last topic we study the volatility process using two different proxies. First, range based estimators that rely on the asset price range data allow us to double-check that volatility is a rough process in the sense that it has a scaling parameter H less than 1/2. Then, using short time-to-maturity implied volatility, and a refined version of it, allows us to confirm that the rough aspect of volatility is universal along different proxies
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Shetabi, Mehrafarin. "Opacité, analystes financiers et évaluation optimisée du risque dans l'industrie bancaire et les FinTech". Electronic Thesis or Diss., Limoges, 2025. http://www.theses.fr/2025LIMO0001.

Texto completo da fonte
Resumo:
Cette thèse examine les interactions entre l'opacité bancaire, l'influence des analystes financiers et l'optimisation du risque, avec un double focus sur le secteur bancaire et celui des FinTech. Composée de trois études, elle explore la stabilité systémique, les comportements des analystes et des outils novateurs de gestion du risque de crédit. Le premier chapitre analyse les banques américaines et européennes, démontrant que l'opacité, mesurée via les erreurs et dispersions des prévisions des analystes, exacerbe les risques, particulièrement dans les petites banques opaques aux États-Unis. La couverture par les analystes amplifie la sensibilité du marché aux signaux négatifs, tandis que les dividendes élevés intensifient les risques liés à l'opacité. Le deuxième chapitre explore les comportements des analystes à l’échelle mondiale, montrant que l’expérience, l’ampleur des portefeuilles et les incitations régionales influencent la précision et l’audace des prévisions. Les analystes américains allient précision et audace, tandis que les analystes européens privilégient l’audace au détriment de la précision. Le troisième chapitre introduit le modèle EFSGA, un modèle d’apprentissage évolutif combinant algorithmes génétiques et apprentissage automatique pour optimiser dynamiquement le risque de crédit dans les FinTech, équilibrant précision et interprétabilité. Cette thèse offre des perspectives essentielles sur l’opacité, le rôle des analystes et des outils de gestion du risque, contribuant à la résilience des systèmes financiers modernes
This thesis provides a comprehensive investigation into the intricate interactions between bank opacity, financial analyst influence, and risk optimization, focusing on the dual contexts of banking and FinTech. Through three detailed studies, it explores how opacity and analyst behavior shape financial stability across varied regulatory environments and introduces an innovative, adaptive approach to optimizing credit risk assessment in FinTech lending.The first chapter rigorously examines the destabilizing effects of bank opacity, particularly during periods of market overvaluation and economic uncertainty, with a focus on U.S. and European banks. Using analyst forecast errors and dispersion as forward-looking measures of opacity, the study reveals that high opacity significantly heightens risk, especially in smaller, opaque U.S. institutions where analyst coverage paradoxically amplifies market sensitivity to negative earnings signals. By contrast, the effects in European banks are less pronounced, reflecting differences in regulatory frameworks and market structures. Additionally, high dividend payouts are shown to intensify opacity-driven risks, highlighting the intricate relationship between transparency, market discipline, and financial prudence in shaping bank stability.The second chapter investigates the role of financial analyst characteristics and career incentives in forecasting accuracy, boldness, and career trajectories across global banking markets, comparing trends in the U.S., Europe, and Asia. The findings demonstrate that experience, firm affiliation, and portfolio breadth significantly influence forecasting behavior, with distinct regional patterns. In the U.S., experienced analysts at leading firms provide bold and accurate forecasts, while younger analysts tend toward herding. In Europe, larger portfolios reduce forecasting accuracy, and younger analysts employ boldness to stand out, often at the expense of precision. These results highlight how regional labor market dynamics and career incentives shape analysts' forecasting contributions and their impact on market discipline.The third chapter addresses the challenges of credit risk assessment in FinTech lending, introducing EFSGA, an evolutionary-based ensemble learning framework that integrates genetic algorithms with machine learning. EFSGA is designed for dynamic, application-specific credit risk classification, balancing predictive accuracy with interpretability while adapting to evolving market conditions in real time. The model significantly outperforms traditional methods in handling unbalanced datasets and providing timely, actionable insights for credit risk management, establishing itself as a powerful tool for post-loan monitoring and risk mitigation in digital finance.Together, these studies offer a holistic analysis of opacity, financial analyst behavior, and advanced risk assessment techniques within banking and FinTech contexts. By clarifying the role of opacity and analyst pressures in shaping stability across financial systems and presenting cutting-edge tools for managing credit risk in emerging digital markets, this thesis provides crucial insights for financial institutions, regulators, and policymakers striving to foster systemic resilience and transparency in an increasingly interconnected financial landscape
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Guiras, Zouhour. "Contribution à l'optimisation des politiques de maintenance et l'analyse de risque dans la planification des opérations d’assemblage - désassemblage à deux niveaux". Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0016.

Texto completo da fonte
Resumo:
La réalité des marchés économiques impose des contraintes aux entreprises manufacturières qui sont de plus en plus difficiles à réaliser, comme la diversification des produits, l'amélioration de leur qualité, la réduction des coûts et la diminution des retards. Ces contraintes sont satisfaites par une meilleure organisation des systèmes de fabrication en utilisant les ressources techniques existantes. Notre présente thèse met l’accent sur deux contributions majeures, la première consiste à modéliser différents cas du système industriel (Système de production simple, système d’assemblage, système de désassemblage) en intégrant des politiques de maintenance adéquates. La deuxième contribution repose sur l’évaluation des risques de pertes de profit d’une décision prise suite à l’optimisation des différents systèmes industriels étudiés. Trois différents problèmes industriels sont étudiés, le premier concerne le développement des méthodes d’évaluation de risque de perte de profit résultant du choix d'un algorithme d’optimisation pour résoudre un problème de planification conjointe de production et de maintenance. Pour atteindre nos objectifs, nous commençons par calculer les plans de production et de maintenance en utilisant différents algorithmes d’optimisation. En outre, nous proposons des modèles analytiques pour quantifier le risque de perte de profit résultant des retours de produits et de la prise en compte des durées de réparation de pannes non nulles. Cette étude fournit des informations sur les algorithmes d’optimisations les plus efficaces pour les problématiques rencontrés pour aider et orienter les décideurs dans l'analyse et l'évaluation de leurs décisions. La deuxième problématique concerne l'optimisation de la planification du système d'assemblage à deux niveaux. Un modèle mathématique est développé pour incorporer une planification de l'approvisionnement pour les systèmes d'assemblage à deux niveaux dont les délais d’approvisionnement et les pannes du système sont stochastiques. La planification de maintenance optimale obtenue est utilisée dans l'évaluation des risques afin de trouver la période seuil de réparation qui réduit les pertes de profit. La troisième problématique étudiée concerne l’optimisation de la planification dans le cadre d’assemblage à base de désassemblage des produits usagés en tenant compte de la dégradation du système de production. Un modèle analytique est développé pour envisager le désassemblage, la remise à neuf des produits usagés qui contribuent à l’assemblage des produits finis. En effet, ces derniers peuvent être constitués de composants neufs ou remis à neuf. Une politique de maintenance est séquentiellement intégrée pour réduire l'indisponibilité du système. Le but de cette étude est d'aider les décideurs, dans certaines conditions, à choisir le processus le plus rentable pour satisfaire le client et qui peut également s'adapter aux risques potentiels qui peuvent perturber le système de désassemblage-assemblage. Le risque lié aux périodes de réparation du système est discuté, ce qui a un impact sur la prise de décision managériale
The reality of the economic markets places constraints on manufacturing companies that are increasingly difficult to achieve, such as product diversification, quality improvement, cost reduction and fewer delays. These constraints are satisfied by a better organization of manufacturing systems using existing technical resources. Our thesis focuses on two major contributions, the first is to model different industrial systems (simple production system, assembly system, disassembly system) by integrating maintenance policies. The second contribution is based on risk assessment of profit loss following a decision taken after an optimization of an industrial system. Three different industrial problems are studied; the first concerns the development of risk assessment methods of profit loss resulting from the choice of an optimization algorithm to solve a problem of joint production and maintenance planning. To achieve our goals, we start by calculating production and maintenance plans using different optimization algorithms. In addition, we propose analytical models to quantify the risk of profit loss resulting from product returns and of repair times. This study provides information on the most effective optimization algorithms for the problems encountered to help and guide decision-makers in the analysis and evaluation of their decisions. The second problem concerns the optimization of two-level assembly system planning. A mathematical model is developed to incorporate supply planning for two-level assembly system with stochastic lead times and failures. The optimal maintenance planning obtained is used in the risk assessment to find the threshold repair period that reduces the profit loss. The third problem studied concerns the optimization of disassembly system of returned products (used or end of life products), remanufacturing and assembly of finished products taking into account the degradation of the production system. An analytical model is developed to consider disassembly, remanufacturing of returned products that contribute to the assembly of finished products. Indeed, the latter may consist of new or remanufactured components. A maintenance policy is sequentially integrated to reduce the unavailability of the system. The goal of this study is to help decision makers, under certain conditions, choose the most cost-effective process to satisfy the customer and who can also adapt to the potential risks that can disrupt the disassembly-remanufacturing-assembly system. The risk associated with system repair periods is discussed, which has an impact on managerial decision-making
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Ghandour, Raymond. "Diagnostic et évaluation anticipée des risques de rupture d'itinéraires basés sur l'estimation de la dynamique du véhicule". Compiègne, 2011. http://www.theses.fr/2011COMP1966.

Texto completo da fonte
Resumo:
L’objectif de ce travail de thèse, est le développement d’une méthodologie innovante pour répondre à la question de l’augmentation de la sécurité routière, par le diagnostic et la surveillance de l’évolution des paramètres de la dynamique de véhicule en interaction avec l’environnement proche. Dans ce contexte, l’évaluation des indicateurs de risque liés aux paramètres de la dynamique de véhicule nous a paru nécessaire. Pour cela, nous avons développé deux méthodologies pour estimer et prévoir les situations de risque, pour alerter le conducteur (ou le système de contrôle automatique) sur ces situations afin qu’il puisse agir et les éviter. La première phase de ce travail, consiste à développer une méthode d’estimation du coefficient d’adhérence maximal en se basant, sur le modèle d’interaction pneumatique-chaussée de Dugoff et sur la méthode d’optimisation itérative non-linéaire de Levenberg-Marquardt. Cette méthode d’estimation a été testée et validée en utilisant, des données de simulation issues du simulateur de véhicule CALLAS® et des données expérimentales du véhicule expérimental de l’IFSTTARMA. Ayant ce coefficient estimé, nous avons conçu un indicateur de dérapage LSI qui compare l’adhérence maximale à l’adhérence utilisée et génère une indication (ou une alerte) de danger quand cet indicateur atteint un certain seuil. La deuxième phase de ce travail, consiste à développer une méthodologie pour évaluer les indicateurs de risque dans un instant futur. Cette méthodologie est basée sur des méthodes simples et sur des hypothèses sur la trajectoire parcourue, pour estimer dans un instant futur les différents paramètres de la dynamique du véhicule ; tel que, l’angle de braquage, l’angle de dérive, les forces d’interaction, … Ayant ces paramètres (estimés dans un instant futur), nous avons évalué les indicateurs de risque. Ces indicateurs sont le LSI (Lateral Skid Indicator) et le LTR (Lateral Load Transfer). Le LSI est basé sur l’estimation du coefficient d’adhérence maximal et le calcul du coefficient d’adhérence utilisé, alors que le LTR est basé sur l’estimation des forces normales. La validation de cette méthodologie est assurée par des données de simulation et des données expérimentales. Les résultats obtenus de la validation de ces méthodologies ont montré l’applicabilité de ces méthodes
The aim of this thesis is the development on an innovative methodology to address the issue of increasing road safety, by the diagnosis and the monitoring of the evolution of the parameters of the dynamic interaction of the vehicle with its surrounding environment. For that, the development and the evaluation of risk indicators seems necessary to warn the driver in order to avoid the risk situations. The research work of this thesis is divided in two methodologies. The first one, consists on the development of an estimator for the maximum friction coefficient estimation based on the Dugoff tyre-road interaction model and the iterative non-linear optimization method of Levenberg-Marquardt. This estimation is the base behind the development of the lateral skid indicator LSI, that compares the value of the used friction coefficient to the maximum one. An alert is generated, when the value of the LSI exceeds a threshold, to warn the driver on the risk situations. This methodology is validated in simulation using data from the vehicle dynamics simulator CALLAS® and in experimentation using the data from the laboratory vehicle of the IFSTTARMA. The simulation dat correspond to different road states (dry, wet, snowy and icy) and the experimental data correspond to a dry road state. The second methodology consists on the development of an algorithm for the anticipation of the risk situations by the evaluation of the risk indicators in future instant. This method is based on assumptions on the trajectory and longitudinal velocity and acceleration, to anticipate the vehicle dynamics parameters such as, the steering angle, the wheel rotational speed, the yaw rate, the side-slip angle, the normal forces, the lateral forces and the maximum friction coefficient. By knowing these parameters, we can calculate the risk indicators and evaluate them in future instant. The risk indicators evaluated in this method are the lateral load transfer LTR, based on the normal forces and the lateral skid indicator LSI based on the maximum friction coefficient. As well as for the estimation method, this method is validated using simulation data and experimental data. The results obtained in both methods have shown their applicability
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Jiao, Ying. "Etudes sur les risques financiers: risques de crédit et d'information asymétrique". Habilitation à diriger des recherches, Université Paris-Diderot - Paris VII, 2012. http://tel.archives-ouvertes.fr/tel-00759505.

Texto completo da fonte
Resumo:
Dans ce dossier je présente l'ensemble des travaux de recherche que j'ai effectués pendant les années 2007-2012. Depuis ma thèse doctorale (soutenue le 11 décembre 2006), mes travaux de recherche portent sur les risques de crédit et des applications, en particulier, sur les quatre thèmes suivants : approche de densité dans la modélisation de défaut, optimisation de portefeuille avec risques de contrepartie et de contagion, risque d'informations asymétriques sur le défaut, et méthode de Stein. L'étude de ces problèmes fait intervenir de différentes théories mathématiques, comme par exemple le grossissement de filtrations, le contrôle stochastique, les méthodes numériques probabilistes, etc., et conduit à des questions mathématiques intéressantes, souvent profondes. Parmi ces sujets, certains sont issus de motivations d'actualité financière et susceptibles d'avoir des applications dans la pratique; d'autres sont des problèmes mathématiques inspirés par la finance mais qui ont un caractère théorique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Cazaubon, Yoann. "Évaluation par méthode in silico du risque d’émergence de la résistance bactérienne des antibiotiques : exemple des fluoroquinolones et des glycopeptides en gériatrie". Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1221/document.

Texto completo da fonte
Resumo:
La résistance bactérienne est une menace mondiale clairement établie. Les chercheurs se rassemblent afin de trouver de nouvelles solutions et des alternatives aux antibiotiques. Une des causes principales de cette menace est l’utilisation massive des antibiotiques. Il faut cesser d’avoir un recours déraisonné à leur usage. Au sein d’une population vieillissante, ce sont les personnes les plus vulnérables qui en payent le prix. Nous avons utilisé les outils de modélisation pour mieux comprendre les causes engendrant ce fléau. L'objectif de ce travail est de construire des modèles pharmacocinétique de population chez la personne âgée pour la vancomycine et la teicoplanine. À partir des modèles validés en amont ou bien issus de la littérature, des simulations ont été respectivement réalisées pour les glycopeptides et la ciprofloxacine dans le cas d’infections à Staphylococcus aureus résistant à la méthicilline et à Pseudomonas aeruginosa. Elles ont permis de mettre en évidence que lorsque la concentration minimale inhibitrice (CMI) de la bactérie incriminée était proche de la valeur critique de sensibilité, les doses à administrer pour être efficace doivent être augmentées par rapport aux recommandations actuelles. Quant à la prévention de l’émergence de la résistance bactérienne, dans le cas de la ciprofloxacine et de la teicoplanine, les doses à administrer sont telles que la toxicité est inévitable. Les analyses faites aux moyens des simulations de Monte Carlo sur les antibiotiques étudiés ont permis de mieux comprendre les déterminants de la minimisation de l’émergence de la résistance bactérienne à savoir obtenir dans les plus brefs délais la CMI exacte de la bactérie en cause ainsi qu’une estimation des paramètres individuels du patient
Bacterial resistance is a clearly established global threat. Researchers are coming together to find new solutions and alternatives to antibiotics. One of the main causes is the massive use of antibiotics. The unreasonable recourse of their use must be stopped. The population is aging, so it is the most vulnerable people who pay the price. We have used modeling tools to better understand the causes of this scourge. The goal of this work is to construct population pharmacokinetic models in the elderly for vancomycin and teicoplanin. From models validated upstream or from the literature, simulations have been performed for glycopeptides and ciprofloxacin for methicillin-resistant Staphylococcus aureus and Pseudomonas aeruginosa infections, respectively. They showed that when the minimal inhibitory concentration (MIC) of the incriminated bacterium was close to the critical value of sensitivity, the doses to be administered in order to be effective have to be increased compared to current recommendations. As for the prevention of the emergence of bacterial resistance, in the case of ciprofloxacin and teicoplanin, the doses to be administered are so high that toxicity is unavoidable. Analyses using Monte Carlo simulations on the antibiotics studied provided a better understanding of the determinants of minimizing the emergence of bacterial resistance to obtain as quickly as possible the exact MIC of the bacteria and an estimation of individual patient parameters
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Guiras, Zouhour. "Contribution à l'optimisation des politiques de maintenance et l'analyse de risque dans la planification des opérations d’assemblage - désassemblage à deux niveaux". Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0016/document.

Texto completo da fonte
Resumo:
La réalité des marchés économiques impose des contraintes aux entreprises manufacturières qui sont de plus en plus difficiles à réaliser, comme la diversification des produits, l'amélioration de leur qualité, la réduction des coûts et la diminution des retards. Ces contraintes sont satisfaites par une meilleure organisation des systèmes de fabrication en utilisant les ressources techniques existantes. Notre présente thèse met l’accent sur deux contributions majeures, la première consiste à modéliser différents cas du système industriel (Système de production simple, système d’assemblage, système de désassemblage) en intégrant des politiques de maintenance adéquates. La deuxième contribution repose sur l’évaluation des risques de pertes de profit d’une décision prise suite à l’optimisation des différents systèmes industriels étudiés. Trois différents problèmes industriels sont étudiés, le premier concerne le développement des méthodes d’évaluation de risque de perte de profit résultant du choix d'un algorithme d’optimisation pour résoudre un problème de planification conjointe de production et de maintenance. Pour atteindre nos objectifs, nous commençons par calculer les plans de production et de maintenance en utilisant différents algorithmes d’optimisation. En outre, nous proposons des modèles analytiques pour quantifier le risque de perte de profit résultant des retours de produits et de la prise en compte des durées de réparation de pannes non nulles. Cette étude fournit des informations sur les algorithmes d’optimisations les plus efficaces pour les problématiques rencontrés pour aider et orienter les décideurs dans l'analyse et l'évaluation de leurs décisions. La deuxième problématique concerne l'optimisation de la planification du système d'assemblage à deux niveaux. Un modèle mathématique est développé pour incorporer une planification de l'approvisionnement pour les systèmes d'assemblage à deux niveaux dont les délais d’approvisionnement et les pannes du système sont stochastiques. La planification de maintenance optimale obtenue est utilisée dans l'évaluation des risques afin de trouver la période seuil de réparation qui réduit les pertes de profit. La troisième problématique étudiée concerne l’optimisation de la planification dans le cadre d’assemblage à base de désassemblage des produits usagés en tenant compte de la dégradation du système de production. Un modèle analytique est développé pour envisager le désassemblage, la remise à neuf des produits usagés qui contribuent à l’assemblage des produits finis. En effet, ces derniers peuvent être constitués de composants neufs ou remis à neuf. Une politique de maintenance est séquentiellement intégrée pour réduire l'indisponibilité du système. Le but de cette étude est d'aider les décideurs, dans certaines conditions, à choisir le processus le plus rentable pour satisfaire le client et qui peut également s'adapter aux risques potentiels qui peuvent perturber le système de désassemblage-assemblage. Le risque lié aux périodes de réparation du système est discuté, ce qui a un impact sur la prise de décision managériale
The reality of the economic markets places constraints on manufacturing companies that are increasingly difficult to achieve, such as product diversification, quality improvement, cost reduction and fewer delays. These constraints are satisfied by a better organization of manufacturing systems using existing technical resources. Our thesis focuses on two major contributions, the first is to model different industrial systems (simple production system, assembly system, disassembly system) by integrating maintenance policies. The second contribution is based on risk assessment of profit loss following a decision taken after an optimization of an industrial system. Three different industrial problems are studied; the first concerns the development of risk assessment methods of profit loss resulting from the choice of an optimization algorithm to solve a problem of joint production and maintenance planning. To achieve our goals, we start by calculating production and maintenance plans using different optimization algorithms. In addition, we propose analytical models to quantify the risk of profit loss resulting from product returns and of repair times. This study provides information on the most effective optimization algorithms for the problems encountered to help and guide decision-makers in the analysis and evaluation of their decisions. The second problem concerns the optimization of two-level assembly system planning. A mathematical model is developed to incorporate supply planning for two-level assembly system with stochastic lead times and failures. The optimal maintenance planning obtained is used in the risk assessment to find the threshold repair period that reduces the profit loss. The third problem studied concerns the optimization of disassembly system of returned products (used or end of life products), remanufacturing and assembly of finished products taking into account the degradation of the production system. An analytical model is developed to consider disassembly, remanufacturing of returned products that contribute to the assembly of finished products. Indeed, the latter may consist of new or remanufactured components. A maintenance policy is sequentially integrated to reduce the unavailability of the system. The goal of this study is to help decision makers, under certain conditions, choose the most cost-effective process to satisfy the customer and who can also adapt to the potential risks that can disrupt the disassembly-remanufacturing-assembly system. The risk associated with system repair periods is discussed, which has an impact on managerial decision-making
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Xu, Xia. "Four Essays on Capital Markets and Asset Allocation". Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE2059/document.

Texto completo da fonte
Resumo:
Les événements extrêmes ont un impact important sur les distributions de rendement et les décisions d’investissement. Cependant, le rôle des risques d’événement est sous-estimé dans les approches populaires de prise de décision financière. Cette thèse inclut les risques d’événements dans les décisions d’investissement pour améliorer l’optimalité globale des investissements. Nous examinons les risques d’événements dans deux contextes financiers différents mais cohérents: la sélection de portefeuilles et le financement d’entreprise. Dans le cadre de la sélection de portefeuilles, nous nous concentrons sur l’incorporation d’informations d’ordre supérieur pour capturer l’impact des risques d’événements sur la construction du portefeuille. Des extensions d’ordre supérieur sont implémentées sur deux méthodes principales d’optimisation de portefeuille: le cadre classique de l’optimisation de la variance moyenne et du CAPM, et l’approche de la dominance stochastique. Nous trouvons que l’inclusion d’informations d’ordre supérieur améliore l’optimalité globale du portefeuille compte tenu de la présence de risques d’événement. Dans un cas particulier, nous combinons les applications traditionnelles de l’optimisation de la moyenne variance et de l’analyse de dominance stochastique pour examiner l’efficacité de l’indice de DJIA. Nous trouvons que DJIA est efficace en tant que référence de performance. Dans le domaine des finances d’entreprise, nous avons principalement identifié les changements de dénomination sociale de M&A parmi l’indice S&P 500 et examiné comment les événements de changement de nom affectent les modèles de rendement pour les acquéreurs et les cibles. Dans le cadre de cette étude d’entreprise, nous montrons que les changements de nom affectent sensiblement la dynamique du rendement et que la différence de rendement anormale entre les événements de changement de nom et les événements sans changementde nom est économiquement et statistiquement significative. En général, nos études montrent que l’inclusion des risques d’événements dans les processus décisionnels apporte des avantages importants à l’optimisation de l’allocation des actifs
Extreme events have a material impact on return distributions and investment decisions. However, the role of event risks is understated in popular financial decision making approaches. This thesis includes event risks into investment decisions to improve global investment optimality. We examine event risks in two different but coherent financial settings: portfolio selection and corporate finance. In the portfolio selection setting, we focus on the incorporation of higher order information to capture the impact of event risks on portfolio construction. Higher order extensions are implemented on two main portfolio optimization methods: the classic framework of mean variance optimization and CAPM, and the stochastic dominance approach. We find that the inclusion of higher order information improves global portfolio optimality given the presence of event risks. As a special case, we combine the traditional applications of mean variance optimization and stochastic dominance analysis to examine the index efficiency of DJIA. We find that DJIA is efficient as a performance benchmark. In the corporate finance setting, we principally identified corporate name changes of M&As among the S&P 500 index, and examined how the name change events impact the return patterns for the acquirers and the targets. Conducting this corporate event study, we show that name changeevents substantially affect return dynamics, and that the abnormal return difference between name change events and non name change events is economically and statistically significant. Generally, our studies illustrate that the inclusion of event risks in decision processes brings important benefits to the asset allocation optimization
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Gassiat, Paul. "Modélisation du risque de liquidité et méthodes de quantification appliquées au contrôle stochastique séquentiel". Phd thesis, Université Paris-Diderot - Paris VII, 2011. http://tel.archives-ouvertes.fr/tel-00651357.

Texto completo da fonte
Resumo:
Cette thèse est constituée de deux parties pouvant être lues indépendamment. Dans la première partie on s'intéresse à la modélisation mathématique du risque de liquidité. L'aspect étudié ici est la contrainte sur les dates des transactions, c'est-à-dire que contrairement aux modèles classiques où les investisseurs peuvent échanger les actifs en continu, on suppose que les transactions sont uniquement possibles à des dates aléatoires discrètes. On utilise alors des techniques de contrôle optimal (programmation dynamique, équations d'Hamilton-Jacobi-Bellman) pour identifier les fonctions valeur et les stratégies d'investissement optimales sous ces contraintes. Le premier chapitre étudie un problème de maximisation d'utilité en horizon fini, dans un cadre inspiré des marchés de l'énergie. Dans le deuxième chapitre on considère un marché illiquide à changements de régime, et enfin dans le troisième chapitre on étudie un marché où l'agent a la possibilité d'investir à la fois dans un actif liquide et un actif illiquide, ces derniers étant corrélés. Dans la deuxième partie on présente des méthodes probabilistes de quantification pour résoudre numériquement un problème de switching optimal. On considère d'abord une approximation en temps discret du problème et on prouve un taux de convergence. Ensuite on propose deux méthodes numériques de quantification : une approche markovienne où on quantifie la loi normale dans le schéma d'Euler, et dans le cas où la diffusion n'est pas contrôlée, une approche de quantification marginale inspirée de méthodes numériques pour le problème d'arrêt optimal.
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Laarabi, Mohamed Haitam. "Optimisation multicritère des itinéraires pour transport des marchandises dangereuses en employant une évaluation en logique floue du risque et la simulation du trafic à base d'agents". Thesis, Paris, ENMP, 2014. http://www.theses.fr/2014ENMP0074/document.

Texto completo da fonte
Resumo:
Chaque jour des milliers de camions transportant des centaines de milliers de tonnes de marchandises dangereuses par diverses modalités. Toutefois, le terme “dangereux” indique une adversité intrinsèque qui caractérise ces produits transportés, et qui peuvent se manifester lors d'un accident entraînant la fuite d'une substance dangereuse. Dans une telle situation, les conséquences peuvent nuire à l'environnement et létal pour l'humain.L'importance des marchandises dangereuses revient aux bénéfices économiques considérables générés. En fait, on ne peut nier la contribution du transport des produits dérivés de combustibles fossiles, ce qui représente plus de 60% des marchandises dangereuses transportées en Europe. Eni, la société italienne leader de pétrochimie, gère chaque jour une flotte d'environ 1.500 camions, qui effectuent de nombreuses expéditions. Pourtant la distribution de produits pétroliers est une activité à grande risques, et tout accident lors du transport peut entraîner de graves conséquences.Consciente des enjeux, la division Eni R&M - Logistique Secondaire, historiquement actif au siège de Gênes, collabore depuis 2002 avec le DIBRIS à l'Université de Gênes, et le CRC à Mines ParisTech, dans le but d'étudier les améliorations possibles en matière de sûreté dans le transport de marchandises dangereuses. Au fil des ans, cette collaboration a permis le développement d'un système d'information et décisionnel. Le composant principal de ce système est une plate-forme de surveillance de la flotte Eni appelé TIP (Transport Integrated Platform), pour livrer les produits vers les points de distributions. Ces véhicules sont équipés d'un dispositif capable de transmettre des flux de données en temps réel en utilisant un modem GPRS. Les données transmises peuvent être de nature différente et contenir des informations sur l'état du véhicule, le produit et les événements détectés durant l'expédition. Ces données sont destinées à être reçues par des serveurs centralisés puis traitées et stockées, afin de soutenir diverses applications du TIP.Dans ce contexte, les études menées tout au long de la thèse sont dirigés vers le développement d'une proposition visant à réduire davantage les risques liés au transport de marchandises dangereuses. En d'autres termes, un modèle basé sur le compromis entre les facteurs économiques et sûretés pour le choix de l'itinéraire. L'objectif est motivé par la nécessité de soutenir les règlements et les normes de sécurité existantes, car ils ne garantissent pas totalement contre les accidents entrainant des marchandises dangereuses.L'objectif est effectué en prenant en compte le système existant comme base pour l'élaboration d'un système de transport intelligent (STI) regroupant plusieurs plates-formes logicielles. Ces plates-formes doivent permettre aux planificateurs et aux décideurs de suivre en temps réel leur flotte, à évaluer les risques et tous les itinéraires possibles, de simuler et de créer différents scénarios, et d'aider à trouver des solutions à des problèmes particuliers.Tout au long de cette thèse, je souligne la motivation pour ce travail de recherche, les problématiques, et les défis de transport de marchandises dangereuses. Je présente le TIP comme le noyau de l'architecture proposée du STI. Pour les besoins de la simulation, les véhicules virtuels sont injectés dans le système. La gestion de la collecte des données a été l'objet d'une amélioration technique pour plus de fiabilité, d'efficacité et d'évolutivité dans le cadre de la surveillance en temps réel. Enfin, je présente une explication systématique de la méthode d'optimisation des itinéraires considérant les critères économiques et de risques. Le risque est évalué en fonction de divers facteurs notamment la fréquence d'accidents entrainant des marchandises dangereuses, et ses conséquences. La quantification de l'incertitude dans l'évaluation des risques est modélisée en utilisant la théorie des ensembles flous
Everyday thousands of trucks transporting hundreds of thousands of tons of dangerous goods by various modalities and both within and across nations. However, the term “dangerous” indicates an intrinsic adversity that characterize these products, which can manifest in an accident leading to release of a hazardous substance (e.g. radioactive, flammable, explosive etc.). In this situation, the consequences can be lethal to human beings, other living organisms and damage the environment and public/private properties.The importance of dangerous goods boils down to the significant economic benefits that generates. In fact, one cannot deny the contribution of the transport of all fossil fuel derived product, which represents more than 60% of dangerous goods transported in Europe. Eni, the Italian leading petrochemical company, every day operates a fleet of about 1,500 trucks, which performs numerous trips from loading terminals to filling stations. Distribution of petroleum products is a risky activity, and an accident during the transportation may lead to serious consequences.Aware of what is at stake, the division Eni R&M - Logistics Secondary, historically active in Genoa headquarters, is collaborating since 2002 with the DIBRIS department at University of Genoa, and the CRC at Mines ParisTech, with the purpose of studying possible improvements regarding safety in transport of dangerous goods, particularly petroleum products. Over years, this collaboration has led to the development of different technologies and mainly to an information and decision support system. The major component of this system is a platform for monitoring Eni fleet, at the national level, to deliver the products to the distribution points, called the Transport Integrated Platform (TIP). These vehicles are equipped with a device capable of transmitting data stream in real-time using a GPRS modem. The data transmitted can be of different nature and contain information about the state of the vehicle and occurred events during the trip. These data are intended to be received by centralized servers then get processed and stored, in order to support various applications within the TIP.With this in mind, the studies undertaken throughout the thesis are directed towards the development of a proposal to further minimize the risk related to the transportation of dangerous goods. In other words, a trade-off based model for route selection taking into consideration economic and safety factors. The objective is prompted by the need to support existent regulations and safety standards, which does not assure a full warranty against accidents involving dangerous goods.The goal is carried out by considering the existent system as basis for developing an Intelligent Transportation System (ITS) aggregating multiple software platforms. These platforms should allow planners and decision makers to monitor in real-time their fleet, to assess risk and evaluate all possible routes, to simulate and create different scenarios, and to assist at finding solutions to particular problems.Throughout this dissertation, I highlight the motivation for such research work, the related problem statements, and the challenges in dangerous goods transport. I introduce the TIP as the core for the proposed ITS architecture. For simulation purposes, virtual vehicles are injected into the system. The management of the data collection was the subject of technical improvement for more reliability, efficiency and scalability in real-time monitoring of dangerous goods shipment. Finally, I present a systematic explanation of the methodology for route optimization considering both economic and risk criteria. The risk is assessed based on various factors mainly the frequency of accident leading to hazardous substance release and its consequences. Uncertainty quantification in risk assessment is modelled using fuzzy sets theory
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Abune'meh, Mohammed. "Optimisation de l’aménagement d’un Chantier de Construction en Fonction des Risques Naturels et Technologiques, Utilisation du SIG". Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1012/document.

Texto completo da fonte
Resumo:
Les chantiers de construction contiennent plusieurs installations. Celles-ci sont susceptibles d’être endommagées par des incidents liés aux risques naturels ou technologiques comme les incendies, les explosions, les ondes de souffles, etc. Ces incidents peuvent avoir des conséquences néfastes sur l’ensemble du processus de construction, ce qui pourrait entrainer des accidents graves ayant un impact majeur sur la productivité des employés, le temps global du projet, sa qualité et son budget. Par conséquent les gestionnaires et les planificateurs du projet doivent adopter et développer des approches novatrices capables de faire face aux risques naturels potentiels, de minimiser leurs conséquences et de faciliter l’évacuation du site en cas de danger. Une de ces approches consiste à optimiser l’aménagement des chantiers de construction. En général, la réduction des dommages résultants de risques naturels ou technologiques est encore un défi scientifique.Dans cette thèse, deux modèles (déterministe et probabiliste) sont développés pour minimiser les risques au sein d’un chantier. La méthode adoptée pour le développement de ces deux modèles consiste en :• La modélisation des éléments du chantier, par exemple : le générateur électrique, les bureaux et les entrepôts de matériaux, sont modélisés en 2D, pour agir en tant que source d’aléa et/ou cible vulnérable potentielle.• La modélisation de l’aléa : elle montre l’interaction des aléas entre les composants du chantier.• La modélisation de la vulnérabilité : elle représente la faiblesse potentielle des cibles sur l’aléa généré par chaque source.• La définition de la fonction d’utilité : elle vise à offrir une disposition optimisée avec un minimum de risque total sur le chantier. L’algorithme à évolution différentielle est adopté pour exécuter le processus d’optimisation.D’une part, dans le modèle déterministe, nous utilisons le principe de la syntaxe spatiale pour étudier l’impact des configurations spatiales dans l’évaluation du risque sur le chantier. Par conséquent, comme le processus d’évacuation est pris en compte dans l’estimation du risque, le risque réel est amplifié en utilisant le facteur de pénalité appelé « profondeur moyenne ». L’algorithme de Dijkstra est appliqué sur un modèle déterministe afin de trouver les chemins les plus sûrs (chemins de moindre risque) pour évacuer les sites à partir de chaque position sur le chantier vers les lieux sûrs afin de diminuer les pertes humaines et matérielles.D’autre part, le modèle probabiliste suppose que le risque est composé de la défaillance individuelle de chaque installation sur le chantier de construction. La simulation numérique est utilisée pour trouver la distribution de probabilités des défaillances pour l’ensemble du site.Les fonctionnalités d’un SIG (Système d’Information Géographique) ont été utilisées pour présenter les données sous forme de cartes, pour produire des cartes spatiales de risque sur le chantier de construction, pour mettre en œuvre l’algorithme de Dijkastra et pour l’analyse du coût le plus faible.A titre indicatif, les modèles proposés sont utilisés dans un cas d’étude comprenant plusieurs installations. Dans le modèle déterministe, toutes ces installations agissent comme des sources d’aléa et des cibles vulnérables, en même temps, dans le modèle probabiliste, quelques-unes de ces installations agissent comme des sources d’aléa et toutes comme des cibles vulnérables. Les résultats obtenus montrent que les modèles proposés sont efficaces en raison de leur capacité à générer une disposition optimale du site avec un environnement de travail plus sûr. En outre, les modèles obtenus sont capables de mettre en évidence les zones les plus risquées d’un chantier, de générer les chemins d’évacuation les moins risqués, ce qui permettra de minimiser les blessures graves et les victimes en cas d’urgence
Construction sites contain several supporting facilities that are required to complete construction activities. These facilities are susceptible to damage due to the occurrence of natural or technological hazards such as fire, explosion, blast wave, and so on. These may cause adverse consequences for the whole construction process, which in turn lead to fatal accidents that have a major impact on worker and employee productivity, project completion time, project quality and project budget. Therefore, project planners must adopt and develop innovative approaches able to face the occurrence of potential hazards, minimize their consequences, and facilitate the evacuation of the site in case of their occurrence. One of these approaches is optimizing construction site layout. In general, generating construction site layout able minimizing risk resulting from natural or technological hazards is still a scientific challenge.In the present research, two proposed model (deterministic and probabilistic) are developed to minimize the risks within a construction site. The common methodology adopted to develop these two models consists of:• Modeling construction site components, for instance; electric generator, offices and material storages, in a 2D layout, to act as either hazardous source or potential target or both at the same time.• Modeling hazard: it shows the hazard interaction among site components and the attenuation of hazard.• Modeling vulnerability: it represents the potential weakness of whole targets to the hazard generated from each source.• Defining the utility function: it aims to afford an optimized site layout with minimum total risk in the construction site. The differential evolution algorithm is adopted to run optimization process.Particularly, in the deterministic model, we use space syntax principle in order to realize the impact of space configurations in evaluating the risk in the construction site. Therefore, as the evacuation process is considered in estimating the risk, the actual risk is amplified by utilizing penalty factor called mean depth. Furthermore, Dijkstra’s algorithm is run on deterministic model to find the safest paths (least risk paths) for evacuating sites from any position on the construction site towards the safe places in order to diminish losses and fatalities. On the other hand, the framework utilized to develop a probabilistic model assumed that the risk is combined of the individual failure of each facility within a construction site. Moreover, the numerical simulation is performed to find the probabilistic distribution of failure for the whole site.Geographic information system (GIS) capabilities were exploited, in this research, to present data in maps format, generate the spatial risk map in the construction site, and implement the Dijkstra’s algorithm and least-cost path analysis.For illustration purposes, the proposed models are employed in a case study consisting of several facilities. In the deterministic model, all of these facilities act as hazardous sources and potential targets, at the same time, while, in a probabilistic model, only three of these facilities act as fire hazardous sources, whereas, all of them are potential targets. The results revealed that the proposed models are efficient due to their capability of generating site layout with the safer work environment. In addition, the model is capable of highlighting the riskiest areas within a construction site. Moreover, the proposed models are able to generate paths through least-risk zones, which will minimize the serious injuries and victims in cases of emergencies
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Bouvier, Louis. "Apprentissage structuré et optimisation combinatoire : contributions méthodologiques et routage d'inventaire chez Renault". Electronic Thesis or Diss., Marne-la-vallée, ENPC, 2024. http://www.theses.fr/2024ENPC0046.

Texto completo da fonte
Resumo:
Cette thèse découle des défis de recherche opérationnelle de la chaîne logistique Renault. Pour y répondre, nous apportons des contributions à l’architecture et à l’entraînement des réseaux neuronaux avec des couches d’optimisation combinatoire (CO). Nous les combinons avec de nouvelles matheuristiques pour aborder les problèmes de routage d’inventaire de Renault. La Partie I est dédiée aux applications des réseaux neuronaux avec des couches CO en recherche opérationnelle. Nous introduisons une méthode pour approximer les contraintes. Nous utilisons de telles couches pour encoder des politiques pour des processus de décision markoviens à grands espaces d’états et d’actions. Alors que la plupart des études sur les couches CO reposent sur l’apprentissage super- visé, nous introduisons un schéma primal-dual pour la minimisation du risque empirique. Notre algorithme est compatible avec l’apprentissage profond, adapté à de grands espaces combinatoires, et générique. La Partie II est dédiée à la logistique retour des emballages Renault en Europe. Notre politique pour les décisions opérationnelles est basée sur une nouvelle matheuristique pour la variante déterministe du problème. Nous montrons son efficacité sur des instances à grande échelle, que nous publions, avec notre code et nos solutions. Une version de notre politique est utilisée quotidiennement en production depuis mars 2023. Nous abordons aussi la contractualisation de routes au niveau tactique. L’ampleur du problème empêche l’utilisation d’approches classiques d’optimisation stochastique. Nous introduisons un nouvel algorithme basé sur les contributions de la Partie I pour la minimisation du risque empirique
This thesis stems from operations research challenges faced by Renault supply chain. Toaddress them, we make methodological contributions to the architecture and training of neural networks with combinatorial optimization (CO) layers. We combine them with new matheuristics to solve Renault’s industrial inventory routing problems.In Part I, we detail applications of neural networks with CO layers in operations research. We notably introduce a methodology to approximate constraints. We also solve some off- policy learning issues that arise when using such layers to encode policies for Markov decision processes with large state and action spaces. While most studies on CO layers rely on supervised learning, we introduce a primal-dual alternating minimization scheme for empirical risk minimization. Our algorithm is deep learning-compatible, scalable to large combinatorial spaces, and generic. In Part II, we consider Renault European packaging return logistics. Our rolling-horizon policy for the operational-level decisions is based on a new large neighborhood search for the deterministic variant of the problem. We demonstrate its efficiency on large-scale industrialinstances, that we release publicly, together with our code and solutions. We combine historical data and experts’ predictions to improve performance. A version of our policy has been used daily in production since March 2023. We also consider the tactical-level route contracting process. The sheer scale of this industrial problem prevents the use of classic stochastic optimization approaches. We introduce a new algorithm based on methodological contributions of Part I for empirical risk minimization
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Sani, Amir. "Apprentissage automatique pour la prise de décisions". Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10038/document.

Texto completo da fonte
Resumo:
La prise de décision stratégique concernant des ressources de valeur devrait tenir compte du degré d'aversion au risque. D'ailleurs, de nombreux domaines d'application mettent le risque au cœur de la prise de décision. Toutefois, ce n'est pas le cas de l'apprentissage automatique. Ainsi, il semble essentiel de devoir fournir des indicateurs et des algorithmes dotant l'apprentissage automatique de la possibilité de prendre en considération le risque dans la prise de décision. En particulier, nous souhaiterions pouvoir estimer ce dernier sur de courtes séquences dépendantes générées à partir de la classe la plus générale possible de processus stochastiques en utilisant des outils théoriques d'inférence statistique et d'aversion au risque dans la prise de décision séquentielle. Cette thèse étudie ces deux problèmes en fournissant des méthodes algorithmiques prenant en considération le risque dans le cadre de la prise de décision en apprentissage automatique. Un algorithme avec des performances de pointe est proposé pour une estimation précise des statistiques de risque avec la classe la plus générale de processus ergodiques et stochastiques. De plus, la notion d'aversion au risque est introduite dans la prise de décision séquentielle (apprentissage en ligne) à la fois dans les jeux de bandits stochastiques et dans l'apprentissage séquentiel antagoniste
Strategic decision-making over valuable resources should consider risk-averse objectives. Many practical areas of application consider risk as central to decision-making. However, machine learning does not. As a result, research should provide insights and algorithms that endow machine learning with the ability to consider decision-theoretic risk. In particular, in estimating decision-theoretic risk on short dependent sequences generated from the most general possible class of processes for statistical inference and through decision-theoretic risk objectives in sequential decision-making. This thesis studies these two problems to provide principled algorithmic methods for considering decision-theoretic risk in machine learning. An algorithm with state-of-the-art performance is introduced for accurate estimation of risk statistics on the most general class of stationary--ergodic processes and risk-averse objectives are introduced in sequential decision-making (online learning) in both the stochastic multi-arm bandit setting and the adversarial full-information setting
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Guillaume, Romain. "Gestion des risques dans les chaînes logistiques : planification sous incertitude par la théorie des possibilités". Phd thesis, Université Toulouse le Mirail - Toulouse II, 2011. http://tel.archives-ouvertes.fr/tel-00700518.

Texto completo da fonte
Resumo:
Dans cette thèse, nous nous intéressons à des chaînes logistiques dont les acteurs de la chaîne sont des entités décisionnelles indépendantes. Plus précisément, notre cadre d'étude sera un "maillon" d'une chaîne logistique (relation client fournisseur) dont les acteurs (le client et le fournisseur) sont des entités décisionnelles indépendantes qui souhaitent mettre en place des processus de planification coopératifs en présence d'incertitude, sachant que le client fabriques des produits à la commande et le fournisseur sur stock. Dans ce contexte, la contribution majeure visée par nos travaux est l'intégration des connaissances imparfaites sur les données (date du besoin en composants, quantité nécessaire...etc.) afin de calculer le plan d'approvisionnement plus robuste (plan minimisant l'impact de l'incertitude). L'intégration des imperfections repose sur l'utilisation de la théorie des possibilités. Une fois le modèle de représentation des données imparfaites réalisé, nous proposons des méthodes de calcul de plan d'approvisionnement utilisant les informations supplémentaires grâce à la représentation des imperfections.
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Rios, Mora Juan Sebastian. "Optimisation de la gestion de l’impact des polluants gazeux du sol sur la qualité de l’air intérieur". Thesis, La Rochelle, 2021. http://www.theses.fr/2021LAROS035.

Texto completo da fonte
Resumo:
Les sites pollués (sol ou eaux souterraines) représentent un potentiel de risque pour la santé humaine et l’environnement. Il existe des outils d’aide à la gestion, en complément des mesures in-situ, qui permettent d’estimer rapidement et à moindre coût les risques sanitaires associés à l’exposition des polluants gazeux du sol dans les espaces intérieurs afin d’établir des mesures de prévention et/ou correction. Cependant, et malgré leur intérêt, il a été montré dans la littérature qu’il existe des différences importantes entre les concentrations intérieures mesurées et les estimations des outils existants. Ces incertitudes reposent principalement sur trois aspects : une mauvaise caractérisation du site, une modélisation incomplète des voies et mécanismes de transfert, ou bien du fait de négliger l’influence de certains paramètres sur le transfert. Par exemple, le fait de négliger la latéralité de la source reste une explication plausible des limites des modèles classiques de transfert. Les auteurs conviennent que la migration latérale joue un rôle important sur l’atténuation de la concentration intérieure en polluant, contrairement aux scénarios de source homogène ou continue, où les vapeurs migrent uniquement de manière verticale vers le bâtiment. Ainsi, lorsque la source est latéralement décalée vis-à-vis du bâtiment, les vapeurs vont migrer préférentiellement vers l’atmosphère et moins vers le bâtiment générant une atténuation plus importante de la concentration intérieure. Dans ce contexte, l’objectif principal de ces travaux de thèse est la contribution à l’amélioration des outils d’aide à la gestion afin d’élargir leur plage d’application. Pour ce faire, des nouveaux modèles ont été développés permettant de tenir compte de la latéralité de la source dans l’estimation de la concentration intérieure en polluant. Le développement de ces modèles est réalisé à partir de l’expérimentation numérique et l’analyse adimensionnelle sur la base des outils existants (modèles semi-empiriques construits en considérant une source continue). La combinaison de ces deux approches permet d’une part, de garder la capacité des modèles source continue de tenir compte des propriétés physiques du sol (perméabilité, coefficient de diffusion, …) et des caractéristiques du bâtiment (typologie de soubassement, dépression, volume, …), et d’une autre part, de mieux préciser la position de la source dans le sol en considérant l’influence de sa latéralité dans les estimations. Ces nouveaux modèles ont été issus d’une analyse comparative permettant de vérifier la cohérence et la précision des estimations vis-à-vis d’un modèle numérique (CFD), de données expérimentales et de modèles existants dans la littérature. Finalement, ces expressions ont été intégrées dans un code de ventilation (MATHIS-QAI) permettant de mieux préciser les caractéristiques des environnements intérieurs (système de ventilation, perméabilité à l’air de l’enveloppe, volume du bâtiment, …) et de réaliser des estimations des niveaux de concentration en fonction des variations temporelles (vitesse du vent, température extérieure, …) au cours du temps. À partir d’une étude paramétrique il a été montré que malgré l’impact non-négligeable des caractéristiques du bâtiment, l’influence de la latéralité de la source sur l’atténuation de la concentration intérieure en polluant reste prédominante (atténuation de plusieurs ordres de grandeur quand la source est décalée latéralement du bâtiment en comparaison à une source continue). Cependant, préciser les caractéristiques du bâtiment (soubassement, système de ventilation, perméabilité à l’air de l’enveloppe,…), ainsi que les conditions météorologiques uniques de chaque projet de construction, permet d’augmenter la précision des estimations en évitant la mise en œuvre de solutions extrêmes ou bien encore, de mesures inadaptées
Polluted sites and most precisely vapor intrusion represents a potential risk for human health and its environment. Various screening-level and analytical models have been proposed in order to evaluate vapor intrusion and provide assessment tools for exposure risk. However, some in situ investigations show significant differences between predicted and measured indoor concentrations leading eventually to misleading conclusions and inappropriate solution implementations. These uncertainties are mainly associated with a poor characterization of the site, an incomplete modeling of transfer pathways and mechanisms, or by neglecting certain influencing parameters on this transfer. For example, ignoring the lateral source/building separation may serve as possible explanation of the uncertainties presented by the conventional models based on a homogeneous source distribution assumption. The authors agree that lateral migration plays an important role in the attenuation of the indoor concentration. In homogeneous or continuous source scenarios vapors may migrate mainly vertically towards the building. However, lateral source may promote lateral migration to the atmosphere and less into the building generating a greater attenuation of the indoor concentration. In this context, the main objective of this thesis work is to contribute to the improvement of the assessment and management risk tools in order to improve the accuracy of their estimations and increase their range of application. To do this, new vapor intrusion models are developed considering the lateral source/building separation. These models are built on a numerical experimentation and dimensionless analysis based on existing models (semi-empirical models considering a homogeneous source distribution). The combination of these two approaches allows, on the one hand, to maintain the aptitude of the existing models to consider the physical properties of the soil (permeability, diffusion coefficient, …) and the characteristics of the building (type of construction, building depression, volume,…), and on the other hand, to better precise the position of the source in the soil taking into account the influence of the lateral source/building separation in the estimations. From a comparative analysis, the accuracy of these new expressions is verified comparing to the proposed numerical model (CFD), experimental data and existing models in the literature. Finally, the proposed expressions were coupled with a ventilation code (MATHIS-QAI) allowing to better specify indoor characteristics (ventilation system, air permeability of the envelope, volume of the building, …) and estimate indoor air concentration levels as a function of environmental variations (wind speed, outside temperature, …) over time. From a parametric study it was shown that despite the significant impact of the characteristics of the building, the influence of the lateral source/building separation remains predominant on the attenuation of the indoor concentration (attenuation of several orders of magnitude when the source is laterally offset of the building compared to a homogeneous source). However, specifying the characteristics of the building (construction type, ventilation system, air permeability, …) and weather conditions may increase the accuracy of the estimation avoiding the implementation of extreme solutions or insufficient actions
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Jourdain, Gonzague. "Contribution à l' optimisation de la prévention de la transmission materno-fœtale du VIH dans les pays en développement". Paris 6, 2005. http://www.theses.fr/2005PA066419.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Merlin, Aurélie. "Optimisation de l’usage des antiparasitaires chez la génisse d’élevage en vue de prévenir le risque d’émergence de populations de strongles digestifs résistants : développement d’une stratégie durable de traitement sélectif". Thesis, Nantes, Ecole nationale vétérinaire, 2017. http://www.theses.fr/2017ONIR093F/document.

Texto completo da fonte
Resumo:
Les traitements anthelminthiques (AH) visant à maîtriser l’impact des strongles gastro-intestinaux (SGI) sur la croissance des jeunes bovins doivent être rationnalisés afin de préserver durablement leur efficacité. L’objectif de cette thèse a été de développer et d’évaluer des stratégies de traitement ciblé sélectif (TCS) basées sur la croissance chez les génisses laitières de première saison de pâturage afin de préserver des populations refuges de SGI, non exposées aux AH, et ainsi de retarder l’apparition de résistance. La relation croissance/parasitisme en fin de saison a tout d’abord été étudiée dans des environnements variés ce qui a permis d’appréhender des lots plus infestés et, à l’intérieur de ces lots, des individus plus fortement infestés. Un arbre de décision de traitement de rentrée a été ensuite proposé en combinant des indicateurs de conduite au pâturage pour identifier les groupes à risque et plusieurs seuils de GMQ pour identifier les animaux souffrant le plus du parasitisme. Une stratégie de TCS basée sur le GMQ moyen réalisé à mi- saison a été évaluée sur le terrain par comparaison avec un traitement collectif. Aucune différence significative, en termes de croissance et de parasitisme, n’a été observée à la rentrée entre le groupe TCS et le groupe traité collectivement. Enfin, les attitudes et les perceptions des vétérinaires vis-à-vis du contrôle des parasitoses digestives en élevage bovin laitier et notamment d’une gestion plus raisonnée des anthelminthiques, ont été évaluées. Les vétérinaires reconnaissent la nécessité d’appréhender les traitements AH de manière raisonnée mais identifient de nombreux freins relatifs au développement du conseil et à la disponibilité d’outils simples, fiables et peu couteux. Les résultats de cette thèse montrent qu’il est possible de cibler l’utilisation des AH chez les génisses laitières de première saison de pâturage en se basant sur des indicateurs individuels et de groupe simples d’emploi
In first grazing season calves (FGSC), the anthelmintic (AH) treatments used to control the negative impact of gastrointestinal nematodes (GIN) on growth must be rationalized to preserve their long-term efficacy. The aim of this PhD thesis was to develop and assess targeted selective treatment (TST) strategies based on growth in FGSC, in order to preserve GIN populations in refugia i.e. not exposed to AH, and thus delay the emergence of AH resistance. Firstly, the relation growth/GIN infection at housing was demonstrated in different environments which allowed identifying groups, and within groups, the most infected animals. Then, a tree treatment decision at housing was proposed combing grazing management indicators to identify the groups at risk, and several average daily weight gain (ADWG) thresholds to identify, within groups, the animals suffering the most of infection. A TST strategy based on mid- season mean ADWG was assessed in field survey in comparison with whole group treatment (WGT). No significant difference, in terms of growth and GIN infection, was observed at housing between the TST and the WGT groups. Lastly, the veterinarians’ behaviors and perceptions about the control of GIN in dairy cattle farming, including a more rational AH management, were assessed. The veterinarians recognize the need to consider the sustainability of the AH treatment but identify serval obstacles as the development of advices and the availability of simple, reliable and cheap tools.The results of this thesis show that it is possible to target the use of AH in FGSC basing on individual and group indicators
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Mkireb, Chouaïb. "Optimisation et gestion des risques pour la valorisation de la flexibilité énergétique : application aux systèmes d’eau potable". Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2492/document.

Texto completo da fonte
Resumo:
Dans un contexte de croissance démographique dans lequel certaines ressources naturelles sont de plus en plus limitées, une gestion optimisée et conjointe des réseaux publics de l’eau et de l’électricité s’impose. L’ouverture progressive des marchés de l’électricité à la concurrence et les changements de réglementation dans plusieurs pays ont contribué au développement des mécanismes de la flexibilité de la demande, permettant d’impliquer directement les consommateurs dans la gestion de l’équilibre offre-demande du réseau électrique. Les systèmes d’eau potable, étant de grands consommateurs d’électricité, disposent d’une flexibilité grâce à la présence d’ouvrages de stockage d’eau (bâches et réservoirs) et de pompes à vitesse variable. Cette flexibilité, souvent exploitée uniquement à des fins de sécurisation des demandes en eau, peut être valorisée pour permettre une meilleure gestion de l’équilibre du réseau électrique. L’objectif de cette thèse est l’évaluation des valeurs économiques et écologiques relatives à l’intégration de la flexibilité des systèmes d’eau potable dans la gestion opérationnelle du système électrique français. Une étude de l’architecture des marchés de l’électricité en France est d’abord menée pour identifier les mécanismes de flexibilité de la demande les plus adaptés aux contraintes d’exploitation des systèmes d’eau. Des modèles mathématiques d’optimisation sont ensuite proposés et résolus à travers certaines heuristiques, en intégrant les incertitudes relatives aux consommations d’eau, aux prix des marchés ainsi qu’à la disponibilité des équipements de pompage. Les résultats numériques, discutés en se basant sur trois systèmes d’eau potable réels en France, intègrent les aspects économiques (en considérant les risques associés), opérationnels et écologiques. Des réductions importantes des coûts d’exploitation des systèmes d’eau sont estimées à travers la valorisation de l’énergie non consommée pendant les moments de pointe sur le marché spot de l’électricité. En parallèle, la considération des incertitudes permet de sécuriser l’opération des systèmes d’eau en temps réel, et de maîtriser les risques économiques relatifs à l’équilibrage du réseau électrique. De plus, des réductions importantes des émissions de CO2, estimées à environ 400 tonnes par jour en France, peuvent être réalisées en réduisant les volumes d’électricité issus des sources fossiles
In a context of demographic growth in which natural resources are more and more limited, optimized management of water and power networks is required. Changes in electricity markets regulation in several countries have recently enabled effective integration of Demand Response mechanisms in power systems, making it possible to involve electricity consumers in the real-time balance of the power system. Through its flexible components (variable-speed pumps, tanks), drinking water systems, which are huge electricity consumers, are suitable candidates for energy-efficient Demand Response mechanisms. However, these systems are often managed independently of power system operation, for both economic and operational reasons. In this thesis, the objective is the evaluation of the economic and the ecological values related to the integration of drinking water systems flexibility into power system operation through french demand response mechanisms. An analysis of the architecture of french electricity markets is first conducted, allowing to target the most suitable demand response mechanisms considering water systems operating constraints. Some mathematical models to optimize water systems flexibility are then proposed and solved through original heuristics, integrating uncertainties about water demands, market prices and pumping stations availability. Numerical results, which are discussed using three real water systems in France, integrate the economic aspects inclunding risks, operational and ecological aspects. Significant reductions in water systems operating costs are estimated through the optimization of demand response power bids on the French spot power market during peak times. In parallel, uncertainties consideration secures the operation of water systems in real time, and makes it possible to manage economic risks related to the power grid balancing. In addition, significant savings in CO2 emissions, estimated to around 400 tons per day in France, can be achieved by reducing electricity production from fossil sources
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Ben, Dbabis Makram. "Modèles et méthodes actuarielles pour l'évaluation quantitative des risques en environnement solvabilité II". Phd thesis, Université Paris Dauphine - Paris IX, 2012. http://tel.archives-ouvertes.fr/tel-00833856.

Texto completo da fonte
Resumo:
Les nouvelles normes prudentielles Solvabilité II se penchent sur question du contrôle de la solvabilité des acteurs de marché d'assurance et de réassurance. Nous nous sommes proposé dans cette thèse de présenter les moyens techniques permettant la recherche des besoins de couverture de la solvabilité des assureurs se traduisant par la mise en œuvre d'une probabilité de ruine à moins de 0,5%, dans le cadre des modèles internes. La première partie, en mettant l'accent sur le problème de valorisation économique des passifs d'assurance vie lié aux options incluses dans les contrats d'assurance et donc d'obtention de la distribution de la situation nette à un 1 an et donc de son quantile d'ordre 0.5%, présentera les différentes approches de modélisation permettant de contourner ces problèmes :- Approche des simulations dans les simulations purement simulatoire et trop coûteuse en temps de calcul,- Algorithme d'accélération des simulations dans les simulations pour contourner les limites de la première approche,- Approche par portefeuille répliquant- Approche par fonction de perteDans une deuxième partie, l'accent sera mis sur la modélisation des risques techniques mal appréhendés par les assureurs en développant deux approches stochastiques pour modéliser, dans le cadre d'un modèle interne, les risques de longévité, de mortalité et aussi le risque dépendance. La troisième partie intéressera à l'optimisation du capital économique en mettant en œuvre la réassurance comme outil de gain en capital économique en proposant des approches de choix optimal en réassurance
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Biais, Matthieu. "Stratégie d’optimisation hémodynamique des patients à risque : impacts de l’acidose respiratoire et métabolique, du clampage de l’aorte abdominale sous-rénale et du positionnement peropératoire". Thesis, Bordeaux 2, 2013. http://www.theses.fr/2013BOR22095/document.

Texto completo da fonte
Resumo:
L’optimisation hémodynamique péri-opératoire est une stratégie qui vise à maximaliser le transport artériel en oxygène et/ou le volume d’éjection systolique lors de chirurgie à risque. Ce concept a beaucoup évolué lors de ces trente dernières années, vers une approche plus simple, plus réalisable en pratique clinique et moins invasive. Les principales thérapeutiques utilisées dans les différents protocoles d’optimisation hémodynamique sont le remplissage vasculaire, l’administration d’agents inotropes et de vasopresseurs. Cependant, les conséquences physiopathologiques de l’agression chirurgicale peuvent impacter grandement les modalités d’administration et l’efficacité des thérapeutiques précitées. Dans la première étude, nous avons décrit l’impact de l’acidose respiratoire et métabolique (fréquemment rencontrées lors de chirurgie majeure et/ou de coeliochirurgie) sur l’efficacité des agents α et β-adrénergiques sur le myocarde sain de rat. Dans un deuxième travail nous avons mis en évidence que le remplissage vasculaire ne pouvait pas être guidé par des indices dynamiques de précharge dépendance lors du clampage chirurgicale de l’aorte abdominale sous-rénale, dans un modèle porcin. Enfin, dans la troisième étude, nous avons montré dans un modèle clinique, que le positionnement en décubitus ventral lors d’une chirurgie du rachis entrainait des modifications majeures des interactions cardiorespiratoires et que les indices dynamiques devaient être interprétés avec prudence pour guider le remplissage vasculaire dans ce contexte. Ces études translationnelles soulignent trois situations fréquentes impactant l’efficacité et/ou les modalités d’administration des thérapeutiques nécessaires à une optimisation hémodynamique peropératoire
The aim of perioperative haemodynamic optimization is to maximize oxygen delivery and/or stroke volume during high risk surgery. This concept has evolved during the last thirty years, to a simpler, more feasible and less invasive approach. Main treatments used in different hemodynamic optimization protocols are fluid loading, inotropes and vasopressors administration. However, pathophysiological consequences of surgical stress can greatly impact the mode of administration and the efficacy of the above therapeutics. In the first study, we described the impact of respiratory and metabolic acidosis (frequently encountered during major surgery and/or laparoscopic surgery) on the effectiveness of α and β-adrenergic agents in healthy rat myocardium. In a second work, we demonstrated that intravenous fluids cannot be guided by dynamic indices of preload dependency during surgical clamping of the infrarenal abdominal aorta in a porcine model. Finally, in the third study, we demonstrated in a clinical model, that positioning in prone position during spine surgery induced major changes in cardiorespiratory interactions and dynamic indices should be interpreted with caution to guide fluid therapy in this context. These translational studies highlight three common situations impacting the effectiveness and/or administration of therapeutic necessary for intraoperative hemodynamic optimization
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Serra, Romain. "Opérations de proximité en orbite : évaluation du risque de collision et calcul de manoeuvres optimales pour l'évitement et le rendez-vous". Thesis, Toulouse, INSA, 2015. http://www.theses.fr/2015ISAT0035/document.

Texto completo da fonte
Resumo:
Cette thèse traite de l'évitement de collision entre un engin spatial opérationnel, appelé objet primaire, et un débris orbital, dit secondaire. Ces travaux concernent aussi bien la question de l'estimation du risque pour une paire d'objets sphériques que celle du calcul d'un plan de manoeuvres d'évitement pour le primaire. Pour ce qui est du premier point, sous certaines hypothèses, la probabilité de collision s'exprime comme l'intégrale d'une fonction gaussienne sur une boule euclidienne, en dimension deux ou trois. On en propose ici une nouvelle méthode de calcul, basée sur les théories de la transformée de Laplace et des fonctions holonomes. En ce qui concerne le calcul de manoeuvres de propulsion, différentes méthodes sont développées en fonction du modèle considéré. En toute généralité, le problème peut être formulé dans le cadre de l'optimisation sous contrainte probabiliste et s'avère difficile à résoudre. Dans le cas d'un mouvement considéré comme relatif rectiligne, l'approche par scénarios se prête bien au problème et permet d'obtenir des solutions admissibles. Concernant les rapprochements lents, une linéarisation de la dynamique des objets et un recouvrement polyédral de l'objet combiné sont à la base de la construction d'un problème de substitution. Deux approches sont proposées pour sa résolution : une première directe et une seconde par sélection du risque. Enfin, la question du calcul de manoeuvres de proximité en consommation optimale et temps fixé, sans contrainte d'évitement, est abordée. Par l'intermédiaire de la théorie du vecteur efficacité, la solution analytique est obtenue pour la partie hors-plan de la dynamique képlérienne linéarisée
This thesis is about collision avoidance for a pair of spherical orbiting objects. The primary object - the operational satellite - is active in the sense that it can use its thrusters to change its trajectory, while the secondary object is a space debris that cannot be controlled in any way. Onground radars or other means allow to foresee a conjunction involving an operational space craft,leading in the production of a collision alert. The latter contains statistical data on the position and velocity of the two objects, enabling for the construction of a probabilistic collision model.The work is divided in two parts : the computation of collision probabilities and the design of maneuvers to lower the collision risk. In the first part, two kinds of probabilities - that can be written as integrals of a Gaussian distribution over an Euclidean ball in 2 and 3 dimensions -are expanded in convergent power series with positive terms. It is done using the theories of Laplace transform and Definite functions. In the second part, the question of collision avoidance is formulated as a chance-constrained optimization problem. Depending on the collision model, namely short or long-term encounters, it is respectively tackled via the scenario approach or relaxed using polyhedral collision sets. For the latter, two methods are proposed. The first one directly tackles the joint chance constraints while the second uses another relaxation called risk selection to obtain a mixed-integer program. Additionaly, the solution to the problem of fixed-time fuel minimizing out-of-plane proximity maneuvers is derived. This optimal control problem is solved via the primer vector theory
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Neirac, Lucie. "Learning with a linear loss function : excess risk and estimation bounds for ERM and minimax MOM estimators, with applications". Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAG012.

Texto completo da fonte
Resumo:
La détection de communautés sur des graphes, la récupération de phase, le clustering signé, la synchronisation angulaire, le problème de la coupe maximale, la sparse PCA, ou encore le single index model, sont des problèmes classiques dans le domaine de l'apprentissage statistique. Au premier abord, ces problèmes semblent très dissemblables, impliquant différents types de données et poursuivant des objectifs distincts. Cependant, la littérature récente révèle qu'ils partagent un point commun : ils peuvent tous être formulés sous la forme de problèmes d'optimisation semi-définie positive (SDP). En utilisant cette modélisation, il devient possible de les aborder du point de vue classique du machine learning, en se basant sur la minimisation du risque empirique (ERM) et en utilisant la fonction de perte la plus élémentaire: la fonction de perte linéaire. Cela ouvre la voie à l'exploitation de la vaste littérature liée à la minimisation du risque, permettant ainsi d'obtenir des bornes d'estimation et de développer des algorithmes pour résoudre ces problèmes. L'objectif de cette thèse est de présenter une méthodologie unifiée pour obtenir les propriétés statistiques de procédures classiques en machine learning basées sur la fonction de perte linéaire. Cela s'applique notamment aux procédures SDP, que nous considérons comme des procédures ERM. L'adoption d'un “point de vue machine learning” nous permet d'aller plus loin en introduisant d'autres estimateurs performants pour relever deux défis majeurs en apprentissage statistique : la parcimonie et la robustesse face à la contamination adversaire et aux données à distribution à queue lourde. Nous abordons le problème des données parcimonieuses en proposant une version régularisée de l'estimateur ERM. Ensuite, nous nous attaquons au problème de la robustesse en introduisant un estimateur basé sur le principe de la "Médiane des Moyennes" (MOM), que nous nommons l'estimateur minmax MOM. Cet estimateur permet de faire face au problème de la robustesse et peut être utilisé avec n'importe quelle fonction de perte, y compris la fonction de perte linéaire. Nous présentons également une version régularisée de l'estimateur minmax MOM. Pour chacun de ces estimateurs, nous sommes en mesure de fournir un “excès de risque” ainsi que des bornes d'estimation, en utilisant deux outils clés : les points fixes de complexité locale et les équations de courbure de la fonction d'excès de risque. Afin d'illustrer la pertinence de notre approche, nous appliquons notre méthodologie à cinq problèmes classiques en machine learning, pour lesquels nous améliorons l'état de l'art
Community detection, phase recovery, signed clustering, angular group synchronization, Maxcut, sparse PCA, the single index model, and the list goes on, are all classical topics within the field of machine learning and statistics. At first glance, they are pretty different problems with different types of data and different goals. However, the literature of recent years shows that they do have one thing in common: they all are amenable to Semi-Definite Programming (SDP). And because they are amenable to SDP, we can go further and recast them in the classical machine learning framework of risk minimization, and this with the simplest possible loss function: the linear loss function. This, in turn, opens up the opportunity to leverage the vast literature related to risk minimization to derive excess risk and estimation bounds as well as algorithms to unravel these problems. The aim of this work is to propose a unified methodology to obtain statistical properties of classical machine learning procedures based on the linear loss function, which corresponds, for example, to the case of SDP procedures that we look as ERM procedures. Embracing a machine learning view point allows us to go into greater depth and introduce other estimators which are effective in handling two key challenges within statistical learning: sparsity, and robustness to adversarial contamination and heavy-tailed data. We attack the structural learning problem by proposing a regularized version of the ERM estimator. We then turn to the robustness problem and introduce an estimator based on the median of means (MOM) principle, which we call the minmax MOM estimator. This latter estimator addresses the problem of robustness and can be constructed whatever the loss function, including the linear loss function. We also present a regularized version of the minmax MOM estimator. For each of those estimators we are able to provide excess risk and estimation bounds, which are derived from two key tools: local complexity fixed points and curvature equations of the excess risk function. To illustrate the relevance of our approach, we apply our methodology to five classical problems within the frame of statistical learning, for which we improve the state-of-the-art results
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Lemoussu, Sophie. "A model-based framework for innovative Small and Medium-sized Enterprises (SMEs) in Aeronautics". Thesis, Toulouse, ISAE, 2020. http://www.theses.fr/2020ESAE0014.

Texto completo da fonte
Resumo:
Le marché de l'aviation fait face aujourd'hui à une croissance rapide des technologies innovantes. Les drones cargo, les taxis drones, les dirigeables, les ballons stratosphériques, pour n'en citer que quelques-uns, pourraient faire partie de la prochaine génération de transport aérien. Dans le même temps, les Petites et Moyennes Entreprises (PMEs) s'impliquent de plus en plus dans la conception et le développement de nouvelles formes de système aéroporté, passant du rôle traditionnel de fournisseur à celui de concepteur et intégrateur. Cette situation modifie considérablement la portée de la responsabilité des PMEs. En tant qu'intégrateurs, elles deviennent responsables de la certification des composants et du processus de fabrication, domaine dans lequel elles n’ont encore que peu d'expérience. La certification, qui requiert une connaissance très spécifique des réglementations, des normes et standards, demeure un processus obligatoire et une activité critique pour les entreprises de l'industrie aéronautique. C’est aussi un défi majeur pour les PMEs qui doivent assumer cette responsabilité de certification avec des moyens limités. Dans cette thèse, deux besoins majeurs sont identifiés: le soutien méthodologique n'est pas facilement disponible pour les PMEs; et les exigences de certification ne sont pas facilement compréhensibles et adaptables à chaque situation. Nous examinons donc des voies alternatives pour réduire la complexité de la situation des PMEs. L'objectif est de fournir un soutien afin qu'elles puissent être plus efficaces pour comprendre et intégrer les règles, les législations et les lignes directrices à leurs processus internes de manière plus simple. Cette thèse propose ainsi une approche méthodologique pour soutenir ces organisations. Développée en étroite collaboration avec une PME française, l'approche est composée d'un ensemble de modèles (métamodèle, modèles structurels et comportementaux) couverts par un mécanisme de gouvernance
The aviation market is facing nowadays a fast growth of innovative airborne systems. Drone cargo, drone taxi, airships, stratospheric balloons, to cite a few, could be part of the next generation of air transportation. In the same time, Small and Medium-sized Enterprises (SMEs) are becoming more and more involved in designing and developing new forms of air transportation, transitioning from the traditional role of supplier to those of system designer and integrator. This situation changes drastically the scope of SMEs' responsibility. As integrators they become responsible for certification of the components and the manufacturing process, an area in which they have little experience. Certification mandates very specific knowledge, regarding the regulations, norms and standards. Certification is a mandatory process and a critical activity for the enterprises in the aerospace industry. It constitutes a major challenge for SMEs who have to take on this certification responsibility with only limited resources. In this thesis, two major needs are identified: methodological support is not easily available for SMEs; and certification requirements are not easily comprehensive and adaptable to each situation. We examine alternate paths, reducing the complexity and bringing one step closer to solving the problem for the innovative SMEs. The objective is to provide support so that they can be more efficient to comprehend and integrate rules, legislations and guidelines to their internal processes in a simpler way. This thesis proposes then a methodological approach to support such organisation. Developed in close cooperation with a French SME in this situation, the approach is composed of a set of models (metamodel, structural, and behavioural models) covered by a certification governance mechanism
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Ben, Saida Abdallah. "Essais sur la Diversification des Portefeuilles Financiers et des Fonds Structurés de Crédit : Une Approche en termes de copules". Thesis, Cergy-Pontoise, 2014. http://www.theses.fr/2014CERG0705/document.

Texto completo da fonte
Resumo:
Dans cette thèse, nous examinons les apports importants de la modélisation de la dépendance par la théorie des copules dans le cadre des problématiques liées à la gestion des portefeuilles financiers et des produits structurés de crédits.La première partie de cette thèse est consacrée à la gestion des portefeuilles financiers. Nous étudions en premier lieu la relation qui peut s'établir entre le niveau de diversification du portefeuille et le choix de la copule ayant décrit au mieux la structure de dépendance. L'objectif est de pouvoir identifier une caractéristique dans les portefeuilles permettant une sélection plus simple de la copule appropriée. Dans un deuxième chapitre, nous proposons d'étudier l'impact d'une mauvaise spécification du modèle de copule sur les estimations des mesures de risque conventionnelles telles la Value-at-Risk et l'Expected-Shortfall. L'idée est de vérifier l'utilité de développer ces estimations sous l'angle du vrai modèle copule. Dans un troisième chapitre, nous étudions l'impact d'une mauvaise spécification du modèle copule dans le cadre d'un problème d'allocation optimale de portefeuilles. L'objectif principal vise surtout à identifier la sensibilité des investisseurs, en fonction de leurs degrés d'aversion aux risques (pertes), pour l'une au l'autre des composante du modèle copule. Nous proposons ainsi d'établir une passerelle entre les enseignements des théories de la finance comportementale et la modélisation de la dépendance par la théorie des copules.La deuxième partie de la thèse porte sur les produits structurés de crédit. Nous étudions, dans un premier chapitre, l'apport d'un modèle actuariel, utilisant les fonctions copules dans la modélisation de la structure de dépendance entre les temps de défauts, dans le cadre du processus d'estimation des mesures de risque. Enfin, dans un dernier chapitre nous revisitons la notion du « Diversity Score », développée par l'agence de notation Moody's dans l'objectif d'assigner la qualité de produits structurés de crédit en terme de diversification. Nous discutons de l'analogie de cette mesure avec celle de l'approche copule, et nous démontrons son adéquation avec quelques familles de fonctions copules
In this thesis, we examine one key topic related to copula theory contributions to the financial portfolio management theory and to the study of structured credit products.The first part of this thesis deals with financial portfolio management. We first discuss the relationship between portfolio diversification and the choice of the copula that better describes the dependence structure. The goal is to identify one feature of portfolios making straightforward the process of the appropriate copula selection. In the second chapter, we propose to study the impact of copula model misspecification, on conventional risk measures estimates as for the example of Value-at-Risk and Expected-Shortfall. The idea is to check the validity of developing these estimates under the true copula model. In a third chapter, we apply such approach to optimal portfolio allocation problem. The main objective is to identify investor's sensitivity, depending on their risk (or loss) aversion, to one of the component of the copula model. Thus, we propose one possible linkage between the behavioral finance theory and the copula functions framework.The second part of the thesis focuses on structured credit products. In a first chapter, we study the contribution of an actuarial model, using copulas functions in modeling the dependence structure between times of defaults, in the process of risk measures estimates. Finally, in a last chapter we re-examine the “Diversity Score” concept, developed by the Moody's rating agency to assign the quality of structured credit portfolio in terms of diversification. We discuss the analogy of this measure with that of the copula approach, and demonstrate its adequacy with some copula functions families
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Costedoat-Chalumeau, Nathalie. "Etude du rapport bénéfice/ risque du traitement par hydroxychloroquine dans le lupus systématique : étude de la toxicité foetale, de la toxicité cardiaque et optimisation posologique basée sur la détermination de sa concentration sanguine". Paris 6, 2007. http://www.theses.fr/2007PA066015.

Texto completo da fonte
Resumo:
L’hydroxychloroquine (HCQ) qui a une demi-vie particulièrement longue, est un traitement clé du lupus systémique. Dans cette thèse, nous rapportons différents travaux ayant pour objectif d’améliorer les connaissances sur la pharmacologie de l’HCQ: passage transplacentaire, toxicité fœtale, toxicité cardiaque, relation pharmacocinétique-pharmacodynamique (PK-PD) et évaluation de la compliance. Nous avons ainsi démontré chez 143 patients lupiques que la relation PK-PD de l’HCQ était forte et suivait un modèle de type inhibiteur avec effet maximal. L’autre intérêt de ce dosage était le dépistage des patients ayant arrêté ou ne prenant qu’épisodiquement leur traitement (14 patients sur 203, 7%), leur concentration d’HCQ étant nulle ou inhabituellement basse. Les résultats de la relation PK-PD obtenus nous ont conduit à organiser une étude prospective randomisée, multicentrique et nationale intitulée «étude PLUS» dont nous détaillons le protocole
Hydroxychloroquine (HCQ), a drug with a particularly long half-life, is an important treatment for systemic lupus erythematosus. In this PhD thesis, we report studies performed to improve the knowledge on the pharmacology of the HCQ: transplacental passage, foetal toxicity, cardiac toxicity, pharmacokinetic-pharmacodynamic relation (PK-PD) and monitoring of adherence to treatment. We determined blood HCQ concentration among 143 patients with SLE. The PK-PD relation of HCQ was strong and followed an inhibitory model with maximum effect. The other interest of determining blood HCQ concentration was the identification of non compliant patients. Indeed, very low blood HCQ concentrations are an objective marker of prolonged poor compliance (14 patients out of 203, 7%). The PK-PD results led us to organize a randomised, multicenter and national trial, entitled “study PLUS” (we detail the protocol)
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Large, Aurore. "Une meilleure gestion patrimoniale des réseaux d'eau potable : le modèle de prévision du renouvellement à long terme OPTIMEAU". Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0086/document.

Texto completo da fonte
Resumo:
Dans les pays développés, l’eau potable est distribuée au domicile des usagers. Ce confort requier tun long linéaire de réseau de forte valeur patrimoniale. Pour maintenir un équilibre entre ressources financières et performances, il est important d’essayer de renouveler les tronçons au meilleur moment possible. Ce manuscrit présente les modèles court (1 à 3 ans), moyen et long terme ( > 30 ans)actuellement employés. Les processus court terme semblent assez efficaces, mais les méthodes moyen et long terme restent frustes. Le modèle OPTIMEAU propose une approche long terme pour obtenir une vision globale du patrimoine de canalisations et rationaliser sa gestion, tout en restant en phase avec les pratiques opérationnelles de programmation à court terme. Cette démarche, fondée sur des modèles statistiques de survie, est testée à partir des données réelles de 3 services d’eau Européens : le SEDIF (Syndicat des Eaux d’Ile de France), le Grand Lyon et eau service Lausanne en Suisse. L’originalité de ce modèle réside dans l’estimation de la distribution des âges à la mise hors service passée, clef de voûte dans la construction de onze indicateurs liés aux finances, aux réalisations et à la performance future des services
In developed countries, drinking water is distributed to households. This comfort requires a long networkwith a high value. To optimize resources and performance, it is important to renew pipe sectionsat the best possible time. This thesis presents the short (1-3 years), medium and long term (> 30 years)models commonly employed. The short-term processes seem quite effective, but long term methods remainrough. The OPTIMEAU model proposes a long-term approach to get a prospective overview ofpipes and improve its management, while remaining connected to the technical practices at short-termlevel. This approach, based on survival statistical models, is tested using actual data of three Europeanwater services : SEDIF (Syndicat des Eaux d’Ile de France), Grand Lyon and eauservice Lausanne inSwitzerland. The originality of this model lies in the estimation of the past decommissioning age distribution,keystone in the construction of eleven indicators related to finance, achievements and futureperformance of water utilities
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia