Siga este enlace para ver otros tipos de publicaciones sobre el tema: Variant à risque.

Tesis sobre el tema "Variant à risque"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 38 mejores tesis para su investigación sobre el tema "Variant à risque".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Mauduit, Vincent. "Intégration de données génomiques et de compatibilités donneur-receveur pour améliorer la compréhension des mécanismes de perte de l’allogreffe rénale". Electronic Thesis or Diss., Nantes Université, 2024. http://www.theses.fr/2024NANU1022.

Texto completo
Resumen
La maladie rénale chronique est une pathologie complexe aux nombreuses étiologies et susceptible de conduire à une insuffisance chronique terminale (IRCT), c’est-à-dire une incapacité des reins à filtrer le sang, une fonction essentielle au fonctionnement de l’organisme humain. La transplantation rénale constitue le meilleur traitement de l’IRCT. Si les taux de survie du greffon rénal à court terme sont désormais satisfaisants (plus de 90% à 1 an en France), la survie à moyen et long terme n’est pas encore optimale (autour de 60% à 5 ans en France). Bien que la compatibilité HLA ait été associée à une moins survie greffon, les mécanismes impliqués dans la perte du greffon rénal ne sont pas encore totalement connus. Ces travaux ont pour but d’identifier des variants génétiques en dehors du HLA associés au rejet et à la survie du greffon rénal. Ils s’appuient sur l’analyse de données génétiques de patients transplantés exclusivement à Nantes (N=1969 paires).La combinaison des génomes du donneur et du receveur a permis la découverte d’une nouvelle incompatibilité en amont du gène TOM1L1 associée avec la perte du greffon rénal. Ce signal a été validé dans trois cohortes indépendantes. Grâce à une granularité phénotypique inédite dans la littérature de la génétique de la transplantation rénale, un premier profil génétique de l’inflammation microvasculaire isolée (IMVi) a été établi. En plus de montrer l’influence de la survenue de l’IMVi sur la survie du greffon rénal, nous avons identifié de nombreux gènes associés à ce phénotype encore peu décrit. Nous avons montré que son fond génétique se distingue de celui du rejet humoral et d’autres sous-types de l’IMV
Chronic kidney disease is a complex multifactorial pathology leading to end-stage renal disease (ESRD), which is characterized by an inability of the kidneys to filter blood. Kidney transplant is currently the best treatment of ESRD both in terms of quality of life and patient survival. Despite satisfying short term survival rates (above 90% in France), mid and long-term survival are not optimal (around 60% at 5 years in France). Even if donor-recipient HLA compatibility was shown to have adverse effects on survival, kidney graft loss underlying mechanisms are not fully understood. This work aims at identifying variants outside of the HLA region associated with kidney graft loss and rejection. It relies on the analysis of genetic data of patients exclusively transplanted in Nantes (n=x). Combining donor and recipient genomes enabled the discovery a new donor-recipient genetic mismatch upstream the TOM1L1 gene associated with kidney graft loss. This signal was replicated in three independent cohorts. Thanks to an unprecedented phenotypic granularity in kidney transplant genetics literature, we described the first genetic profile of isolated microvascular inflammation (iMVI), a poorly defined phenotype, and highlighted a different genetic background from humoral rejection. We also showed that iMVI confers a higher risk of kidney graft loss and reported several genes associated with iMVI, hence contributing to better characterize this outcome
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Blancard, Malorie. "Identification de nouveaux variants responsables d'arythmies cardiaques avec risque de mort subite". Electronic Thesis or Diss., Sorbonne université, 2018. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2018SORUS406.pdf.

Texto completo
Resumen
La mort subite cardiaque est initiée par une tachycardie ventriculaire - ou une extrasystole ventriculaire - dégénérant en fibrillation ventriculaire. Les morts subites sont le plus souvent associées à des anomalies structurales du cœur ou d’origine ischémique. Cependant, certaines arythmies ventriculaires surviennent dans un contexte de cœur structurellement normal avec un ECG basal normal telles que les tachycardies ventriculaires polymorphes catécholaminergiques (CPVT) ou les torsades de pointes à couplage court (TdPcc). Le premier objectif de ma thèse a été d’étudier l’origine génétique des TdPcc grâce au séquençage d’exome de 20 patients. Cette étude nous a permis de démontrer l’hétérogénéité génétique de cette pathologie, mais aussi d’identifier une forte proportion de variants impliqués dans la régulation calcique du cœur. Nous avons analysé un variant perte de fonction CACNA1C induisant une perte de densité du courant calcique de type lent et une augmentation de l’inactivation dépendante du potentiel. Ce variant, fréquent dans la population africaine, est possiblement un facteur de vulnérabilité aux arythmies ventriculaires. Les études fonctionnelles de variants dans le gène RYR2 ont également été au centre de cette thèse avec l’identification de 3 variants RyR2 gain de fonction chez des patients atteints de TdPcc et d’un variant perte de fonction présent, pour la première fois, à l’état homozygote et hétérozygote chez deux familles atteintes de CPVT. Ce travail de thèse aura donc permis de mieux comprendre l’origine génétique des TdPcc et de montrer l’implication dans les TdPcc de deux gènes déjà bien connus dans les arythmies ventriculaires, CACNA1C et RYR2
Cardiac sudden death is due to ventricular tachycardia (VT) degenerating into ventricular fibrillation and asystole. Life-threatening arrhythmias are mostly associated with structural heart abnormalities or ischemia. In contrast, there are patients with no ECG abnormalities at basal level, such as catecholaminergic polymorphic ventricular tachycardia (CPVT) or short-coupled torsades de pointes (scTdP). The first aim of my thesis was to study the genetic origin of scTdP through exome sequencing of 20 patients. This study allowed us to show the genetic heterogeneity of this pathology, but also to identify a large proportion of variants involved in the cardiac calcium regulation. Among all identified variants, we analyzed a CACNA1C loss-of-function variant inducing a reduction in current density of the L-type calcium current and an increase of its voltage-dependent inactivation. This variant, present in 0.8% of the African population, is a new risk factor for ventricular arrhythmias. Functional studies were focused on 3 RYR2 variants leading to channel hyperactivity in patients with TdPcc and the identification of a loss-of-function variant present, for the first time, at the homozygous and the heterozygous states in two families with CPVT. This last variant lead to a blunted response to adrenergic stimulation. This work provided a better understanding of the genetics of scTdP and allowed us to show the involvement in scTdP of two genes already implicated in ventricular arrhythmias, CACNA1C and RYR2. The present studies confirm that RYR2 variants are responsible for several phenotypes associated with cardiac arrhythmias leading to sudden death
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Tarazi, Amine. "Risque bancaire, déréglementation financière et réglementation prudentielle : une analyse en termes d'espérance-variance". Limoges, 1992. http://www.theses.fr/1992LIMO0423.

Texto completo
Resumen
L'objectif de cette these est d'analyser le risque bancaire dans l'environnement reglementaire des annees 80. Le modele de portefeuille a deux parametres (esperance et variance) est applique a la firme bancaire et les regles prudentielles y sont introduites. Il est montre a la fois d'un point de vue theorique qu'empirique que les regles prudentielles, meme les plus sophistiquees (radio cooke), sont incapables a elles seules de maitriser le risque de defaillance bancaire. Il est suggere qu'un controle individualise des banques par les autorites soit egalement necessaire tant que les problemes d'imperfection de l'information et d'alea de moralite ne sont pas resolus
The aim of this thesis is the analysis of bank risk in the regulatory environment fo the 80's. The two parameter portfolio model (mean-variance) is applied to the banking firm and prudential rules are introduced as well. It is shown on the theoretical as well as empirical level that prudential rules are not sufficient to contain the risk of failure of banks. It is suggested that close monitoring of banks by the authorities may be a necessity as long as imperfect information and moral hazard problems are not solved
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Hamdi, Yosr. "Evaluation of the association between common genetic variants and breast cancer risk". Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28384.

Texto completo
Resumen
Le cancer du sein est la néoplasie la plus fréquente chez la femme. Un ensemble de facteurs génétiques et environnementaux sont impliqués dans cette maladie complexe. Dans le cadre de mes études doctorales, je me suis intéressée à la composante génétique associée au risque de cancer du sein chez les femmes dans la population générale ainsi qu’à la modification du risque pour ce cancer chez des porteuses de mutations des gènes BRCA1 et BRCA2. Actuellement, environ la moitié de cette composante génétique est expliquée par une combinaison d'allèles à pénétrance faible, moyenne ou élevée. En outre, de récentes études ont démontré l'implication majeure de certains facteurs génétiques dans la modification du risque de cancer du sein chez des porteuses de mutations de BRCA1 et BRCA2. Dans le cadre de ce projet, nous avons étudié l’impact potentiel de certains variants génétiques dans les régions régulatrices de différents gènes et évalué leurs associations avec le risque de cancer du sein. Le projet a été divisé en deux parties : tout d'abord, nous avons évalué l'association directe entre les variants associés avec l’expression allélique différentielle et le risque de cancer du sein, afin d'identifier de nouveaux locus de susceptibilité à ce cancer. En second lieu, nous avons évalué l'impact sur l’expression génique de variants caractérisés au sein des régions promotrices de certains gènes sélectionnés, pour ensuite évaluer l’impact de ces variants sur l’expression génique. En résumé, la première partie de ce projet a conduit à l'identification d'un nouveau locus de faible pénétrance associés au risque de cancer du sein sur le locus 4q21 (rs11099601, odds ratio=1.05, p = 6.4 x 10-6), et deux nouveaux locus (11q22.3 et BRCA1- rs16942) associés avec la modification du risque de cancer du sein chez les porteuses de mutations du gène BRCA1. La seconde partie du projet a permis l'identification de nouveaux variants fonctionnels situés dans les régions promotrices des gènes ESR1, ESR2, FOXA1, RAP80, NBN et CDC7. D’autres études d’association dans de plus large cohorte ainsi que d’autres analyses fonctionnelles seront nécessaires pour confimer ces résultats, ce qui permettra de les inclure dans les nouveaux outils de prédiction de risque et ainsi assurer une estimation plus précise du risque de cancer du sein.
Breast cancer is the most common malignancy in women. A set of environmental and genetic factors are involved in this complex disease. This project focused on the genetic components of breast cancer susceptibility and breast cancer risk modification in BRCA1 and BRCA2 mutation carriers. Currently, about half of the inherited susceptibility to breast cancer can be imputed to a combination of high-, intermediate-, and low-risk alleles. Thus, many as yet unknown susceptibility loci remain to be identified. Moreover, recent studies have provided evidence for the involvement of genetic risk factors that might considerably modify the risk of developing breast cancer in BRCA1 and BRCA2 mutation carriers. Furthermore, genome-wide association studies have shown that several genetic variants within non-coding gene regions are associated with breast cancer risk. In this project, we focused on regulatory gene variants and their association with breast cancer risk. The project was divided in two parts. In the first section, we evaluated the direct association between single-nucleotide polymorphisms associated with differential allelic expression and breast cancer risk in order to identify new loci of breast cancer susceptibility. In the second part, we evaluated the functional impact on gene expression of variants identified within the promoter regions of selected candidate genes and then, characterize the functional impact of these variants. In summary, the first part of this project has led to the identification of a new low-penetrance locus associated with breast cancer risk on the 4q21 locus (rs11099601; odds ratio=1.05, p= 6.4 x 10-6), and two new modifiers of breast cancer risk in BRCA1 mutations carriers (11q22.3 locus and the wild type allele of BRCA1). The second part of the project allowed us to describe new functional variants within the promoters of the selected breast cancer gene candidates. Other association studies in larger cohorts and further functional analysis will be required to confirm these results, which will allow their inclusion in breast cancer risk prediction tools and thus ensure a more accurate estimation of breast cancer risk.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Pradat, Yannick. "Retraite et risque financier". Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED022/document.

Texto completo
Resumen
Le premier chapitre examine les caractéristiques statistiques à long terme des rendements financiers en France et aux USA. Les propriétés des différents actifs font apparaître qu’à long terme les actions procurent un risque sensiblement moins élevé. En outre, les propriétés de retour à la moyenne des actions justifient qu’elles soient utilisées dans une stratégie de cycle de vie comme « option par défaut » de plans d’épargne retraite. Le chapitre deux fournit une explication au débat sur l'hypothèse d’efficience des marchés. La cause du débat est souvent attribuée à la petite taille des échantillons et à la faible puissance des tests statistiques dédiés. Afin de contourner ce problème, nous utilisons l'approche développée par Campbell et Viceira (2005) qui utilisent une méthode VAR pour mettre en évidence l’existence de retour vers la moyenne dans le cours des actifs risqués.Le troisième chapitre évalue la vitesse de convergence des cours des actions. Un moyen classique pour caractériser la vitesse de retour vers la moyenne est la « demi-vie ». En comparant les indices boursiers de quatre pays développés (États-Unis, Royaume-Uni, France et Japon) sur la période 1950-2014, nous établissons une vitesse de convergence significative, avec une demi-vie entre 4,0 et 5,8 ans.Le dernier chapitre présente les résultats d'un modèle conçu pour étudier les interactions entre la démographie et les régimes de retraite. Afin d’étudier les risques inhérents à l’utilisation des revenus du capital pour financer les retraites, nous utilisons un « Trending OU process » au lieu d’un MBG classique pour modéliser les rendements. Pour un épargnant averse au risque le marché pourrait concurrencer les régimes par répartition
Chapter one examines the long run statistical characteristics of financial returns in France and the USA for selected assets. This study clearly shows that the returns’ distributions diverge from the Gaussian strategy as regards longholding periods. Thereafter we analyze the consequences of the non-Gaussian nature of stock returns on default-option retirement plans.Chapter two provides a reasonable explanation to the strong debate on the Efficient Market Hypothesis. The cause of the debate is often attributed to small sample sizes in combination with statistical tests for mean reversion that lackpower. In order to bypass this problem, we use the approach developed by Campbell and Viceira (2005) who have settled a vectorial autoregressive methodology (VAR) to measure the mean reversion of asset returns.The third chapter evaluates the speed of convergence of stock prices. A convenient way to characterize the speed of mean reversion is the half-life. Comparing the stock indexes of four developed countries (US, UK, France and Japan) during the period 1950-2014, we establish significant mean reversion, with a half-life lying between 4,0 and 5,8 years.The final chapter provides some results from a model built in order to study the linked impacts of demography and economy on the French pension scheme. In order to reveal the risks that are contained in pension fund investment, we use a Trending Ornstein-Uhlenbeck process instead of the typical GBM for modeling stock returns. We find that funded scheme returns, net of management fees, are slightly lower thanthe PAYG internal rate of return
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Mouallim, Isam. "Evaluation de la volatilité et de la corrélation dans la gestion du risque de marché". Thesis, Montpellier 1, 2011. http://www.theses.fr/2011MON10007.

Texto completo
Resumen
La présente thèse s'est inscrite dans une perspective d'améliorer les outils de mesure du risque de marché en proposant des solutions capables de reproduire certaines caractéristiques empiriques d'évolution des marchés financiers. A travers une étude empirique sur des données réelles, nous montrons que la réalité des marchés financiers possède certaines caractéristiques empiriques connues et résumées sous le nom "faits stylisés", qui rendent les mesures usuelles du risque de marché incapables de reproduire ces caractéristiques. Nous proposons des nouvelles méthodes de mesure de la Value-at-Risk (VaR), en fonction de la volatilité passée et des corrélations existant entre les actifs composant un portefeuille, dans le cadre de deux grandes approches de mesure du risque : une approche de mesure du risque global (ou risque univarié) et une approche de mesure du risque multiple (ou risque multivarié), tout en testant leur qualité prédictive au moyen des procédures de backtesting. Les résultats obtenus montrent une grande capacité des différentes mesures utilisées à capturer les faits stylisés caractérisant l'évolution des marchés financiers étudiés avec une nette surperformance des méthodes de mesure de la VaR estimées dans le cadre du risque multivarié par rapport à celles du risque univarié
This thesis has object to improve the methods for estimating market risk by offering solutions capable to replicate some empirical properties of asset returns. Through an empirical study on real data, we show that the reality of financial markets has some empirical characteristics known and summarized as "stylized facts" that render the conventional market risk measurement unable to reproduce. We propose a Value-at-Risk (VaR) measures, based on modeling portfolio volatility and correlations between assets classes, using two risk measurement approaches: an univariate risk measurement approach and multivariate risk measurement approach, and testing their quality predictive using backtesting procedures. The results obtained show a great ability of different used risk measurement to capture the stylized facts characterizing financial markets, with a clear outperformance of the multivariate VaR measures than the univariate VaR measures
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Lezan, Guillaume. "Analyse multivariée de l'hétéroscédasticité : application à la prévision du risque de change dans le système monétaire européen". Toulouse 1, 1996. http://www.theses.fr/1996TOU10066.

Texto completo
Resumen
Ce travail de thèse a pour thème l'étude des formulations multivariées à hétéroscedasticité conditionnelle, à travers une application aux taux de change du système monétaire européen. Dans une première section, il est procédé à une évaluation empirique de la qualité des ajustements procurés par des modèles récents : l'aspect univarié est tout d'abord envisagé, puis dans une deuxième étape une extension au cas de plusieurs variables permet un examen approfondi des modèles à facteurs et de leurs différentes méthodes d'estimation. La deuxième section a fait l'objet d'un article "Forecasting foreign exchange risk" présenté au congrès mondial de la société d'économétrie à Tokyo en août 1995. Il s'y trouve introduit en un nouveau concept de "volatilité stochastique de forme inconnue", lequel permet notamment d'apporter une interprétation possible de l'excès de kurtosis pour les distributions marginales des séries étudiées en termes de comportement aléatoire de leur variance conditionnelle. On s'intéresse ensuite au problème de l'estimation des paramètres de moyenne conditionnelle dans le cas d'un modèle multivarié autorégressif dont les erreurs suivent un processus sv : des estimateurs de type moments généralisés permettant d'obtenir des estimations plus précises que par la méthode des moindres carrés ordinaires sont alors proposés et testés à l'aide de simulations de type Monte Carlo. Des formules de prévision de la volatilité à l'horizon k sont ensuite établies pour ce même type de modèle, ce qui permet finalement une application au problème de l'allocation d'actifs pour un portefeuille constitué de devises étrangères
The object of this work is to deal with the multivariate formulations of conditional heteroskedastic models, through an application to the European monetary system. In a first section we made an empirical evaluation of the fitness of recent models when applicated to ems exchanges rates against French franc: at first we made a survey of the univariate case, then in a second step, by extending to the case of several variables, we made a particular investigation upon dynamic factors models and the different ways to estimate them. The second section permitted the presentation (7th econometric society world congress, Tokyo august 1996) of a working paper "forecasting foreign exchange risk". We introduced a new concept of stochastic volatility of unknown form, which allows particularly giving a possible interpretation of the leptokurtosis for the marginal distribution in terms of stochastic features of conditional variance. Then we considered the problem of conditional mean parameters estimation in the case of a multivariate ar model with s. V. Errors: we presented a class of gmm estimators which are more efficient than ols one ; these estimators were tested using Monte Carlo experiments. In an other hand, formulas for k-ahead forecasting volatility were built up for such multivariate models. All these results were finally applied to the problem of asset allocation
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Perchet, Romain. "Construction et gestion d'un portefeuille en budget de risque". Paris, EHESS, 2015. http://www.theses.fr/2015EHES0179.

Texto completo
Resumen
Cette thèse, basée sur des articles, propose des solutions aux investisseurs pour construire et gérer des portefeuilles en tenant compte de la fréquence des crises. Le premier chapitre explique la motivation de ces articles. Le deuxième chapitre propose une solution pour construire une allocation robuste aux risques de moyen terme alors que les trois et quatrièmes chapitres proposent des solutions pour gérer les risques de court terme. En utilisant des formulations différentes de la "robust optimization" de portefeuille, quadratique et absolue, je montre que, (a) dans la limite d'une faible incertitude sur les rendements attendus, l'allocation obtenue converge vers le portefeuille Moyenne-Variance, et que (b) dans la limite d'une grande incertitude sur les rendements attendus l'allocation obtenue converge vers une allocation "risk based" selon la forme d'incertitude définie sur les rendements. La stratégie "Inter-temporal risk parity" rééquilibre en effet un portefeuille entre un actif risqué et un actif monétaire afin de viser un risque constant au fil du temps. Lorsque la stratégie est appliquée aux actions par rapport à un portefeuille "Buy-and-Hold", il est bien connu qu'elle améliore le ratio de Sharpe et réduit les pertes maximum. J'utilise des simulations Monte-Carlo basées sur des modèles de séries temporelles de la famille GARCH afin d'analyser les effets qui expliquent ces avantages. Je décline également la stratégie aux facteurs d'investissements communément appelés "value" et "momentum", appliqués aux actions, obligations et taux de changes
This thesis, based on articles, propose solutions to investors to build and manage portfolios taking into account the frequency of crisis. The first chapter explains the motivation of these articles. The second chapter proposes a solution to build robust mid-term asset allocation whereas the chapter three and four offer solutions to manage short term risk. For a number of different formulations of robust portfolio optimization, quadratic and absolute, I show that (a) in the limit of low uncertainty in estimated asset mean returns the robust portfolio converges towards the mean-variance portfolio obtained with the same inputs, and (b) in the limit of high uncertainty the robust portfolio converges towards a risk-based portfolio, which is a function of how the uncertainty in estimated asset mean returns is defined. Inter-temporal risk parity is a strategy which rebalances between a risky asset and cash in order to target a constant level of risk over time. When applied to equities and compared to a buy and hold strategy it is known to improve the Sharpe ratio and reduce drawdowns. I used Monte Carlo simulations based on a number of time-series parametric models from the GARCH family in order to analyze the relative importance of a number of effects in explaining those benefits. I also apply these strategies to factor investing, namely value and momentum investing in equities, government bonds and foreign exchange. Value and momentum factors generate a premium which is traditionally captured by dollar-neutral long-short portfolios rebalanced every month to take into account changes in stock, bond or foreign exchange factor exposures and keep leverage constant
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Ndiaye, Ndeye Coumba. "Approche méthodologique et expérimentale des études d'associations pangénomiques des facteurs de risque des pathologies cardiovasculaires". Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10134/document.

Texto completo
Resumen
Les affections cardiovasculaires sont des pathologies complexes résultant des interconnexions d'un grand nombre de facteurs de risque. Si l'étiologie génétique de ces affections a largement été étudiée, les variants fonctionnels à l'origine de la large héritabilité génétique des facteurs de risque cardiovasculaire et les mécanismes d'interactions gène-gène-environnement masquant ou modulant l'effet de la génétique restent à élucider.Ce mémoire présente l'étude de la génétique de facteurs de risque des pathologies cardiovasculaires : les lipides, la pression artérielle, l'haptoglobine et le facteur de croissance de l'endothélium vasculaire.Nous avons réalisé des études d'association pangénomique sur 631 enfants non apparentés issus de la cohorte STANISLAS et avons répliqué nos résultats sur près de 9 000 enfants appartenant à quatre cohortes pédiatriques et 13 300 adultes provenant de trois cohortes distinctes.Nous avons ainsi pu démontrer que certaines associations génétiques mises en évidence chez l'adulte avaient un effet observable dès l'enfance et avons discuté des outils bioinformatiques, biostatistiques et méthodologiques manquants encore aujourd'hui à l'approche pangénomique ; notamment l'intérêt des approches transcriptomiques en validation.En conclusion, lors de notre thèse, nous avons eu à la fois une démarche épidémiologique et une démarche de proposition de designs intégrés permettant de mener plus avant les investigations sur l'étiologie génétique des pathologies cardiovasculaires
Complex synergies of multiple risk factors are at the origin of cardiovascular pathologies. Their genetic etiology has been extensively investigated but many questions remain on the identification of functional variants explaining the large genetic heritability of cardiovascular risk factors and gene-gene-environment interactions hiding or modulating genetics underpinning cardiovascular physiopathology.Herein we describe our study of the genetics of cardiovascular risk factors: lipids, blood pressure, haptoglobin and vascular endothelial growth factor.We performed Genome-Wide Scan Association Studies (GWAS) on a subsample of 631 unrelated children selected in the STANISLAS cohort and replicated our results in 9,000 children from four pediatric cohorts and 13,300 adults from three different cohorts.We demonstrated that genetic associations highlighted in adults were observable in childhood and addressed the tools missing in bioinformatics, biostatistics and methodologies used in GWAS approaches, notably concerning trasncriptomic validations.In summary, during our thesis, we followed an epidemiologic approach and proposed integrated designs in order to upgrade the investigations on genetic epidemiology of cardiovascular diseases
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Reutenauer, Victor. "Algorithmes stochastiques pour la gestion du risque et l'indexation de bases de données de média". Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4018/document.

Texto completo
Resumen
Cette thèse s’intéresse à différents problèmes de contrôle et d’optimisation dont il n’existe à ce jour que des solutions approchées. D’une part nous nous intéressons à des techniques visant à réduire ou supprimer les approximations pour obtenir des solutions plus précises voire exactes. D’autre part nous développons de nouvelles méthodes d’approximation pour traiter plus rapidement des problèmes à plus grande échelle. Nous étudions des méthodes numériques de simulation d’équation différentielle stochastique et d’amélioration de calculs d’espérance. Nous mettons en œuvre des techniques de type quantification pour la construction de variables de contrôle ainsi que la méthode de gradient stochastique pour la résolution de problèmes de contrôle stochastique. Nous nous intéressons aussi aux méthodes de clustering liées à la quantification, ainsi qu’à la compression d’information par réseaux neuronaux. Les problèmes étudiés sont issus non seulement de motivations financières, comme le contrôle stochastique pour la couverture d’option en marché incomplet mais aussi du traitement des grandes bases de données de médias communément appelé Big data dans le chapitre 5. Théoriquement, nous proposons différentes majorations de la convergence des méthodes numériques d’une part pour la recherche d’une stratégie optimale de couverture en marché incomplet dans le chapitre 3, d’autre part pour l’extension la technique de Beskos-Roberts de simulation d’équation différentielle dans le chapitre 4. Nous présentons une utilisation originale de la décomposition de Karhunen-Loève pour une réduction de variance de l’estimateur d’espérance dans le chapitre 2
This thesis proposes different problems of stochastic control and optimization that can be solved only thanks approximation. On one hand, we develop methodology aiming to reduce or suppress approximations to obtain more accurate solutions or something exact ones. On another hand we develop new approximation methodology in order to solve quicker larger scale problems. We study numerical methodology to simulated differential equations and enhancement of computation of expectations. We develop quantization methodology to build control variate and gradient stochastic methods to solve stochastic control problems. We are also interested in clustering methods linked to quantization, and principal composant analysis or compression of data thanks neural networks. We study problems motivated by mathematical finance, like stochastic control for the hedging of derivatives in incomplete market but also to manage huge databases of media commonly known as big Data in chapter 5. Theoretically we propose some upper bound for convergence of the numerical method used. This is the case of optimal hedging in incomplete market in chapter 3 but also an extension of Beskos-Roberts methods of exact simulation of stochastic differential equations in chapter 4. We present an original application of karhunen-Loève decomposition for a control variate of computation of expectation in chapter 2
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Papy, Carine Coste-Burel Marianne. "Séquençage des oncogènes E6 et E7 d'HPV de type 16. Epidémiologie des variants et risque de progression des lésions génitales vers des lésions génitales cancéreuses". [S.l.] : [s.n.], 2003. http://theses.univ-nantes.fr/thesemed/PHpapy.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Mostoufi, Mina. "Eléments de théorie du risque en finance et assurance". Thesis, Paris 1, 2015. http://www.theses.fr/2015PA010044/document.

Texto completo
Resumen
Cette thèse traite de la théorie du risque en finance et en assurance. La mise en pratique du concept de comonotonie, la dépendance du risque au sens fort, est décrite pour identifier l’optimum de Pareto et les allocations individuellement rationnelles Pareto optimales, la tarification des options et la quantification des risques. De plus, il est démontré que l’aversion au risque monotone à gauche, un raffinement pertinent de l’aversion forte au risque, caractérise tout décideur à la Yaari, pour qui, l’assurance avec franchise est optimale. Le concept de comonotonie est introduit et discuté dans le chapitre 1. Dans le cas de risques multiples, on adopte l’idée qu’une forme naturelle pour les compagnies d’assurance de partager les risques est la Pareto optimalité risque par risque. De plus, l’optimum de Pareto et les allocations individuelles Pareto optimales sont caractérisées. Le chapitre 2 étudie l’application du concept de comonotonie dans la tarification des options et la quantification des risques. Une nouvelle variable de contrôle de la méthode de Monte Carlo est introduite et appliquée aux “basket options”, aux options asiatiques et à la TVaR. Finalement dans le chapitre 3, l’aversion au risque au sens fort est raffinée par l’introduction de l’aversion au risque monotone à gauche qui caractérise l’optimalité de l’assurance avec franchise dans le modèle de Yaari. De plus, il est montré que le calcul de la franchise s’effectue aisément
This thesis deals with the risk theory in Finance and Insurance. Application of the Comonotonicity concept, the strongest risk dependence, is described for identifying the Pareto optima and Individually Rational Pareto optima allocations, option pricing and quantification of risk. Furthermore it is shown that the left monotone risk aversion, a meaningful refinement of strong risk aversion, characterizes Yaari’s decision makers for whom deductible insurance is optimal. The concept of Comonotonicity is introduced and discussed in Chapter 1. In case of multiple risks, the idea that a natural way for insurance companies to optimally share risks is risk by risk Pareto-optimality is adopted. Moreover, the Pareto optimal and individually Pareto optimal allocations are characterized. The Chapter 2 investigates the application of the Comonotonicity concept in option pricing and quantification of risk. A novel control variate Monte Carlo method is introduced and its application is explained for basket options, Asian options and TVaR. Finally in Chapter 3 the strong risk aversion is refined by introducing the left-monotone risk aversion which characterizes the optimality of deductible insurance within the Yaari’s model. More importantly, it is shown that the computation of the deductible is tractable
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Joly, Beauparlant Charles. "Analyse des variants de séquence et d'épissage du gène FANCC chez les familles canadiennes-françaises à risque élevé pour le cancer du sein et/ou de l'ovaire". Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/27736/27736.pdf.

Texto completo
Resumen
Les gènes de susceptibilité connus n’expliquent qu’environ 25% des cas de cancer du sein familiaux. La recherche de nouveaux gènes de susceptibilité s’avère donc primordiale. Les gènes de la famille FANC sont des candidats intéressants, car au moins quatre gènes FANC ont été associés à un risque accru de cancer du sein. Le gène FANCC se démarque également par sa localisation principalement cytoplasmique et ses rôles dans diverses voies dans ce compartiment. Le séquençage des exons et des régions introniques avoisinantes ont permis d’identifier six variants, dont deux semblent intéressants. c.816G>A mène à un changement d’acide aminé pouvant affecter la fonction de FANCC alors que le variant c.896+81G>A se retrouve plus fréquemment chez les cas de cancer du sein par rapport à une cohorte de femmes non atteintes. L’analyse de l’ADN complémentaire (ADNc) a permis d’identifier trois variants d’épissage dont un jamais rapporté. L’impact de ces variants sur la fonction de la protéine FANCC demeure très peu étudié.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Fichet, Guillaume. "Evaluation du risque lié à la résistance des prions et développement de techniques adaptées à leur élimination et /ou : inactivation". Paris 6, 2005. http://www.theses.fr/2005PA066137.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Leveziel, Nicolas. "Génétique de la dégénérescence maculaire liée à l'âge variants majeurs de prédisposition à la forme exsudative". Paris 6, 2008. http://www.theses.fr/2008PA066183.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Jaffré, Nina. "Découverte d'une nouvelle maladie neurologique au cours de l'étude du risque transfusionnel de la variante de la maladie de Creutzfeldt-Jakob dans le modèle expérimental du macaque cynomolgus (Macaca fascicularis)". Paris 7, 2014. http://www.theses.fr/2014PA077046.

Texto completo
Resumen
La variante de la Maladie de Creutzfeldt Jakob (vMCJ) est une maladie à prions due à la transmission de l'Encéphalopathie Spongiforme Bovine (ESB) à l'Homme. Leur pathogénie implique la conversion de la protéine du prion (PrP) cellulaire en une forme pathologique, marqueur habituel des maladies à prions, qui s'accumule dans le système nerveux central (SNC). Trois des 229 cas humains de vMCJ décrits sont dus à une transmission interhumaine par transfusion sanguine issue de porteurs asymptomatiques de la maladie. Face à ce risque transfusionnel avéré, des macaques ont été inoculés avec des produits sanguins contaminés par les agents de la vMCJ ou l'ESB. Certains ont développé une vMCJ classique et d'autres une nouvelle maladie neurologique avec des lésions centrées sur la moelle épinière cervicale et une g apparente absence de PrP pathologique dans le SNC. Cette thèse repose sur la caractérisation clinique, lésionnelle, biochimique et immunohistochimique de ces cas dits myélopathiques dans le but de fournir des critères qui permettront d'identifier d'éventuels cas humains similaires. La caractérisation de la PrP présente dans la moelle épinière de ces macaques a montré une baisse du taux de PrP cellulaire pleine longueur et une accumulation de la PrP différente de celle observée classiquement dans les maladies à Ét prions, témoignant de l'implication de la PrP dans la pathogénie de ce syndrome. Une étude sur modèle g transfusionnel murin a permis de reproduire en partie ces résultats et permettra de mieux comprendre le support de l'infectiosité sanguine. En parallèle, l'efficacité d'un filtre anti-prion destiné à sécuriser la tratisfusion humaine a été montrée chez le macaque
The variant Creutzfeldt-Jakob disease (vCJD) is a prion disease caused by the transmission to humans o Bovine Spongiform Encephalopathy (BSE). Prion diseases imply the conversion of cellular prion protein (PrP) into a misfolded pathological isoform and its accumulation in the central nervous system (CNS). Among the 229 human cases of vCJD described, 3 were probably caused by secondary transmission through blood transfusion, raising concem about possible contamination through blood products from asymptomatic carriers. In order to evaluate this transfusional risk, we performed several exposures of cynon3olgus macaques to vCJD or BSE-infected blood components. Among them some developed classical vCJD, while many others exhibited an original neurological disease with spinal cord rather than cerebral lesions and apparent absence in the CNS of pathological PrP, major diagnostic marker of classical prion diseases. The goal of this thesis relies on the clinical, anatomopathological and biochemical characterization of these myelopathic cases exposed to prion-infected blood components in order to identify, if any, a similar disease in humans. The observation of a decrease in full-length cellular PrP in the spinal cord of these macaques implies the involvement of PrP in the pathogenesis of this disease. A complementary study in a murine transfusion model reproduces the previous observations and should help to better understand which blood components sustain the infectivity and how these blood components interact. In parallel the evaluation of the efficiency of a prion removal device to remove blood infectivity showed interesting results in cynomolgus macaques
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Gazagnadou, Nidham. "Expected smoothness for stochastic variance-reduced methods and sketch-and-project methods for structured linear systems". Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAT035.

Texto completo
Resumen
L'augmentation considérable du volume de données ainsi que de la taille des échantillons complexifie la phase d'optimisation des algorithmes d'apprentissage, nécessitant la minimisation d'une fonction de perte. La descente de gradient stochastique (SGD) et ses variantes à réduction de variance (SAGA, SVRG, MISO) sont largement utilisées pour résoudre ces problèmes. En pratique, ces méthodes sont accélérées en calculant des gradients stochastiques sur un "mini-batch" : un petit groupe d'échantillons tiré aléatoirement. En effet, les récentes améliorations technologiques permettant la parallélisation de ces calculs ont généralisé l'utilisation des mini-batchs.Dans cette thèse, nous nous intéressons à l'étude d'algorithmes du gradient stochastique à variance réduite en essayant d'en trouver les hyperparamètres optimaux: taille du pas et du mini-batch. Cette étude nous permet de donner des résultats de convergence interpolant entre celui des méthodes stochastiques tirant un seul échantillon par itération et la descente de gradient dite "full-batch" utilisant l'ensemble des échantillons disponibles à chaque itération. Notre analyse se base sur la constante de régularité moyenne, outil fondamental de notre analyse, qui permet de mesurer la régularité de la fonction aléatoire dont le gradient est calculé.Nous étudions un autre type d'algorithmes d'optimisation : les méthodes "sketch-and-project". Ces dernières peuvent être utilisées lorsque le problème d'apprentissage est équivalent à la résolution d'un système linéaire. C'est par exemple le cas des moindres carrés ou de la régression ridge. Nous analysons ici des variantes de cette méthode qui utilisent différentes stratégies de momentum et d'accélération. L'efficacité de ces méthodes dépend de la stratégie de "sketching" utilisée pour compresser l'information du système à résoudre, et ce, à chaque itération. Enfin, nous montrons que ces méthodes peuvent aussi être étendues à d'autres problèmes d'analyse numérique. En effet, l'extension des méthodes de sketch-and-project aux méthodes de direction alternée implicite (ADI) permet de les appliquer en grande dimension lorsque les solveurs classiques s'avèrent trop lents
The considerable increase in the number of data and features complicates the learning phase requiring the minimization of a loss function. Stochastic gradient descent (SGD) and variance reduction variants (SAGA, SVRG, MISO) are widely used to solve this problem. In practice, these methods are accelerated by computing these stochastic gradients on a "mini-batch": a small group of samples randomly drawn.Indeed, recent technological improvements allowing the parallelization of these calculations have generalized the use of mini-batches.In this thesis, we are interested in the study of variants of stochastic gradient algorithms with reduced variance by trying to find the optimal hyperparameters: step and mini-batch size. Our study allows us to give convergence results interpolating between stochastic methods drawing a single sample per iteration and the so-called "full-batch" gradient descent using all samples at each iteration. Our analysis is based on the expected smoothness constant which allows to capture the regularity of the random function whose gradient is calculated.We study another class of optimization algorithms: the "sketch-and-project" methods. These methods can also be applied as soon as the learning problem boils down to solving a linear system. This is the case of ridge regression. We analyze here variants of this method that use different strategies of momentum and acceleration. These methods also depend on the sketching strategy used to compress the information of the system to be solved at each iteration. Finally, we show that these methods can also be extended to numerical analysis problems. Indeed, the extension of sketch-and-project methods to Alternating-Direction Implicit (ADI) methods allows to apply them to large-scale problems, when the so-called "direct" solvers are too slow
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Drut, Bastien. "Investissement socialement responsable et sélection de portefeuille". Thesis, Paris 10, 2011. http://www.theses.fr/2011PA100131/document.

Texto completo
Resumen
Cette thèse s’attèle à déterminer les conséquences théoriques et empiriques de la considération d’indicateurs socialement responsables dans la sélection de portefeuille traditionnelle. Le premier chapitre étudie la significativité de la perte d’efficience moyenne-variance d’un portefeuille d’obligations souveraines lorsque l’on introduit une contrainte sur la notation socialement responsable moyenne des Etats. En utilisant un échantillon d’obligations d’Etats développés sur la période 1995-2008, nous montrons qu’il est possible d’augmenter sensiblement la notation socialement responsable moyenne sans perdre significativement en termes de diversification. Le second chapitre propose une analyse théorique de l’effet sur la frontière efficiente d’une contrainte sur la notation socialement responsable du portefeuille. Nous mettons en évidence les différents cas de figure pouvant se produire en fonction de la corrélation entre les rendements attendus et les notations socialement responsables et de l’aversion au risque de l’investisseur. Enfin, puisque la question de l’efficience des portefeuilles investis en fonction de critères socialement responsables fait débat dans la littérature financière, un dernier chapitre propose un nouveau test d’efficience moyenne-variance dans le cas réaliste où aucun actif sans risque n’est disponible
This thesis aims at determining the theoretical and empirical consequences of the consideration of socially responsible indicators in the traditional portfolio selection. The first chapter studies the significance of the mean-variance efficiency loss of a sovereign bond portfolio when introducing a constraint on the average socially responsible ratings of the governments. By using a sample of developed sovereign bonds on the period 1995-2008, we show that it is possible to increase sensibly the average socially responsible rating without significantly losing in terms of diversification. The second chapter proposes a theoretical analysis of the impact on the efficient frontier of a constraint on the socially responsible ratings of the portfolio. We highlight that different cases may arise depending on the correlation between the expected returns and the socially responsible ratings and on the investor’s risk aversion. Lastly, as the issue of the efficiency of socially responsible portfolios is a central point in the financial literature, the last chapter proposes a new mean-variance efficiency test in the realistic case where there is no available risk-free asset
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Ferland, Alexandra. "Caractérisation des variants de séquence du gène encodant la 17béta-hydroxystéroïde déshydrogénase de type 5 chez les femmes canadiennes-françaises atteintes d'un cancer du sein et provenant de familles à risque élevé". Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26015/26015.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Ferland, Alexandra. "Caractérisation des variants de séquence du gène encodant la 17β-hydroxystéroïde déshydrogénase de type 5 ches les femmes canadiennes-françaises atteintes d'un cancer du sein et provenant de familles à risque élevé". Master's thesis, Université Laval, 2009. http://hdl.handle.net/20.500.11794/20515.

Texto completo
Resumen
L 'histoire familiale et l'exposition aux estrogènes sont deux facteurs de risque de cancer du sein bien connus. À l'opposé, les androgènes agissent comme protecteurs dans le tissu mammaire tout comme certains métabolites de la progestérone. Ce sont les membres de la famille des 17f3-hydroxystéroïdes déshydrogénases qui sont responsables des étapes importantes dans la formation et l' inactivation de tous les stéroïdes sexuels. Plus particulièrement, la 17f3-HSD de type 5 est une enzyme clé dans la formation des androgènes et dans l' inactivation de la progestérone en métabolites protecteurs. Nous avons donc procédé à l' identification des variants de séquence du gène HSD 17 B5 chez des femmes canadiennes-françaises ayant eu un cancer du sein. Par la suite, nous avons fait l'analyse fonctionnelle des variants qui entraînent un changement d'acide aminé. Ces différentes expérimentations nous ont permis de vérifier l'implication potentielle de ce gène dans la modulation du risque de développer un cancer du sein.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Verdier, Céline. "De la souris à l'homme : de l'endocytose des lipoprotéines HDL via la voie de la F1ATPase-P2Y13 aux variants géniques impactant le métabolisme du HDL et leur association au risque cardio-vasculaire". Toulouse 3, 2014. http://thesesups.ups-tlse.fr/3074/.

Texto completo
Resumen
Le rôle athéroprotecteur du HDL est principalement attribué à sa fonction dans le transport retour du cholestérol des cellules vers le foie où il est éliminé. Nous avons décrit une nouvelle voie d'endocytose hépatique des HDL impliquant l'activation par l'apolipoprotéine A-I d'une ecto-F1-ATPase qui stimule ensuite le récepteur P2Y13 puis l'endocytose des HDL. Nous avons étudié les modulations d'expression génique dans le foie de souris invalidées pour p2ry13 ou traitées par un agoniste de P2Y13. Ainsi, les souris invalidées pour p2ry13 présente un profil lipoprotéique plasmatique inchangé et une diminution d'expression d'abca1 et abcg1. Lors d'une stimulation chronique de la voie, les mécanismes adaptatifs semblent être différents puisque les taux de cholestérol HDL (total et libre) sont abaissés et l'expression d'hmgcr et hmgcs (impliqués dans la néosynthèse de cholestérol) du ldlr. Et de srebp2 (gène régulateur des précédents) est augmentée. Nous avons aussi étudié des polymorphismes des gènes codant la lipase hépatique (rs1500588) et P2Y13 (rs1466684 et rs3732757) dans l'étude cas-témoins GENES de patients coronariens. Nous avons ainsi identifié le rs1800588 comme étant un facteur indépendant d'une valeur péjorative de l'index systolique bras-cheville chez les patients coronariens. Cette mutation est également associée à la maladie coronarienne dans des conditions normotriglycéridémiques. D'autre part, le rs3732757 (mutation silencieuse) serait associé à un phénotype cardio-protecteur (moindre fréquence cardiaque et augmentation significative des taux de la lipoprotéine A1). Ces polymorphismes pourraient ainsi conditionner l'expression du récepteur P2RY13
The atheroprotective properties of HDL particles are mostly attributed to their role in the reverse cholesterol transport (RCT), a process whereby excess cell cholesterol is taken up from the arterial wall and processed into HDL for further uptake and catabolism by the liver. We previously described a new pathway for HDL uptake by hepatocytes: apolipoprotein A-I binding to an ecto-F1-ATPase generates extracellular ADP, which specifically activates the P2Y13 receptor and finally triggers HDL holoparticle uptake (protein and lipid moieties). In the present work, hepatic expression of genes involved in cholesterol metabolism was analysed in mice, following inactivation or stimulation of P2Y13. Inactivation of P2Y13 was obtained by gene deletion (knock-out) and stimulation of P2Y13 was achieved by using cangrelor, a partial agonist of P2Y13. The importance of P2Y13 receptor in RCT was confirmed since we observed in these conditions that different hepatic genes involved in lipid metabolism were modulated. In parallel, the case-control study GENES on coronary stable patients allowed us to link a single nucleotide polymorphism (SNP rs1500588) of hepatic lipase to coronary heart disease in normotriglyceridemic patients. Furthermore, rs3732757 (synonymous mutation, I80i) located in the P2RY13 gene was found associated to a cardioprotective phenotype. Altogether these results confirm the potential physiological relevance of the P2Y13 pathway in HDL metabolism in human
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Genin, Adrien. "Asymptotic approaches in financial risk management". Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC120/document.

Texto completo
Resumen
Cette thèse se propose de traiter de trois problèmes de gestion des risques financiers en utilisant différentes approches asymptotiques. La première partie présente un algorithme Monte Carlo d’échantillonnage d’importance pour la valorisation d’options asiatiques dans des modèles exponentiels de Lévy. La mesure optimale d’échantillonnage d’importance est obtenue grâce à la théorie des grandes déviations. La seconde partie présente l’étude du comportement asymptotique de la somme de n variables aléatoires positives et dépendantes dont la distribution est un mélange log-normal ainsi que des applications en gestion des risque de portefeuille d’actifs. Enfin, la dernière partie, présente une application de la notion de variations régulières pour l’analyse du comportement des queues de distribution d’un vecteur aléatoire dont les composantes suivent des distributions à queues épaisses et dont la structure de dépendance est modélisée par une copule Gaussienne. Ces résultats sont ensuite appliqués au comportement asymptotique d’un portefeuille d’options dans le modèle de Black-Scholes
This thesis focuses on three problems from the area of financial risk management, using various asymptotic approaches. The first part presents an importance sampling algorithm for Monte Carlo pricing of exotic options in exponential Lévy models. The optimal importance sampling measure is computed using techniques from the theory of large deviations. The second part uses the Laplace method to study the tail behavior of the sum of n dependent positive random variables, following a log-normal mixture distribution, with applications to portfolio risk management. Finally, the last part employs the notion of multivariate regular variation to analyze the tail behavior of a random vector with heavy-tailed components, whose dependence structure is modeled by a Gaussian copula. As application, we consider the tail behavior of a portfolio of options in the Black-Scholes model
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Vedie, Benoît. "Influence de polymorphismes des apolipoproteines sur le risque cardio-vasculaire : recherche de nouveaux variants genetiques de la sterol regulatory element binding protein 1a predictifs de l'atherosclerose (doctorat : structure et fonctionnement des systemes biologiques integres)". Paris 11, 1998. http://www.theses.fr/1998PA114843.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Hamisultane, Hélène. "Evaluation des dérivés climatiques sur degrés-jours". Phd thesis, Université de Nanterre - Paris X, 2007. http://tel.archives-ouvertes.fr/tel-00283848.

Texto completo
Resumen
L'introduction sur le marché financier du premier dérivé climatique portant sur les degrés-jours en 1997 aux Etats-Unis, a donné lieu à un nombre important de travaux sur la valorisation des instruments climatiques et sur la modélisation de la température moyenne journalière. Cependant, aucune étude conjointe de l'ensemble des approches d'évaluation et des représentations de la température suggérées dans la littérature n'avait été menée jusqu'à présent sur le plan empirique. Nous nous sommes donc proposés dans la présente thèse de calculer les prix des contrats à terme et des options d'achat climatiques à partir des méthodes en l'absence d'arbitrage, actuarielle et fondée sur la consommation. Nous nous sommes particulièrement intéressés au calcul des prix des contrats sur les degrés-jours des villes de Chicago, de Cincinnati et de New York pour lesquelles nous avions constaté des transactions fréquentes sur le Chicago Mercantile Exchange. L'analyse conjointe des cours estimés des contrats à terme climatiques à partir des différentes méthodologies d'évaluation a montré que le calibrage des modèles d'évaluation était nécessaire pour obtenir des prévisions de prix proches des cotations et plus particulièrement de la réalisation réelle de l'indice des degrés-jours à l'échéance.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Bourgey, Florian. "Stochastic approximations for financial risk computations". Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX052.

Texto completo
Resumen
Dans cette thèse, nous examinons plusieurs méthodes d'approximations stochastiques à la fois pour le calcul de mesures de risques financiers et pour le pricing de produits dérivés.Comme les formules explicites sont rarement disponibles pour de telles quantités, le besoin d'approximations analytiques rapides,efficaces et fiables est d'une importance capitale pour les institutions financières.Nous visons ainsi à donner un large aperçu de ces méthodes d'approximation et nous nous concentrons sur trois approches distinctes.Dans la première partie, nous étudions plusieurs méthodes d'approximation Monte Carlo multi-niveaux et les appliquons à deux problèmes pratiques :l'estimation de quantités impliquant des espérances imbriquées (comme la marge initiale) ainsi que la discrétisation des intégrales apparaissant dans les modèles rough pour la variance forward pour le pricing d'options sur le VIX.Dans les deux cas, nous analysons les propriétés d'optimalité asymptotique des estimateurs multi-niveaux correspondants et démontrons numériquement leur supériorité par rapport à une méthode de Monte Carlo classique.Dans la deuxième partie, motivés par les nombreux exemples issus de la modélisation en risque de crédit, nous proposons un cadre général de métamodélisation pour de grandes sommes de variables aléatoires de Bernoulli pondérées, qui sont conditionnellement indépendantes par rapport à un facteur commun X. Notre approche générique est basée sur la décomposition en polynômes du chaos du facteur commun et sur une approximation gaussienne. Les estimations d'erreur L2 sont données lorsque le facteur X est associé à des polynômes orthogonaux classiques.Enfin, dans la dernière partie de cette thèse, nous nous intéressons aux asymptotiques en temps court de la volatilité implicite américaine et les prix d'options américaines dans les modèles à volatilité locale. Nous proposons également une approximation en loi de l'indice VIX dans des modèles rough pour la variance forward, exprimée en termes de proxys log-normaux et dérivons des résultats d'expansion pour les options sur le VIX dont les coefficients sont explicites
In this thesis, we investigate several stochastic approximation methods for both the computation of financial risk measures and the pricing of derivatives.As closed-form expressions are scarcely available for such quantities, %and because they have to be evaluated daily, the need for fast, efficient, and reliable analytic approximation formulas is of primal importance to financial institutions.We aim at giving a broad overview of such approximation methods and we focus on three distinct approaches.In the first part, we study some Multilevel Monte Carlo approximation methods and apply them for two practical problems: the estimation of quantities involving nested expectations (such as the initial margin) along with the discretization of integrals arising in rough forward variance models for the pricing of VIX derivatives.For both cases, we analyze the properties of the corresponding asymptotically-optimal multilevel estimatorsand numerically demonstrate the superiority of multilevel methods compare to a standard Monte Carlo.In the second part, motivated by the numerous examples arising in credit risk modeling, we propose a general framework for meta-modeling large sums of weighted Bernoullirandom variables which are conditional independent of a common factor X.Our generic approach is based on a Polynomial Chaos Expansion on the common factor together withsome Gaussian approximation. L2 error estimates are given when the factor X is associated withclassical orthogonal polynomials.Finally, in the last part of this dissertation, we deal withsmall-time asymptotics and provide asymptoticexpansions for both American implied volatility and American option prices in local volatility models.We also investigate aweak approximations for the VIX index inrough forward variance models expressed in termsof lognormal proxiesand derive expansions results for VIX derivatives with explicit coefficients
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Fabien, Bernard. "IDADIGE : Procédé de traitement des images de gels d'électrophorèse bidimensionnelle différentielle dans le contexte de la recherche de marqueurs protéiques". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2008. http://tel.archives-ouvertes.fr/tel-00799838.

Texto completo
Resumen
Le sujet de cette thèse s'inscrit dans le cadre du projet NODDICCAP initié par l'entreprise bioMérieux et visant le développement de Nouveaux Outils pour le Dépistage, le DIagnostic, l'évaluation du pronostic et le suivi du Cancer Colorectal par une Approche Protéomique. Le développement de ces nouveaux outils passe nécessairement par l'identification de marqueurs tumoraux discriminants et spécifiques du cancer colorectal. L'objectif de la thèse a été d'optimiser l'analyse des images et des données issues de la technologie DIGE (Differential In-Gel Electrophoresis), afin de permettre la découverte de marqueurs potentiels du cancer colorectal. Après avoir identifié les maillons faibles de la chaîne de traitement classique des images de gel d'électrophorèse 2D, nous avons été amenés à reconsidérer les approches utilisées et à rechercher des méthodes de traitement d'image et de données innovantes, ou bien existantes mais issues de domaines voisins. Le choix des méthodes a été guidé par l'évaluation de leur efficacité en comparaison aux méthodes classiquement employées, et également par les contraintes liées au contexte biologique et technologique. Les principales avancées issues de ce travail sont la définition du schéma expérimental, l'approche stratégique de l'analyse d'images ainsi que l'analyse statistique des données. En ce qui concerne le schéma expérimental, le choix d'une lignée cellulaire comme standard commun a permis un meilleur recoupement des données entre différentes expériences. L'analyse stratégique de l'analyse d'image a été améliorée grâce à l'utilisation d'un patron de détection unique. Ce patron unique a été réalisé à l'aide d'une méthode de fusion d'images originale permettant une juste représentativité de chacune des tâches protéiques de l'ensemble des images considérées. Enfin, les méthodes pour l'analyse statistique des données ont tenu compte de l'intensité des tâches protéiques grâce à une régulation de la variance lors de la comparaison des ratios. Par ailleurs, la spécification par le biologiste d'un profil de risque a permis, par exemple, de porter une plus grande attention aux protéines fortement exprimées. L'ensemble des méthodes mises en place depuis l'acquisition des images jusqu'à la découverte et la visualisation des marqueurs protéiques potentiels constitue le workflow IDADIGE (Image and Data Analysis for Differential In Gel Electrophoresis). Ce workflow exploite différents logiciels ainsi que plusieurs fonctions implémentées sous Matlab et regroupées sous le nom ProDIGE. L'exploitation par le laboratoire de protéomique de bioMérieux du workflow IDADIGE a été utilisée en routine et a permis la découverte de marqueurs protéiques du cancer colorectal qui doivent maintenant être validés biologiquement.
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Bernard, Fabien. "IDADIGE : Procédé de traitement des images de gels d'électrophorèse bidimensionnelle différentielle dans le contexte de la recherche de marqueurs protéiques". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2008. http://tel.archives-ouvertes.fr/tel-00509768.

Texto completo
Resumen
Le sujet de cette thèse s'inscrit dans le cadre du projet NODDICCAP initié par l'entreprise bio-Mérieux et visant le développement de Nouveaux Outils pour le Dépistage, le DIagnostic, l'évaluation du pronostic et le suivi du Cancer Colorectal par une Approche Protéomique. Le développement de ces nouveaux outils passe nécessairement par l'identification de marqueurs tumoraux discriminants et spécifiques du cancer colorectal. L'objectif de la thèse a été d'optimiser l'analyse des images et des données issues de la technologie DIGE (Differential In-Gel Electrophoresis), afin de permettre la découverte de marqueurs potentiels du cancer colorectal. Après avoir identifié les maillons faibles de la chaîne de traitement classique des images de gel d'électrophorèse 2D, nous avons été amenés à reconsidérer les approches utilisées et à rechercher des méthodes de traitement d'image et de données innovantes, ou bien existantes mais issues de domaines voisins. Le choix des méthodes a été guidé par l'évaluation de leur efficacité en comparaison aux méthodes classiquement employées, et également par les contraintes liées au contexte biologique et technologique. Les principales avancées issues de ce travail sont la définition du schéma expérimental, l'approche stratégique de l'analyse d'images ainsi que l'analyse statistique des données. En ce qui concerne le schéma expérimental, le choix d'une lignée cellulaire comme standard commun a permis un meilleur recoupement des données entre différentes expériences. L'analyse stratégique de l'analyse d'image a été améliorée grâce à l'utilisation d'un patron de détection unique. Ce patron unique a été réalisé à l'aide d'une méthode de fusion d'images originale permettant une juste représentativité de chacune des tâches protéiques de l'ensemble des images considérées. Enfin, les méthodes pour l'analyse statistique des données ont tenu compte de l'intensité des tâches protéiques grâce à une régulation de la variance lors de la comparaison des ratios. Par ailleurs, la spécification par le biologiste d'un profil de risque a permis, par exemple, de porter une plus grande attention aux protéines fortement exprimées. L'ensemble des méthodes mises en place depuis l'acquisition des images jusqu'à la découverte et la visualisation des marqueurs protéiques potentiels constitue le workflow IDADIGE (Image and Data Analysis for Differential In Gel Electrophoresis). Ce workflow exploite différents logiciels ainsi que plusieurs fonctions implémentées sous Matlab et regroupées sous le nom ProDIGE. L'exploitation par le laboratoire de protéomique de bioMérieux du workflow IDADIGE a été utilisée en routine et a permis la découverte de marqueurs protéiques du cancer colorectal qui doivent maintenant être validés biologiquement.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Campi, Luciano. "Marchés financiers avec une infinité d'actifs, couverture quadratique et délits d'initiés". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2003. http://tel.archives-ouvertes.fr/tel-00004331.

Texto completo
Resumen
Cette thèse consiste en une série d'applications du calcul stochastique aux mathématiques financières. Elle est composée de quatre chapitres. Dans le premier on étudie le rapport entre la complétude du marché et l'extrémalité des mesures martingales equivalentes dans le cas d'une infinité d'actifs. Dans le deuxième on trouve des conditions équivalentes à l'existence et unicité d'une mesure martingale equivalente sous la quelle le processus des prix suit des lois n-dimensionnelles données à n fixe. Dans le troisième on étend à un marché admettant une infinité dénombrable d'actifs une charactérisation de la stratégie de couverture optimale (pour le critère moyenne-variance) basé sur une technique de changement de numéraire et extension artificielle. Enfin, dans le quatrième on s'occupe du problème de couverture d'un actif contingent dans un marché avec information asymetrique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Matias, Catherine. "Estimation dans des modèles à variables cachées". Phd thesis, Université Paris Sud - Paris XI, 2001. http://tel.archives-ouvertes.fr/tel-00008383.

Texto completo
Resumen
Cette thèse porte sur des problèmes d'estimation dans des modèles à variables cachées. Le Chapitre 1 est consacré à l'étude d'un modèle de Markov caché où la chaîne de Markov, non-nécessairement stationnaire, est supposée à valeurs dans un espace d'états compact et les observations dans un espace métrique séparable complet. La loi de la chaîne cachée ainsi que la loi conditionnelle dépendent d'un paramètre. Nous prouvons que l'estimateur du maximum de vraisemblance du paramètre est consistant, asymptotiquement normal et efficace. Le Chapitre 2 porte sur l'étude du modèle de convolution. Les observations sont issues d'un signal composé de variables aléatoires i.i.d. de densité inconnue g et d'un bruit blanc Gaussien centré de variance inconnue \sigma. Nous montrons que la non-connaissance de \sigma dégrade nettement la vitesse d'estimation de g : dans la plupart des cas ``réguliers'' cette vitesse est toujours plus lente que (log n)^(-1/2). Nous proposons alors un estimateur de \sigma qui est presque minimax lorsque g possède un support inclus dans un compact fixé. Nous construisons également un estimateur consistant universel de \sigma (i.e. sans contrainte sur g autre que celle d'identifiabilité du modèle). Dans le Chapitre 3, nous considérons ce même modèle de convolution mais lorsque le bruit possède une variance connue (fixée égale à 1) et nous nous intéressons aux propriétés d'estimation de fonctionnelles linéaires intégrales de de la forme \int f(x)\Phi_1(y-x) g(x)dx où \Phi_1 désigne la densité du bruit et f est une fonction connue. Nous étendons les résultats de Taupin dans le cas où la fonction f est soit une fonction polynomiale, soit un polynôme trigonométrique, en établissant des minorations du risque quadratique ponctuel et du risque par rapport à la norme infinie, ainsi que des majorations et minorations du risque par rapport à la norme p (1 \geq p <\infty). Nous montrons que l'estimateur proposé par Taupin atteint les vitesses optimales dans le cas où f est un polynôme et est presque minimax dans le cas où f est un polynôme trigonométrique, avec une perte pour le risque quadratique et pour le risque en norme infinie.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Codina-Fauteux, Valérie-Anne. "Investigation des variants génétiques dans la dysfonction endothéliale et le risque de maladies cardiovasculaires". Thèse, 2018. http://hdl.handle.net/1866/22272.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Ermilov, Andrey. "Moyenne conditionnelle tronquée pour un portefeuille de risques corrélés". Thèse, 2005. http://hdl.handle.net/1866/17785.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Pruneau, Laurie. "Facteurs de risque pour les maladies inflammatoires de l’intestin : caractérisation de l’impact de variants rares d’IFIH1 sur la réponse épithéliale antivirale". Thesis, 2020. http://hdl.handle.net/1866/24504.

Texto completo
Resumen
Les maladies inflammatoires de l’intestin (MII), incluant la maladie de Crohn et la colite ulcéreuse, sont des maladies chroniques qui résultent d’un dérèglement de la réponse immunitaire aux microorganismes de la lumière intestinale. Des études de séquençages réalisées par le laboratoire du Dr. Rioux, avec ses collègues du International IBD Genetics Consortium ont identifié quatre variants rares, indépendants et causals pour les MII, dans le gène IFIH1. La protéine d’IFIH1 (MDA5) interagit avec certains virus à ARN, afin de déclencher une réponse antivirale de l’immunité innée. Nous avions émis l’hypothèse que ces variants dans IFIH1 diminuaient la réponse antivirale de l’épithélium intestinal, suite à une infection. Nous avons d’abord travaillé avec des lignées cellulaires lymphoblastoïdes (LCLs) obtenues à partir d’individus atteints de MII et qui sont homozygotes ou hétérozygotes composés pour ces variants, ainsi qu’à partir d’individus contrôles (IFIH1 wt). Ces LCLs ont été reprogrammées en cellules souches pluripotentes induites humaines, avant d’être différenciées en cultures épithéliales intestinales. Nos résultats ont d’abord confirmé l’impact des variants sur la structure génique et protéique (IFIH1/MDA5), dans ces modèles cellulaires. Puis, la réponse antivirale a été induite, grâce à la stimulation avec des agents (moléculaire et viral) connus pour stimulés la protéine MDA5. Nous avons démontré que ces variants dans IFIH1 induisaient effectivement une moins grande réponse antivirale, caractérisée par une plus faible expression d’IFNs, comparativement aux contrôles. Finalement, la modulation des IFNs constituerait une avenue potentiellement intéressante pour le traitement des patients atteints des MII et porteurs des variants causals.
Inflammatory Bowel Disease (IBD), including Cronh’s disease and ulcerative colitis, are chronic inflammatory diseases of the gastro-intestinal tract. IBD is associated with a disturbance of the immune response to the microorganisms of the intestinal lumen. Sequencing studies conducted by the laboratory of Dr. John Rioux, in collaboration with his colleagues of the International IBD Genetics Consortium, identified four rare and independent variants in IFIH1, associated to IBD. The protein of IFIH1 (MDA5) interacts with certain RNA viruses to trigger the innate mechanism of antiviral defense. Our hypothesis was that these IFIH1 variants decreased the intestinal epithelial antiviral response, following an infection. We first worked with lymphoblastoid cell lines (LCLs) obtained from IBD patients who are homozygotes or compound heterozygotes for the different variants, as well as from control individuals (IFIH1 wt). These LCLs were reprogrammed into human induced Pluripotent Stem Cells (hiPSCs), before being differentiated into intestinal epithelial cultures. Our results first confirmed the impact the variants on the genetic and protein structure for these models. Then, the antiviral response was triggered by the stimulation of LCLs and intestinal epithelial cells, with agents (molecular and viral) known to stimulate MDA5. We have demonstrated that these IFIH1 variants did indeed induce a lower antiviral response, characterized by lower IFNs expression, compared to control cell lines. Finally, modulation of IFNs could be an interesting avenue for the treatment of IBD patients with the causal variants.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Antoine, Bertille. "Gérer le risque d'échantillonnage en économétrie financière : modélisation et contrôle". Thèse, 2007. http://hdl.handle.net/1866/1963.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Noumon, Codjo Nérée Gildas Maxime. "Choix de portefeuille de grande taille et mesures de risque pour preneurs de décision pessimistes". Thèse, 2013. http://hdl.handle.net/1866/10560.

Texto completo
Resumen
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
This thesis consists of three chapters on the topics of portfolio choice in a high-dimensional context, and risk measurement. The first chapter addresses the estimation error issue that arises when constructing large portfolios in the mean-variance framework. The second chapter investigates the relevance of currency risk for optimal domestic portfolios, evaluates their ability of to diversify away currency risk, and study the links between portfolio weights stability and currency risk. Finally, under the assumption that decision makers are pessimistic, the third chapter derives the risk premium, propose a measure of the degree of pessimism, and provide a statistical framework for their estimation. The first chapter improves the performance of the optimal portfolio weig-hts obtained under the mean-variance framework of Markowitz (1952). Indeed, these weights give unsatisfactory results, when the mean and variance are replaced by their sample counterparts (plug-in rules). This problem is amplified when the number of assets is large and the sample covariance is singular or nearly singular. The chapter investigates four regularization techniques to stabilizing the inverse of the covariance matrix: the ridge, spectral cut-off, Landweber-Fridman, and LARS Lasso. These four methods involve a tuning parameter that needs to be selected. The main contribution is to derive a data-based method for selecting the tuning parameter in an optimal way, i.e. in order to minimize the expected loss in utility of a mean-variance investor. The cross-validation type criterion derived is found to take a similar form for the four regularization methods. The resulting regularized rules are compared to the sample-based mean-variance portfolio and the naive 1/N strategy in terms of in-sample and out-of-sample Sharpe ratio and expected loss in utility. The main finding is that regularization to covariance matrix significantly improves the performance of the mean-variance problem and outperforms the naive portfolio, especially in ill-posed cases, as suggested by our simulations and empirical studies. In the second chapter, we investigate the extent to which optimal and stable portfolios of domestic assets can reduce or eliminate currency risk. This is done using monthly returns on 48 U.S. industries, from 1976 to 2008. To tackle the instabilities inherent to large portfolios, we use the spectral cut-off regularization described in Chapter 1. This gives rise to a family of stable global minimum portfolios that allows investors to select different percentages of principal components for portfolio construction. Our empirical tests are based on a conditional International Asset Pricing Model (IAPM), augmented with the size and book-to-market factors of Fama and French (1993). Using two trade-weighted currency indices of industrialized countries currencies and emerging markets currencies, we find that currency risk is priced and time-varying for global minimum portfolios. These strategies also lead to a significant reduction in the exposure to currency risk, while keeping the average premium contribution to total premium approximately the same. The global minimum weights considered are an alternative to market capitalization weights used in the U.S. market index. Therefore, our findings complement the well established results that currency risk is significantly priced and economically meaningful at the industry and country level in most countries. Finally, the third chapter derives a measure of the risk premium for rank-dependent preferences and proposes a measure of the degree of pessimism, given a distortion function. The introduced measures generalize the common risk measures derived in the expected utility theory framework, which is frequently violated in both experimental and real-life situations. These measures are derived in the neighborhood of a given random loss variable, using the notion of local utility function. A particular interest is devoted to the CVaR, which is now widely used for asset allocation and has been advocated to complement the Value-at-risk (VaR) proposed since 1996 by the Basel Committee on Banking Supervision. We provide the statistical framework needed to conduct inference on the derived measures. Finally, the proposed estimators
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Tellier, Jennyfer. "L’usage de la force en contexte de crise : les interventions policières varient-elles selon le type de menace rencontré?" Thèse, 2014. http://hdl.handle.net/1866/11039.

Texto completo
Resumen
Le présent mémoire s’intéresse aux interventions policières en contexte de crise. Il s’attarde plus particulièrement à l’usage de la force par les structures d’intervention spécialisée. L’intérêt de cette étude découle principalement du manque de connaissances empiriques sur le sujet. L’objectif général de cette étude est de comprendre les éléments qui peuvent expliquer le recours à la force par les structures d’intervention spécialisées et de vérifier si ces facteurs varient selon le type de menace auquel font face les policiers. Nous nous sommes intéressés à 438 événements de crise suicidaire, de barricade et de prise d’otage qui se sont déroulés au Québec, de 1990 à 2011, et durant lesquels est intervenu le groupe tactique d’intervention (GTI) de la Sûreté du Québec (SQ). Pour une meilleure compréhension de cette problématique, il sera en premier lieu question de comparer, selon leur niveau de risque, les personnes présentant une menace uniquement pour elles-mêmes avec celles présentant une menace pour autrui et les personnes qui présentent une menace tant pour elles-mêmes que pour autrui. En second lieu, malgré le fait que près de 90 % des situations de crise se terminent par une reddition pacifique, il est pertinent de connaître les facteurs qui expliquent l’usage de la force de la part des policiers et de voir si ces facteurs varient selon le niveau de risque de l’individu. Des analyses descriptives ont permis d’établir que les situations où l’individu en crise présente uniquement une menace pour lui-même diffèrent des autres groupes sur la base de certaines variables. Cet individu est davantage jugé comme suicidaire et il possède plus souvent des antécédents psychiatriques. L’élément déclencheur est souvent associé aux problèmes conjugaux, ce qui coïncide avec le fait que c’est souvent la conjointe ou l’ex-conjointe qui appelle les autorités. Des analyses bivariées n’ont pas illustré de profils distincts selon la problématique de la crise. Or, certains facteurs se démarquent des autres de manière générale pour l’ensemble de l’échantillon et les différents groupes. La possession d’une arme par l’individu, le degré d’intoxication, la présence d’antécédents psychiatriques, la durée du premier contact avec les policiers et la qualité de la négociation sont effectivement des facteurs qui semblent influencer à un certain point les opérations. Les analyses de régression logistique indiquent que les policiers interviennent davantage lorsqu’il n’y aucun contact n’est établi avec l’individu. Nous observons également que ces derniers restent davantage en retrait lorsque l’individu, présentant une menace pour lui-même, est en possession d’une arme à feu. D’autre part, il semble que les policiers réagissent plus souvent auprès des individus présentant une menace pour autrui lorsque la négociation est jugée non satisfaisante. Nous pouvons en conclure qu’ils semblent davantage s’attarder à des facteurs précis qu’au type de menace, ce qui rejoint un certain segment de la littérature à ce sujet.
This thesis argues that police intervention in a crisis context focuses specifically on the use of force by specialized intervention teams. The interest in this study pinpoints mainly the lack of empirical data on the subject. Therefore, the main objective is to understand how to explain the use of force by specialized intervention teams and to verify if these factors vary according to the type of threat police encounter in a particular situation. We studied 438 suicidal crises, barricade and hostage-taking situations that occurred in Quebec from 1990 to 2011, supervised by the Sûreté du Québec’s tactical intervention group (GTI). To begin with, for a better understanding of this issue, we will compare individuals according to the level of risk each one represents, i.e. those presenting a threat only to themselves, those presenting a danger to others and those who pose a threat to themselves and others. Secondly, despite the fact that almost 90 % of critical incidents end in a non-violent conclusion, it is interesting to understand the risk factors involved that explain the use of force by the police and to realize that these factors vary according to the level of risk exhibited by the individual in crisis. Descriptive analyses were used to demonstrate that the situation where the individual in crisis was a threat only to himself differed from other instances based on different variables. Overall, the general level of risk for this type of intervention is less significant since the danger appears to be directed specifically to the individual in crisis, taking into consideration that negotiation has been successful, also, considering the subject has limited or no access to firearms, and considering weapons are not frequently used. Bivariate analysis relating the different characteristics of the individual, the situation and negotiation with the use of force by the police, suggest that certain variables can have different effects depending on the type of threat facing authorities. For example, a history of psychiatric issues would increase the risk of police intervention among those who pose a non-aggressive threat to himself, but would decrease the probability of police intervention for those individuals who present a double threat, i.e. to themselves and others. Consequently, bivariate analyses suggest that certain variables, such as the possession of a weapon by an individual, the degree of intoxication, the presence of known psychiatric issues, the duration of the first contact with the police and the quality of the negotiation, could influence the use of force by police officers. Logistic regression analyses indicate that few of these variables resist multivariate analyses. These findings suggest that police intervene more so when there is no contact established with the individual, and this, regardless of the type of threat manifested. On the contrary, a non-satisfactory negotiation would encourage police to use force in cases where the individual presents no threat to himself. In sum, these multivariate analyses show that the police are less influenced by the type of threat, rather preferring negotiation as long as possible.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Ferland, Alexandra. "Caractérisation des variants de séquence du gène encodant la 17[beta]-hydroxystéroïde déshydrogénase de type 5 ches les femmes canadiennes-françaises atteintes d'un cancer du sein et provenant de familles à risque élevé /". 2009. http://www.theses.ulaval.ca/2009/26015/26015.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Taamouti, Abderrahim. "Problèmes d'économétrie en macroéconomie et en finance : mesures de causalité, asymétrie de la volatilité et risque financier". Thèse, 2007. http://hdl.handle.net/1866/1507.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Tremblay, Pierre-Alexandre. "Stochastic mesh approximations for dynamic hedging with costs". Thèse, 2017. http://hdl.handle.net/1866/20499.

Texto completo
Resumen
Cette thèse se concentre sur le calcul de la solution optimale d'un problème de couverture de produit dérivé en temps discret. Le problème consiste à minimiser une mesure de risque, définie comme l'espérance d'une fonction convexe du profit (ou perte) du portefeuille, en tenant compte des frais de transaction. Lorsqu'il y a des coûts, il peut être optimal de ne pas transiger. Ainsi, les solutions sont caractérisées par des frontières de transaction. En général, les politiques optimales et les fonctions de risque associées ne sont pas connues explicitement, mais une stratégie bien connue consiste à approximer les solutions de manière récursive en utilisant la programmation dynamique. Notre contribution principale est d'appliquer la méthode du maillage stochastique. Cela permet d'utiliser des processus stochastiques multi-dimensionels pour les dynamiques de prix. On obtient aussi des estimateurs biasés à la hausse et à la baisse, donnant une mesure de la proximité de l'optimum. Nous considérons différentes façons d'améliorer l'efficacité computationelle. Utiliser la technique des variables de contrôle réduit le bruit qui provient de l'utilisation de prix de dérivés estimés à même le maillage stochastique. Deux autres techniques apportent des réductions complémentaires du temps de calcul : utiliser une grille unique pour les états du maillage et utiliser une procédure de "roulette Russe". Dans la dernière partie de la thèse, nous présentons une application pour le cas de la fonction de risque exponentielle négative et un modèle à volatilité stochastique (le modèle de Ornstein-Uhlenbeck exponentiel). Nous étudions le comportement des solutions sous diverses configurations des paramètres du modèle et comparons la performance des politiques basées sur un maillage à celles d'heuristiques.
This thesis focuses on computing the optimal solution to a derivative hedging problem in discrete time. The problem is to minimize a risk measure, defined as the expectation of a convex function of the terminal profit and loss of the portfolio, taking transaction costs into account. In the presence of costs, it is sometimes optimal not to trade, so the solutions are characterized in terms of trading boundaries. In general, the optimal policies and the associated risk functions are not known explicitly, but a well-known strategy is to approximate the solutions recursively using dynamic programming. Our central innovation is in applying the stochastic mesh method, which was originally applied to option pricing. It allows exibility for the price dynamics, which could be driven by a multi-dimensional stochastic process. It also yields both low and high biased estimators of the optimal risk, thus providing a measure of closeness to the actual optimum. We look at various ways to improve the computational efficiency. Using the control variate technique reduces the noise that comes from using derivative prices estimated on the stochastic mesh. Two additional techniques turn out to provide complementary computation time reductions : using a single grid for the mesh states and using a so-called Russian roulette procedure. In the last part of the thesis, we showcase an application to the particular case of the negative exponential risk function and a stochastic volatility model (the exponential Ornstein-Uhlenbeck model). We study the behavior of the solutions under various configurations of the model parameters and compare the performance of the mesh-based policies with that of well-known heuristics.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía