Siga este link para ver outros tipos de publicações sobre o tema: Modèle de crédit partial.

Teses / dissertações sobre o tema "Modèle de crédit partial"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Modèle de crédit partial".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Hamad, Mohamad. "Validation psychométrique de mesures subjectives en santé orale". Electronic Thesis or Diss., Bourgogne Franche-Comté, 2024. http://www.theses.fr/2024UBFCE002.

Texto completo da fonte
Resumo:
La validation psychométrique d’une échelle de mesure subjective se compose de nombreuses étapes que nous exposerons et commenterons au cours de cette thèse. Nous nous appuierions plus particulièrement sur le travail de validation psychométrique de la Geriatric Oral Health Assessement Index (GOHAI) et de la Schizophrenia Cooping Oral Health Profil and Index (SCOOHPI) que nous avons réalisé. Au cours des étapes de la validation de ces échelles nous avons particulièrement exploré la question de la validité de la structure interne qui est le cœur du champ réflexif de notre travail.Dans cette thèse, nous avons 5 chapitres. Dans le chapitre 1, nous avons, d'une part, défini les concepts à étudier et expliqué la relation entre schizophrénie et santé buccodentaire, et d'autre part, nous avons présenté l'historique de la validation psychométrique des échelles de mesure subjective.Dans le chapitre 2, nous avons décrit les étapes de la validation psychométrique des échelles de mesure subjective, il existe 2 rubriques principales dans la validation psychométrique : la fidélité et la validité. La fidélité de l'échelle est composée de 3 parties : cohérence interne, fidélité au cours du temps et sensibilité au changement. La validité de l'échelle est composée de 4 parties : validité de contenu, validité perçue, validité de construit et validité de structure.Dans le chapitre 3, nous étudions la validation psychométrique de l'échelle GOHAI dans un échantillon de patients français atteints de schizophrénie. L'alpha de Cronbach montre un degré significatif de cohérence interne entre les items et le test-retest vérifie la fidélité au cours du temps. Ensuite, la validité de construit montre l'existence d'une relation entre l'échelle GOHAI et les indices CAOD (Dent Cariée, Absente, Obturée) et OHI'S (Simplifed Oral Hygiene Index). Après, l'analyse en composantes principales montre l'existence de 3 sous-échelles : les fonctions physiques, les aspects psychosociaux et les symptômes liés à la présence de maladies dentaires. Enfin, le modèle de crédit partiel vérifie que l'échelle GOHAI n'est pas unidimensionnelle.Dans le chapitre 4, nous étudions la validité de structure de l'échelle GOHAI à partir d'un échantillon de la population générale française. L'analyse en composantes principales montre l'existence de 3 sous-échelles : la douleur et l'aspect des dents, la satisfaction psychologique de l'état des dents et la capacité à manger. Ensuite, le modèle de crédit partiel vérifie l'unidimensionnalité de l'échelle GOHAI après regroupement des modalités de réponses.Dans le chapitre 5, nous étudions la validation psychométrique de l'échelle SCOOHPI à partir d'un échantillon de patients français atteints de schizophrénie. Le groupe d'experts a confirmé la validité du contenu de l'échelle SCOOHPI. La validité perçue a été vérifiée auprès de 30 individus. Ensuite, l'alpha de Cronbach montre un bon degré de cohérence interne entre les items. Après, l'absence de relation entre l'échelle SCOOHPI et l'échelle GOHAI confirme la validité de la divergence. Tandis que la validité de la convergence n'était pas mesurable en raison du manque d'outils qui mesurent un concept similaire au concept d'échelle SCOOHPI. L'analyse en composantes principales montre l'existence de 6 sous-échelles : santé buccodentaire, alimentation et hygiène buccodentaire, activité et organisation, addiction et stratégies d'évitement. Enfin, le modèle de crédit partiel montre que l'échelle SCOOHPI est unidimensionnelle après regroupement des modalités de réponses
The psychometric validation of a subjective measurement scale consists of many steps that we will expose and comment on during this thesis. We would rely more particularly on the work of psychometric validation of the Geriatric Oral Health Assessment Index (GOHAI) and the Schizophrenia Cooping Oral Health Profile and Index (SCOOHPI) that we have carried out. During the stages of the validation of this scale we particularly explored the question of the validity of the internal structure which is the heart of the reflexive field of our work. In this thesis we have 5 chapters. In Chapter 1, we defined the concepts to be studied and explained the relationship between schizophrenia and oral health, and presented the history of psychometric validation of subjective measurement scales.In chapter 2, we described the steps in the psychometric validation of subjective measurement scales, there are 2 main headings in psychometric validation: reliability and validity. Scale reliability is composed of 3 parts: internal consistency, reliability over time and sensitivity to change. The validity of the scale is composed of 4 parts: content validity, perceived validity, construct validity and structure validity.In chapter 3, we study the psychometric validation of the GOHAI (Geriatric Oral Health Assessment Index) scale in a sample of French patients with schizophrenia.Cronbach's alpha shows a significant degree of internal consistency between items and the test-retest verifies the reliability over time. Then, the construct validity shows the existence of a relationship between the GOHAI scale and the DMFT (Dent Cariée, Absente, Obturation) and OHI'S (Simplifed Oral Hygiene Index) indices. Afterwards, the principal component analysis shows the existence of 3 subscales: physical functions, psychosocial aspects and symptoms related to the presence of dental diseases. Finally, the partial credit model verifies that the GOHAI scale is not unidimensional.In Chapter 4, we study the structural validity of the GOHAI scale using a sample of the general French population.The principal component analysis shows the existence of 3 subscales: pain and appearance of the teeth, psychological satisfaction with the state of the teeth and ability to eat. Then, the partial credit model verifies the unidimensionality of the GOHAI scale after grouping the response modalities.In Chapter 5, we study the psychometric validation of the Schizophrenia Coping Oral Health Profile and Index (SCOOHPI) scale using a sample of French patients with schizophrenia.The panel confirmed the content validity of the SCOOHPI scale. Perceived validity was verified with 30 individuals. Then, Cronbach's alpha shows a good degree of internal consistency between items. Then, the absence of relationship between the SCOOHPI scale and the GOHAI scale confirms the validity of the divergence. While the validity of the convergence was not measurable due to the lack of tools that measure a similar concept to the SCOOHPI scale concept.The principal component analysis shows the existence of 6 subscales: oral health, diet and oral hygiene, activity and organization, addiction and avoidance strategies. Finally, the partial credit model shows that the SCOOHPI scale is unidimensional after grouping the response modalities
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Harb, Étienne Gebran. "Risques liés de crédit et dérivés de crédit". Thesis, Paris 2, 2011. http://www.theses.fr/2011PA020098.

Texto completo da fonte
Resumo:
Le premier volet de cette thèse traite de l’évaluation du risque de crédit. Après un chapitre introductif offrant une synthèse technique des modèles de risque, nous nous intéressons à la modélisation de la dépendance entre les risques de défaut par les copules qui permettent de mieux fonder les mesures du risque de crédit. Ces dernières assurent une description intégrale de la structure de dépendance et ont l’avantage d’exprimer la distribution jointe en termes des distributions marginales. Nous les appréhendons en termes probabilistes telles qu’elles sont désormais familières, mais également selon des perspectives algébriques, démarche à certains égards plus englobante que l’approche probabiliste. Ensuite, nous proposons un modèle général de pricing des dérivés de crédit inspiré des travaux de Cherubini et Luciano (2003) et de Luciano (2003). Nous évaluons un Credit Default Swap « vulnérable », comprenant un risque de contrepartie. Nous y intégrons la Credit Valuation Adjustment (CVA)préconisée par Bâle III pour optimiser l’allocation du capital économique. Nous reprenons la représentation générale de pricing établie par Sorensen et Bollier (1994) et contrairement aux travaux cités ci-dessus, le paiement de protection ne survient pas forcément à l’échéance du contrat. La dépendance entre le risque de contrepartie et celui de l’entité de référence est approchée par les copules. Nous examinons la vulnérabilité du CDS pour des cas de dépendance extrêmes grâce à un choix de copule mixte combinant des copules usuelles « extrêmes ». En variant le rho de Spearman, la copule mixte balaie un large spectre de dépendances, tout en assurant des closed form prices. Le modèle qui en résulte est adapté aux pratiques du marché et facile à calibrer.Nous en fournissons une application numérique. Nous mettons ensuite en évidence le rôle des dérivés de crédit en tant qu’instruments de couvertures mais aussi comme facteurs de risque, accusés d’être à l’origine de la crise des subprime. Enfin, nous analysons cette dernière ainsi que celle des dettes souveraines, héritant également de l’effondrement du marché immobilier américain. Nous proposons à la suite une étude de soutenabilité de la dette publique des pays périphériques surendettés de la zone euro à l’horizon 2016
The first part of this thesis deals with the valuation of credit risk. After an introductory chapter providing a technical synthesis of risk models, we model the dependence between default risks with the copula that helps enhancing credit risk measures. This technical tool provides a full description of the dependence structure; one could exploit the possibility of writing any joint distribution function as a copula, taking as arguments the marginal distributions. We approach copulas in probabilistic terms as they are familiar nowadays, then with an algebraic approach which is more inclusive than the probabilistic one. Afterwards, we present a general credit derivative pricing model based on Cherubini and Luciano (2003) and Luciano (2003). We price a “vulnerable”Credit Default Swap, taking into account a counterparty risk. We consider theCredit Valuation Adjustment (CVA) advocated by Basel III to optimize theeconomic capital allocation. We recover the general representation of aproduct with counterparty risk which goes back to Sorensen and Bollier (1994)and differently from the papers mentioned above, the payment of protectiondoes not occur necessarily at the end of the contract. We approach the dependence between counterparty risk and the reference credit’s one with the copula. We study the sensitivity of the CDS in extreme dependence cases with a mixture copula defined in terms of the “extreme” ones. By varying the Spearman’s rho, one can explore the whole range of positive and negative association. Furthermore, the mixture copula provides closed form prices. Our model is then closer to the market practice and easy to implement. Later on, we provide an application on credit market data. Then, we highlight the role of credit derivatives as hedging instruments and as risk factors as well since they are accused to be responsible for the subprime crisis. Finally, we analyze the subprime crisis and the sovereign debt crisis which arose from the U.S. mortgage market collapse as well. We then study the public debt sustainability of the heavily indebted peripheral countries of the eurozone by 2016
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Gauthier, Claire. "Trois essais empiriques sur le risque de crédit : Modèles intensité, modèle multifactoriel, valeurs extrêmes". Nice, 2002. http://www.theses.fr/2002NICE0061.

Texto completo da fonte
Resumo:
Le risque de crédit se matérialise par le possible défaut d'une contrepartie, et par l'évolution du spread consécutive à une détérioration perçue par le marché de la qualité de crédit de l'émission. Dans le premier chapitre de cette thèse, un modèle de type " intensité ", c'est-à-dire considérant la faillite comme un événement imprévisible a été mis en œuvre. Le deuxième chapitre présente un modèle multifactoriel des spreads de crédit, basé sur une large gamme de variables explicatives, et utilisant l'économétrie des données de panel pour reconstituer des spreads théoriques fournissant ainsi un outil d'analyse et de prévision des spreads de crédit. Le troisième chapitre met en évidence la non normalité de la distribution des rendements continus associés aux spreads de crédit, et caractérise la distribution de ces derniers à l'aide des distributions des valeurs extrêmes généralisées
Credit risk materializes by a firm default, and by the spread movements following a decrease of an issuer's credit quality. In the first chapter of this thesis, an intensity model considering default as an unpredictable event is implemented. The second chapter presents a multifactor models for credit spreads, based on a wide range of explanatory variables, and using panel data econometry to build theoretical credit spreads. This model is a good tool to analyse and forecast credit spreads. The third chapter underlines the non normality of credit spreads distributions, and characterize their distribution using extreme value theory
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Adjogou, Adjobo Folly Dzigbodi. "L'accélérateur financier dans un modèle néo-keynésien d'économie ouverte". Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27139/27139.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Barsotti, Flavia. "Optimal capital structure with endogenous bankruptcy : payouts, tax benefits asymetry and volatility risk". Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1319/.

Texto completo da fonte
Resumo:
La thèse concerne la modélisation du risque de crédit en suivant l'approche de modèles structurels. La thèse se compose de trois articles dans lesquels nous nous appuyons sur la structure du capital d'une entreprise proposée par Leland et nous étudions différentes extensions de son article fondateur dans le but d'obtenir des résultats plus conformes aux normes historiques et évidence empiriques, en étudiant en détail tous les aspects mathématiques. On analyse la modélisation du risque de crédit en suivant l'approche de modèles structurels avec défaut endogène. Nous prolongeons le cadre classique de Leland dans trois directions principales pour obtenir des résultats plus conformes aux données empiriques. Nous introduisons des dividendes et une asymétrie dans la déduction fiscale : les résultats numériques montrent que ces modifications conduisent à des ratios de levier proches des normes observées, grâce à leur influence conjointe sur la structure optimale du capital. Enfin, nous introduisons un risque de volatilité. En suivant les suggestions de Leland, nous proposons un cadre dans lequel l'hypothèse de volatilité constante pour l'évolution de la valeur de l'entreprise est supprimé. En analysant les dérivés sujets au risque de faillite impliqués dans la structure du capital de l'entreprise, on obtient leur prix corrigé dans une classe assez large de modèles à volatilité stochastique en appliquant la théorie des perturbations singulières. En considérant la structure du capital optimal, la volatilité stochastique semble être un modèle efficace pour améliorer les résultats dans le sens de 'spreads' plus élevés et des ratios de levier, plus faibles de façon significative
The dissertation deals with modeling credit risk through a structural model approach. The thesis consists of three papers in which we build on the capital structure of a firm proposed by Leland and we study different extensions of his seminal paper with the purpose of obtaining results more in line with historical norms and empirical evidence, studying in details all mathematical aspects. The thesis analyses credit risk modelling following a structural model approach with endogenous default. We extend the classical Leland framework in three main directions with the aim at obtaining results more in line with empirical evidence. We introduce payouts and then also consider corporate tax rate asymmetry : numerical results show that these lead to predicted leverage ratios closer to historical norms, through their joint influence on optimal capital structure. Finally, we introduce volatility risk. Following Leland suggestions we consider a framework in which the assumption of constant volatility in the underlying firm's assets value stochastic evolution is removed. Analyzing defaultable claims involved in the capital structure of the firm we derive their corrected prices under a fairly large class of stochastic volatility framework seems to be a robus way to improve results in the direction of both higher spreads and lower leverage ratios in a quantitatively significant way
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Brameret, Pierre-Antoine. "Assessment of reliability indicators from automatically generated partial Markov chains". Thesis, Cachan, Ecole normale supérieure, 2015. http://www.theses.fr/2015DENS0032/document.

Texto completo da fonte
Resumo:
La confiance dans les systèmes complexes est aujourd'hui primordiale. Parmi les langages de modélisation dysfonctionnelle des systèmes, les chaînes de Markov sont un bon compromis entre la calculabilité des modèles et le pouvoir d'expression qu'elles apportent. Cependant, comme les chaînes de Markov rendent compte des différents états du système, leur taille est confrontée à l'explosion combinatoire. Il y a deux obstacles majeurs induits par cette explosion : la difficulté d'écrire des chaînes pour les grands systèmes à la main, et les besoins en ressources calculatoires pour leur résolution. Le premier obstacle est dépassé facilement en compilant les chaînes de Markov depuis un modèle de plus haut niveau (dans ces travaux, AltaRica 3.0 est utilisé).Dans cette thèse, nous nous sommes concentrés sur la génération partielle de chaînes de Markov, afin de dépasser le problème d'explosion combinatoire. La méthode est fondée sur l'observation que les systèmes réparables, même les plus grands, passent leur temps dans un petit nombre d'états proches de l'état nominal du système. La génération partielle utilise l'algorithme de Dijkstra, auquel est combiné un facteur de pertinence, qui permet la sélection des états les plus probables du système. Il est possible d'encadrer les valeurs des indicateurs de sûreté obtenus avec la chaîne partielle grâce à l'introduction d'une chaîne partielle avec puits.La méthode de génération partielle est entièrement implémentée et fait partie du projet AltaRica 3.0. Il est ainsi possible de calculer les indicateurs de sûreté des systèmes directement depuis un modèle AltaRica. Divers expériences ont été menées pour illustrer la faisabilité de la méthode, son passage à l'échelle, ainsi que ses points forts et ses limites
Trustworthiness in systems is of paramount importance. Among safety modeling languages, Markov chains are a good tradeoff between the safety concepts that can be modeled and the ease of calculation. However, as they model the different states of the systems, they suffer from the state space explosion. This explosion has two drawbacks: it makes Markov chains very difficult to write by hand for large systems, and large Markov chain calculation is resource consuming. The first drawback is easily tackled by generating Markov chains from higher-level languages (such as AltaRica 3.0).In this thesis, we focused on the partial generation of Markov chains, to tackle the state space explosion of the models. This idea is based on the observation that even large repairable systems spent most of their times in a few number of states, that are close to the nominal state of the system. The partial generation is based on Dijkstra's algorithm and on a so-called relevance factor to generate only the most probable states of the Markov chain. The reliability indicators obtained with such a partial chain can be bounded with a slightly different Markov chain.The partial generation method is fully implemented in the AltaRica 3.0 project to automatically calculate the reliability indicators of a system modeled in AltaRica. Different experiments illustrate the practability of the method, as well as its strengths and weaknesses
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Sestier, Michael. "Analyse des sensibilités des modèles internes de crédit pour l'étude de la variabilité des RWA". Thesis, Paris 1, 2017. http://www.theses.fr/2017PA01E010.

Texto completo da fonte
Resumo:
Suite à la crise de 2007-2009, des études menées par le Comité de Bâle ont montré une grande dispersion des actifs pondérés du risque (RWA) entre les banques, dont une part significative proviendrait des hypothèses des modèles internes. De nouvelles réglementations visant à trouver un équilibre entre bonne représentation des risques, simplicité des approches et comparabilité ont dès lors été développées. Celles-ci proposent notamment l'ajout de contraintes sur les modèles/paramètres pour l'évaluation interne des RWA de crédit des portefeuilles bancaire et de négociation. Dans ce contexte, ces travaux de thèse consistent principalement en l'analyse de la pertinence de ces contraintes pour la réduction de la variabilité des RWA. Ils font largement recours aux méthodes d'analyses des sensibilités, notamment celles basées sur les décompositions de Hoeffding. Le traitement réglementaire des paramètres de crédit (les corrélations des défauts, les probabilités de défaut -PD -et les taux de perte en cas de défaut -LGD) forme la colonne vertébrale des développements. Au final, les conclusions des études menées semblent indiquer des résultats mitigés des réforn1es. D'une part, les contraintes sur les corrélations pour le portefeuille de négociation sont d'un impact faible sur la réduction de la variabilité des RWA. D'autre part, les contraintes sur les paramètres de PD et de LGD, ayant un impact plus important sur la réduction de la variabilité des RWA, devraient être considérées avec plus de prudence. La thèse fournit enfin des preuves que la variabilité est amplifiée par la mesure du risque réglementaire et les multiples sources de données de calibration des modèles
In the aftermath of the 2007-2009 crisis, several studies led by the Base! Committee showed a large dispersion of risk-weighted assets (RWA) among banks, a significant part of which would come from the internal model's assumptions. Consequently, new regulations aiming at finding a balance between risk sensitivity, simplicity and comparability have then been developed. These ones notably include constraints on models / parameters for the internal assessment of the credit RWA for both the banking and the trading books. ln this context, the thesis work mainly consists in analyzing the relevance of such constraints to reduce the RWA variability. It makes extensive use of sensitivity analysis methods, particularly the ones based on the Hoeffding's decomposition. Regulatory treatments of the credit parameters (default correlations, default probabilities -DP -and loss given default -LGD) form the backbone of the developments. The findings suggest mixed results of the reforms. On the one hand, the constraints on the correlations for the trading book have a low impact on the RWA variability. On the other hand, the constraints on OP and LGD parameters, having a greater impact on the RWA variability, should be considered with more caution. The studies finally provide evidence that variability is amplified by the regulatory measurement of the risk and the multiple sources of calibration data.javascript:nouvelleZone('abstract');_ajtAbstract('abstract')
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Niang, Ibrahima. "Quantification et méthodes statistiques pour le risque de modèle". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1015/document.

Texto completo da fonte
Resumo:
En finance, le risque de modèle est le risque de pertes financières résultant de l'utilisation de modèles. Il s'agit d'un risque complexe à appréhender qui recouvre plusieurs situations très différentes, et tout particulièrement le risque d'estimation (on utilise en général dans un modèle un paramètre estimé) et le risque d'erreur de spécification de modèle (qui consiste à utiliser un modèle inadéquat). Cette thèse s'intéresse d'une part à la quantification du risque de modèle dans la construction de courbes de taux ou de crédit et d'autre part à l'étude de la compatibilité des indices de Sobol avec la théorie des ordres stochastiques. Elle est divisée en trois chapitres. Le Chapitre 1 s'intéresse à l'étude du risque de modèle dans la construction de courbes de taux ou de crédit. Nous analysons en particulier l'incertitude associée à la construction de courbes de taux ou de crédit. Dans ce contexte, nous avons obtenus des bornes de non-arbitrage associées à des courbes de taux ou de défaut implicite parfaitement compatibles avec les cotations des produits de référence associés. Dans le Chapitre 2 de la thèse, nous faisons le lien entre l'analyse de sensibilité globale et la théorie des ordres stochastiques. Nous analysons en particulier comment les indices de Sobol se transforment suite à une augmentation de l'incertitude d'un paramètre au sens de l'ordre stochastique dispersif ou excess wealth. Le Chapitre 3 de la thèse s'intéresse à l'indice de contraste quantile. Nous faisons d'une part le lien entre cet indice et la mesure de risque CTE puis nous analysons, d'autre part, dans quelles mesures une augmentation de l'incertitude d'un paramètre au sens de l'ordre stochastique dispersif ou excess wealth entraine une augmentation de l'indice de contraste quantile. Nous proposons enfin une méthode d'estimation de cet indice. Nous montrons, sous des hypothèses adéquates, que l'estimateur que nous proposons est consistant et asymptotiquement normal
In finance, model risk is the risk of loss resulting from using models. It is a complex risk which recover many different situations, and especially estimation risk and risk of model misspecification. This thesis focuses: on model risk inherent in yield and credit curve construction methods and the analysis of the consistency of Sobol indices with respect to stochastic ordering of model parameters. it is divided into three chapters. Chapter 1 focuses on model risk embedded in yield and credit curve construction methods. We analyse in particular the uncertainty associated to the construction of yield curves or credit curves. In this context, we derive arbitrage-free bounds for discount factor and survival probability at the most liquid maturities. In Chapter 2 of this thesis, we quantify the impact of parameter risk through global sensitivity analysis and stochastic orders theory. We analyse in particular how Sobol indices are transformed further to an increase of parameter uncertainty with respect to the dispersive or excess wealth orders. Chapter 3 of the thesis focuses on contrast quantile index. We link this latter with the risk measure CTE and then we analyse on the other side, in which circumstances an increase of a parameter uncertainty in the sense of dispersive or excess wealth orders implies and increase of contrast quantile index. We propose finally an estimation procedure for this index. We prove under some conditions that our estimator is consistent and asymptotically normal
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Moustafa, Hayat. "Étude du problème inverse d'un modèle d'intrusion saline". Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2177/document.

Texto completo da fonte
Resumo:
Cette thèse porte sur l’étude d’un problème inverse de sources pour un modèle bidimensionnel d’intrusion saline. Dans un premier temps, nous nous intéressons à la modélisation du phénomène d’intrusion saline dans un aquifère côtier non confiné. En tenant compte des hypothèses particulières, nous obtenons dans le cas stationnaire une équation elliptique de la charge hydraulique dont le second membre est constitué des sources ponctuelles. L’étude du problème direct consiste à analyser le modèle dérivé et à établir un résultat d’existence et d’unicité d’une solution. Ensuite, dans la partie problème inverse, il s’agit de l’identification de termes sources à partir des mesures locales. Nous traitons les trois questions relatives à ce problème inverse, l’identifiabilité, l’identification et la stabilité. Concernant l’identification, nous formulons le problème inverse comme un problème de contrôle avec une fonctionnelle coût qui calcule l’écart quadratique entre les mesures expérimentales et celles obtenues par la résolution du problème direct. L’optimisation de cette fonction nécessite le calcul de son gradient que nous obtenons par la méthode de sensibilités et par la méthode de l’état adjoint. Quant à la stabilité, nous établissons deux types d’estimations, logarithmiques et lipschitziennes, pour les positions et les intensités de sources dans le cas de l’équation elliptique obtenue et en considérant toujours des mesures intérieures. De plus, nous avons généralisé les résultats des estimations lipschitziennes pour l’équation elliptique de la forme –Δu+k2u=F. La dernière partie de la thèse est destinée à montrer les résultats de l’identification numérique en fonction des paramètres intervenant dans le modèle principal
This thesis deals with the study of an inverse source problem for a two dimensional seawater intrusion model. First, we focus on the modeling of the seawater intrusion phenomenon in a costal unconfined aquifer. Then considering some specific assumptions, we obtain, in the steady state, an elliptic equation of the hydraulic head with a left hand side formed by point wise sources. The study of the direct problem aims to analyze the derived model and to establish a result of existence and uniqueness of solution. The inverse problem concerns the identification of sources from local measurements. We are interested in the study of uniqueness, identification and stability.Concerning the identification, we transform the inverse problem to a control problem with a cost functional computing the quadratic error between the experimental measures and those obtained by solving the direct problem. To optimize this function, we need to compute its gradient and this can be done by the sensibility and the adjoint methods. Moreover, regarding the stability, we establish two types of estimates, logarithmic and lipschitz, for sources positions and intensities in the case of the elliptic equation assuming interior observations. Furthermore, we have generalized the results of Lipschitz estimates for the elliptic equation –Δu+k2u=F. The last part of the thesis is intended to show the results of the numerical identification based on parameters involved in the main model
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Taghboulit, Sid-Ali. "Contribution à La définition d'un modèle orienté objet pour le SGBD SAAD". Valenciennes, 1993. https://ged.uphf.fr/nuxeo/site/esupversions/d177f1a2-d5ea-4cca-8169-7ada17f8c56b.

Texto completo da fonte
Resumo:
L'apparition de nouveaux domaines d'utilisation de bases de données (BdD), tels que la productique intégrée, nous a conduits à concevoir et réaliser le système de gestion de base de données (SGBD) SAAD, base sur un modèle sémantique. Nous avons ensuite entrepris d'étendre le SGBD SAAD vers un modèle orienté objet. Cette thèse présente le SGBD SAAD, puis la définition de sa version orientée objet. Apres une revue des modèles de BdD sémantiques nous présentons notre SGBD dans sa première version. L'absence de consensus sur le modèle de BdD orienté objet, ajoutée à l'intégration accrue des techniques d'IA dans le processus de développement d'application nous a conduits à définir un nouveau modèle de données orienté objet pour le SGBD SAAD ainsi que l'héritage du langage qui le supporte. Parmi les concepts exposés; l'héritage partiel et la fixation d'attribut ont constitué le sujet d'une étude particulière. Nous présentons également dans cette thèse quelques aspects de la mise en œuvre du SGBD SAAD, parmi lesquelles une technique stockage d'objets complexes, le code ADA génère par la partie relative au langage, ainsi que les versions d'objets seront également concernés.
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Elobaid, Mohamed. "A sampled-data approach in control problems involving partial dynamics cancellation". Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG014.

Texto completo da fonte
Resumo:
De nombreux problèmes de contrôle se ramènent à imposer que la sortie du système suive un signal donné, tout en rejetant les effets de perturbations. Dans ce vaste contexte de problématiques traitées principalement en temps continu, l’utilisation de techniques de contrôle reposant sur l’inversion est bien connue. Cependant, la présence incontournable de capteurs et d’actionneurs numériques nécessite une conception ad hoc en temps discret. Plus précisément, il s’agit de contrôler des systèmes dits échantillonnés, dont les mesures sont acquises à des instants échantillonnés dans le temps et pour lesquels les variables de commande sont maintenues constantes sur un intervalle de temps donné, la période d’échantillonnage. Dans ce domaine des systèmes échantillonnés, des systèmes supposés en temps continu à déphasage minimal, perdent cette propriété sous échantillonnage; le système en temps discret équivalent n’est plus à déphasage minimal. L’objet de cette thèse est d’établir des résultats constructifs, procédures et algorithmes permettant de réduire les effets dus à l’inversion dans le contexte échantillonné. Une première contribution propose une procédure d’inversion stable pour une classe de systèmes à déphasage non minimal multi-input multi-output (MIMO). L’approche repose sur le linéarisé tangent du système et une factorisation de la dynamique des zéros dont une partie seulement est à déphasage minimal. Les contributions suivantes concernent la commande prédictive (MPC) et la linéarisation transverse par bouclage (TFL), deux stratégies de commande concernées par la pertede la propriété de déphasage minimal sous échantillonnage. Concernant la commande prédictive deux problématiques utilisant des techniques de discrétisation à échelles de temps multiques sont étudiées pour des objectifs de prédiction puis de planification de trajectoire. Les solutions développées sont validées sur plusieurs exemples allant de la conduite et poursuite de systèmes admettant des formes chainées jusqu’au maintien des quasi Halo orbites du système terre-lune. Concernant la linéarisation transverse par bouclage, deux solutions préservant l’invariance dessous espaces caractérisant les objectifs de contrôle sont proposées. L’une repose sur des techniques d’échantillonnage simple et, quoique solution approchée, est très simple de calcul et présente des performances bien supérieures à une implantation classique par bloqueur d’ordre zéro. La deuxième solution, proposée au sens exact, fait appel à des techniques d’échantillonnage multiple et propose aussi des solutions par bouclage statique dans des cas ou seul un bouclage dynamique résout le problème en temps continu. Les deux approches sont validées sur des exemples académiques et appliquées à la résolution de problèmes de poursuite de trajectoires pour des robots mobiles ou déstabilisation d’orbites périodiques pour des systèmes mécaniques sous actionnés
Several well studied control problems reduce to asking the output of a given process to track a desired signal while rejecting effects of undesired perturbations. In the rich body of knowledge dealing with problems of this type in continuous-time, the use of partial inversion-based controllers (i.e controllers that cancel part of the dynamics in the sense of rendering it unobservable) and their effectiveness is well established. Nowadays, however, sensing and actuation is done through digital devices so necessitating a suitable control design. In this setting, the control engineer works with systems referred to as sampled-data systems where measures of the output are available only at sporadic discrete-time instants while the control is piecewise constant over a fixed time interval. In this sampled-data context, systems that are originally minimum phase in continuous-time, and because of sampling and holding, may lose this property. The general argument of this thesis contributes to establishing constructive results, procedures and algorithms to the purpose of mitigating the issues caused by sampled-data design under partial inversion-based controllers. Since partial inversion-based controllers typically cancel the zero dynamics, the central idea is to mitigate the loss of the minimum-phase property. A first contribution in this direction stands in proposing a procedure for stable partial inversion for a class of continuous-time non-minimum phase Multi-Input Multi-Output systems. The procedure proposed, generalizing a previous result, works over the linear tangent model of a system factorizing a sub-set of the zero dynamics known to be minimum-phase a priori. This preliminary result is at the basis of control strategies which are herein proposed for model predictive control and digital transverse feedback linearization. Both control strategies under sampling are affected by the above-mentioned pathology linked to the loss of the minimum-phase property. In particular, for model predictive control, two solutions based on multi-rate sampling techniques, employed at the prediction, or the trajectory planning level are proposed and compared. Their validity is established through several case studies ranging from steering and tracking in systems admitting chained forms to quasi Halo orbits station-keeping for space-crafts in the Earth-Moon system. Concerning transverse feedback linearization, two sampled-data solutions preserving the in-variant subset specifying the control objectives are proposed. The former is based on single-rate sampling and, albeit approximate in nature, is computationally simple and outperforms zero-order holding of the continuous-time design. The later, an exact solution based on multi-rate sampling, improves upon the former solution and provides, in special cases, static state feedback solutions even when the problem is only solvable via dynamic feedback in continuous-time. Both solutions are validated over academic case studies as well as in solving path following for mobile robots and periodic orbits stabilization for underactuated mechanical systems
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Touzalin, Frédéric. "Evolutionary demography of a partial migrant shorebird species". Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30349/document.

Texto completo da fonte
Resumo:
Le réchauffement climatique entraîne des changements dans la dynamique et la distribution des populations. J'ai utilisé une étude de 19 ans, en Bretagne, sur un limicole longévif et migrateur partiel, l'Avocette élégante, pour quantifier et comparer les paramètres démographiques associés aux différentes stratégies de migration. Les taux de survie et les manifestations de la sénescence associées étaient similaires chez les résidents et les migrateurs, mais les migrateurs montraient un âge de recrutement plus tardif que les résidents. L'investissement reproductif était plus élevé et exempt de sénescence chez les individus recrutés à l'âge d'un an, alors que ceux commençant à se reproduire plus tard subissaient de la sénescence reproductive. La fitness des migrateurs était inférieure à celle des résidents, ce qui explique leur déclin pendant la période étudiée, alors que la population résidente est elle restée stable. La faible productivité, due à la prédation, entraîne le déclin de la population bretonne malgré un taux d'immigration important, ce qui doit absolument être pris en compte lors de la définition des politiques locales de conservation
Global warming causes changes in the dynamics and distribution of populations. I used a 19-year study, in Brittany, on a long-lived and partial migrant, the Pied Avocet, to quantify and compare the demographic rates associated with different migration strategies. Survival rates and associated senescence patterns were similar in residents and in migrants, but migrants exhibited a delayed recruitment age. Reproductive investment was higher and senescence was absent in individuals recruited at the age of one year, whereas those who began to reproduce later showed reproductive senescence. The fitness of migrants was lower than the fitness of residents, which explained their decline over the study period, while the resident population remained stable. Low productivity, due to predation, caused the Brittany population to decline despite a high immigration rate, which questions local conservation policies
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Seck, Ousmane. "Sur un modèle de diffusion non linéaire en dynamique des populations". Nancy 1, 1986. http://www.theses.fr/1986NAN10162.

Texto completo da fonte
Resumo:
Les équations d'évolution. Étude dans L**(1) de solutions particulières. Les résultats d'existence connus. Estimations à priori. Relaxation des hypothèses de régularité et de compatibilité. Relaxation des hypothèses de stricte positivité
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Groza, Vladimir. "Identification de paramètres et analyses de sensibilité pour un modèle d'usinage par jet d'eau abrasif". Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4094/document.

Texto completo da fonte
Resumo:
Ce travail fait partie du projet Marie-Curie ITN STEEP, dans le domaine des faisceaux énergétiques. Nous étudions ici l'identification de paramètres pour un modèle générique d'usinage par jet d'eau abrasif. L'étude de ce problème trouve son origine dans les applications industrielles d'usinage, où la nécessité de modéliser et prédire la surface finale avec une très grande précision est essentielle en l'absence de connaissance des paramètres du modèle Nous proposons ici une méthode d'identification des paramètres du modèle basée sur la minimisation d'une fonction coût, mesurant la différence entre la solution numérique et les observations expérimentales. L'approche variationnelle, basée sur le Lagrangien, permet de considérer l'adjoint, et l'utilisation d'un logiciel de différentiation automatique (TAPENADE) conduit à une identification rapide et précise des paramètres, quelles que soient la complexité et la taille du problème étudié. La qualité de l'identification peut être fortement instable et dépendre largement des données expérimentales en cas de bruit. Nous introduisons alors des termes de régularisation permettant de gérer la présence d'erreurs de mesure. Plusieurs cas d'usinage par jet abrasif sont considérés: problème stationnaire, jet qui se déplace à vitesse constante, ou en accélérant, utilisation synthétiques ou réelles L'étude de sensibilité montre la robustesse de l'approche, qui permet d'obtenir de très bons résultats acceptables d'un point de vue industriel
This work is part of STEEP Marie-Curie ITN project, covering the research in field of energy beam processing. We focus on the identification of unknown parameters of the proposed generic Abrasive WaterJet Milling (AWJM) model. The necessity of studying this problem comes from the industrial milling applications where the possibility to predict and model the final surface with high accuracy is one of the primary tasks in the absence of any knowledge of the model parameters that should be used. We propose the method of the model parameters identification by minimizing a cost function, measuring the difference between experimental observation and numerical solution. The variational approach based on corresponding Lagrangian allows to obtain the adjoint state and the involvement of the automatic differentiation software tool (TAPENADE) leads to fast and efficient parameters identification. In fact the parameter identification problem is highly unstable and strictly depends on quality of input data. Regularization terms could be effectively used to deal with the presence of measurement errors. Various cases of the AWJM process such as a stationary problem and moving with constant feed speed or acceleration are studied based on both artificial and real experimental data. The sensitivity study related to these particular problems demonstrates the strong capability of the proposed approach to obtain acceptable
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Rakotonasy, Solonjaka Hiarintsoa. "Modèle fractionnaire pour la sous-diffusion : version stochastique et edp". Phd thesis, Université d'Avignon, 2012. http://tel.archives-ouvertes.fr/tel-00839892.

Texto completo da fonte
Resumo:
Ce travail a pour but de proposer des outils visant 'a comparer des résultats exp'erimentaux avec des modèles pour la dispersion de traceur en milieu poreux, dans le cadre de la dispersion anormale.Le "Mobile Immobile Model" (MIM) a été à l'origine d'importants progrès dans la description du transport en milieu poreux, surtout dans les milieux naturels. Ce modèle généralise l'quation d'advection-dispersion (ADE) e nsupposant que les particules de fluide, comme de solut'e, peuvent ˆetre immo-bilis'ees (en relation avec la matrice solide) puis relˆachées, le piégeage et le relargage suivant de plus une cin'etique d'ordre un. Récemment, une version stochastique de ce modèle a 'eté proposée. Malgré de nombreux succès pendant plus de trois décades, le MIM reste incapable de repr'esenter l''evolutionde la concentration d'un traceur dans certains milieux poreux insaturés. Eneffet, on observe souvent que la concentration peut d'ecroˆıtre comme unepuissance du temps, en particulier aux grands temps. Ceci est incompatible avec la version originale du MIM. En supposant une cinétique de piégeage-relargage diff'erente, certains auteurs ont propos'e une version fractionnaire,le "fractal MIM" (fMIM). C'est une classe d''equations aux d'eriv'ees par-tielles (e.d.p.) qui ont la particularit'e de contenir un op'erateur int'egral li'e'a la variable temps. Les solutions de cette classe d'e.d.p. se comportentasymptotiquement comme des puissances du temps, comme d'ailleurs cellesde l''equation de Fokker-Planck fractionnaire (FFPE). Notre travail fait partie d'un projet incluant des exp'eriences de tra¸cageet de vélocimétrie par R'esistance Magn'etique Nucl'eaire (RMN) en milieuporeux insatur'e. Comme le MIM, le fMIM fait partie des mod'eles ser-vant 'a interpréter de telles exp'eriences. Sa version "e.d.p." est adapt'eeaux grandeurs mesur'ees lors d'exp'eriences de tra¸cage, mais est peu utile pour la vélocimétrie RMN. En effet, cette technique mesure la statistiquedes d'eplacements des mol'ecules excit'ees, entre deux instants fixés. Plus précisément, elle mesure la fonction caractéristique (transform'ee de Fourier) de ces d'eplacements. Notre travail propose un outil d'analyse pour ces expériences: il s'agit d'une expression exacte de la fonction caract'eristiquedes d'eplacements de la version stochastique du mod'ele fMIM, sans oublier les MIM et FFPE. Ces processus sont obtenus 'a partir du mouvement Brown-ien (plus un terme convectif) par des changement de temps aléatoires. Ondit aussi que ces processus sont des mouvement Browniens, subordonnéspar des changements de temps qui sont eux-mˆeme les inverses de processusde L'evy non d'ecroissants (les subordinateurs). Les subordinateurs associés aux modèles fMIM et FFPE sont des processus stables, les subordinateursassoci'es au MIM sont des processus de Poisson composites. Des résultatsexp'erimenatux tr'es r'ecents on sugg'er'e d''elargir ceci 'a des vols de L'evy (plusg'en'eraux que le mouvement Brownien) subordonnés aussi.Le lien entre les e.d.p. fractionnaires et les mod'eles stochastiques pourla sous-diffusion a fait l'objet de nombreux travaux. Nous contribuons 'ad'etailler ce lien en faisant apparaˆıtre les flux de solut'e, en insistant sur une situation peu 'etudiée: nous examinons le cas o'u la cinétique de piégeage-relargage n'est pas la mˆeme dans tout le milieu. En supposant deux cinétiques diff'erentes dans deux sous-domaines, nous obtenons une version du fMIMavec un opérateur intégro-diff'erentiel li'e au temps, mais dépendant de la position.Ces r'esultats sont obtenus au moyen de raisonnements, et sont illustrés par des simulations utilisant la discrétisation d'intégrales fractionnaires etd'e.d.p. ainsi que la méthode de Monte Carlo. Ces simulations sont en quelque sorte des preuves numériques. Les outils sur lesquels elles s'appuient sont présentés aussi.
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Guibert, Quentin. "Sur l’utilisation des modèles multi-états pour la mesure et la gestion des risques d’un contrat d’assurance". Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10256/document.

Texto completo da fonte
Resumo:
La mise en place de Solvabilité II conduit les actuaires à s'interroger sur la bonne adéquation entre modèles et données. Aussi, cette thèse a pour objectif d'étudier plusieurs approches statistiques, souvent méconnues des praticiens, permettant l'utilisation de méthodes multi états pour modéliser et gérer les risques individuels en assurance. Le Chapitre 1 présente le contexte général de cette thèse et permet de faire positionner ses principales contributions. Nous abordons les concepts de base liés à l'utilisation de modèles multi-états en assurance et décrivons les techniques d'inférence classiques adaptées aux données rencontrées, qu'ils soient markoviens ou non-markoviens. Pour finir, nous présentons comment il est possible d'utiliser ces modèles pour la gestion des risques de crédit. Le Chapitre 2 se concentre sur l'utilisation de méthodes d'inférence non-paramétriques pour la construction de lois d'incidence en assurance dépendance. Puisque plusieurs causes d'entrée sont susceptibles d'intervenir et d'intéresser les actuaires, nous nous concentrons sur une méthode utilisée pour l'estimation de modèles multi-états markoviens en temps continu. Nous comparons, dans un second temps, ces estimateurs à ceux utilisés classiquement par les praticiens tires de l'analyse de survie. Cette seconde approche peut comporter des biais non négligeables car ne permettant pas d'appréhender correctement l'interaction possible entre les causes. En particulier, elle comprend une hypothèse d'indépendance ne pouvant être testée dans le cadre de modèles à risques concurrents. Notre approche consiste alors à mesurer l'erreur commise par les praticiens lors de la construction de lois d'incidence. Une application numérique est alors considérée sur la base des données d'un assureur dépendance
With the implementation of the Solvency II framework, actuaries should examine the good adequacy between models and data. This thesis aims to study several statistical approaches, often ignored by practitioners, enabling the use of multi-state methods to model and manage individual risks in insurance. Chapter 1 presents the general context of this thesis and positions its main contributions. The basic tools to use multi-state models in insurance are introduced and classical inference techniques, adapted to insurance data with and without the Markov assumption, are presented. Finally, a development of these models for credit risk is outlined. Chapter 2 focuses on using nonparametric inference methods to build incidence tables for long term care insurance contracts. Since there are several entry-causes in disability states which are useful for actuaries, an inference method for competing risks data, seen as a Markov multi-state model in continuous time, is used. In a second step, I compare these estimators to those conventionally used by practitioners, based on survival analysis methods. This second approach may involve significant bias because the interaction between entry-causes cannot be appropriately captured. In particular, these approaches assume that latent failure times are independent, while this hypothesis cannot be tested for competing risks data. Our approach allows to measure the error done by practitioners when they build incidence tables. Finally, a numerical application is considered on a long term care insurance dataset
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Macherey, Arthur. "Approximation et réduction de modèle pour les équations aux dérivées partielles avec interprétation probabiliste". Thesis, Ecole centrale de Nantes, 2021. http://www.theses.fr/2021ECDN0026.

Texto completo da fonte
Resumo:
Nous nous intéressons dans cette thèse à la résolution numérique de modèles régis par des équations aux dérivées partielles admettant une interprétation probabiliste. Dans un premier temps, nous considérons des équations aux dérivées partielles en grande dimension. En nous basant sur une interprétation probabiliste de la solution qui permet d’obtenir des évaluations ponctuelles de celle-ci via des méthodes de Monte-Carlo, nous proposons un algorithme combinant une méthode d’interpolation adaptative et une méthode de réduction de variance pour approcher la solution sur tout son domaine de définition. Dans un deuxième temps, nous nous intéressons aux méthodes de bases réduites pour les équations aux dérivées partielles paramétrées. Nous proposons deux algorithmes gloutons reposant sur une interprétation probabiliste de l’erreur. Nous proposons également un algorithme d’optimisation discrète probably approximately correct en précision relative qui nous permet, pour ces deux algorithmes gloutons, de sélectionner judicieusement un snapshot à ajouter à la base réduite en se basant sur la représentation probabiliste de l’erreur d’approximation
In this thesis, we are interested in the numerical solution of models governed by partial differential equations that admit a probabilistic interpretation. In a first part, we consider partial differential equations in high dimension. Based on a probabilistic interpretation of the solution which allows to obtain pointwise evaluations of the solution using Monte-Carlo methods, we propose an algorithm combining an adaptive interpolation method and a variance reduction method to approximate the global solution. In a second part, we focus on reduced basis methods for parametric partial differential equations. We propose two greedy algorithms based on a probabilistic interpretation of the error. We also propose a discrete optimization algorithm probably approximately correct in relative precision which allows us, for these two greedy algorithms, to judiciously select a snapshot to add to the reduced basis based on the probabilistic representation of the approximation error
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Delacroix, Bastien. "Développement d'un modèle intégral avec transport d'une fonction couleur pour la simulation d'écoulements de films minces partiellement mouillants". Electronic Thesis or Diss., Toulouse, ISAE, 2024. http://www.theses.fr/2024ESAE0005.

Texto completo da fonte
Resumo:
Pourquoi une goutte d’eau a tendance à prendre la forme d’une sphère ? Pourquoi reste-t-elle accrochée sur sa feuille lors de la rosée du matin ? Pourquoi, au contraire, ruisselle-t-elle jusque sur le sol ? Toutes ces questions en apparence simplistes font appel à des phénomènes microscopiques très complexes dont la nature physique est encore aujourd’hui sujet à débat. Leur compréhension est cependant un enjeu majeur dans de nombreux cas d'application industrielle. C’est notamment le cas en aéronautique où après le passage d’un aéronef au travers d’un nuage ou après une opération de dégivrage, un film mince se forme sur l’aile. L’évolution de la surface mouillée par ce film, comme lors de sa transition en ruisselets sous l’effet du cisaillement de l’air, ainsi que son éventuel regel un peu plus loin en dehors des zones de protection, n’est pas prise en compte dans les outils de simulations des dégivreurs thermiques ; ou alors de manière rudimentaire via des corrélations empiriques. Cependant, cette accrétion de givre se doit d’être contrôlée pour des raisons de sécurité et de performances aérodynamiques. C’est pourquoi, il est nécessaire d’améliorer les outils existant en développant de nouveaux modèles capables de prendre en compte l'influence des forces capillaires à l’échelle macroscopique, notamment au niveau de la ligne triple, pour pouvoir prédire la dynamique d’un film cisaillé.L’objectif général de cette étude est donc le développement d’un modèle adapté à la simulation à grande échelle d’écoulement de film mince partiellement mouillant.Dans cette optique, une approche basée sur un système d'équations de type Saint-Venant a été adoptée. Cependant, ce système sous sa forme classique ne permet pas la simulation de films minces avec effet de mouillage partiel. Une solution pour prendre en compte ces effets est d'ajouter une force macroscopique concentrée à la ligne de contact. Cette force singulière permet ainsi de vérifier localement la loi macroscopique de Young-Dupré. La difficulté de cette approche est alors de localiser la force uniquement à la ligne triple. Contrairement aux modèles rencontrés dans la littérature qui se basent tous sur l’utilisation d’un paramètre ajustable, permettant de faire la distinction entre zone sèche et zone mouillée, nous proposons ici une approche avec transport d’une fonction couleur. Cette fonction, définie comme égale à un dans les zones mouillées et nulle dans les zones sèches, présente l'intérêt d'avoir un gradient identiquement nul, sauf à la ligne triple, permettant de localiser la force de ligne de contact.L'introduction de cette fonction couleur oblige à reformuler en partie le système d'équations de Saint-Venant afin de tenir compte de cette nouvelle fonction dans l'expression des différents termes de forces agissant sur le film. Pour justifier le choix de cette nouvelle formulation, une méthode basée sur une formulation eulérienne du principe de Hamilton a été utilisée. Cette méthode permet d’obtenir une équation de quantité de mouvement compatible avec la conservation de l'énergie du système étudié avec comme unique point de départ une expression de la densité d'énergie du système en fonction des variables utilisées.Ce nouveau système d’équations, en plus d’être complètement affranchi d’un paramètre de calibration, présente l’avantage d’être complètement hyperbolique dans le cas où les effets de courbure ne sont pas pris en compte. Cela a permis le développement d’un solveur de Riemann de type HLLC pour résoudre numériquement ce système d’équations. Afin de tester la robustesse des modèles physiques et numériques, un ensemble de cas de vérification et de validation a été mis en place.Enfin, les termes de courbure ont été pris en compte dans le schéma numérique final permettant d’étendre considérablement le champ d’application de ce nouveau modèle avec fonction couleur. Ainsi des problèmes où les effets capillaires sont prédominants ont pu être simulés
Why does a drop of water tend to form a sphere? Why does it cling to its leaf in the morning dew? On the contrary, why does it flow down towards the ground? All these seemingly simplistic questions involve highly complex microscopic phenomena whose physical nature is still the subject of debate. However, understanding them is a major challenge in many industrial applications. This is particularly true in aeronautics, where a thin film forms on the wings after the aircraft has passed through a cloud or after a defreezing operation. The evolution of the wetted surface by this film, like its transition into rivulets under the effect of air shear, as well as its eventual refreezing a little further outside the protection zones, is not taken into account in thermal defrost simulation tools; or only in a rudimentary way via empirical correlations. However, this ice accretion must be controlled for safety reasons and aerodynamic performance. This is why it is necessary to improve existing tools by developing new models capable of considering the influence of capillary forces on a macroscopic scale, specifically at the contact line level, in order to be able to predict the dynamics of a sheared film.The overall objective of this study is therefore to develop a suitable model for large-scale simulation of partially wetting thin film flow.To answer this objective, an approach based on a Shallow-water equations was adopted. However, this system in its classical form does not allow the simulation of thin films with partial wetting effects. One solution to consider these effects is to add a macroscopic force concentrated to the contact line. This singular force enables the macroscopic Young-Dupré law to be verified locally. The issue with this approach is to localize the force at the contact line only. Unlike other models in the literature, which are all based on the use of an adjustable parameter allowing the distinction between dry and wet zones, we offer here an approach involving the transport of a color function. This function, defined as equal to one in wet zones and zero in dry zones, has the advantage of having an identically zero gradient, except at the contact line, enabling the contact line force to be localized.The introduction of this color function needs a partial reformulation of the Shallow-water equations, in order to integrate this new function in the expression of the various force terms acting on the film. In order to justify the choice of this new formulation, a method based on an eulerian formulation of Hamilton's principle was used. This method helps to obtain a momentum equation compatible with the conservation of energy of the system under study, with the only starting point being an expression of the system's energy density as a function of the variables used.This new system of equations, in addition to being completely calibration parameter free, has the advantage of being entirely hyperbolic in the case where curvature effects are not taken into account. This has helped us to develop an HLLC-type Riemann solver to solve this equation system numerically. In order to test out the robustness of the physical and numerical models, a set of verification and validation cases was set up.Finally, curvature terms were considered in the final numerical scheme, considerably extending the scope of application of this new color function model. In this way, problems where capillary effects are predominant could be simulated
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Festjens, Hugo. "Contribution à la caractérisation et à la modélisation du comportement dynamique des structures assemblées". Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2014. http://www.theses.fr/2014ECAP0028/document.

Texto completo da fonte
Resumo:
Les liaisons boulonnées ou rivetées sont, en apparence, l’un des systèmes mécaniques parmi les plus simples qui soient. La fonction première de ces éléments est d’assurer un encastrement rigide entre les composants qu’elles assemblent. Le dimensionnement de ces pièces aux efforts statiques nominaux est un problème assez largement résolu. Néanmoins, ces composants suscitent l’intérêt des ingénieurs et chercheurs depuis plus de 50 ans. Ce paradoxe s’explique en partie par l’amortissement important que ces liaisons produisent au sein des structures. Les efforts subis par les liaisons d’assemblages provoquent le glissement partiel des interfaces de contact. Il résulte de ce glissement, une dissipation par frottement qui est une source majeure d’amortissement des structures aéronautiques. Le niveau vibratoire d’un système est directement lié à son amortissement, c’est à dire à sa capacité à dissiper ou à accumuler de l’énergie. Dans le domaine du transport, entre autres, les vibrations sont néfastes car elles nuisent au confort des usagers ou à l’intégrité des structures. Le bon dimensionnement des assemblages est donc de nature à améliorer le comportement vibratoire des systèmes mécaniques. Actuellement, les outils de calcul numériques permettent d’estimer assez précisément les modes et fréquences propres d’une structure a priori mais l’amortissement, c'est-à-dire le niveau vibratoire, reste une donnée mesurée, a posteriori au travers d’essais couteux. Ceci s’explique par le caractère multi-échelle et la complexité des problèmes de contact. Ainsi, le comportement dynamique des assemblages reste un sujet d’étude très privilégié. Les travaux de cette thèse cherchent à répondre de manière pratique au besoin de produire des modèles réduits de structures assemblées pour la dynamique
At first sight, riveted and bolted connections seem to be one of the simplest mechanical systems possible. The primary function of these elements is to provide a rigid clamping between the components they assemble. The designing of these parts to nominal static stresses is already quite mastered. However, engineers are still bothered when it comes to modeling these components which have been studied for more than 50 years. This paradox can be explained by the large damping ratios joints generate in structures. The vibration level of a system is directly related to its damping ratio, i.e. its ability to dissipate or store energy. In the field of transport, among others, vibrations are unwanted because they affect the comfort of the users or the integrity of structures. A good designing of jointed structures is likely to improve the vibration behavior of mechanical systems. Nowadays, numerical calculations allow for the computing of the modes but the damping is still measured, a posteriori, through expensive tests. This is explained by the multi-scale nature and the complexity of contact physics. That is why the dynamic behavior of assembled structures remains an area of study for researchers. The work of this thesis aims to provide practical solutions for the identification and the designing of reduced order models for the dynamics of assembled structures
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Nauleau, Marie-Laure. "L'efficacité énergétique dans le secteur résidentiel français : analyse des déterminants d'investissement et des politiques publiques". Paris, EHESS, 2015. https://hal.archives-ouvertes.fr/tel-01618117.

Texto completo da fonte
Resumo:
Le poids du secteur résidentiel dans la consommation énergétique des ménages fait de la rénovation énergétique des logements un enjeu important dans la lutte contre le changement climatique. L'ensemble des barrières auxquelles font face les ménages pour investir dans l'efficacité énergétique de leurs logements invite à mieux comprendre les déterminants d'investissement et l'efficience de l'intervention publique. Une première partie de la thèse porte sur l'analyse des déterminants de l'investissement des ménages dans l'efficacité énergétique dans leurs logements. Un modèle de choix d'investissement, estimé sur les données de l'enquête annuelle «Maîtrise de l'énergie» de l'Ademe, met notamment en lumière l'hétérogénéité des déterminants suivant le type d'investissement. Une seconde partie de la thèse porte sur l'évaluation de l'efficacité des politiques publiques qui visent à promouvoir cet investissement, en analysant leur impact à la fois sur la demande et sur l'offre du marché de la rénovation énergétique. Du côté de la demande, la thèse recourt à deux méthodes complémentaires : l'évaluation économétrique ex-post, en étudiant spécifiquement l'efficacité du Crédit d'Impôt Développement Durable créé en 2005, et la modélisation technico-économique permettant d'évaluer différents instruments de manière ex-ante. Du côté de l'offre, constatant la structure non concurrentielle des marchés de l'efficacité énergétique, la thèse s'interroge de manière théorique sur l'efficacité des politiques publiques sur des marchés en présence de trois imperfections de marché : l'externalité négative du C02 et l'imperfection de la concurrence et de l'information engendrant de la discrimination en prix-qualité
Given the share of the residential sector in households' energy consumption, residential energy retrofitting is a burning issue in the climate change policy strategy. All the investment barriers faced by households invite us to explore the investment factors and to assess the efficiency of public policies. In a first part, the thesis studies the investment factors by estimating a discrete choice model on data from the French annual "Energy Management" survey conducted by Ademe, particularly focusing on factors heterogeneity among retrofitting types. A second part of the thesis deals with the assessment of public policy promoting energy efficiency, both from the demand and the supply sides of the energy efficiency markets. Regarding the demand side, the thesis uses two complementary methods: an ex-post econometric study focuses on the French tax credit called Credit d'lmpot Developpement Durable implemented in 2005 while an ex-ante study uses a hybrid energy-economy model to compare different policies. Regarding the supply side, given the high degree of concentration on the energy efficiency markets, we use a theoretical model to assess public policy efficiency in the presence of three markets imperfections: the negative externality linked to C02 and the imperfections of market competition and information inducing price-quality discrimination
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Ziti, Chérif. "Analyse et simulation numérique d'un système hyperbolique modélisant le comportement d'une population bactérienne". Saint-Etienne, 1987. http://www.theses.fr/1987STET4004.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Montorio, Lucie. "Impact des changements environnementaux sur l’histoire de vie, la démographie et la dynamique de population chez les salmonidés". Thesis, Rennes, Agrocampus Ouest, 2017. http://www.theses.fr/2017NSARH104/document.

Texto completo da fonte
Resumo:
Cette thèse étudie l’influence de la diversité des tactiques d’histoire de vie sur la dynamique des populations de deux salmonidés à migration partielle: le saumon Atlantique, Salmo salar et la truite commune, Salmo trutta. Ces deux espèces ont de fortes valeurs écologique et économique, mais les rôles respectifs des individus résidents et migrateurs sur la dynamique et la résilience des populations à des changements environnementaux demeurent méconnus. Nous avons abordé ces questions par des approches démographiques, génétiques et de modélisation. Nous avons démontré que la détermination de la tactique d’histoire de vie est en partie plastique et permet aux individus juvéniles de migrer en réponse à un changement de l’environnement. De plus, cette thèse démontre que la diversité des tactiques permet aux populations à migration partielle de bénéficier d’un changement favorable de l’environnement et de réduire l’effet d’un changement défavorable sur la dynamique de populationCes deux processus pourraient expliquer la plus forte résilience des populations à migration partielle face aux variations environnementales par rapport aux populations strictement résidentes ou migratrices. Toutefois, étant donné les différences de stratégies chez le saumon Atlantique et la truite commune, nos résultats suggèrent que la truite a une meilleure capacité de réponse aux changements environnementaux et un niveau de résilience plus élevé que le saumon Atlantique
This thesis investigates the influence of the tactic diversity on population dynamics in two partially migratory salmonids: Atlantic salmon, Salmo salar and brown trout, Salmo trutta. These two species have high ecological and economic values but the role of migrant and resident individuals on population dynamics and resilience to environmental changes is currently largely unknown. I undertook a multidisciplinary approach combining demographic, genetic, and modeling tools to address these issues in populations from France. I found that tactic determination is partly plastic as juveniles can respond to environmental variations by migrating. In addition, this thesis showed that tactics diversity in partially migratory populations enables a better use of favorable environmental conditions and buffer the effects of unfavorable conditions on their dynamics.These two processes might promote a higher resilience of partially migratory populations to environmental change, including anthropogenic effects, than in solely migratory or resident populations. Nonetheless, given the different strategies in Atlantic salmon and brown trout, my results suggested that brown trout should have better abilities to response to environmental changes and a higher level of resilience than Atlantic salmon
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Andary, Sébastien. "Contributions à la commande des systèmes mécaniques sous-actionnés : du concept à l'implémentation temps réel". Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20110/document.

Texto completo da fonte
Resumo:
Cette thèse porte sur la commande non linéaire des systèmes mécaniques sous-actionnés, ces systèmes possédant moins d'actionneur que de degrés de liberté. La dynamique interne de ces systèmes est souvent instable ce qui les rend difficiles à commander et requiert des méthodes de commande spécifiques. La contribution de cette thèse est la proposition de deux approches de commandes originales dont le but est la génération de cycle limites stables sur toutes les coordonnées du système mécanique sous-actionné. La première approche de commande est basée sur la linéarisation partielle par retour d'état et l'optimisation de trajectoires de référence. La seconde approche est basée sur les travaux récents sur la commande sans modèle, une technique de commande qui permet de contrôler un système sans avoir besoin de modèle mathématique préalable de sa dynamique. Ces deux approches de commande sont appliquées à un système mécanique sous-actionné particulier: le pendule inversé stabilisé par roue d'inertie. Plusieurs scénarios sont proposés, à la fois en simulation numérique et en temps-réel sur une plate-forme expérimentale. Les résultats obtenus attestent de la capacité des contrôleurs proposés à stabiliser le système autour de cycles limites stables en dépit de la présence de perturbations externes
This thesis is focused on non linear control of underactuated mechanical systems, thoses systems with less actuators than degrees of freedom. The internal dynamics of such system is often unstable making them particulary difficult to control. Thus specific care must be taken when designing controlers for such systems. The main contribution of this thesis is the design of two new control schemes for stable limit cycles generation on all coordinates of underactuated mechanical systems. First control approach is based on partial feedback linearization and reference trajectories optimization. Second approach is based on recent work on model free control,a control scheme which doesn't require prior mathematicalmodel of the controlled system dynamics. The proposed approaches are applied to an inertiawheel inverted pendulumtestbed. Several experimental scenarios are proposed, both in numerical simulation and in realtime implementation. Obtained results demonstrate the ability of both controllers to stabilize the system around stable limit cycles and to reject external disturbances
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Farah, Mohamed. "Estimation paramétrique de systèmes gouvernés par des équations aux dérivées partielles". Thesis, Poitiers, 2016. http://www.theses.fr/2016POIT2311.

Texto completo da fonte
Resumo:
Dans ce manuscrit, une attention particulière est accordée à l’identification des systèmes dynamiques dont le comportement est régi par des équations aux dérivées partielles (EDP). Afin d’atteindre cet objectif, deux algorithmes d’identification sont proposés. Le premier est un algorithme à erreur d’équation basé sur les moments partiels réinitialisés qui permettent de faire disparaitre les termes de dérivées partielles. Les paramètres du modèle obtenu peuvent alors être estimés par des approches de type moindres carrés. Cette méthode nécessite le choix d’un paramètre de synthèse ainsi qu’un nombre important de capteurs répartis sur toute la géométrie du système étudié. Une étude du choix optimal du paramètre de synthèse ainsi que de l’influence du nombre et de la répartition des capteurs est menée sur un exemple numérique. Le second algorithme est propre aux EDP pouvant être décrites par un modèle de Roesser. Dans ce cas, une formulation linéaire fractionnaire est proposée et un algorithme à erreur de sortie est mis en œuvre pour estimer les paramètres du modèle. L’initialisation de cet algorithme est réalisée grâce aux résultats fournis par le premier algorithme. Finalement, l’efficacité des deux approches proposées est montrée au travers un exemple numérique d’échangeur de chaleur à co-courant
In this manuscript, a special attention is paid to the identification of dynamic systems whose behavior is governed by partial differential equations (PDE). To achieve this, two identification algorithms are proposed. The first is an equation-error algorithm based on reinitialized partial moments whose function is to make the terms of partial derivatives disappear. The parameters of the resulting model can then be estimated by a least squares type approach. This method requires the selection of a synthesis parameter and a large number of sensors distributed over the entire geometry of the studied system. A study of the optimal choice of the synthesis parameters as well as of the influence of the number and distribution of the sensors is conducted on a numerical example. The second algorithm is associated to the PDE that can be presented by a Roesser model. Throughout this model, a fractional linear formulation is proposed and an output-error algorithm is exploited to estimate the model parameters. The initialization of this algorithm is achieved thanks to the results provided by the first algorithm. Finally, the efficiency of the two proposed approaches is shown through a numerical example of a co-current heat exchanger
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Sibé, Matthieu. "L'hôpital magnétique : définition, conceptualisation, attributs organisationnels et conséquences perçues sur les attitudes au travail". Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1G031.

Texto completo da fonte
Resumo:
De nombreux constats contemporains s’alarment du malaise récurrent des ressources humaines hospitalières, particulièrement à l’endroit des médecins et des soignants, et par conséquent du risque de mauvaise qualité de prise en charge des patients. Adoptant une approche plus optimiste, des chercheurs américains en soins infirmiers ont mis en évidence depuis le début des années 1980 l’existence d’hôpitaux dits magnétiques, parce qu’attractifs et fidélisateurs, et où il ferait bon travailler et se faire soigner. Cette thèse vise à approfondir le concept de Magnet Hospital, à éclairer sa définition et sa portée pour la gestion des ressources humaines hospitalières en France. Suivant une démarche hypothético-déductive, la conceptualisation, fondée sur un état de l’art, débute par une appropriation du modèle synthétique du Magnet Hospital. Empruntant une perspective psychosociale, notre modèle original de recherche se focalise sur la perception, à l’échelle des unités de soins, des attributs managériaux du magnétisme hospitalier (leadership transformationnel, empowerment perçu de la participation et climat relationnel collégial entre médecins et soignants) et ses conséquences attitudinales positives (satisfaction, implication, intention de rester, équilibre émotionnel travail/hors travail et efficacité collective perçue). Une méthodologie quantitative interroge au moyen de 8 échelles ad hoc un échantillon représentatif de 133 médecins, 361 infirmières et 362 aides-soignantes de 36 services de médecine polyvalente français. Une série de modélisations par équations structurelles, selon l’algorithme Partial Least Squares, teste la nature et l’intensité des relations directes et indirectes du magnétisme managérial perçu. Les résultats statistiques indiquent une bonne qualité des construits et d’ajustement des modèles. Un contexte managérial magnétique produit son principal effet positif sur l’efficacité collective perçue. Des différences catégorielles existent quant à la perception de sa composition et à la transmission de ses effets par la médiation de l’efficacité collective perçue, signalant le caractère contingent du magnétisme. Ces résultats ouvrent des perspectives managériales et scientifiques, en soulignant l’intérêt des approches positives de l’organisation hospitalière
Many contemporary findings are alarmed of the recurring discomfort of hospital human resources, especially against doctors and nurses, and consequently against risk of poor quality of care for patients. Adopting a more optimistic approach, American nursing scholars have highlighted since the 1980s, some magnet hospitals, able to attract and retain, and with good working and care conditions. This thesis aims to explore Magnet Hospital concept, to inform its definition and scope for hospital human resource management in France. According to a hypothetico-deductive approach, based on a review of the literature, the conceptualization begins with appropriation of synthetic Magnet Hospital model. Under a psychosocial perspective, our original research model focuses on perception of managerial magnetic attributes (transformational leadership, perceived empowerment of participation, collegial climate between doctors and nurses) and their consequences on positive job attitudes (satisfaction, commitment, intent to rest, emotional equilibrium work/family, perceived collective efficacy), at wards level. A quantitative methodology proceeds by a questionnaire of 8 ad hoc scales and interviews 133 doctors, 361 nurses, 362, auxiliary nurses, in 36 French medicine units. A set of structural equations modeling, according to Partial Least Squares, tests nature and intensity of direct and indirect relationships of perceived managerial magnetism. The statistical results show a good validity of constructs and a good fit of models. The major positive effect of magnetic managerial context is on perceived collective efficacy. Some professional differences exist about perceptions of composition and transmission of magnetic effects (via mediation of perceived collective efficacy), indicating the contingency of magnetism. These findings open managerial and scientific opportunities, emphasizing the interest for positive organizational approach of hospital
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Le, Coënt Adrien. "Guaranteed control synthesis for switched space-time dynamical systems". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLN039/document.

Texto completo da fonte
Resumo:
Dans le présent travail de thèse, nous souhaitons approfondir l’étude des systèmes à commutation pour des problèmes aux dérivées partielles en explorant de nouvelles pistes d’investigation, incluant notamment la question de la synthèse de contrôle garanti par décomposition de l’espace des états, la synthèse de contrôle nécessitant la réduction de modèle, le contrôle des différentes sources d’erreur sur des quantités d’intérêt, et la mesure des incertitudes sur les états et les paramètres du modèle. Nous envisageons l’utilisation de méthodes de calcul ensemblistes associées à des méthodes de réduction de modèle, ainsi que l’utilisation d’observateurs d’état pour l’estimation en ligne du système
In this thesis, we focus on switched control systems described by partial differential equations, and investigate the issues of guaranteed control of such systems using state-space decomposition methods. The use of state-space decomposition methods requires model order reduction, control of the different sources of error for quantities of interest, and measure of uncertainties on the states and parameters of the system. We are considering using set-based computation methods, in association with model order reduction techniques, along with the use of state-observers for on-line estimation of the system
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Guillois, Florian. "Analyse du transport turbulent dans une zone de mélange issue de l'instabilité de Richtmyer-Meshkov à l'aide d'un modèle à fonction de densité de probabilité : Analyse du transport de l’énergie turbulente". Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEC020/document.

Texto completo da fonte
Resumo:
Cette thèse a pour objet la simulation d'une zone de mélange turbulente issue de l'instabilité de Richtmyer-Meshkov à l'aide d'un modèle à fonction de densité de probabilité (PDF). Nous analysons plus particulièrement la prise en charge par le modèle PDF du transport de l'énergie cinétique turbulente dans la zone de mélange.Dans cette optique, nous commençons par mettre en avant le lien existant entre les statistiques en un point de l'écoulement et ses conditions initiales aux grandes échelles. Ce lien s'exprime à travers le principe de permanence des grandes échelles, et permet d'établir des prédictions pour certaines grandeurs de la zone de mélange, telles que son taux de croissance ou son anisotropie.Nous dérivons ensuite un modèle PDF de Langevin capable de restituer cette dépendance aux conditions initiales. Ce modèle est ensuite validé en le comparant à des résultats issus de simulations aux grandes échelles (LES).Enfin, une analyse asymptotique du modèle proposé permet d'éclairer notre compréhension du transport turbulent. Un régime de diffusion est mis en évidence, et l'expression du coefficient de diffusion associé à ce régime atteste l'influence de la permanence des grandes échelles sur le transport turbulent.Tout au long de cette thèse, nous nous sommes appuyés sur des résultats issus de simulations de Monte Carlo du modèle de Langevin. A cet effet, nous avons développé une méthode spécifique eulérienne et à l'avons comparé à des alternatives lagrangiennes
The aim of the thesis is to simulate a turbulent mixing zone resulting from the Richtmyer-Meshkov instability using a probability density function (PDF) model. An emphasis is put on the analysis of the turbulent kinetic energy transport.To this end, we first highlight the link existing between the one-point statistics of the flow and its initial conditions at large scales. This link is expressed through the principle of permanence of large eddies, and allows to establish predictions for quantities of the mixing zone, such as its growth rate or its anisotropy.We then derive a Langevin PDF model which is able to reproduce this dependency of the statistics on the initial conditions. This model is then validated by comparing it against large eddy simulations (LES).Finally, an asymptotic analysis of the derived model helps to improve our understanding of the turbulent transport. A diffusion regime is identified, and the expression of the diffusion coefficient associated with this regime confirms the influence of the permanence of large eddies on the turbulent transport.Throughout this thesis, our numerical results were based on Monte Carlo simulations for the Langevin model. In this regard, we proceeded to the development of a specific Eulerian method and its comparison with Lagrangian counterparts
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Michel, Thomas. "Analyse mathématique et calibration de modèles de croissance tumorale". Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0222/document.

Texto completo da fonte
Resumo:
Cette thèse présente des travaux sur l’étude et la calibration de modèles d’équations aux dérivées partielles pour la croissance tumorale. La première partie porte sur l’analyse d’un modèle de croissance tumorale pour le cas de métastases au foie de tumeurs gastro-intestinales (GIST). Le modèle est un système d’équations aux dérivées partielles couplées et prend en compte plusieurs traitements dont un traitement anti-angiogénique. Le modèle permet de reproduire des données cliniques. La première partie de ce travail concerne la preuve d’existence/unicité de la solution du modèle. La seconde partie du travail porte sur l’étude du comportement asymptotique de la solution du modèle lorsqu’un paramètre du modèle, décrivant la capacité de la tumeur à évacuer la nécrose, converge vers 0. La seconde partie de la thèse concerne le développement d’un modèle de croissance pour des sphéroïdes tumoraux ainsi que sur la calibration de ce modèle à partir de données expérimentales in vitro. L’objectif est de développer un modèle permettant de reproduire quantitativement la distribution des cellules proliférantes à l’intérieur d’un sphéroïde en fonction de la concentration en nutriments. Le travail de modélisation et de calibration du modèle a été effectué à partir de données expérimentales permettant d’obtenir la répartition spatiale de cellules proliférantes dans un sphéroïde tumoral
In this thesis, we present several works on the study and the calibration of partial differential equations models for tumor growth. The first part is devoted to the mathematical study of a model for tumor drug resistance in the case of gastro-intestinal tumor (GIST) metastases to the liver. The model we study consists in a coupled partial differential equations system and takes several treatments into account, such as a anti-angiogenic treatment. This model is able to reproduce clinical data. In a first part, we present the proof of the existence/uniqueness of the solution to this model. Then, in a second part, we study the asymptotic behavior of the solution when a parameter of this model, describing the capacity of the tumor to evacuate the necrosis, goes to 0. In the second part of this thesis, we present the development of model for tumor spheroids growth. We also present the model calibration thanks to in vitro experimental data. The main objective of this work is to reproduce quantitatively the proliferative cell distribution in a spheroid, as a function of the concentration of nutrients. The modeling and calibration of this model have been done thanks to experimental data consisting of proliferative cells distribution in a spheroid
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Ayi, Nathalie. "Influence du stochastique sur des problématiques de changements d'échelle". Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4061/document.

Texto completo da fonte
Resumo:
Les travaux de cette thèse s'inscrivent dans le domaine des équations aux dérivées partielles et sont liés à la problématique des changements d'échelle dans le contexte de la cinétique des gaz. En effet, sachant qu'il existe plusieurs niveaux de description pour un gaz, on cherche à relier les différentes échelles associées dans un cadre où une part d'aléa intervient. Dans une première partie, on établit la dérivation rigoureuse de l'équation de Boltzmann linéaire sans cut-off en partant d'un système de particules interagissant via un potentiel à portée infinie en partant d'un équilibre perturbé.La deuxième partie traite du passage d'un modèle BGK stochastique avec champ fort à une loi de conservation scalaire avec forçage stochastique. D'abord, on établit l'existence d'une solution au modèle BGK considéré. Sous une hypothèse additionnelle, on prouve alors la convergence vers une formulation cinétique associée à la loi de conservation avec forçage stochastique.Au cours de la troisième partie, on quantifie dans le cas à vitesses discrètes le défaut de régularité dans les lemmes de moyenne et on établit un lemme de moyenne stochastique dans ce même cas. On applique alors le résultat au cadre de l'approximation de Rosseland pour établir la limite diffusive associée à ce modèle.Enfin, on s'intéresse à l'étude numérique du modèle de Uchiyama de particules carrées à quatre vitesses en dimension deux. Après avoir adapté les méthodes de simulation développées dans le cas des sphères dures, on effectue une étude statistique des limites à différentes échelles de ce modèle. On rejette alors l'hypothèse d'un mouvement Brownien fractionnaire comme limite diffusive
The work of this thesis belongs to the field of partial differential equations and is linked to the problematic of scale changes in the context of kinetic of gas. Indeed, knowing that there exists different scales of description for a gas, we want to link these different associated scales in a context where some randomness acts, in initial data and/or distributed on all the time interval. In a first part, we establish the rigorous derivation of the linear Boltzmann equation without cut-off starting from a particle system interacting via a potential of infinite range starting from a perturbed equilibrium. The second part deals with the passage from a stochastic BGK model with high-field scaling to a scalar conservation law with stochastic forcing. First, we establish the existence of a solution to the considered BGK model. Under an additional assumption, we prove then the convergence to a kinetic formulation associated to the conservation law with stochastic forcing. In the third part, first we quantify in the case of discrete velocities the defect of regularity in the averaging lemmas. Then, we establish a stochastic averaging lemma in that same case. We apply then the result to the context of Rosseland approximation to establish the diffusive limit associated to this model.Finally, we are interested into the numerical study of Uchiyama's model of square particles with four velocities in dimension two. After adapting the methods of simulation which were developed in the case of hard spheres, we carry out a statistical study of the limits at different scales of this model. We reject the hypothesis of a fractional Brownian motion as diffusive limit
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Furlan, Marco. "Structures contrôlées pour les équations aux dérivées partielles". Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLED008/document.

Texto completo da fonte
Resumo:
Le projet de thèse comporte différentes directions possibles: a) Améliorer la compréhension des relations entre la théorie des structures de régularité développée par M. Hairer et la méthode des Distributions Paracontrolées développée par Gubinelli, Imkeller et Perkowski, et éventuellement fournir une synthèse des deux. C'est très spéculatif et, pour le moment, il n'y a pas de chemin clair vers cet objectif à long terme. b) Utiliser la théorie des Distributions Paracontrolées pour étudier différents types d'équations aux dérivés partiels: équations de transport et équations générales d'évolution hyperbolique, équations dispersives, systèmes de lois de conservation. Ces EDP ne sont pas dans le domaine des méthodes actuelles qui ont été développées principalement pour gérer les équations d'évolution semi-linéaire parabolique. c) Une fois qu'une théorie pour l'équation de transport perturbée par un signal irregulier a été établie, il sera possible de se dédier à l'étude des phénomènes de régularisation par le bruit qui, pour le moment, n'ont étés étudiés que dans le contexte des équations de transport perturbées par le mouvement brownien, en utilisant des outils standard d'analyse stochastique. d) Les techniques du Groupe de Renormalisation (GR) et les développements multi-échelles ont déjà été utilisés à la fois pour aborder les EDP et pour définir des champs quantiques euclidiens. La théorie des Distributions Paracontrolées peut être comprise comme une sorte d'analyse multi-échelle des fonctionnels non linéaires et il serait intéressant d'explorer l'interaction des techniques paradifférentielles avec des techniques plus standard, comme les "cluster expansions" et les méthodes liées au GR
The thesis project has various possible directions: a) Improve the understanding of the relations between the theory of Regularity Structures developed by M.Hairer and the method of Paracontrolled Distributions developed by Gubinelli, Imkeller and Perkowski, and eventually to provide a synthesis. This is highly speculative and at the moment there are no clear path towards this long term goal. b) Use the theory of Paracontrolled Distributions to study different types of PDEs: transport equations and general hyperbolic evolution equation, dispersive equations, systems of conservation laws. These PDEs are not in the domain of the current methods which were developed mainly to handle parabolic semilinear evolution equations. c) Once a theory of transport equation driven by rough signals have been established it will become possible to tackle the phenomena of regularization by transport noise which for the moment has been studied only in the context of transport equations driven by Brownian motion, using standard tools of stochastic analysis. d) Renormalization group (RG) techniques and multi-scale expansions have already been used both to tackle PDE problems and to define Euclidean Quantum Field Theories. Paracontrolled Distributions theory can be understood as a kind of mul- tiscale analysis of non-linear functionals and it would be interesting to explore the interplay of paradifferential techniques with more standard techniques like cluster expansions and RG methods
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Benoit, David. "Divers problèmes théoriques et numériques liés à la simulation de fluides non newtoniens". Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1004/document.

Texto completo da fonte
Resumo:
Le chapitre 1 introduit les modèles et donne les principaux résultats obtenus. Dans le chapitre 2, on présente des simulations numériques d'un modèle macroscopique en deux dimensions. La méthode de discrétisation par éléments finis utilisée est décrite. Pour le cas test de l'écoulement autour d'un cylindre, les phénomènes en jeu dans les fluides vieillissants sont observés. Le chapitre 3 concerne l'étude mathématique de la version unidimensionnelle du système d'équations aux dérivées partielles utilisé pour les simulations. On montre que le problème est bien posé et on examine le comportement en temps long de la solution. Dans le dernier chapitre, des équations macroscopiques sont dérivées à partir d'une équation mésoscopique. L'analyse mathématique de cette équation mésoscopique est également menée
This thesis is devoted to the modelling, the mathematical analysis and the simulation of non-Newtonian fluids. Some fluids in an intermediate liquid-solid phase are particularly considered: aging fluids. Modelling scales are macroscopic and mesoscopic. In Chapter 1, we introduce the models and give the main results obtained. In Chapter 2, we present numerical simulations of a macroscopic two-dimensional model. The finite element method used for discretization is described. For the flow past a cylinder test-case, phenomena at play in aging fluids are observed. The Chapter 3 contains a mathematical analysis of the one-dimensional version of the system of partial differential equations used for the simulations. We show well-posedness and investigate the longtime behaviour of the solution. In the last chapter, macroscopic equations are derived from a mesoscopic equation. The mathematical analysis of this mesoscopic equation is also carried out
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Schorsch, Julien. "Contributions à l'estimation paramétrique des modèles décrits par les équations aux dérivées partielles". Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00913579.

Texto completo da fonte
Resumo:
Les systèmes décrits par les équations aux dérivées partielles, appartiennent à la classe des systèmes dynamiques impliquant des fonctions dépendantes de plusieurs variables, comme le temps et l'espace. Déjà fortement répandus pour la modélisation mathématique de phénomènes physiques et environnementaux, ces systèmes ont un rôle croissant dans les domaines de l'automatique. Cette expansion, provoquée par les avancées technologiques au niveau des capteurs facilitant l'acquisition de données et par les nouveaux enjeux environnementaux, incite au développement de nouvelles thématiques de recherche. L'une de ces thématiques, est l'étude des problèmes inverses et plus particulièrement l'identification paramétrique des équations aux dérivées partielles. Tout abord, une description détaillée des différentes classes de systèmes décrits par ces équations est présentée puis les problèmes d'identification qui leur sont associés sont soulevés. L'accent est mis sur l'estimation paramétrique des équations linéaires, homogènes ou non, et sur les équations linéaires à paramètres variant. Un point commun à ces problèmes d'identification réside dans le caractère bruité et échantillonné des mesures de la sortie. Pour ce faire, deux types d'outils principaux ont été élaborés. Certaines techniques de discrétisation spatio-temporelle ont été utilisées pour faire face au caractère échantillonné des données; les méthodes de variable instrumentale, pour traiter le problème lié à la présence de bruit de mesure. Les performances de ces méthodes ont été évaluées selon des protocoles de simulation numérique reproduisant des situations réalistes de phénomènes physique et environnementaux, comme la diffusion de polluant dans une rivière.
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Cantin, Guillaume. "Étude de réseaux complexes de systèmes dynamiques dissipatifs ou conservatifs en dimension finie ou infinie. Application à l'analyse des comportements humains en situation de catastrophe". Thesis, Normandie, 2018. http://www.theses.fr/2018NORMLH16/document.

Texto completo da fonte
Resumo:
Cette thèse est consacrée à l'étude de la dynamique des systèmes complexes. Nous construisons des réseaux couplés à partir de multiples instances de systèmes dynamiques déterministes, donnés par des équations différentielles ordinaires ou des équations aux dérivées partielles de type parabolique, qui décrivent un problème d'évolution. Nous étudions le lien entre la dynamique interne à chaque nœud du réseau, les éléments de la topologie du graphe portant ce réseau, et sa dynamique globale. Nous recherchons les conditions de couplage qui favorisent une dynamique globale particulière à l'échelle du réseau, et étudions l'impact des interactions sur les bifurcations identifiées sur chaque nœud. Nous considérons en particulier des réseaux couplés de systèmes de réaction-diffusion, dont nous étudions le comportement asymptotique, en recherchant des régions positivement invariantes, et en démontrant l'existence d'attracteurs exponentiels de dimension fractale finie, à partir d'estimations d'énergie qui révèlent la nature dissipative de ces réseaux de systèmes de réaction-diffusion. Ces questions sont étudiées dans le cadre de quelques applications. En particulier, nous considérons un modèle mathématique pour l'étude géographique des réactions comportementales d'individus, au sein d'une population en situation de catastrophe. Nous présentons les éléments de modélisation associés, ainsi que son étude mathématique, avec une analyse de la stabilité des équilibres et de leurs bifurcations. Nous établissons l'importance capitale des chemins d'évacuation dans les réseaux complexes construits à partir de ce modèle, pour atteindre l'équilibre attendu de retour au comportement du quotidien pour l'ensemble de la population considérée, tout en évitant une propagation du comportement de panique. D'autre part, la recherche de solutions périodiques émergentes dans les réseaux d'oscillateurs nous amène à considérer des réseaux complexes de systèmes hamiltoniens pour lesquels nous construisons des perturbations polynomiales qui provoquent l'apparition de cycles limites, problématique liée au XVIème problème de Hilbert
This thesis is devoted to the study of the dynamics of complex systems. We consider coupled networks built with multiple instances of deterministicdynamical systems, defined by ordinary differential equations or partial differential equations of parabolic type, which describe an evolution problem.We study the link between the internal dynamics of each node in the network, its topology, and its global dynamics. We analyze the coupling conditions which favor a particular dynamics at the network's scale, and study the impact of the interactions on the bifurcations identified on each node. In particular, we consider coupled networks of reaction-diffusion systems; we analyze their asymptotic behavior by searching positively invariant regions, and proving the existence of exponential attractors of finite fractal dimension, derived from energy estimates which suggest the dissipative nature of those networks of reaction-diffusion systems.Our framework includes the study of multiple applications. Among them, we consider a mathematical model for the geographical analysis of behavioral reactions of individuals facing a catastrophic event. We present the modeling choices that led to the study of this evolution problem, and its mathematical study, with a stability and bifurcation analysis of the equilibria. We highlight the decisive role of evacuation paths in coupled networks built from this model, in order to reach the expected equilibrium corresponding to a global return of all individuals to the daily behavior, avoiding a propagation of panic. Furthermore, the research of emergent periodic solutions in complex networks of oscillators brings us to consider coupled networks of hamiltonian systems, for which we construct polynomial perturbationswhich provoke the emergence of limit cycles, question which is related to the sixteenth Hilbert's problem
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Darrigade, Léo. "Modélisation du dialogue hôte-microbiote au voisinage de l’épithélium de l'intestin distal". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASM008.

Texto completo da fonte
Resumo:
La physiologie et la santé de l'Homme dépendent des activités des cellules humaines, mais aussi de celle du microbiote intestinal, et de leurs interactions. Chez les Mammifères, l'épithélium intestinal est structuré en un nombre extrêmement élevé d'invaginations appelées cryptes. La crypte intestinale est l'unité la plus simple du dialogue hôte-microbiote. Les dimensions de la crypte (quelques centaines de cellules) et les nombreuses connaissances accumulées sur son fonctionnement incitent à en faire une modélisation détaillée. Nous avons construit un modèle individu-centré des cellules épithéliales interagissant avec des espèces chimiques issues de l'activité du microbiote, sous la forme d'un processus markovien déterministe par morceaux. Ce modèle prend en compte: les interactions liées au contact entre cellules voisines (mécaniques notamment) ; la prolifération, la différenciation et la mort cellulaire régulées spatialement ou par les concentrations des espèces chimiques; des espèces chimiques diffusant dans la lumière de la crypte et réagissant avec les cellules. La convergence du modèle individu-centré stochastique vers un modèle déterministe sous l'hypothèse d'une grande population est démontrée. Un second modèle limite est dérivé formellement lorsque la taille des cellules épithéliales tend vers 0. Ces modèles alternatifs permettent de réaliser des simulations beaucoup plus rapides, afin d'éclairer le fonctionnement du modèle individu-centré ou de le coupler à un modèle du côlon complet. Ces trois modèles sont implémentés, la convergence des modèles est illustrée numériquement, et les simulations du modèle individu-centré sont analysées et montrent que l'on reproduit qualitativement le fonctionnement de la crypte intestinale
Human health and physiology relie both on human cells activity and on intestinal microbiota activity, as well as on their interactions. In Mammals, the intestinal epithelium is very densely folded, and the smallest fold is called the intestinal crypt. It is also the simplest unit of the host-microbiota crosstalk. The size of a crypt, which is made of approximately 700 cells, and the detailed knowledge that we have of its functionning are amenable to build a detailed mathematical model. We constructed an individual-based model of epithelial cells interacting with chemicals produced by the microbiota which diffuse in the crypt lumen. This model is formalised as a piecewise determinist Markov process. It accounts for: local interactions due to cell contact (among which are mechanical interactions); cell proliferation, differenciation and extrusion which are regulated spatially or by chemicals concentrations; chemicals diffusing and reacting with cells. We demonstrate the convergence of the stochastic individual-based model to a deterministic model under the assumption of large population. A second limit model is obtained formally when the size of cells goes to 0. We aim at obtaining deterministic limit model because they can be simulated much faster, and can be used to improve understanding of the stochastic model or can be coupled with a model of the whole colon. The three models are implemented, convergence of models is shown numerically, and simulations of the individual-based model are analysed to show that qualitative behaviour of the crypt is reproduced
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Ben, Saad Lakhal Asma. "Etudes sur le rôle de l'immobilier dans la stabilité économique et financière en France". Thesis, Orléans, 2018. http://www.theses.fr/2018ORLE0502.

Texto completo da fonte
Resumo:
La présente thèse vient contribuer aux débats d’actualités sur le rôle de l’immobilier dans la conjoncture économique ainsi que dans la stabilité du système financier. Après avoir mis en évidence l’ampleur des crises immobilières, nous évaluons l’impact d’un choc des prix immobiliers sur le cycle économique (chapitre1). Nous montrons, qu’en France, l’effet de richesse immobilière est plus important que l’effet de richesse boursière. Nous concluons que les prix immobiliers impactent significativement le cycle économique. Ensuite, nous mesurons l’incidence de l’activité dans le secteur immobilier sur l’activité économique dans l’ensemble (chapitre2). Il ressort de notre étude empirique que l’investissement résidentiel ne joue qu’un rôle mineur dans les fluctuations conjoncturelles en France. Celles-ci sont dominées par les évolutions du solde commercial et la consommation des ménages. Enfin, nous étudions la place de l’immobilier résidentiel dans la stabilité du système financier français (chapitre3). Nous analysons l’interaction dynamique entre le marché de crédit à l’habitat et l’évolution des prix immobiliers. Cette interaction engendre une spirale déstabilisante qui explique la formation de la bulle immobilière. Nous sommes conduits à évaluer l’efficacité des politiques monétaire et macroprudentielle à contrôler les évolutions des prix immobiliers. Nos résultats montrent que le taux d’apport personnel est l’instrument le plus approprié à atteindre cet objectif
This thesis contributes to the topical debate on the role of real estate in the economic condition as well as in the stability of the financial system. After highlighting the scale of a real estate crisis, we evaluate the impact of a real estate price shock on the business cycle (Chapter 1). We show that, in France, the housing wealth effect is more important than the equity wealth effect. We conclude that housing prices significantly impact the business cycle. Then, we measure the impact of activity in the real estate sector on overall economic activity (Chapter 2). Our empirical research proves that residential investment only plays a minor role in the cyclical fluctuation. The two most influential components in the business cycle are the trade balance and household consumption. Finally, we expose the role of residential real estate in the stability of the French financial system (Chapter 3). We analyze the dynamic interaction between the housing credit market and the evolution of real estate prices. This interaction generates the vicious spiral that explains the formation of property bubbles. This is why we are interested in the evaluation of monetary and macroprudential policies effectiveness to control the evolutions of real estate prices. Our results show that the down-payment rate is the most appropriate instrument to achieve this objective
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Bou, habib Chadi. "Flux internationaux, hypertrophie bancaire et syndrome hollandais dans les petites économies ouvertes". Thesis, Lyon 2, 2012. http://www.theses.fr/2012LYO22014/document.

Texto completo da fonte
Resumo:
Les flux financiers internationaux ont connu un développement accéléré au cours des quatre dernières décennies, et le rôle du secteur bancaire dans la transformation de ces flux en moyens de financer la demande s’est accru. Or le passage d’un choc de flux, à un choc de revenu, puis à un choc de demande, génère des ajustements de type «Syndrome Hollandais»; avec variation des prix relatifs et ajustement de la structure de production, mouvement des facteurs de production, et variation des rémunérations absolues et relatives de ces facteurs. Le phénomène est d’importance pour les petites économies ouvertes preneuses de prix et exposées aux chocs exogènes. Nous conceptualisons la transmission du choc et les ajustements sur différents horizons temporels pour une économie à deux secteurs; l’un produisant des biens échangeables et l’autre des biens non-échangeables. L’économie dispose de deux facteurs de production, le travail et le capital, substituables et mobiles avec le temps. Nous testons ce cadre conceptuel sur le Liban, le Luxembourg, et l’Islande; trois pays bénéficiant de larges flux financiers internationaux avant la crise de 2008 et ayant des secteurs bancaires de tailles importantes. Nous trouvons que la direction et l’intensité des ajustements de moyen terme vont dépendre du différentiel d’intensité capitalistique entre secteurs. Sur le long terme, l’offre des facteurs va se modifier. Nous testons aussi l’impact des politiques de réserves et du marché de la monnaie et du crédit, et des politiques fiscales et structurelles. La combinaison de mesures produit de meilleurs résultats sans toutefois mettre le poids de l’atténuation des ajustements sur un seul instrument
Foreign financial inflows have developed quickly in the past 40 years. These inflows have increased the ability of the banking sector to further finance domestic demand. The transformation of foreign financial inflows into an income and demand shock generates Dutch Disease adjustments; with change in relative prices and adjustments in the productive system, resources movement, and change in the absolute and relative remunerations of factors of production. The phenomenon is of great importance in the case of small open economies that are price takers in the international market and exposed to exogenous shocks. We conceptualize the transmission of the shock and the adjustments over different time horizons for an economy composed of two sectors; one producing traded goods and the other producing non-traded goods. This economy is endowed with two factors of production, labor and capital, substitutable and mobile as time elapses. We experiment this conceptual framework in the cases of Lebanon, Luxemburg, and Iceland; the three economies having large banking sectors and benefiting from large foreign financial inflows prior to the 2008 crisis. We find that the direction and intensity of adjustments over the medium term depend on the differential of capital intensity between sectors. Over the longer term, the supply of factors of production would change. We also simulate the impact of policy choices, with focus on reserves policies, policies of money and credit, fiscal policies, and structural policies. The combination of measures leads to better results without putting the burden of the mitigation of adjustments on one single policy instrument
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Su, Xiaoshan. "Three Essays on the Design, Pricing, and Hedging of Insurance Contracts". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE2065.

Texto completo da fonte
Resumo:
Cette thèse utilise des outils théoriques de la finance, de la théorie de la décision et de l'apprentissage automatique, pour améliorer la conception, la tarification et la couverture des contrats d'assurance. Le chapitre 3 de cette thèse développe des formules de tarification sous forme fermée pour une classe de contrats d'assurance vie participatifs, sur la base de la factorisation matricielle de Wiener-Hopf, et prend en compte plusieurs types de risque, tels que les risques de crédit, de marché et économiques. La méthode de tarification se révèle précise et efficace. Les stratégies de couverture dynamique et semi-statique sont introduites pour aider les compagnies d'assurance à réduire leur risque lié à l'émission de contrats participatifs. Le chapitre 4 traite de la conception optimale de contrats lorsque l'assuré possède une aversion au risque du troisième degré. Les résultats exhibent une forme de contrat optimale pour les agents averses au risque comme pour ceux appréciant le risque dans différents contextes. Le chapitre 5 développe un modèle stochastique amplificateur degradient fréquence/sévérité qui améliore les modèles de fréquence et de sévérité importants et populaires que sont les modèles GLM et GAM. Ce nouveau modèle hérite pleinement des avantages de l'algorithme de renforcement du gradient, dépassant ainsi les formes linéaires ou additives restrictives des modèles GLM et GAM, avec apprentissage de la structure du modèle à partir des données. En outre, ce modèle peut également rendre compte de la dépendance non linéaire existant entre fréquence et sévérité des sinistres
This thesis makes use of some theoretical tools in finance, decision theory, machine learning, to improve the design, pricing and hedging of insurance contracts. Chapter 3 develops closed-form pricing formulas for participating life insurance contracts, based on matrix Wiener-Hopf factorization, where multiple risk sources, such as credit, market, and economic risks, are considered. The pricing method proves to be accurate and efficient. The dynamic and semi-static hedging strategies are introduced to assist insurance company to reduce risk exposure arising from the issue of participating contracts. Chapter 4 discusses the optimal contract design when the insured is third degree risk averse. The results showthat dual limited stop-loss, change-loss, dual change-loss, and stop-loss can be optimal contracts favord by both of risk averters and risk lovers in different settings. Chapter 5 develops a stochastic gradient boosting frequency-severity model, which improves the important and popular GLM and GAM frequency-severity models. This model fully inherits advantages ofgradient boosting algorithm, overcoming the restrictive linear or additive forms of the GLM and GAM frequency-severity models, through learning the model structure from data. Further, our model can also capture the flexible nonlinear dependence between claim frequency and severity
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Obrecht, Caroline. "Sur l'approximation modulationnelle du problème des ondes de surface : Consistance et existence de solutions pour les systèmes de Benney-Roskes / Davey-Stewartson à dispersion exacte". Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112121/document.

Texto completo da fonte
Resumo:
Cette thèse s'inscrit dans l'étude des modèles asymptotiques aux équations des ondes de surface dans le régime modulationnel. Le problème des ondes de surface consiste à décrire le mouvement - sous l'influence de la gravitation et éventuellement de tension de surface - d'un fluide dans un domaine délimité par la surface libre du fluide et par un fond fixe. Dans l'étude de ce problème, on s'intéresse en particulier aux ondes se propageant à la surface du fluide.Dans le régime modulationnel, on considère l'évolution des ondes de surface sous forme de paquets d'ondes de faible amplitude se propageant dans une direction. Il est bien connu que la motion de l'enveloppe du paquet d'onde sur une échelle de temps d'ordre t = O(1/ϵ²), où ϵ est un petit paramètre désignant l'amplitude, est décrite approximativement par des systèmes d'équations appelés systèmes de Benney-Roskes (BR) / Davey-Stewartson (DS). Ces systèmes sont donnés par une équation de type Schrödinger cubique couplée à une équation d'ondes. L'approximation classique de BR / DS est bien établie et a été largement étudiée au cours des dernières décennies. Récemment, David Lannes a introduit une version à "dispersion exacte" de ces systèmes. Contrairement aux équations de BR / DS standard, les systèmes à dispersion exacte préservent la relation de dispersion des équations des ondes de surface. On devrait obtenir ainsi une description plus riche du vrai comportement dynamique des ondes de surface que dans le cas de l'approximation classique.Le systèmes de BR / DS à dispersion exacte sont étudiés dans cette thèse. La première partie est consacrée à la déduction formelle des systèmes de BR / DS en tant que modèles asymptotiques aux équations des ondes de surface. Nous donnons en outre un résultat sur la consistance de cette approximation.Ensuite, nous étudions le problème de Cauchy pour le système de BR à dispersion exacte. En fait, afin de justifier la consistance de l'approximation de BR avec les équations exactes, on doit prouver que ce système est bien posé (en espace de Sobolev) sur une échelle de temps d'ordre O(1/ϵ). Ceci est un problème ouvert même dans le cas classique, du moins pour le système de dimension 1 + 2. De même, nous ne pouvons pas démontrer l'existence de solutions en temps long pour le système de BR à dispersion exacte, mais nous obtenons un théorème d'existence locale (t = O(1)) à condition que la tension de surface soit assez forte. Si nous nous restreignons au système de dimension 1+1, nous pouvons enlever la contrainte sur la tension de surface. L'idée de la preuve d'existence locale, qui est inspirée par un travail de Schochet-Weinstein, est d'écrire le système de BR comme un système symétrique hyperbolique quasi-linéaire perturbé par un terme dispersif ne contribuant pas à l'énergie du système. Ainsi, nous pouvons appliquer les méthodes standard de résolution des systèmes hyperboliques.En modifiant le terme non-linéaire du système de BR de dimension 1+1 sans changer l'ordre de consistance, nous obtenons un système qui est bien posé sur l'échelle de temps appropriée O(1/ϵ). Cependant, cette démarche ne peut pas être généralisée au cas de dimension 1+2.Dans le dernier chapitre de cette thèse, nous donnons quelques résultats sur les systèmes de Davey-Stewartson à dispersion exacte. Pour les systèmes de DS, il est suffisant de démontrer qu'ils sont bien posés localement afin de justifier leur consistance avec les équations des ondes de surface. La théorie d'existence de solutions est assez complète pour le système de DS classique. Dans le cas de dispersion exacte cependant, les équations paraissent mal posées généralement, si bien que l'existence locale ne peut être démontrée pour l'instant que pour quelques cas particuliers simples
This thesis is concerned with asymptotic models to the water wave equations in the modulational regime. The water wave equations describe the motion - under the influence of gravity and possibly surface tension - of an inviscid fluid in a domain which is bounded by a fixed bottom from below and the free surface of the fluid from above. In the study of the water wave problem, one is in particular interested by waves propagating on the surface of the fluid.In the modulational regime, one considers the evolution of surface waves under the form of small amplitude wave packets traveling in one direction. It is well known that the evolution of the wave packet envelope on the long time scale t = O(1/ϵ²), where ϵ is a small parameter denoting the amplitude of the wave, is approximately governed by a set of equations known as the Benney-Roskes (BR) / Davey-Stewartson (DS) systems. These systems are essentially given by a cubic Schrödinger-type equation coupled to a wave equation. The classical BR / DS approximation is well established and has been largely studied in the past decades. Recently, David Lannes has introduced a "full dispersion" version of these systems. In contrast to the standard BR / DS equations, the full dispersion systems preserve the linear dispersion relation of the full water wave equations, and should therefore give a richer description of the original wave dynamics than the classical approximation.The full dispersion BR / DS systems are studied in this thesis. In the first part, we formally derive the full dispersion BR / DS approximation from the water wave equations both in the case of zero and positive surface tension. The formal derivation is completed by a consistency result.We then study well-posedness in Sobolev space of the full dispersion BR system. In order to justify consistency of the BR approximation with the full water wave equations, one needs to show that the BR system is well posed on a time scale of order O(1/ϵ). This is an open problem even in the classical case, at least for the 1 + 2 dimensional system. We also do not obtain well-posedness on the long time scale for the full dispersion BR system, but we can show that it is locally well-posed in the case of sufficiently strong surface tension, and additionally in the zero surface tension case if we restrict ourselves to the 1+1 dimensional system. The proof is inspired by a paper of Schochet-Weinstein, and is based on writing the full dispersion BR system as a quasilinear symmetric hyperbolic system with dispersive perturbation, where the dispersive terms do not contribute to the energy. We can therefore apply classical solution methods for hyperbolic systems.By modifying the nonlinear part of the 1+1 dimensional full dispersion BR system without changing consistency, we obtain a system that is well-posed on the appropriate O(1/ϵ) time scale. This approach however does not generalize to the 1+2 dimensional case.In the last chapter of the thesis, we give some results on the full dispersion DS systems, which are obtained as special limits of the full dispersion BR system. For these systems, it is sufficient to prove local well-posedness in order to show consistency with the water wave equations. For the standard DS systems, local well-posedness theory is quite complete. For the full dispersion systems, the analysis is complicated by some nonlocal operators and the equations seem to be generally ill-posed. There are however some simple cases where local well-posedness can be shown. We also discuss some modifications of the full dispersion DS system that might allow to solve it for a larger range of parameters
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Cousin, Bernard. "Méthodologie de validation des systèmes structurés en couches par réseaux de Petri : application au protocole Transport". Phd thesis, Université Pierre et Marie Curie - Paris VI, 1987. http://tel.archives-ouvertes.fr/tel-00864063.

Texto completo da fonte
Resumo:
Nous développons une méthode de modélisation et de validation adaptée aux système parallèles structurés en couches hiérarchiques. Nous définissons deux notions : la concordance de modèle prouve que le modèle possède bien les propriétés dégagées par les spécifications; l'adéquation de service valide le protocole par rapport à son service. Nous appliquons notre méthode à la modélisation du protocole de télécommunication de niveau Transport (la couche 4 d'après la norme ISO sur l'interconnexion des systèmes ouverts). Nous étudions tout particulièrement la gestion de désynchronisations du Service de la couche Réseau, et le contrôle de flux avec réquisition de crédit du protocole de la couche Transport. Nous utilisons les réseaux de Petri à prédicats pour décrire le modèle du service rendu par le couche Réseau sous-jacente et nous en servir pour construire le modèle du protocole de ma couche Transport. nous prouvons que la notion d'abstraction peut s'étendre aux réseaux de Petri à prédicats. La preuve du déroulement correct du protocole est apportée en utilisant les invariants issus du modèle.
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Salou, Thibault. "Combiner Analyse du Cycle de Vie et modèles économiques pour l’évaluation ex-ante d’instruments de politiques publiques – Application au secteur laitier français". Thesis, Rennes, Agrocampus Ouest, 2017. http://www.theses.fr/2017NSARE045/document.

Texto completo da fonte
Resumo:
L’Analyse du Cycle de Vie (ACV) est une méthode d’évaluation multicritère des impacts environnementaux des biens et services. A ces débuts, l’ACV, dite Attributionnelle (ACVA), s’est attachée à analyser les impacts environnementaux dans des situations statiques pour la réalisation d’études comparatives, la communication environnementale et le développement de produits. De récents développements méthodologiques ont vu l’émergence de l’ACV Conséquentielle (ACVC) qui vise à quantifier les impacts directs et indirects de changements, via les mécanismes de marchés, permettant ainsi l’évaluation de politiques publiques. Cette thèse vise à proposer un cadre méthodologique pour l’évaluation d’instruments de politiques publiques dans le secteur de l’élevage laitier en combinant ACV et modèles économiquesElle s’articule autour de trois axes : i) identification et caractérisation des performances environnementale de technologies de production laitières par ACVA ; ii) adaptation du modèle économique MATSIM-LUCA pour les besoins de la thèse ; iii) évaluation par ACVC des impacts environnementaux de la suppression des quotas laitiers et de l’introduction d’une prime à l’herbe en Europe. Les travaux réalisés fournissent : i) une première proposition méthodologique pour l’évaluation d’instruments de politiques publiques par ACVC dans le secteur de l’élevage et ii) plusieurs pistes d’amélioration nécessaires pour rendre la méthode opérationnelle pour les décideurs publics
Life Cycle Assessment (LCA) is a multicriteria method to assess environmental impacts of goods and services. In its early stages, LCA, known as Attributional (ALCA), was used to assess environmental impacts in a status-quo situation for benchmarking, environmental communication and product development. Recent methodological developments led to Consequential LCA (CLCA), which aims to quantify direct and indirect impacts of changes, through market mechanisms, allowing for public policy assessment. The aim of this Ph.D. thesis is to develop a methodological framework to assess public policy instruments in the livestock sector by combining LCA and economic modellingThis thesis is organized into three axes: i) identification and characterization of environmental performances of dairy production technologies through ALCA; ii) adaptation of MATSIM-LUCA economic model to the needs of the thesis; iii) environmental impact assessment through CLCA of dairy quota removal and implementation of a grass premium in the European Union. This work provides i) initial development of a methodological framework for assessing public policy instruments in the livestock sector and ii) identification of several improvements needed to make the method operational for stakeholders
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Schorsch, Julien. "Contributions à l'estimation paramétrique des modèles décrits par les équations aux dérivées partielles". Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0143.

Texto completo da fonte
Resumo:
Les systèmes décrits par les équations aux dérivées partielles, appartiennent à la classe des systèmes dynamiques impliquant des fonctions dépendantes de plusieurs variables, comme le temps et l'espace. Déjà fortement répandus pour la modélisation mathématique de phénomènes physiques et environnementaux, ces systèmes ont un rôle croissant dans les domaines de l'automatique. Cette expansion, provoquée par les avancées technologiques au niveau des capteurs facilitant l'acquisition de données et par les nouveaux enjeux environnementaux, incite au développement de nouvelles thématiques de recherche. L'une de ces thématiques, est l'étude des problèmes inverses et plus particulièrement l'identification paramétrique des équations aux dérivées partielles. Tout abord, une description détaillée des différentes classes de systèmes décrits par ces équations est présentée puis les problèmes d'identification qui leur sont associés sont soulevés. L'accent est mis sur l'estimation paramétrique des équations linéaires, homogènes ou non, et sur les équations linéaires à paramètres variant. Un point commun à ces problèmes d'identification réside dans le caractère bruité et échantillonné des mesures de la sortie. Pour ce faire, deux types d'outils principaux ont été élaborés. Certaines techniques de discrétisation spatio-temporelle ont été utilisées pour faire face au caractère échantillonné des données; les méthodes de variable instrumentale, pour traiter le problème lié à la présence de bruit de mesure. Les performances de ces méthodes ont été évaluées selon des protocoles de simulation numérique reproduisant des situations réalistes de phénomènes physique et environnementaux, comme la diffusion de polluant dans une rivière
A large variety of natural, industrial, and environmental systems involves phenomena that are continuous functions not only of time, but also of other independent variables, such as space coordinates. Typical examples are transportation phenomena of mass or energy, such as heat transmission and/or exchange, humidity diffusion or concentration distributions. These systems are intrinsically distributed parameter systems whose description usually requires the introduction of partial differential equations. There is a significant number of phenomena that can be simulated and explained by partial differential equations. Unfortunately all phenomena are not likely to be represented by a single equation. Also, it is necessary to model the largest possible number of behaviors to consider several classes of partial differential equations. The most common are linear equations, but the most representative are non-linear equations. The nonlinear equations can be formulated in many different ways, the interest in nonlinear equations with linear parameters varying is studied. The aim of the thesis is to develop new estimators to identify the systems described by these partial differential equations. These estimators must be adapted with the actual data obtained in experiments. It is therefore necessary to develop estimators that provide convergent estimates when one is in the presence of missing data and are robust to measurement noise. In this thesis, identification methods are proposed for partial differential equation parameter estimation. These methods involve the introduction of estimators based on the instrumental variable technique
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Jeunesse, Paulien. "Estimation non paramétrique du taux de mort dans un modèle de population générale : Théorie et applications. A new inference strategy for general population mortality tables Nonparametric adaptive inference of birth and death models in a large population limit Nonparametric inference of age-structured models in a large population limit with interactions, immigration and characteristics Nonparametric test of time dependance of age-structured models in a large population limit". Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLED013.

Texto completo da fonte
Resumo:
L’étude du taux de mortalité dans des modèles de population humaine ou en biologie est le cœur de ce travail. Cette thèse se situe à la frontière de la statistique des processus, de la statistique non-paramétrique et de l’analyse.Dans une première partie, centrée sur une problématique actuarielle, un algorithme est proposé pour estimer les tables de mortalité, utiles en assurance. Cet algorithme se base sur un modèle déterministe de population. Ces nouvelles estimations améliorent les résultats actuels en prenant en compte la dynamique globale de la population. Ainsi les naissances sont incorporées dans le modèle pour calculer le taux de mort. De plus, ces estimations sont mises en lien avec les travaux précédents, assurant ainsi la continuité théorique de notre travail.Dans une deuxième partie, nous nous intéressons à l’estimation du taux de mortalité dans un modèle stochastique de population. Cela nous pousse à utiliser des arguments propres à la statistique des processus et à la statistique non-paramétrique. On trouve alors des estimateurs non-paramétriques adaptatifs dans un cadre anisotrope pour la mortalité et la densité de population, ainsi que des inégalités de concentration non asymptotiques quantifiant la distance entre le modèle stochastique et le modèle déterministe limite utilisé dans la première partie. On montre que ces estimateurs restent optimaux dans un modèle où le taux de mort dépend d’interactions, comme dans le cas de la population logistique.Dans une troisième partie, on considère la réalisation d’un test pour détecter la présence d’interactions dans le taux de mortalité. Ce test permet en réalité de juger de la dépendance temporelle de ce taux. Sous une hypothèse, on montre alors qu’il est possible de détecter la présence d’interactions. Un algorithme pratique est proposé pour réaliser ce test
In this thesis, we study the mortality rate in different population models to apply our results to demography or biology. The mathematical framework includes statistics of process, nonparametric estimations and analysis.In a first part, an algorithm is proposed to estimate the mortality tables. This problematic comes from actuarial science and the aim is to apply our results in the insurance field. This algorithm is founded on a deterministic population model. The new estimates we gets improve the actual results. Its advantage is to take into account the global population dynamics. Thanks to that, births are used in our model to compute the mortality rate. Finally these estimations are linked with the precedent works. This is a point of great importance in the field of actuarial science.In a second part, we are interested in the estimation of the mortality rate in a stochastic population model. We need to use the tools coming from nonparametric estimations and statistics of process to do so. Indeed, the mortality rate is a function of two parameters, the time and the age. We propose minimax optimal and adaptive estimators for the mortality and the population density. We also demonstrate some non asymptotics concentration inequalities. These inequalities quantifiy the deviation between the stochastic process and its deterministic limit we used in the first part. We prove that our estimators are still optimal in a model where the mortality is influenced by interactions. This is for example the case for the logistic population.In a third part, we consider the testing problem to detect the existence of interactions. This test is in fact designed to detect the time dependance of the mortality rate. Under the assumption the time dependance in the mortality rate comes only from the interactions, we can detect the presence of interactions. Finally we propose an algorithm to do this test
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Coullon, Hélène. "Modélisation et implémentation de parallélisme implicite pour les simulations scientifiques basées sur des maillages". Thesis, Orléans, 2014. http://www.theses.fr/2014ORLE2029/document.

Texto completo da fonte
Resumo:
Le calcul scientifique parallèle est un domaine en plein essor qui permet à la fois d’augmenter la vitesse des longs traitements, de traiter des problèmes de taille plus importante ou encore des problèmes plus précis. Ce domaine permet donc d’aller plus loin dans les calculs scientifiques, d’obtenir des résultats plus pertinents, car plus précis, ou d’étudier des problèmes plus volumineux qu’auparavant. Dans le monde plus particulier de la simulation numérique scientifique, la résolution d’équations aux dérivées partielles (EDP) est un calcul particulièrement demandeur de ressources parallèles. Si les ressources matérielles permettant le calcul parallèle sont de plus en plus présentes et disponibles pour les scientifiques, à l’inverse leur utilisation et la programmation parallèle se démocratisent difficilement. Pour cette raison, des modèles de programmation parallèle, des outils de développement et même des langages de programmation parallèle ont vu le jour et visent à simplifier l’utilisation de ces machines. Il est toutefois difficile, dans ce domaine dit du “parallélisme implicite”, de trouver le niveau d’abstraction idéal pour les scientifiques, tout en réduisant l’effort de programmation. Ce travail de thèse propose tout d’abord un modèle permettant de mettre en oeuvre des solutions de parallélisme implicite pour les simulations numériques et la résolution d’EDP. Ce modèle est appelé “Structured Implicit Parallelism for scientific SIMulations” (SIPSim), et propose une vision au croisement de plusieurs types d’abstraction, en tentant de conserver les avantages de chaque vision. Une première implémentation de ce modèle, sous la forme d’une librairie C++ appelée SkelGIS, est proposée pour les maillages cartésiens à deux dimensions. Par la suite, SkelGIS, et donc l’implémentation du modèle, est étendue à des simulations numériques sur les réseaux (permettant l’application de simulations représentant plusieurs phénomènes physiques). Les performances de ces deux implémentations sont évaluées et analysées sur des cas d’application réels et complexes et démontrent qu’il est possible d’obtenir de bonnes performances en implémentant le modèle SIPSim
Parallel scientific computations is an expanding domain of computer science which increases the speed of calculations and offers a way to deal with heavier or more accurate calculations. Thus, the interest of scientific computations increases, with more precised results and bigger physical domains to study. In the particular case of scientific numerical simulations, solving partial differential equations (PDEs) is an especially heavy calculation and a perfect applicant to parallel computations. On one hand, it is more and more easy to get an access to very powerfull parallel machines and clusters, but on the other hand parallel programming is hard to democratize, and most scientists are not able to use these machines. As a result, high level programming models, framework, libraries, languages etc. have been proposed to hide technical details of parallel programming. However, in this “implicit parallelism” field, it is difficult to find the good abstraction level while keeping a low programming effort. This thesis proposes a model to write implicit parallelism solutions for numerical simulations such as mesh-based PDEs computations. This model is called “Structured Implicit Parallelism for scientific SIMulations” (SIPSim), and proposes an approach at the crossroads of existing solutions, taking advantage of each one. A first implementation of this model is proposed, as a C++ library called SkelGIS, for two dimensional Cartesian meshes. A second implementation of the model, and an extension of SkelGIS, proposes an implicit parallelism solution for network-simulations (which deals with simulations with multiple physical phenomenons), and is studied in details. A performance analysis of both these implementations is given on real case simulations, and it demonstrates that the SIPSim model can be implemented efficiently
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Afsi, Nawel. "Contrôle des procédés représentés par des équations aux dérivées partielles". Thesis, Lyon, 2020. http://www.theses.fr/2020LYSE1033.

Texto completo da fonte
Resumo:
L’objectif de ce travail est le contrôle des procédés représentés par des équations aux dérivées partielles. Deux procédés ont été considérés. Le premier procédé est un procédé de cristallisation en batch. L’objectif du contrôle est la génération d’une distribution des tailles de cristaux (DTC) ayant une taille moyenne adéquate. Tout d’abord, nous avons utilisé observateur à grand gain en cascade pour estimer cette taille moyenne en utilisant que la température du cristallisoir et la concentration du soluté. Ensuite, différents scénarios ont été testés afin de comparer les performances des différentes structures de la commande sans modèle. Le deuxième procédétraité est un procédé de polymérisation par ouverture de cycle du lactide. Cette réaction est très sensible aux impuretés. Alors, deux stratégies de contrôle ont été proposé afin de rétablir les conditions nominales en cas de dérive qui sont l’optimisation dynamique et la commande prédictive
This work aims to control the processes represented by partial differential equations. Two processes were considered. The first process is a batch crystallization process. The aim of the control is to generate a crystal size distribution (CSD) with an appropriate mean size. First, we used a high gain cascade observer to estimate this average size using only the crystallizer temperature and solute concentration. Then, different scenarios were tested to compare the performance of the different structures of the control system without a model. The second process treated is a lactide polymerization process. This reaction is very sensitive to impurities. So, two control strategies were proposed to restore the nominal conditions in case of drift, which are the dynamic optimization and predictive control
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Dhima, Julien. "Evolution des méthodes de gestion des risques dans les banques sous la réglementation de Bale III : une étude sur les stress tests macro-prudentiels en Europe". Thesis, Paris 1, 2019. http://www.theses.fr/2019PA01E042/document.

Texto completo da fonte
Resumo:
Notre thèse consiste à expliquer, en apportant quelques éléments théoriques, les imperfections des stress tests macro-prudentiels d’EBA/BCE, et de proposer une nouvelle méthodologie de leur application ainsi que deux stress tests spécifiques en complément. Nous montrons que les stress tests macro-prudentiels peuvent être non pertinents lorsque les deux hypothèses fondamentales du modèle de base de Gordy-Vasicek utilisé pour évaluer le capital réglementaire des banques en méthodes internes (IRB) dans le cadre du risque de crédit (portefeuille de crédit asymptotiquement granulaire et présence d’une seule source de risque systématique qui est la conjoncture macro-économique), ne sont pas respectées. Premièrement, ils existent des portefeuilles concentrés pour lesquels les macro-stress tests ne sont pas suffisants pour mesurer les pertes potentielles, voire inefficaces si ces portefeuilles impliquent des contreparties non cycliques. Deuxièmement, le risque systématique peut provenir de plusieurs sources ; le modèle actuel à un facteur empêche la répercussion propre des chocs « macro ».Nous proposons un stress test spécifique de crédit qui permet d’appréhender le risque spécifique de crédit d’un portefeuille concentré, et un stress test spécifique de liquidité qui permet de mesurer l’impact des chocs spécifiques de liquidité sur la solvabilité de la banque. Nous proposons aussi une généralisation multifactorielle de la fonction d’évaluation du capital réglementaire en IRB, qui permet d’appliquer les chocs des macro-stress tests sur chaque portefeuille sectoriel, en stressant de façon claire, précise et transparente les facteurs de risque systématique l’impactant. Cette méthodologie permet une répercussion propre de ces chocs sur la probabilité de défaut conditionnelle des contreparties de ces portefeuilles et donc une meilleure évaluation de la charge en capital de la banque
Our thesis consists in explaining, by bringing some theoretical elements, the imperfections of EBA / BCE macro-prudential stress tests, and proposing a new methodology of their application as well as two specific stress tests in addition. We show that macro-prudential stress tests may be irrelevant when the two basic assumptions of the Gordy-Vasicek core model used to assess banks regulatory capital in internal methods (IRB) in the context of credit risk (asymptotically granular credit portfolio and presence of a single source of systematic risk which is the macroeconomic conjuncture), are not respected. Firstly, they exist concentrated portfolios for which macro-stress tests are not sufficient to measure potential losses or even ineffective in the case where these portfolios involve non-cyclical counterparties. Secondly, systematic risk can come from several sources; the actual one-factor model doesn’t allow a proper repercussion of the “macro” shocks. We propose a specific credit stress test which makes possible to apprehend the specific credit risk of a concentrated portfolio, as well as a specific liquidity stress test which makes possible to measure the impact of liquidity shocks on the bank’s solvency. We also propose a multifactorial generalization of the regulatory capital valuation model in IRB, which allows applying macro-stress tests shocks on each sectorial portfolio, stressing in a clear, precise and transparent way the systematic risk factors impacting it. This methodology allows a proper impact of these shocks on the conditional probability of default of the counterparties of these portfolios and therefore a better evaluation of the capital charge of the bank
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Salameh, Farah. "Méthodes de modélisation statistique de la durée de vie des composants en génie électrique". Phd thesis, Toulouse, INPT, 2016. http://oatao.univ-toulouse.fr/16622/1/Salameh_Farah.pdf.

Texto completo da fonte
Resumo:
La fiabilité constitue aujourd’hui un enjeu important dans le contexte du passage aux systèmes plus électriques dans des secteurs critiques tels que l’aéronautique, l’espace ou le nucléaire. Il s’agit de comprendre, de modéliser et de prédire les mécanismes de vieillissement susceptibles de conduire les composants à la défaillance et le système à la panne. L’étude des effets des contraintes opérationnelles sur la dégradation des composants est indispensable pour la prédiction de leur durée de vie. De nombreux modèles de durée de vie ont été développés dans la littérature dans le contexte du génie électrique. Cependant, ces modèles présentent des limitations car ils dépendent du matériau étudié et de ses propriétés physiques et se restreignent souvent à un ou deux facteurs de stress, sans intégrer les interactions pouvant exister entre ces facteurs. Cette thèse présente une nouvelle méthodologie pour la modélisation de la durée de vie des composants du génie électrique. Cette méthodologie est générale ; elle s’applique à différents composants sans a priori sur leurs propriétés physiques. Les modèles développés sont des modèles statistiques estimés sur la base de données expérimentales issues de tests de vieillissement accéléré où plusieurs types de stress sont considérés. Les modèles visent alors à étudier les effets des différents facteurs de stress ainsi que de leurs différentes interactions. Le nombre et la configuration des tests de vieillissement nécessaires à construire les modèles (bases d’apprentissage) sont optimisés de façon à minimiser le coût expérimental tout en maximisant la précision des modèles. Des points expérimentaux supplémentaires aléatoirement configurés sont réalisés pour valider les modèles (bases de test). Deux catégories de composants sont testées : deux types d’isolants couramment utilisés dans les machines électriques et des sources de lumière OLED. Différentes formes des modèles de durée de vie sont présentées : les modèles paramétriques, non paramétriques et les modèles hybrides. Tous les modèles développés sont évalués à l’aide de différents outils statistiques permettant, d’une part, d’étudier la pertinence des modèles et d’autre part, d’évaluer leur prédictibilité sur les points des bases de test. Les modèles paramétriques permettent de quantifier les effets des facteurs et de leurs interactions sur la durée de vie à partir d’une expression analytique prédéfinie. Un test statistique permet ensuite d’évaluer la significativité de chacun des paramètres inclus dans le modèle. Ces modèles sont caractérisés par une bonne qualité de prédiction sur leurs bases de test. La relation entre la durée de vie et les contraintes est également modélisée par les arbres de régression comme méthode alternative aux modèles paramétriques. Les arbres de régression sont des modèles non paramétriques qui permettent de classifier graphiquement les points expérimentaux en différentes zones dans lesquelles les contraintes sont hiérarchisées selon leurs effets sur la durée de vie. Ainsi, une relation simple, graphique, et directe entre la durée de vie et les contraintes est obtenue. Cependant, à la différence des modèles paramétriques continus sur le domaine expérimental étudié, les arbres de régression sont constants par morceaux, ce qui dégrade leur qualité de prédiction sur la base de test. Pour remédier à cet inconvénient, une troisième approche consiste à attribuer un modèle linéaire à chacune des zones identifiées avec les arbres de régression. Le modèle résultant, dit modèle hybride, est donc linéaire par morceaux et permet alors de raffiner les modèles paramétriques en évaluant les effets des facteurs dans chacune des zones tout en améliorant la qualité de prédiction des arbres de régression.
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Kurbatova, Polina. "Modélisation hybride de l’érythropoïèse et des maladies sanguines". Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10258/document.

Texto completo da fonte
Resumo:
La thèse est consacrée au développement de nouvelles méthodes de modélisations mathématiques en biologie et en médecine, du type “off-lattice" modèles hybrides discret-continus, et de leurs applications à l’hématopoïèse et aux maladies sanguines telles la leucémie et l’anémie. Dans cette approche, les cellules biologiques sont considérées comme des objets discrets alors que les réseaux intracellulaire et extracellulaire sont décrits avec des modèles continus régis par des équations aux dérivées partielles et des équations différentielles ordinaires. Les cellules interagissent mécaniquement et biochimiquement entre elles et avec le milieu environnant. Elles peuvent se diviser, mourir par apoptose ou se différencier. Le comportement des cellules est déterminé par le réseau de régulation intracellulaire et influencé par le contrôle local des cellules voisines ou par la régulation globale d’autres organes. Dans la première partie de la thèse, les modèles hybrides du type “off-lattice" dynamiques sont introduits. Des exemples de modèles, spécifiques aux processus biologiques, qui décrivent au sein de chaque cellule la concurrence entre la prolifération et l’apoptose, la prolifération et la différenciation et entre le cycle cellulaire et de l’état de repos sont étudiés. L’émergence des structures biologiques est étudiée avec les modèles hybrides. L’application à la modélisation des filamente de bactéries est illustrée. Dans le chapitre suivant, les modèle hybrides sont appliqués afin de modéliser l’érythropoïèse ou production de globules rouges dans la moelle osseuse. Le modèle inclut des cellules sanguines immatures appelées progéniteurs érythroïdes, qui peuvent s’auto-renouveler, se différencier ou mourir par apoptose, des cellules plus matures appelées les réticulocytes, qui influent les progéniteurs érythroïdes par le facteur de croissance Fas-ligand, et des macrophages, qui sont présents dans les îlots érythroblastiques in vivo. Les régulations intracellulaire et extracellulaire par les protéines et les facteurs de croissance sont précisées et les rétrocontrôles par les hormones érythropoïétine et glucocorticoïdes sont pris en compte. Le rôle des macrophages pour stabiliser les îlots érythroblastiques est montré. La comparaison des résultats de modélisation avec les expériences sur l’anémie chez les souris est effectuée. Le quatrième chapitre est consacré à la modélisation et au traitement de la leucémie. L’érythroleucémie, un sous-type de leucémie myéloblastique aigüe (LAM), se développe à cause de la différenciation insuffisante des progéniteurs érythroïdes et de leur auto-renouvellement excessif. Un modèle de type “Physiologically Based Pharmacokinetics-Pharmacodynamic” du traitement de la leucémie par AraC et un modèle de traitement chronothérapeutique de la leucémie sont examinés. La comparaison avec les données cliniques sur le nombre de blast dans le sang est effectuée. Le dernier chapitre traite du passage d’un modèle hybride à un modèle continu dans le cas 1D. Un théorème de convergence est prouvé. Les simulations numériques confirment un bon accord entre ces deux approches
This dissertation is devoted to the development of new methods of mathematical modeling in biology and medicine, off-lattice discrete-continuous hybrid models, and their applications to modelling of hematopoiesis and blood disorders, such as leukemia and anemia. In this approach, biological cells are considered as discrete objects while intracellular and extracellular networks are described with continuous models, ordinary or partial differential equations. Cells interact mechanically and biochemically between each other and with the surrounding medium. They can divide, die by apoptosis or differentiate. Their fate is determined by intracellular regulation and influenced by local control from the surrounding cells or by global regulation from other organs. In the first part of the thesis, hybrid models with off-lattice cell dynamics are introduced. Model examples specific for biological processes and describing competition between cell proliferation and apoptosis, proliferation and differentiation and between cell cycling and quiescent state are investigated. Biological pattern formation with hybrid models is discussed. Application to bacteria filament is illustrated. In the next chapter, hybrid model are applied in order to model erythropoiesis, red blood cell production in the bone marrow. The model includes immature blood cells, erythroid progenitors, which can self-renew, differentiate or die by apoptosis, more mature cells, reticulocytes, which influence erythroid progenitors by means of growth factor Fas-ligand, and macrophages, which are present in erythroblastic islands in vivo. Intracellular and extracellular regulation by proteins and growth factors are specified and the feedback by the hormones erythropoietin and glucocorticoids is taken into account. The role of macrophages to stabilize erythroblastic islands is shown. Comparison of modelling with experiments on anemia in mice is carried out. The following chapter is devoted to leukemia modelling and treatment. Erythroleukemia, a subtype of Acute Myeloblastic Leukemia (AML), develops due to insufficient differentiation of erythroid progenitors and their excessive slef-renewal. A Physiologically Based Pharmacokinetics-Pharmacodynamics (PBPKPD) model of leukemia treatment with AraC drug and chronotherapeutic treatments of leukemia are examined. Comparison with clinical data on blast count in blood is carried out. The last chapter deals with the passage from a hybrid model to a continuous model in the 1D case. A convergence theorem is proved. Numerical simulations confirm a good agreement between these approaches
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Baptiste, Julien. "Problèmes numériques en mathématiques financières et en stratégies de trading". Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLED009.

Texto completo da fonte
Resumo:
Le but de cette thèse CIFRE est de construire un portefeuille de stratégies de trading algorithmique intraday. Au lieu de considérer les prix comme une fonction du temps et d'un aléa généralement modélisé par un mouvement brownien, notre approche consiste à identifier les principaux signaux auxquels sont sensibles les donneurs d'ordres dans leurs prises de décision puis alors de proposer un modèle de prix afin de construire des stratégies dynamiques d'allocation de portefeuille. Dans une seconde partie plus académique, nous présentons des travaux de pricing d'options européennes et asiatiques
The aim of this CIFRE thesis is to build a portfolio of intraday algorithmic trading strategies. Instead of considering stock prices as a function of time and a brownian motion, our approach is to identify the main signals affecting market participants when they operate on the market so we can set up a prices model and then build dynamical strategies for portfolio allocation. In a second part, we introduce several works dealing with asian and european option pricing
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Picart, Delphine. "Modélisation et estimation des paramètres liés au succès reproducteur d'un ravageur de la vigne (Lobesia botrana DEN. & SCHIFF.)". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2009. http://tel.archives-ouvertes.fr/tel-00405686.

Texto completo da fonte
Resumo:
L'objectif de ce travail de thèse est de développer un modèle mathématique pour l'étude et la compréhension de la dynamique des populations d'un insecte ravageur, l'Eudémis de la vigne, dans son écosystème. Le modèle proposé est un système d'équations aux dérivées partielles (EDP) de type hyperbolique qui décrit les variations numériques au cours du temps de la population en fonction des stades de développement, du sexe des individus et des conditions environnementales. La ressource alimentaire, la température, l'humidité et la prédation sont les principaux facteurs environnementaux du modèle expliquant les fluctuations du nombre d'individus au cours du temps. Les différences de développement qui existent dans une cohorte d'Eudémis sont aussi modélisées pour affiner les prédictions du modèle. A partir de données expérimentales obtenues par les entomologistes de l'INRA, les paramètres du modèle sont estimés. Ce modèle ainsi ajusté nous permet alors d'étudier quelques aspects biologiques et écologiques de l'insecte comme par exemple l'impact de scénarios climatiques sur le ponte des femelles ou sur la dynamique d'attaque de la vigne par les jeunes larves. Les analyses mathématique et numérique du modèle mathématique et des problèmes d'estimation des paramètres sont développes dans cette thèse.
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Auphan, Thomas. "Analyse de modèles pour ITER ; Traitement des conditions aux limites de systèmes modélisant le plasma de bord dans un tokamak". Phd thesis, Aix-Marseille Université, 2014. http://tel.archives-ouvertes.fr/tel-00977893.

Texto completo da fonte
Resumo:
Cette thèse concerne l'étude des interactions entre le plasma et la paroi d'un réacteur à fusion nucléaire de type tokamak. L'objectif est de proposer des méthodes de résolution des systèmes d'équations issus de modèles de plasma de bord. Nous nous sommes intéressés au traitement de deux difficultés qui apparaissent lors de la résolution numérique de ces modèles. La première difficulté est liée à la forme complexe de la paroi du tokamak. Pour cela, il a été choisi d'utiliser des méthodes de pénalisation volumique. Des tests numériques de plusieurs méthodes de pénalisation ont été réalisés sur un problème hyperbolique non linéaire avec un domaine 1D. Une de ces méthodes a été étendue à un système hyperbolique quasilinéaire avec bord non caractéristique et conditions aux limites maximales strictement dissipatives sur un domaine multidimensionnel : il est alors démontré que cette méthode de pénalisation ne génère pas de couche limite. La deuxième difficulté provient de la forte anisotropie du plasma, entre la direction parallèle aux lignes de champ magnétique et la direction radiale. Pour le potentiel électrique, cela se traduit par une résistivité parallèle très faible. Afin d'éviter les difficultés liées au fait que le problème devient mal posé quand la résistivité parallèle tend vers 0, nous avons utilisé des méthodes de type asymptotic-preserving (AP). Pour les problèmes non linéaires modélisant le potentiel électrique avec un domaine 1D et 2D, nous avons fait l'analyse théorique ainsi que des tests numériques pour deux méthodes AP. Des tests numériques sur le cas 1D ont permis une étude préliminaire du couplage entre les méthodes de pénalisation volumique et AP.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia