Dissertations / Theses on the topic 'Méthode des sauts de cycles'

To see the other types of publications on this topic, follow the link: Méthode des sauts de cycles.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthode des sauts de cycles.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cao, Jiangping. "Modélisation numérique des problèmes d'interfaces sable-pieu pour les très grands nombres de cycles : développement d'une méthode de sauts de cycles." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10133/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail concerne l’étude du comportement des interfaces dans le cas de pieux chargés axialement pour un très grand nombre de cycles. Les principaux points abordés sont relatifs au développement d’une part d’une loi de comportement comprenant un mécanisme d’écrouissage cinématique non linéaire permettant de prendre en compte les chargements cycliques et d’autre part d’une méthode de « sauts de cycles » donnant la possibilité de réaliser des économies de temps de calcul conséquents par rapport à une méthode cycle à cycle. Le travail s’articule autour de 4 chapitres. Le premier chapitre comprend une synthèse bibliographique relative à la prise en compte des chargements cycliques en géotechnique. Les essais de laboratoire permettant d’étudier les phénomènes liés aux chargements cycliques ainsi que les principales méthodes de calcul sont décrits. Le second chapitre aborde le domaine des lois de comportements adaptées à la prise en compte de chargements cycliques. Différentes manières de considérer le problème sont présentées (modèle de Ramber-Osgood, modèle de Mroz, modèle à écrouissage cinématique non linéaire). Une loi de comportement particulière Modjoin (Shahrour, 1997) est présentée. Des évolutions y sont apportées afin notamment de diminuer les phénomènes de rochet et de pouvoir analyser le comportement de structures pour des très grands nombres de cycles de charge et décharge (n>103). Une étude de l’ensemble de ses potentialités est réalisée à la fin du chapitre. Le troisième chapitre présente deux exemples d’utilisation de cette loi. Il s’agit d’une part de vérifier si la loi est correctement implémentée et permet de modéliser plusieurs milliers de cycles de charge et de décharge et d’autre part d’analyser le comportement des deux exemples traités au cours des cycles. Le quatrième chapitre comporte la présentation d’une méthode de « sauts de cycles ». Cette méthode permet de déterminer le comportement de la structure à un cycle donné sans pour autant calculer tous les cycles précédents. Les cycles sont « sautés » sur la base d’une extrapolation des déformations plastiques qui sont injectées dans le modèle sous forme de forces nodales. L’extrapolation repose sur un développement limité au second ordre et pour une des variantes de la méthode sur une régression des moindres carrés. Divers développements permettant des gains de temps sont aussi présentés
This thesis deals with a numerical analysis of structure-soil interface under the cyclic loading by finite different method. The principal of this work relates to the development of a constitutive law, including the nonlinear kinematic hardening which allows to simulate the behavior of structure under the cyclic loading. Instead of using a method calculation cycle by cycle, we develop a method called « Cycles Skipped », which gives the possibility to reduce the computation time of the simulation. The thesis is organized as follow: The first chapter discusses about the synthesis bibliography of cyclic loading in geotechnical engineering. Based on the laboratory tests, some experimental observations are presented and analyzed in this chapter. Besides, the principal existed methods are presented to describe the behavior of elementary soil or interface under cyclic loading. The second chapter; from the laboratory and in-situ observations, the different models are presented to describe the behavior of structure under cyclic loading. Particularly, a cyclic constitutive law « Modjoin » in elastoplasticity model (Shahrour, 1997) is proposed and improved to decrease the ratchet phenomenon of cyclic loading for analyzing the behavior of structure under a very large number of cyclic loading (n>103). A deep study of its potential is realized and some numerical applications are presented in this chapter. The third chapter proposes a Modjoin modeling, which involves the validity of this model and the analysis of the behavior of structure under cycles load. Two modelings with thousand cycle loads are carried out to verify that the law is correctly implanted in finite difference code. The fourth chapter concerns about the development of a method « cycles skipped » which allows to estimate the structure behavior under a large number of loading cycles without calculating cycle by cycle. This method based on an extrapolation of plastic deformation which is injected into the model as the nodal forces. The extrapolation of plastic deformation consists of Taylor’s expansion and least squares regression. Finally, some calculations are performed and a comparison of results observed between different methods will be presented
2

Hendrycks, Baptiste. "Modélisation de l'assemblage roue/essieu ferroviaire et de sa tenue en fatigue sous chargement cyclique." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILN049.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse a pour objectif de proposer des modèles numériques permettant une meilleure compréhension du comportement en fatigue de l'assemblage roue-essieu ferroviaires.Un premier modèle simule l'opération de calage des roues sur les portées de l'essieu. Pour sa réalisation, une attention particulière a été portée au comportement en friction entre la roue et l'essieu ce qui a notamment permis de montrer une dépendance du facteur de frottement à la pression de contact. Aussi, la simulation met en évidence la création d'une singularité géométrique en début d'opération ayant une influence sur la distribution de contraintes dans la structure.Ensuite, un modèle permet la simulation de la sollicitation cyclique multiaxiale subie par un assemblage roue/essieu éprouvette échelle 1. Un modèle de comportement pour l'acier EA1N, utilisé pour la fabrication des essieux, a été développé afin de traduire à la fois la réponse monotone et cyclique du matériau. Le choix d'un niveau de chargement élevé a permis à ce modèle de caractériser l'influence du contact en montrant une déformation importante de la portée lorsqu'il y a ouverture.Afin d'avoir un dimensionnement en fatigue compatible avec le bureau d'étude, la méthode des sauts de cycles a été choisie afin de calculer rapidement un état mécanique stabilisé. L'utilisation de cette méthode dans un premier temps sur un assemblage roue/essieu simplifié, puis sur un cas réel montre une bonne précision des résultats malgré une dépendance au raffinement locaux et au comportement matériau développé qui peut contraindre le temps de calcul.Enfin, on s'intéresse à la durée de vie en fatigue de la structure avec l'application d'un critère de fatigue sur l'état stabilisé. On propose également une discussion à partir de trajets de chargement, notamment sur l'apparition de cisaillement alterné sur la portée de l'essieu
The objective of this thesis is to propose numerical models allowing a better understanding of the fatigue behavior of the railway wheel-axle assembly.A first model simulates the press fit operation in the assembly of a railway axle and wheel. A particular attention was paid to the friction between the wheel and the axle, which notably made it possible to show a dependence of the friction factor on the contact pressure. Also, the simulation highlights the creation of a geometric singularity at the start of the operation having an influence on the distribution of stresses in the structure.Then, a model simulates the multiaxial cyclic stress on a scale 1 test specimen wheel/axle assembly. A behavior model for the EA1N steel, used for the axles, was developed in order to be used for both monotonic and cyclic problems. This model, with a high loading level, shows a significant deformation of the wheel seat with the contact opening.The skipped cycles method was chosen in order to quickly calculate a stabilized mechanical state. The use of this method initially on a simplified wheel/axle assembly, then on a real case shows good precision of the results despite a dependence on local refinement and the developed material behavior which can constrain the calculation time.Finally, we calculate the fatigue strength of the structure with the application of a fatigue criterion. We also propose a discussion based on loading paths, in particular on the appearance of alternating shear on the wheel seat
3

Laporte, Francis. "Méthode d'inférence utilisant la vraisemblance empirique basée sur l'entropie pour les modèles de diffusion avec sauts." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/33909.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec la venue de modèles de plus en plus élaborés pour modéliser les rendements boursiers, la méthode classique du maximum de vraisemblance pour inférer les paramètres n’est généralement plus applicable puisque, par exemple, la fonction de densité n’est pas disponible ou très difficile à calculer numériquement. Dans la littérature, l’inférence par la méthode des moments (MM) est donc généralement suggérée. Dans ce mémoire, une méthode d’inférence plus efficace, soit celle du maximum de vraisemblance empirique basé sur l’entropie (MEEL), est proposée pour deux cas particuliers du processus de Lévy, soit les modèles de Merton et de Tsay. Premièrement, un retour sur certains modèles développés par le passé est fait. Les lacunes du mouvement brownien géométrique sont présentées afin de justifier l’utilisation de modèles plus élaborés. Ensuite, les deux modèles, Merton et Tsay, et leurs propriétés sont présentés plus en détail. Par la suite, il y a une analyse comparative entre l’efficacité du MEEL et celle du MM ; un exemple sur des données réelles est aussi présenté. Pour terminer, deux approches de tarification de produits dérivés sont présentées.
With the advent of increasingly sophisticated models for modeling stock market returns, the classical maximum likelihood method for inferring parameters is generally no longer applicable since, for example, the density function has no closed form or very difficult to calculate numerically. In the literature, inference by the method of moments (MM) is therefore generally suggested. In this master’s thesis, a more efficient inference method, the maximum empirical entropy likelihood (MEEL), is proposed for two particular cases of the Lévy process, namely the Merton and Tsay models. First, a review of some models developed in the past is done. The flaws of the geometric Brownian motion are presented to justify the use of more sophisticated models. Then, the two models, Merton and Tsay, and their properties are presented in more detail. Subsequently, there is a comparative analysis between the effectiveness of the MEEL and the MM; an example with real data is also presented. Finally, two approaches to pricing derivatives are presented.
4

Serafino, Aldo. "Méthode d'optimisation robuste multi-fidélité pour les cycles organiques de Rankine." Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAE055.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’optimisation robuste (RDO) est un outil important pour la conception de produits industriels sous incertitude. Elle combine des algorithmes d’optimisation et des techniques de quantification de l’incertitude (UQ). La quantification d’incertitudes est généralement trop coûteuse pour des modèles numériques complexes de systèmes en ingénierie. Dans le but de développer des stratégies de RDO efficaces conçues pour des applications industrielles, le couplage de techniques UQ parcimonieuses avec un algorithme génétique multi-objectif basé sur des modèles substituts (SMOGA) a été étudié. A cet égard, une technique RDO prometteuse a été utilisée, basée sur le couplage de deux modèles substituts imbriqués: le premier est utilisé pour l’UQ, tandis que la surface de réponse du second est utilisée pour accélérer l’optimisation; un critère d’enrichissement est utilisé pour actualiser le modèle substitut pendant la convergence de l’optimiseur. Plusieurs méthodes d’UQ utilisant des informations sur les gradients de la solution par rapport aux variables incertaines ont été mises en oeuvre et comparées en termes de précision et coût de calcul. Nous avons ensuite sélectionné une méthode UQ dite «basse fidélité», c’est-à-dire peu coûteuse mais pas très précise, et une méthode «haute fidélité» afin de construire un modèle substitut multi-fidélité pour l’optimisation robuste. Ce modèle permet d’avoir une précision proche du modèle haute fidélité pour un coût de calcul bien moindre. Les méthodes étudiées ont été appliquées à la RDO de cycles thermodynamiques de Rankine à fluide organique (ORC) et à l’optimisation de forme d’une grille d’aubes de turbines ORC avec des résultats très prometteurs
Robust design optimization (RDO) is an important tool for the design of industrial products underuncertainty. It combines optimization algorithms and uncertainty quantification (UQ) techniques. Quantificationof uncertainties is generally too expensive for complex numerical models of engineering systems. With the aimof developing efficient RDO strategies designed for industrial applications, the coupling of parsimonious UQtechniques with a multi-objective genetic algorithm based on surrogate models (SMOGA) was studied. In thisregard, a promising RDO technique was used, based on the coupling of two nested surrogate models: the firstis used for UQ, while the response surface of the second is used to accelerate optimization; an infill criterion isused to update the surrogate model during optimizer convergence. Several UQ methods using information onthe gradients of the solution with respect to the uncertain variables were implemented and compared in termsof precision and computational cost. We then selected a so-called “low fidelity” UQ method, i.e. inexpensivebut not very accurate, and a “high fidelity” method in order to build a multi-fidelity surrogate model for robustoptimization. This model allows to have an accuracy close to the high fidelity model for a much lower computationcost. The methods under investigation were applied to the RDO of organic Rankine cycles (ORC) and to theshape optimization of an ORC turbine blade grid, with very promising results
5

Jraifi, Abdelilah. "Analyse numérique de modèles de diffusion-sauts à volatilité stochastique : cas de l'évaluation des options." Thesis, Valenciennes, 2014. http://www.theses.fr/2014VALE0002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le monde économique, les contrats d'options sont très utilisés car ils permettent de se couvrir contre les aléas et les risques dus aux fluctuations des prix des actifs sous-jacents. La détermination du prix de ces contrats est d'une grande importance pour les investisseurs.Dans cette thèse, on s'intéresse aux problèmes d'évaluation des options, en particulier les options Européennes et Quanto sur un actif financier dont le prix est modélisé en multi dimensions par un modèle de diffusion-saut à volatilité stochastique avec sauts (1er cas considère la volatilité sans sauts, dans le 2ème cas les sauts sont pris en compte, finalement dans le 3ème cas, l'actif sous-jacent est sans saut et la volatilité suit un CEV modèle sans saut). Ce modèle permet de mieux prendre en compte certains phénomènes observés dans les marchés. Nous développons des méthodes numériques qui déterminent les valeurs des prix de ces options. On présentera d'abord le modèle qui s'écrit sous la forme d'un système d'équations intégro-différentielles stochastiques "EIDS", et on étudiera l'existence et l'unicité de la solution de ce modèle en fonction de ses coefficients, puis on établira le lien entre le calcul du prix de l'option et la résolution de l'équation Intégro-différentielle partielle (EIDP). Ce lien, qui est basé sur la notion des générateurs infinitésimaux, nous permet d'utiliser différentes méthodes numériques pour l'évaluation des options considérées. Nous introduisons alors l'équation variationnelle associée aux EIDP et démontrons qu'elle admet une unique solution dans un espace de Sobolev avec poids en s'inspirant des travaux de Zhang [106].Nous nous concentrons ensuite sur l'approximation numérique du prix de l'option en considérant le problème dans un domaine borné, et nous utilisons pour la résolution numérique la méthode des éléments finis de type (P1), et un schéma d'Euler-Maruyama, pour se servir, d'une part de la méthode de différences finies en temps, et d'autre part de la méthode de Monté Carlo et la méthode Quasi Monte Carlo. Pour cette dernière méthode nous avons utilisé les suites de Halton afin d'améliorer la vitesse de convergence.Nous présenterons une étude comparative des différents résultats numériques obtenus dans plusieurs cas différents afin d'étudier la performance et l'efficacité des méthodes utilisées
In the modern economic world, the options contracts are used because they allow to hedge against the vagaries and risks refers to fluctuations in the prices of the underlying assets. The determination of the price of these contracts is of great importance for investors.We are interested in problems of options pricing, actually the European and Quanto options on a financial asset. The price of that asset is modeled by a multi-dimentional jump diffusion with stochastic volatility. Otherwise, the first model considers the volatility as a continuous process and the second model considers it as a jump process. Finally in the 3rd model, the underlying asset is without jump and volatility follows a model CEV without jump. This model allow better to take into account some phenomena observed in the markets. We develop numerical methods that determine the values of prices for these options. We first write the model as an integro-differential stochastic equations system "EIDS", of which we study existence and unicity of solutions. Then we relate the resolution of PIDE to the computation of the option value. This link, which is based on the notion of infinitesimal generators, allows us to use different numerical methods. We therefore introduce the variational equation associated with the PIDE, and drawing on the work of Zhang [106], we show that it admits a unique solution in a weights Sobolev space We focus on the numerical approximation of the price of the option, by treating the problem in a bounded domain. We use the finite elements method of type (P1), and the scheme of Euler-Maruyama, for this serve, on the one hand the finite differences method in time, and on the other hand the method of Monte Carlo and the Quasi Monte Carlo method. For this last method we use of Halton sequences to improve the speed of convergence.We present a comparative study of the different numerical results in many different cases in order to investigate the performance and effectiveness of the used methods
6

Loulidi, Sanae. "Modélisation stochastique en finance, application à la construction d’un modèle à changement de régime avec des sauts." Thesis, Bordeaux 1, 2008. http://www.theses.fr/2008BOR13675/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le modèle de Blacket Scholes reste le modèle de référence sur les marchés des dérivés. Sa parcimonie et sa maniabilité sont certes attractives. Il ne faut cependant pas perdre de vue les hypothèses restrictives, voire simplistes, qui lui servent de base et qui limitent sa capacité à reproduire la dynamique du marché. Afin de refléter un peu mieux cette dynamique, nous introduisons un modèle d’évaluation des options à changement de régime avec sauts. Sous ce modèle, l’hypothèse de complétude des marchés n’est plus valable. Les sources d’incertitude sont plus nombreuses que les instruments disponibles à la couverture. On ne parle plus de réplication/couverture parfaite mais plutôt de réplication optimale dans un sens à définir. Dans cette thèse, on suppose que le marché peut être décrit par plusieurs «régimes» (ou encore par des «modes») re?étant l’état de l’économie, le comportement général des investisseurs et leurs tendances. Pour chacun de ces régimes, le sous-jacent est caractérisé par un niveau de volatilité et de rendement donné. Avec en plus, et a priori des discontinuités du prix du sous-jacent à chaque fois qu’une transition d’un régime à un autre a lieu. La thèse comprend trois parties: 1.Modélisation du problème et application de la théorie du contrôle stochastique. Par l’utilisation du principe de programmation dynamique et la considération des différents régimes de marché, on aboutit à un système de M (le nombre de régimes) équations de Hamilton Jacobi Bellman «HJB» couplées. 2.La résolution numérique de l’équation HJB pour l’évolution d’options, par différences finies généralisées. 3.L’estimation des paramètres du modèle par un filtre récursif, qui produit une estimation récursive d’un état inconnu au vu d’observation bruitée supposée continue, dans le cas où l’état inconnu serait modélisé par une chaîne de Markov à temps discret et espace d’état fini
Abstract
7

Nguyen, Laurent. "Calibration de modèles financiers par minimisation d'entropie relative et modèles avec sauts." Phd thesis, Ecole des Ponts ParisTech, 2003. http://tel.archives-ouvertes.fr/tel-00005766.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le smile de volatilité implicite observé sur les marchés d'options traduit l'insuffisance du modèle de Black et Scholes. Avec la nécessité d'élaborer un modèle d'actif financier plus satisfaisant, vient celle de sa calibration, objet de cette thèse.
La calibration de modèles financiers par minimisation de lentropie relative a été proposée récemment dans le cadre de la méthode de Monte Carlo. On a étudié la convergence et la stabilité de cette méthode et on a étendu les résultats à des critères plus généraux que lentropie relative. La prise en compte des contraintes sur le sous-jacent assurant labsence dopportunité darbitrage a été abordée sous langle dun problème de moments.
Dans la seconde partie, on a considéré un modèle simple du phénomène de krach en introduisant en particulier des sauts dans la volatilité du sous-jacent. On a calculé le risque quadratique et effectué un développement approché du smile utile pour la calibration.
Finalement, dans la troisième partie, on utilise lentropie relative pour calibrer lintensité des sauts dun modèle de diffusion avec sauts et volatilité locale. La stabilité de la méthode a été prouvée grâce à des techniques de contrôle optimal ainsi quau théorème des fonctions implicites.
8

Suparman, Suparman. "Problèmes de choix de modèles par simulation de type Monte Carlo par chaînes de Markov à sauts réversibles." Toulouse 3, 2003. http://www.theses.fr/2003TOU30005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Roche, Sébastien. "Méthodes de poursuite de phase pour signaux GNSS multifréquence en environnement dégradé." Thesis, Toulouse, ISAE, 2013. http://www.theses.fr/2013ESAE0047/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thèse a pour but de développer des algorithmes robustes de poursuite de phase multifréquence en environnement dégradé. L’objectif est d’élaborer de nouvelles structures pouvant opérer à des niveaux de rapport signal à bruit inférieurs aux limites des algorithmes actuellement implémentés dans des récepteurs grand public. Les problèmes de robustesse des algorithmes d’estimation de phase étant en grande partie causés par le phénomène de sauts de cycle, les différents axes de recherche se sont focalisés sur des nouvelles approches de développement de phase au sein des structures de poursuite. Pour ce faire, deux approches ont été étudiées et testées. Dans un premier temps, deux structures de poursuite monofréquence basées sur une DPLL conventionnelle ont été développées. Ces structures disposent d’un système externe de développement de phase visant à prédire et pré-compenser la sortie du discriminateur grâce à l’analyse des sorties du discriminateur ou des sorties du filtre de boucle. La réduction de la dynamique à estimer va alors permettre de réduire l’apparition des sauts de cycle se produisant au niveau du discriminateur. Par la suite, ce système de développement de phase a été adapté à la poursuite de phase multifréquence. Grâce à l’exploitation de la diversité en fréquence offerte par les signaux de navigation (i.e., de la proportionnalité des fréquences Doppler), il a été possible de mettre en place une étape de fusion de données qui a permis d’améliorer la précision de la prédiction de la sortie du discriminateur et donc d’améliorer la robustesse de la structure. Dans un second temps, les travaux de recherche se son taxés sur une nouvelle approche de poursuite de phase et de correction du phénomène de sauts de cycle basée sur une technique de filtrage Bayésien variationnel. Toujours en exploitant la diversité en fréquence des signaux de navigation, cette méthode suppose un modèle de dynamique de phase Markovien qui va imposer une certaine continuité de l’estimation et va permettre de fournir une estimation de phase développée
This thesis aims at introducing multifrequency phase tracking algorithms operating in low C/N0environment. The objective is to develop new structures whose tracking limits are lower than thatof current algorithms used in mass market receivers. Phase tracking suffers from a lack of robustnessdue to the cycle slip phenomenon. Works have thus been focused on elaborating new phaseunwrapping systems. To do so, two different tracking approaches were studied. First, we have developed new monofrequency tracking loops based on a conventional DPLL. These structures aimat predicting the discriminator output by analyzing, thanks to a polynomial model, the last outputsamples of either the discriminator or the loop filter. Once the discriminator output is predicted,the estimated value is pre-compensated so that the phase dynamics to be tracked is reduced aswell as the cycle slip rate. Then, the unwrapping structure analyzing the loop filter outputs hasbeen extended to multifrequency signals. Using a data fusion step, the new multifrequency structuretakes advantage of the frequency diversity of a GNSS signal (i.e., proportionality of Dopplerfrequencies) to improve the tracking performances. Secondly, studies have been focused on developing a new multifrequency tracking algorithm using variational Bayesian filtering technique.This tracking method, which also uses the GNSS frequency diversity, assumes a Markovian phasedynamics that enforces the smoothness of the phase estimation and unwraps it
10

Tounsi, Abdelmajid. "Cycles repère : de l'espace scénique à l'espace écranique." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26332/26332.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Dicko, Fatoumata Nene. "Amélioration de la méthode d'échantillonnage en deux cycles et application à l'estimation du total de la population." Mémoire, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/4847.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'analyse des données dans des populations de tailles finies utilise les méthodes d'échantillonnage. Lorsque nous sommes en présence de données qui sont recueillies à diverses périodes dans le temps, une méthode que l'on peut privilégier est la méthode d'échantillonnage en deux cycles. Ce mémoire propose une amélioration de la méthode d'échantillonnage en deux cycles basée sur l'exploitation de la technique de sélection avec probabilités proportionnelles à la taille. Après avoir introduit les méthodes classiques d'échantillonnage, nous décrirons en détail le plan d'échantillonnage en deux cycles et nous l'appliquerons à un ensemble de données agricoles.
12

Duparc, Jacqueline. "Contribution à la mise au point d'une méthode de dépouillement d'images en temps différé, application à l'analyse des sauts records de B. Beamon et C. Lewis." Poitiers, 1990. http://www.theses.fr/1990POIT2344.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous avons commence notre recherche par une etude critique des systemes d'analyse cinematographique du mouvement humain. Nous avons recherche un systeme d'analyse qui puisse rendre compte de la totalite du geste sportif dans les conditions reelles d'execution, avec un dispositif relativement couteux et utilisable par des chercheurs ou des enseignants staps. Ainsi, grace au logiciel d'exploitation developpe dans notre laboratoire, nous pouvons calculer les quantites de mouvement en translation et en rotation du centre de masse du sportif etudie. Nous avons applique notre methode de depouillement d'images video sur un geste sportif: le saut en longueur. La lecture des images est une etape importante pour deceler les problemes lies a la determination du referentiel spatial, aux corrections des erreurs dues aux conditions d'enregistrement du film, a la qualite des images (parties floues ou cachees de l'image). La methode de depouillement reste en temps differe. L'analyse cinematique des sauts records de b. Beamon et de c. Lewis donne des resultats, nous semble-t-il, coherents sur les parametres mecaniques representatifs de la performance. Nous pensons avoir contribue a une demarche scientifique concernant le saut en longueur et plus generalement la connaissance des activites physiques et sportives
13

Liang, Yongqi. "Principe local-global pour les zéro-cycles." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00630560.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous nous intéressons à l'étude de l'arithmétique (le principe de Hasse, l'approximation faible, et l'obstruction de Brauer-Manin) des zéro-cycles sur les variétés algébriques définies sur des corps de nombres. Nous introduisons la notion de sous-ensemble hilbertien généralisé. En utilisant la méthode de fibration, nous démontrons que l'obstruction de Brauer-Manin est la seule au principe de Hasse et à l'approximation faible pour les zéro-cycles de degré 1; et établissons l'exactitude d'une suite de type global-local concernant les groupes de Chow des zéro-cycles, pour certaines variétés qui admettent une structure de fibration au-dessus d'une courbe lisse ou au-dessus de l'espace projectif, où les hypothèses arithmétiques sont posées seulement sur les fibres au-dessus d'un sous-ensemble hilbertien généralisé.De plus, nous relions l'arithmétique des points rationnels et l'arithmétique des zérocycles de degré 1 sur les variétés géométriquement rationnellement connexes. Comme application, nous trouvons que l'obstruction de Brauer-Manin est la seule au principe de Hasse et à l'approximation faible pour les zéro-cycles de degré 1 sur- les espaces homogènes d'un groupe algébrique linéaire à stabilisateur connexe,- certains fibrés en surfaces de Châtelet au-dessus d'une courbe lisse ou au-dessus de l'espace projectif (en particulier, les solides de Poonen).
14

Zorgnotti, Valentin. "Mesure d’impédance acoustique pour la caractérisation des cycles limites de moteurs thermoacoustiques." Thesis, Le Mans, 2019. http://www.theses.fr/2019LEMA1005/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce manuscrit de doctorat propose une méthode expérimentale pour la caractérisation du cycle limite acoustique atteint par les auto-oscillations générées dans un moteur thermoacoustique.Pour cela, un capteur d'impédance fort niveau est développé dans le but de mesurer l'impédance d'entrée d'un noyau thermoacoustique en fonction de la puissance de chauffage fournie, de la fréquence et de l'amplitude du forçage acoustique.L'utilisation de ces mesures permet de prédire avec succès la génération spontanée d'auto-oscillations ainsi que leur saturation jusqu'à un régime établi, pour différentes charges attachées au noyau.Les mesures ainsi obtenues sont comparées à un modèle établi sur la base de la théorie linéaire de la thermoacoustique, couplé un modèle thermique simplifié, menant à une meilleure compréhension des processus physiques responsables de la saturation des oscillations acoustiques.La procédure expérimentale décrite dans ce manuscrit permet aussi de proposer une méthode d'optimisation du couplage entre la charge et le noyau de manière à maximiser l'efficacité potentielle de la conversion d'énergie thermoacoustique.Finalement, une méthode expérimentale est décrite et permet l'étude de la stabilité des cycles limites, ou plus généralement de l'évolution lente de l'amplitude des auto-oscillations acoustiques, dans le cas où le moteur thermoacoustique est configuré de manière à donner lieu à un régime de déclenchements et arrêts périodiques
This manuscript deals with the experimental characterization of the acoustic limit cycle reached by self-sustained oscillations generated in thermoacoustic engines.A specially designed, high amplitude, acoustic impedance sensor was developed to perform measurements of the input impedance of a thermoacoustic core, as a function of the heating power supplied to the device, of the frequency, and of the amplitude of acoustic forcing.Those measurements can then be used to predict the spontaneous generation of acoustic oscillations and their saturation up to a certain steady-state.Those predictions were successful for various acoustic loads connected to the thermoacoustic core.Moreover, the measurements of acoustic impedance as a function of the amplitude of acoustic oscillations are compared to a model based on the linear thermoacoustic theory, and this comparaison provides insights into the processes controlling the saturation of acoustic oscillations.The experimental procedure described in this manuscript also leads to a pratical way of optimizing the coupling between the thermoacoustic core and the load, in the way that the potential efficiency of thermoacoustic energy conversion is maximized.Finally, an experimental method is described and allows to study the stability of limit cycles, i.e. the temporal evolution of the self-oscillation amplitude, in the case of a system that is able to give rise to a spontaneous periodic \textit{trigg and stop} behavior
15

Mateescu, Marcel. "Étude statistique des chroniques des paramètres climatiques en Europe dans la période instrumentale : l'analyse des cycles par la méthode fréquentielle ondelette." Nice, 2011. http://www.theses.fr/2011NICE2045.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Thibault, Arleen. "La méthode Vittoz au service du développement des compétences des utilisateurs des Cycles Repère : évaluation de la pertinence de l'insertion d'une série d'exercices inspirée par la méthode Vittoz dans la démarche de création des Cycles Repère par le biais d'une expérimentation effectuée lors du projet "Carnets du Nord"." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/25931/25931.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Bonnet, Delphine. "Effet de la diversité nutritionnelle du microplancton sur le zooplancton : étude de processus démographiques et trophiques de copépodes marins dans des conditions de laboratoire et in situ." Paris 6, 2001. http://www.theses.fr/2001PA066499.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Pollet, Éric. "Mise en œuvre et modélisation d'un procédé continu de polymérisation anionique coordinée par ouverture de cycles." Lyon 1, 2001. http://www.theses.fr/2001LYO10179.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce mémoire nous décrivons la mise en œuvre et la modélisation d'un procédé continu à lit fixe pour la polymérisation anionique coordinée de cycles oxygénés. L'objectif de ce travail consiste à synthétiser des oligomères fonctionnalisés et d'étudier dans quelle mesure il est possible de contrôler leur fonctionnalité et leur distribution de masses molaires. Un modèles mathématique a ensuite été développé afin de pouvoir simuler la polymérisation et de prévoir les caractéristiques des oligomères formés en fonctions des conditions opératoires. Nous avons utilisé des supports poreux aux morphologies et aux caractéristiques distinctes (alumine cylindrique, silice sphérique et monolithe de silice) dont nous avons étudié le comportement en polymérisation de l'e-caprolactone, du 2,2-diméthyltriméthylène carbonate et de l'oxyde d'éthylène. Le suivi cinétique de la réaction et la caractérisation complète des oligomères par SEC et RMN1H ont démontré la faisabilité de notre procédé mais ont aussi montré que la polymérisation dans un milieu confiné (les pores du solide) peut parfois engendrer une perte de contrôle des propriétés des oligomères. Dans un second temps, en comparant les résultats issus de simulations à ceux de l'expérience, nous avons montré que notre méthode originale de couplage d'un modèle algébrique de l'hydrodynamique du réacteur à lit fixe avec une simulation de la polymérisation par la méthode de Monte-Carlo nous permet de prévoir assez précisément la conversion du monomères en sortie de réacteur et la distribution de masses molaires des oligomères synthétisés.
19

Thouzé, Arsène. "Méthode numérique d'estimation du mouvement des masses molles." Thèse, Poitiers, 2013. http://hdl.handle.net/1866/10763.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’analyse biomécanique du mouvement humain en utilisant des systèmes optoélectroniques et des marqueurs cutanés considère les segments du corps comme des corps rigides. Cependant, le mouvement des tissus mous par rapport à l'os, c’est à dire les muscles et le tissu adipeux, provoque le déplacement des marqueurs. Ce déplacement est le fait de deux composantes, une composante propre correspondant au mouvement aléatoire de chaque marqueur et une composante à l’unisson provoquant le déplacement commun des marqueurs cutanés lié au mouvement des masses sous-jacentes. Si nombre d’études visent à minimiser ces déplacements, des simulations ont montré que le mouvement des masses molles réduit la dynamique articulaire. Cette observation est faite uniquement par la simulation, car il n'existe pas de méthodes capables de dissocier la cinématique des masses molles de celle de l’os. L’objectif principal de cette thèse consiste à développer une méthode numérique capable de distinguer ces deux cinématiques. Le premier objectif était d'évaluer une méthode d'optimisation locale pour estimer le mouvement des masses molles par rapport à l’humérus obtenu avec une tige intra-corticale vissée chez trois sujets. Les résultats montrent que l'optimisation locale sous-estime de 50% le déplacement des marqueurs et qu’elle conduit à un classement de marqueurs différents en fonction de leur déplacement. La limite de cette méthode vient du fait qu'elle ne tient pas compte de l’ensemble des composantes du mouvement des tissus mous, notamment la composante en unisson. Le second objectif était de développer une méthode numérique qui considère toutes les composantes du mouvement des tissus mous. Plus précisément, cette méthode devait fournir une cinématique similaire et une plus grande estimation du déplacement des marqueurs par rapport aux méthodes classiques et dissocier ces composantes. Le membre inférieur est modélisé avec une chaine cinématique de 10 degrés de liberté reconstruite par optimisation globale en utilisant seulement les marqueurs placés sur le pelvis et la face médiale du tibia. L’estimation de la cinématique sans considérer les marqueurs placés sur la cuisse et le mollet permet d'éviter l’influence de leur déplacement sur la reconstruction du modèle cinématique. Cette méthode testée sur 13 sujets lors de sauts a obtenu jusqu’à 2,1 fois plus de déplacement des marqueurs en fonction de la méthode considérée en assurant des cinématiques similaires. Une approche vectorielle a montré que le déplacement des marqueurs est surtout dû à la composante à l’unisson. Une approche matricielle associant l’optimisation locale à la chaine cinématique a montré que les masses molles se déplacent principalement autour de l'axe longitudinal et le long de l'axe antéro-postérieur de l'os. L'originalité de cette thèse est de dissocier numériquement la cinématique os de celle des masses molles et les composantes de ce mouvement. Les méthodes développées dans cette thèse augmentent les connaissances sur le mouvement des masses molles et permettent d’envisager l’étude de leur effet sur la dynamique articulaire.
Biomechanical analysis of human movement using optoelectronic system and skin markers considers body segments as rigid bodies. However the soft tissue motion relative to the bone, including muscles, fat mass, results in relative displacement of markers. This displacement is the results of two components, an own component which corresponds to a random motion of each marker and an in-unison component corresponding to the common movement of skin markers resulting from the movement of the underlying wobbling mass. While most studies aim to minimize these displacements, computer simulation models have shown that the movement of the soft tissue motion relative to the bones reduces the joint kinetics. This observation is only available using computer simulations because there are no methods able to distinguish the kinematics of wobbling mass of the bones kinematics. The main objective of this thesis is to develop a numerical method able to distinguish this different kinematics. The first aim of this thesis was to assess a local optimisation method for estimating the soft tissue motion using intra-cortical pins screwed into the humerus in three subjects. The results show that local optimisation underestimates of 50% the marker displacements. Also it leads to a different marker ranking in terms of displacement. The limit of local optimisation comes from the fact that it does not consider all the components of the soft tissue motion, especially the in-unison component. The second aim of this thesis was to develop a numerical method that accounts for all the component of the soft tissue motion. More specifically, this method should provide similar kinematics and estimate large marker displacement and distinguish the two components to conventional approaches. The lower limb is modeled using a 10 degree of freedom chain model reconstructed using global optimisation and the markers placed only on the pelvis and the medial face of the shank. The original estimate of joint kinematics without considering the markers placed on the thigh and on the calf avoids the influences of these markers displacement on the kinematic model reconstruction. This method was tested on 13 subjects who performed hopping trials and obtained up to 2.1 times of marker displacement depending the method considered ensuring similar joint-kinematics. A vector approach shown that marker displacements is more induce by the in-unison component. A matrix approach combining the local optimisation and the kinematic model shown that the wobbling mass moves around the longitudinal axis and along the antero-posterior axis of the bone. The originality of this thesis is to numerically distinguish the bone kinematics from the wobbling mass kinematics and the two components of the soft tissue motion. The methods developed in this thesis increases the knowledge on soft tissue motion and allow future studies to consider their movement in joint kinetics calculation.
20

Papon, Aurélie. "Modélisation numérique du comportement des sols sous très grands nombres de cycles : homogénéisation temporelle et identification des paramètres." Phd thesis, Université de Nantes, 2010. http://tel.archives-ouvertes.fr/tel-00649079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La prise en compte du comportement des sols soumis à de très grands nombres de cycles nécessite l'utilisation de modèles de comportement spécifiques, souvent complexes. Par ailleurs, la simulation de ce comportement sur l'ensemble du chargement implique des temps de calcul longs et fastidieux. En réponse à ces constats, cette étude développe deux outils d'aide à la modélisation numérique. Le premier outil vise une réduction substantielle du temps de calcul en appliquant la méthode d'homogénéisation temporelle asymptotique. L'efficacité de cette méthode est mesurée par la comparaison des simulations avec et sans homogénéisation dans le cas d'essais triaxiaux non drainés répétés. Deux modèles de comportement sont utilisés : l'un est basé sur le principe de la plasticité de la " bounding surface ", l'autre est un modèle à deux surfaces de charge à écrouissage isotrope et cinématique (modèle " bulle "). Un module d'homogénéisation est implanté dans le logiciel aux éléments finis CESAR-LCPC. Le second outil s'inscrit dans le cadre plus général de l'identification de paramètres constitutifs par analyse inverse. Il propose une identification multi-objectif des paramètres par algorithmes génétiques. Cette méthode est testée sur des essais pressiométriques monotones afin de prévoir le tassement d'une fondation superficielle. Finalement les deux outils numériques sont appliqués à des résultats expérimentaux obtenus lors d'essais triaxiaux non drainés répétés sur une argile normalement consolidée.
21

Fuoco, Geneviève. "La méthode Jacques Lecoq et les Cycles Repère. Deux outils de travail complémentaires dans la création du spectacle Le temps nous est gare." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24945/24945.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Amorino, Chiara. "Bias correction for drift and volatility estimation of jump diffusion processes and non - parametric adaptive estimation of the invariant measure." Thesis, université Paris-Saclay, 2020. https://www.biblio.univ-evry.fr/theses/2020/2020UPASE006.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sujet de la thèse est l’estimation paramétrique et non-paramétriquedans des modèles de processus à sauts. La thèse est constituée de 3 parties qui regroupent 4 travaux.La première partie, qui est composée de deux chapitres, traite del'estimation des paramètres de dérive et volatilité par des méthodes de contraste depuis des observations discrètes, avec pour objectif principal de minimiser les conditions sur le pas d'observation, afin que celui ci puisse par exemple aller arbitrairement lentement vers 0.La seconde partie de la thèse concerne des développements asymptotiques, et correction de biais, pour l'estimation de la volatilité intégrée.La troisième partie de la thèse, concerne l'estimation adaptative de la mesure stationnaire pour des processus à saut
The thesis deal with the parametric and non-parametric inference in jump process models.It consists of 3 parts which gather 4 chapters.The first part, which contains 2 chapters, focuses on the estimation of the drift and volatility parameters via some contrast function methods starting from a discretely observed process.The main goal is to minimise the conditions on the discretization step so that it can go to $0$ arbitrarily slowly.The second part of the thesis regards some asymptotic developments, and bias correction, for the estimation of the integrated volatility.The third part of the thesis is about the adaptive estimation of the invariant measure for jump processes
23

Pham, Ngoc Diep. "Contribution à l'identification de la nature des rayons cosmiques d'énergie extrême à l'Observatoire Pierre Auger." Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00630205.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Bien que la découverte des rayons cosmiques date d'un siècle, ce n'est que récemment qu'on est parvenu à identifier leurs sources galactiques comme étant des restes de jeunes Supernovae (SNR). La difficulté était la déviation de leurs trajectoires dans le champ magnétique du disque de la Voie Lactée, empêchant d'associer leurs sources à des objets célestes connus. C'est l'astronomie en rayons gamma qui a permis de sauter cet obstacle en associant les sources de rayons gamma d'énergies supérieures au TeV à des enveloppes de jeunes SNRs. Ces découvertes récentes n'ont toutefois pas été capables d'expliquer l'origine de la composante extra galactique des rayons cosmiques, dite d'ultra haute énergie (UHECR), ni d'identifier leurs sources et le mécanisme d'accélération. Ce n'est que tout récemment, avec la construction de l'Observatoire Pierre Auger (PAO), que la physique des UHECR est apparue sous un jour nouveau. Le PAO, avec lequel notre laboratoire est associé, et dans le cadre duquel cette thèse a été réalisée, est un immense réseau de 1600 compteurs Cherenkov (SD, pour détecteur de surface) couvrant une superficie de 3000 km2 dans la pampa argentine. Il abrite également des détecteurs de fluorescence (FD) qui permettent une détection hybride des grandes gerbes pendant les nuits claires et sans lune. Le PAO a déjà accumulé, pour la première fois au monde, une centaine d'UHECRs d'énergies supérieures à 50 EeV dont l'étude des propriétés est ainsi devenue possible. De fait, deux résultats majeurs ont déjà été obtenus, qui marquent un jalon important dans l'étude de la physique des UHECRs: l'observation d'une coupure dans la distribution en énergie, aux alentours de 100 EeV, associée pour l'essentiel au seuil de photoproduction de pions dans les interactions des UHECRs avec les photons du fond cosmique fossile; et la mise en évidence d'une corrélation entre les directions vers lesquelles pointent les UHECRs et les concentrations de matière extragalactique de l'univers proche, en particulier la région de Cen A. A plus basse énergie, jusqu'à une cinquantaine d'EeV, le PAO a mis en évidence une augmentation des masses primaires vers le fer quand l'énergie augmente. Cette observation se base sur des mesures de l'altitude à laquelle la gerbe atteint son développement maximal, censée être plus élevée pour les noyaux de fer que pour les protons. Toutefois, les estimations de la masse primaire basées sur la densité de muons au sol se heurtent à des incohérences entre observations et prédictions des modèles conventionnels de développement des gerbes qui empêchent de conclure. On n'est pas encore parvenu à assembler les pièces de ce puzzle de façon claire et définitive. Une possibilité serait que les UHECR qui pointent vers des galaxies proches, comme CenA, soient des protons et que les autres soient des noyaux de fer. Mais cela reste encore à prouver. Le travail présenté dans la thèse est une contribution modeste à ce programme de recherche. Il met l'accent sur des méthodes d'identification des masses primaires basées sur la mesure de la densité des muons au sol, en particulier sur la méthode des sauts (jump method) qui a été conçue et développée au LAL d'Orsay où une partie importante de la thèse a trouvé son inspiration. La méthode des sauts identifie la présence de sauts soudains dans les traces des FADC, formant un saut total J, avec celle de muons. La lumière Cherenkov produite par les particules de la gerbe qui traversent les détecteurs du SD est captée par des tubes photomultiplicateurs dont les signaux sont enregistrés en fonction du temps dans des convertisseurs analogue/digital rapides (FADC, 40 MHz). La relation entre le saut total, J, et les propriétés des traces des FADCs montre, en particulier, que pour avoir une chance d'apprendre quelque chose de sensé sur le nombre N de muons qui contribuent à la trace du FADC, il est nécessaire de restreindre l'observation à des détecteurs qui ne soient pas trop proches de l'axe de la gerbe. Une étude séparée des traces induites par des muons et par des électrons ou photons montre que J est approximativement proportionnel à N et à Q (la charge totale), ce qui n'est pas surprenant. En combinant des traces de muons et d'électrons/photons on trouve que J peut être décrit par une expression de la forme J={(43.9±0.5)10−3Q+(200±2)N }10-3. Nous étudions ensuite la séparation entre primaires légers (protons) et lourds (fer) à laquelle on peut s'attendre de la mesure des valeurs de J dans les compteurs touchés par la gerbe. Nous remarquons que même si nous connaissions N exactement (ce qui bien sûr n'est pas le cas) la séparation entre fer et proton ne dépasserait pas les 30%, ce qui donne une mesure de la corrélation entre la nature des primaires et la densité des muons au sol. Ceci implique que l'identification des primaires à un niveau de confiance correspondant à trois déviations standard requiert un minimum de cinquante détecteurs dans lesquels on puisse mesurer la valeur prise par J. Une autre remarque est que si l'on connaissait l'énergie des primaires, ce qui n'est pas le cas, non seulement J mais aussi Q et NJ (le nombre de saut dans chaque trace) seraient de bons discriminants entre fer et protons. Ceci dit, l'énergie des primaires étant inconnue, l'inversion de la relation J=AQ+BN en N=J+Q - dans le but de déduire N de Q et J - n'est pas aussi simple qu'il y paraît. Le problème est que la corrélation qui lie Q à J est si forte qu'il n'y a essentiellement rien à gagner de l'utilisation de la forme binomiale ci- dessus. Un corollaire important de cette forte corrélation est la difficulté qu'il y a à faire la différence entre deux gerbes induites par des protons d'énergies différentes et deux gerbes d'énergies égales, l'une induite par un proton et l'autre par un noyau de fer. Afin de surmonter cette difficulté, il est nécessaire d'utiliser des discriminants indépendants de l'énergie. Deux outils sont utilisés dans ce but : l'utilisation du rapport J/Q comme discriminant et la restriction de l'analyse aux compteurs situés dans une fourchette de distances à l'axe de la gerbe dépendant de S(1000) (la densité au sol de la gerbe à 1 km de son axe, utilisée comme mesure de l'énergie de la gerbe). Des gerbes simulées sont utilisées pour démontrer qu'en principe chacun de ces deux outils est efficace. Une analyse indépendante de l'énergie est ensuite appliquée à l'étude des gerbes détectées par le PAO, confirmant leur désaccord avec les prédictions des modèles de développement des gerbes et établissant un nouveau et important résultat: ce désaccord ne peut pas être résolu par un simple ajustement de la relation entre S(1000) et l'énergie. Enfin, la méthode des sauts est appliquée aux UHECRs pointant à 18o près vers Cen A. Contrairement à une autre analyse utilisant des données hybrides pour étudier le taux d'élongation, cette analyse préfère une origine protonique pour les gerbes associées à Cen A par rapport à celles pointant ailleurs dans le ciel. Tout ceci illustre la difficulté qu'il y a à identifier la nature des primaires à partir des données du SD. Le désaccord entre données et prédictions constitue un problème majeur qu'il faut à tout prix résoudre. On ne saurait se satisfaire d'une explication rejetant sur les modèles hadroniques la responsabilité du désaccord si les mécanismes physiques incriminés ne sont pas clairement identifiés. Les programmes de simulation utilisés de façon courante sont d'une complexité telle qu'il est difficile de les utiliser dans ce but. Le souci de reproduire au plus près la réalité physique les a rendus opaques. La seconde partie de la thèse se propose de faire un pas dans la direction de l'élaboration d'un code de simulation simplifié mais transparent dans l'espoir qu'il permette d'éclairer le problème. La simulation de la composante électromagnétique des grandes gerbes est relativement simple: il suffit, à une excellente approximation, de ne retenir que le rayonnement de freinage et la création de paires comme seuls mécanismes élémentaires et d'ignorer toute particule autre que photon, électron ou positon. Il est aussi facile de décrire les pertes d'énergie par ionisation, ce qui permet un traîtement particulièrement simple du développement de la gerbe qui est présenté et commenté en détail. On obtient ainsi des paramétrisations du profil longitudinal de la gerbe utilisant la forme de Gaisser-Hillas et les valeurs moyennes des paramètres sont évaluées en fonction de l'énergie en même temps que leurs fluctuations. Trois types de primaires sont pris en considération: électrons, photons et pions neutres. Le modèle, par itérations successives, permet d'atteindre simplement aux énergies les plus élevées. Son application à l'effet Landau-Pomeranchuk-Migdal et à l'effet Perkins permettent d'illustrer son efficacité et de montrer que ces deux effets sont, en pratique, d'incidence négligeable sur la physique des UHECRs. Le développement de la composante hadronique de la gerbe est beaucoup plus difficile à traîter. Il implique la production de muons, essentiellement des pions, dont la composante neutre est purement électromagnétique et par conséquent facile à décrire. Au contraire, le destin des pions chargés dépend de deux processus en compétition: interactions hadroniques avec les noyaux de l'atmosphère et désintégrations faibles en une paire muon-neutrino. Les échelles qui gouvernent ces deux processus sont différentes: la section efficace d'interaction ne dépend que peu de l'énergie mais le taux d'interaction dépend de la pression atmosphérique, c'est-à- dire de l'altitude; au contraire, le taux de désintégration est indépendant de l'altitude mais inversement proportionnel à l'énergie à cause de la dilatation de Lorentz. La méthode itérative utilisée avec tant d'efficacité pour la composante électromagnétique, pour laquelle la longueur de radiation est la seule échelle pertinente, n'est plus praticable. Le problème essentiel de l'extrapolation des données d'accélérateurs aux grandes gerbes d'UHECRs n'est pas tant l'énergie que la rapidité. De fait, 20 EeV dans le laboratoire correspondent à 200 TeV dans le centre de masse, seulement deux ordres de grandeur au dessus des énergies du Tevatron et un seul au dessus des énergies du LHC. La lente évolution de la physique hadronique en raison directe du logarithme de l'énergie rend peu probable qu'une extrapolation des données des collisionneurs vers les énergies des UHECRs soit grossièrement erronée. Par contre, en termes de rapidité, les gerbes UHECR sont dominées par la production vers l'avant, une région inaccessible aux collisionneurs. En particulier, il n'existe aucune mesure précise des inélasticités et de la forme du front avant du plateau de rapidité, toutes deux essentielles au développement des gerbes UHECR. Le modèle développé dans la thèse fait de l'inélasticité un paramètre ajustable et la forme du plateau de rapidité est accessible de façon transparente. Une attention particulière est consacrée aux caractéristiques de la gerbe qui permettent l'identification de la nature des primaires, noyaux de fer ou protons. Ceci concerne essentiellement la première interaction: une fois que le noyau primaire a interagi, le développement de la gerbe ne met plus en jeu que des interactions nucléon-air ou méson-air. Là encore, il n'existe pas de données de collisionneurs permettant de décrire les interactions de noyaux et de pions avec l'atmosphère dans le domaine d'énergie qui nous intéresse. Le modèle utilisé ici permet un accès facile et transparent aux paramètres pertinents. La présentation qui est donnée du modèle limite ses ambitions à en décrire les traits essentiels, laissant pour une phase ultérieure l'étude de la densité des muons au sol. L'accent est mis sur le développement de ce nouvel outil et sur son adéquation aux problèmes qu'il entend aborder mais son utilisation dépasse le cadre de la thèse et fera l'objet d'études ultérieures.
24

Guillon, Théophile. "Comportement hydromécanique des argilites du Callovo-Oxfordien lors de cycles de désaturation-resaturation." Thesis, Vandoeuvre-les-Nancy, INPL, 2011. http://www.theses.fr/2011INPL101N/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les propriétés des argilites du Callovo-Oxfordien les désignent comme une barrière naturelle sûre pour le stockage de déchets radioactifs. Afin d’optimiser la prédiction de leur comportement, leur réponse à diverses sollicitations à court et long termes est étudiée. Notamment, lors de la phase d’exploitation, l’air ventilé dans les galeries n’est pas à l’équilibre hydrique avec la roche et peut perturber ses propriétés hydromécaniques (HM). Il semble alors essentiel de caractériser la réponse HM de la roche à des sollicitations hydriques.La démarche adoptée consiste à proposer un modèle physique adéquat, sur la base d’essais au laboratoire. L’essai de séchage est retenu puisqu’il permet d’étudier la réponse des échantillons en conditions non-saturées. A partir des résultats HM, un modèle élastique 2D isotrope est proposé, puis est élevé à la 3D avec un module de Young isotrope transverse. Ensuite, les données expérimentales servent à estimer certains paramètres poroélastiques et de transfert du modèle. Cette étape est accomplie par procédure inverse (minimisation de l’erreur mesures-calculs). Enfin, une modélisation 2D du comportement in situ est proposée, et compare les prédictions de modèles plastique isotrope et élastique isotrope transverse.Les simulations d’essais au laboratoire reproduisent assez bien les données expérimentales. Pour la modélisation in situ, une bonne corrélation est obtenue entre les prédictions et les mesures, et ce sans ajustement préalable des paramètres. Toutefois, le modèle souligne une influence limitée de la plasticité à l’échelle du laboratoire, alors que les phénomènes dissipatifs sont marqués in situ. Les modélisations 3D au laboratoire ne donnent pas de résultats plus fins qu’en 2D, mais reproduisent plus de données expérimentales (variations de masse, déformations axiales et latérales). De plus, injecter plusieurs types de données dans la formulation inverse permet d’améliorer la précision de l’algorithme. Par ailleurs, une meilleure stabilité de l’algorithme est obtenue en adoptant une convergence en deux étapes (simplex, puis méthode de type gradient). Les estimations numériques des paramètres corroborent les mesures expérimentales obtenues par ailleurs
The Callovo-Oxfordian claystones’ properties make them reliable as a geological barrier for the confinement of radioactive wastes. In order to optimally predict their behavior, how they respond to various short and long terms loadings has to be studied. Particularly during the exploitation phase, air is continuously ventilated throughout the galleries. The climatic properties of this air are not balanced with those of the rock, and may perturb its hydromechanical (HM) attributes. Thus, assessing the HM response of the rock under hydric loading seems to be a priority.This dissertation begins with laboratory tests to propose an appropriate physical model. Drying tests were studied as they focus on the HM response of samples undergoing hydric loadings. A first 2D isotropic model is proposed, and then enhanced to 3D by considering a transversely isotropic Young modulus. Secondly, experimental results provide relevant data to estimate poroelastic and transport parameters involved in the model. Estimation is achieved according to an inverse procedure, which minimizes the error between measurements and model predictions. Finally, a real-size test is simulated using 2D models: an isotropic plastic one and a transversely isotropic elastic one.Model predictions reproduce well the laboratory tests data. When simulating the in situ behavior, a rather good agreement is obtained between the numerical and experimental results (although using the parameters estimated at the laboratory scale). However, the model highlights a limited influence of plasticity in the laboratory tests, while dissipative phenomena obviously occur in situ. 3D laboratory simulations do not improve the precision of 2D results, but reproduce more experimental data (mass variations, axial and lateral strains). Moreover, the inversion process is more efficient when ran over various kinds of data. Furthermore, stability of the algorithm is improved when adopting a two-phase convergence (simplex, followed by a gradient-like method). Numerical estimates of the parameters are in agreement with the direct experimental measurements obtained through other tests
25

Arairo, Wahib. "Influence des cycles hydriques de la dessiccation et de l'humidification sur le comportement hydromécanique des géomatériaux non saturés." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00943471.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de recherche porte sur le comportement des milieux poreux (triphasiques), plus particulièrement les sols non saturés sous sollicitations hydro-mécaniques. Un modèle constitutif élastoplastique couplé est développé. Ce modèle original est formulé selon les principes suivants: une loi constitutive est développée pour décrire le comportement de chaque phase (squelette solide, liquide, et gaz). Ensuite, des relations de couplage sont ajoutées entre chacune des phases. Pour le comportement du squelette solide, une loi élastoplastique non associée est adoptée, avec deux surfaces de charges, en cisaillement et en compression. La partie hydrique est décrite par une formulation qui permet de prendre en compte l'effet d'hystérésis. Ce modèle a été enrichi par une relation de couplage hydromécanique qui permet d'exprimer la pression d'entrée d'air en fonction de la porosité. Ensuite, le couplage complet se fait avec la contrainte effective de Bishop en utilisant une nouvelle définition du paramètre de succion χ grâce à laquelle, les différents phénomènes présents dans la réponse des milieux poreux sous différentes sollicitations peuvent être reproduits. Ce modèle est validé par une confrontation à des données expérimentales issues de la littérature sur différents types de sol (sable, limon,...). Le modèle est implanté dans le code aux éléments finis Cast3M. L'analyse de problèmes particuliers, tels que la mise en œuvre d'un cas test d'un sol d'assise soumis à un cycle pluvial, ainsi que l'étude de la stabilité d'une pente, permette de montrer la capacité du modèle à reproduire le comportement des milieux poreux non saturés.
26

Baron, Standley-Réginald. "Cycle économique et modélisation de la structure à terme du spread CDS : implémentation de la simulation de Monte Carlo au modèle dynamique de Nelson-Siegel." Master's thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/27368.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours de ces dernières années, le spread du Credit Default Swap (CDS) est devenu l'un des instruments très utilisé pour mesurer le risque de crédit. La modélisation de la courbe de la structure à terme du spread CDS s'avère nécessaire, et elle est d'importance capitale pour la gestion quantitative du risque de crédit. Nous proposons une extension du modèle dynamique de Nelson Siegel, en modélisant les changements des facteurs bêtas par un processus autorégressif avec erreurs hétéroscédastiques tenant compte du cycle économique. Par la technique de Monte Carlo nous simulons, à l'aide d'une copule de Student, les prévisions sur un et quatre trimestres du spread CDS à différentes maturités. Notre modèle suggère que le niveau d'influence du cycle économique sur le spread CDS dépend de la maturité. Son impact sur les spreads à longue échéance est plus significatif que sur les spreads à courte maturité. Notre modèle AR-GARCH performe mieux, quel que soit l'horizon de prévision analysé dans le cadre de ce travail, que le modèle vecteur autorégressif (VAR) et le modèle de marche aléatoire.
27

Sally, Orianne. "Stratégies de calcul pour la prévision de durée de vie des structures composites soumises à des chargements complexes : Application aux composites Oxyde/Oxyde." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude porte sur la prévision del’endommagement et de la durée de vie de structurescomposites oxyde/oxyde, introduites dans les partieschaudes des moteurs d’avions. Elle s’inscrit dans lecadre du projet MECACOMP, piloté par Safran.Cette thèse a pour but de proposer une stratégie decalcul capable de prévoir la tenue et la durée de viede structures composites soumises à deschargements de fatigue réels (multi-axiaux, delongue durée et potentiellement aléatoires).L’approche retenue se décompose en deux étapes.Dans un premier temps, un modèled’endommagement, utilisant un formalismeincrémental est proposé en vue de retranscrire lecomportement observé expérimentalement sur deschargements tant statiques que de fatigue. Unprotocole d’identification dédié est proposé. La campagne d’essais effectuée a permis decaractériser le matériau étudié et d’identifier lesparamètres de ce modèle.Toutefois, les coût de calcul étant trop élevés poursimuler le comportement d’une structurecomposite soumise à un chargement de fatigue delongue durée, une stratégie de calcul a étédéveloppée dans un second temps pour réduire lestemps de calcul et rendre le modèle utilisable enbureaux d’études. Il s’agit d’une méthode de sautsde cycles non-linéaire, basée sur la loid’endommagement incrémentale proposée. Cettestratégie a été implantée dans un code de calcul destructure par Elements Finis commercial etappliquée à des calculs de fatigue polycylique surdes structures académiques, pour lesquelles lesprévisions du modèle ont été comparées à desrésultats d’essais, et de complexité industrielle
This study focuses on damage and lifetimeprediction of oxide/oxide composite structures,introduced in the hot parts of aircraft engines. It ispart of a project named MECACOMP, led by Safran.This PhD aims to propose a calculation strategycapable of predicting the strength and service life ofcomposite structures subjected to real fatigue loads(multi-axial, long-lasting and potentially random).A two-step approach is implemented. First, a damagemodel, using an incremental formalism, is proposedin order to represent the experimental behaviourobserved on both static and fatigue loadings. Adedicated identification protocol is proposed. Themechanical test campaign carried out made itpossible to characterize the studied material and toidentify the parameters of the model. However, the computational costs being too highto simulate the behaviour of a composite structuresubjected to long-term fatigue loadings, acalculation strategy is developed, in a second step,to reduce drastically the computational time andmake the model usable in design offices. It consistsin a non-linear cycle jumps method, based on theproposed incremental damage law. This strategywas implemented in a commercial Finite Elementcode and applied to polycyclic fatigue calculationson both academic structures, for which the modelpredictions are evaluated by comparison with testresults, and structures of industrial complexity
28

Herbland, Thibault. "Une méthode de correction élastoplastique pour le calcul en fatigue des zones de concentration de contraintes sous chargement cyclique multiaxial non proportionnel." Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://tel.archives-ouvertes.fr/tel-00479991.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La première étape d'un calcul de durée de vie en fatigue oligocyclique consiste à obtenir l'historique des contraintes et des déformations sur des points jugés critiques. Pour éviter des calculs complets par éléments finis (force brute) particulièrement longs, les corrections élasto-plastiques locales évaluent ces historiques en un temps très court. Les approches existantes manquant de précision, une nouvelle méthode de calcul qui s'inspire des modèles d'homogénéisation a été proposée. Elle a été implémentée dans le code de calcul ZéBuLoN et validée sur des cas de charge quelconques en multiaxial non proportionnel aléatoire, ce qui n'est le cas d'aucune autre méthode de la littérature. Ces historiques servent d'entrée aux méthodes de prévision de durée de vie. Un nouvel algorithme de comptage de cycles a été utilisé pour extraire une série de cycles d'un chargement multiaxial aléatoire. Il s'agit d'une technique de rainow qui permet de conserver toutes les composantes du chargement, et de définir un "cycle" dans l'espace des contraintes déviatoriques. Des calculs de durée de vie ont été réalisés pour évaluer la pertinence de l'ensemble de la chaîne de calcul ainsi constituée. On montre pour finir des applications à une pièce industrielle (bras de châssis de grue).
29

Arairo, Wahib. "Influence des cycles hydriques de la dessiccation et de l’humidification sur le comportement hydromécanique des géomatériaux non saturés." Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0028/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de recherche porte sur le comportement des milieux poreux (triphasiques), plus particulièrement les sols non saturés sous sollicitations hydro-mécaniques. Un modèle constitutif élastoplastique couplé est développé. Ce modèle original est formulé selon les principes suivants: une loi constitutive est développée pour décrire le comportement de chaque phase (squelette solide, liquide, et gaz). Ensuite, des relations de couplage sont ajoutées entre chacune des phases. Pour le comportement du squelette solide, une loi élastoplastique non associée est adoptée, avec deux surfaces de charges, en cisaillement et en compression. La partie hydrique est décrite par une formulation qui permet de prendre en compte l’effet d’hystérésis. Ce modèle a été enrichi par une relation de couplage hydromécanique qui permet d’exprimer la pression d’entrée d’air en fonction de la porosité. Ensuite, le couplage complet se fait avec la contrainte effective de Bishop en utilisant une nouvelle définition du paramètre de succion χ grâce à laquelle, les différents phénomènes présents dans la réponse des milieux poreux sous différentes sollicitations peuvent être reproduits. Ce modèle est validé par une confrontation à des données expérimentales issues de la littérature sur différents types de sol (sable, limon,…). Le modèle est implanté dans le code aux éléments finis Cast3M. L’analyse de problèmes particuliers, tels que la mise en œuvre d’un cas test d’un sol d’assise soumis à un cycle pluvial, ainsi que l’étude de la stabilité d’une pente, permette de montrer la capacité du modèle à reproduire le comportement des milieux poreux non saturés
This work focuses on the behaviour of porous triphasic media, particularly on unsaturated soils subjected to hydromechanical loading. A coupled elastoplastic constitutive model has been developed. This original model is formulated according to the following principles: (1) a constitutive law describing the behaviour of different phases (solid skeleton, liquid and gas). (2) coupling relationships between each phase. For the behaviour of the solid skeleton, a non associated elastoplastic constitutive law is adopted, with two loading surfaces: shear surface and compression cap surface. The hydric part is discribed using a formulation which allows to take into account the hysteresis effect. This model has been extended using a hydromechanical coupling relation between the air entry value and the porosity. Then the coupling is completed with the Bishop effective stress, using a new definition for the suction parameter χ. Using this formulation, the various phenomena present in the porous media behaviour under different loading can be reproduced. The developed model has been validated through a comparison with experimental data on different types of soil (sand, silt,…). This model is implemented in the french finite element code Cast3M. The analysis of specific problems, such as (1) the study of shallow foundation subjected to cyclic rain event, as well as (2) the study of slope stability, show the model capacity to reproduce the behaviour of unsaturated porous media
30

Sicot, Olivier. "Détermination des contraintes résiduelles dans les matériaux composites stratifiés et étude de leur influence sur le comportement mécanique." Troyes, 2003. http://www.theses.fr/2003TROY0003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail s'inscrit dans le cadre d'une démarche globale embrassant l'ensemble des problèmes liés aux contraintes résiduelles de cuisson dans les matériaux composites stratifiés. La première partie de ce mémoire est dédiée à l'adaptation de la méthode du trou incrémental aux cas des matériaux composites stratifiés. La mise au point d'une procédure autoimatique permet la détermination numérique des coefficients de calibration nécessaires aux calculs des contraintes résiduelles et augmente sensiblement l'attrativité de cette méthode. Ensuite, le champ d'application et de validité de celle-ci est mis en évidence grâce notamment à l'étude de l'influence de différents paramètres expérimentaux tels que la profondeur des incréments de perçage et la position relative entre les jauges de déformation et le trou. La méthode ainsi optimisée est utilisée pour déterminer le champs des contraintes résiduelles introduits par différents cycles de cuisson. La modification de vitesse de refroidissement en fin de cycle, l'ajout d'une post-cuisson de durée variable ainsi que l'introduction d'un troisième palier isotherme sont étudiés afin d'établir une hiérarchisation des solutions liées à la réduction des contraintes résiduelles. Enfin, l'influence des contraintes résiduelles sur le comportement mécanique en traction et en torsion est mise en évidence. Le suivi qualitatif et quantitatif de l'endommagement au cours des différentes sollicitations est réalisé grâce à l'utilisation de la technique de l'émission acoustique. Il en ressort, entre autre, que la présence d'un niveau élevé de contraintes résiduelles conduits à l'amorçage prématuré de l'endommagement au sein du stratifié
This work takes place in a broader study relative to the problem of the residual stresses in the composites laminates. The first part of this study is dedicated to the adaptation of the incremental hole-drilling method to the case of the composites laminates. For that, we developed a numerical software to calculate the calibration coefficients used to determine the residual stresses. This new computation allows to improvie the interest of this method. The validity field of this method is drawn thanks to the study of the experimental parameters influence as the delpth of the drilling increment and the relative position between the gages and the hole's border. The optimised method is used to dermine the residual stresses introduced by different types of cure cycles (modification of the cooling rate, add of a post-cure and introduction of a third isothermial step). In the second part of this work, the influence of the residual stresses on the mechanical behaviour of the composites laminates is investigated. The acoustic emission is used to follow quantitatively and qualitatively the damage evolution during the sollicitation. Whether the sollicitation, the results show a significant influence of the residual stresses on the damage initiation stresses and on the fracture limits
31

Hamisultane, Hélène. "Evaluation des dérivés climatiques sur degrés-jours." Phd thesis, Université de Nanterre - Paris X, 2007. http://tel.archives-ouvertes.fr/tel-00283848.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'introduction sur le marché financier du premier dérivé climatique portant sur les degrés-jours en 1997 aux Etats-Unis, a donné lieu à un nombre important de travaux sur la valorisation des instruments climatiques et sur la modélisation de la température moyenne journalière. Cependant, aucune étude conjointe de l'ensemble des approches d'évaluation et des représentations de la température suggérées dans la littérature n'avait été menée jusqu'à présent sur le plan empirique. Nous nous sommes donc proposés dans la présente thèse de calculer les prix des contrats à terme et des options d'achat climatiques à partir des méthodes en l'absence d'arbitrage, actuarielle et fondée sur la consommation. Nous nous sommes particulièrement intéressés au calcul des prix des contrats sur les degrés-jours des villes de Chicago, de Cincinnati et de New York pour lesquelles nous avions constaté des transactions fréquentes sur le Chicago Mercantile Exchange. L'analyse conjointe des cours estimés des contrats à terme climatiques à partir des différentes méthodologies d'évaluation a montré que le calibrage des modèles d'évaluation était nécessaire pour obtenir des prévisions de prix proches des cotations et plus particulièrement de la réalisation réelle de l'indice des degrés-jours à l'échéance.
32

Elie, Romuald. "Contrôle stochastique et méthodes numériques en finance mathématique." Phd thesis, Paris 9, 2006. http://tel.archives-ouvertes.fr/tel-00122883.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente trois sujets de recherche indépendants appartenant au domaine des méthodes numériques et du contrôle stochastique avec des applications en mathématiques financières.

Nous présentons dans la première partie une méthode non-paramétrique d'estimation des sensibilités des prix d'options. A l'aide d'une perturbation aléatoire du paramètre d'intérêt, nous représentons ces sensibilités sous forme d'espérance conditionnelle, que nous estimons à l'aide de simulations Monte Carlo et de régression par noyaux. Par des arguments d'intégration par parties, nous proposons plusieurs estimateurs à noyaux de ces sensibilités, qui ne nécessitent pas la connaissance de la densité du sous-jacent, et nous obtenons leurs propriétés asymptotiques. Lorsque la fonction payoff est irrégulière, ils convergent plus vite que les estimateurs par différences finies, ce que l'on vérifie numériquement.

La deuxième partie s'intéresse à la résolution numérique de systèmes découplés d'équations différentielles stochastiques progressives rétrogrades. Pour des coefficients Lipschitz, nous proposons un schéma de discrétisation qui converge plus vite que $n^{-1/2+e}$, pour tout $e>0$, lorsque le pas de temps $1/n$ tends vers $0$, et sous des hypothèses plus fortes de régularité, le schéma atteint la vitesse de convergence paramétrique. L'erreur statistique de l'algorithme dûe a l'approximation non-paramétrique d'espérances conditionnelles est également controlée et nous présentons des exemples de résolution numérique de systèmes couplés d'EDP semi-linéaires.

Enfin, la dernière partie de cette thèse étudie le comportement d'un gestionnaire de fond, maximisant l'utilité intertemporelle de sa consommation, sous la contrainte que la valeur de son portefeuille ne descende pas en dessous d'une fraction fixée de son maximum courant. Nous considérons une classe générale de fonctions d'utilité, et un marché financier composé d'un actif risqué de dynamique black-Scholes. Lorsque le gestionnaire se fixe un horizon de temps infini, nous obtenons sous forme explicite sa stratégie optimale d'investissement et de consommation, ainsi que la fonction valeur du problème. En horizon fini, nous caractérisons la fonction valeur comme unique solution de viscosité de l'équation d'Hamilton-Jacobi-Bellman correspondante.
33

Sinou, Jean-Jacques. "Synthèse non-linéaire des systèmes vibrants : Application aux systèmes de freinage." Phd thesis, Ecole Centrale de Lyon, 2002. http://tel.archives-ouvertes.fr/tel-00260842.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude porte sur l'analyse des instabilités des systèmes non linéaires. Nous considérons plus particulièrement les vibrations dues à la friction et nous présentons des modèles analytiques pour l'analyse des modes de vibration de "judder" (mode de vibration présent dans les systèmes de freinage automobile) et pour l'analyse des modes de vibration du "whirl" (mode de vibration des systèmes d'atterrissage d'avion).
Le but de cette recherche est de développer une procédure d'analyse non-linéaire des systèmes vibrants. Nous nous intéressons plus particulièrement aux systèmes non linéaires présentant des non-linéarités polynomiales. Une attention tout particulière est apportée à la détermination des mécanismes engendrant les instabilitées dues au frottement (stick,-slip, sprag slip, couplage de modes...) et à la réalisation de modéles phénoménologiques permettant de reproduire les principaux modes de vibration des systèmes associés.
La démarche d'analyse non linéaire s'appuie sur deux points particuliers. Le problème staticodynamique où l'analyse dynamique correspond à une linéarisation autour d'une position statique obtenue par la résolution d'un problème non linéaire. Les conditions de stabilité du système sont alors étudiées à partir de la résolution du problème aux valeurs propres. Le second point concerne le problème dynamique non linéaire : nous cherchons à mettre en place des méthodes non-linéaires (méthode de la variété centrale, les approximants multivariables, la méthode de la balance harmonique AFT(alternate frequency/time domain), etc...) pour prédire les niveaux vibratoires, ou cycles limites. Les cycles limites provenant des méthodes non-lineaires sont alors comparés avec ceux obtenus par une intégration temporelle classique afin de valider cette procédure globale qui consiste à utiliser successivement, dans un certain ordre, des méthodes non-linéaires qui réduisent et simplifient le systéme de départ.
34

Kaddouri, Isma. "Problèmes inverses pour des problèmes d'évolution paraboliques à coefficients périodiques." Electronic Thesis or Diss., Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4322.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse est constitué de l'étude de deux problèmes inverses associés à des équations paraboliques à coefficients périodiques. Dans la première partie, on a considéré une équation parabolique à coefficients et condition initiale périodiques. Notre travail a consisté à aborder le cas de coefficient à régularité faible et à minimiser les contraintes d'observations requises pour établir notre résultat de reconstruction du potentiel. On a commencé par établir un résultat d'existence et d'unicité de la solution dans un espace d'énergie adéquat. Ensuite, on a énoncé un principe du maximum adapté aux hypothèses du problème étudié et on a travaillé avec des coefficients mesurables et bornés. Enfin, on a reconstruit le potentiel en établissant une inégalité de Carleman. Le résultat d'identification a été obtenu via une inégalité de stabilité de type Lipschitz. Dans le second travail, on s'est intéressé à la détermination d'un coefficient périodique en espace du terme de réaction dans une équation de réaction-diffusion définie dans l'espace entier ℝ. On établit un résultat d'unicité en utilisant un nouveau type d'observations. La nature du problème étudié, posé dans l'espace ℝ, nous a permis d'utiliser la notion de vitesse asymptotique de propagation. On a prouvé l'existence de cette vitesse et on l'a caractérisé. On a surdéterminé le problème inverse en choisissant une famille de conditions initiales à décroi-ssance exponentielle. Notre principal résultat est que ce coefficient est déterminé de façon unique, à une symétrie près, par l'observation d'un continuum de vitesses asymptotiques de propagation
This thesis consists in the study of two problems associated to inverse para-bolic equations with periodic coefficients. We are interested in identifying one coefficient by using two different methods. In the first part, we consider a parabolic equation with periodic coefficients and periodic initial condition. Our work consists to consider the case of coefficient with weak regularity and to minimize the constraints of observations which are required to establish our reconstruction result. We establish a result of existence and uniqueness of the solution in adequate energy space. Then we prove a maximum principle adapted to the hypothesis of the problem studied and we work with measurable and bounded coefficients. Finally, we reconstruct the potential by establishing a Carleman estimate. The identification result was achieved via an inequality of stability. In the second work, we are interested to determine a periodic coefficient of the reaction term defined in the whole space ℝ. We establish a uniqueness result by using a new type of observations. The nature of the studied problem allowed us to use the notion of asymptotic speed of propagation. We prove the existence of this speed and we give its characterization. We overdetermin the inverse problem by choosing a family of initial conditions exponentially decaying. Our main result is that the coefficient is uniquely determined up to a symmetry, by the observation of a continuum of asymptotic speed of propagation
35

Krief, David. "Asymptotic methods for option pricing in finance." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC177/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions plusieurs problèmes de mathématiques financières liés à la valorisation des produits dérivés. Par différentes approches asymptotiques, nous développons des méthodes pour calculer des approximations précises du prix de certains types d’options dans des cas où il n’existe pas de formule explicite.Dans le premier chapitre, nous nous intéressons à la valorisation des options dont le payoff dépend de la trajectoire du sous-jacent par méthodes de Monte-Carlo, lorsque le sous-jacent est modélisé par un processus affine à volatilité stochastique. Nous prouvons un principe de grandes déviations trajectoriel en temps long, que nous utilisons pour calculer, en utilisant le lemme de Varadhan, un changement de mesure asymptotiquement optimal, permettant de réduire significativement la variance de l’estimateur de Monte-Carlo des prix d’options.Le second chapitre considère la valorisation par méthodes de Monte-Carlo des options dépendant de plusieurs sous-jacents, telles que les options sur panier, dans le modèle à volatilité stochastique de Wishart, qui généralise le modèle Heston. En suivant la même approche que dans le précédent chapitre, nous prouvons que le processus vérifie un principe de grandes déviations en temps long, que nous utilisons pour réduire significativement la variance de l’estimateur de Monte-Carlo des prix d’options, à travers un changement de mesure asymptotiquement optimal. En parallèle, nous utilisons le principe de grandes déviations pour caractériser le comportement en temps long de la volatilité implicite Black-Scholes des options sur panier.Dans le troisième chapitre, nous étudions la valorisation des options sur variance réalisée, lorsque la volatilité spot est modélisée par un processus de diffusion à volatilité constante. Nous utilisons de récents résultats asymptotiques sur les densités des diffusions hypo-elliptiques pour calculer une expansion de la densité de la variance réalisée, que nous intégrons pour obtenir l’expansion du prix des options, puis de leur volatilité implicite Black-Scholes.Le dernier chapitre est consacré à la valorisation des dérivés de taux d’intérêt dans le modèle Lévy de marché Libor qui généralise le modèle de marché Libor classique (log-normal) par l’ajout de sauts. En écrivant le premier comme une perturbation du second et en utilisant la représentation de Feynman-Kac, nous calculons explicitement l’expansion asymptotique du prix des dérivés de taux, en particulier, des caplets et des swaptions
In this thesis, we study several mathematical finance problems, related to the pricing of derivatives. Using different asymptotic approaches, we develop methods to calculate accurate approximations of the prices of certain types of options in cases where no explicit formulas are available.In the first chapter, we are interested in the pricing of path-dependent options, with Monte-Carlo methods, when the underlying is modelled as an affine stochastic volatility model. We prove a long-time trajectorial large deviations principle. We then combine it with Varadhan’s Lemma to calculate an asymptotically optimal measure change, that allows to reduce significantly the variance of the Monte-Carlo estimator of option prices.The second chapter considers the pricing with Monte-Carlo methods of options that depend on several underlying assets, such as basket options, in the Wishart stochastic volatility model, that generalizes the Heston model. Following the approach of the first chapter, we prove that the process verifies a long-time large deviations principle, that we use to reduce significantly the variance of the Monte-Carlo estimator of option prices, through an asymptotically optimal measure change. In parallel, we use the large deviations property to characterize the long-time behaviour of the Black-Scholes implied volatility of basket options.In the third chapter, we study the pricing of options on realized variance, when the spot volatility is modelled as a diffusion process with constant volatility. We use recent asymptotic results on densities of hypo-elliptic diffusions to calculate an expansion of the density of realized variance, that we integrate to obtain an expansion of option prices and their Black-Scholes implied volatility.The last chapter is dedicated to the pricing of interest rate derivatives in the Levy Libor market model, that generaliszes the classical (log-normal) Libor market model by introducing jumps. Writing the first model as a perturbation of the second and using the Feynman-Kac representation, we calculate explicit expansions of the prices of interest rate derivatives and, in particular, caplets and swaptions
36

Vincent, Matthieu. "Interaction entre défaut de surface et taille de grain en fatigue à grand nombre de cycles : approche expérimentale et numérique sur un fer pur Armco." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2018. http://www.theses.fr/2018ESMA0018/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de ces travaux de thèse est d’étudier l’influence du rapport entre taille de défaut et longueur caractéristique de la microstructure, sur la limite de fatigue pour une durée de vie fixée d’un matériaux métallique,dans le cadre de la fatigue à grand nombre de cycle (FGNC). Le fer pur Armco est choisi comme matériau d’étude, car sa microstructure simple présente une seule longueur caractéristique à l’échelle mésoscopique (échelle des grains) : la taille de grain. Le but de l’étude revient ainsi à étudier la compétition entre un effet de structure (défaut surfacique)et un effet matériau (taille de grain) dans le cadre de sollicitations mécaniques en FGNC.Afin d’obtenir une taille de défaut comparable mais aussi inférieure à la taille de grain du matériau, un protocole thermomécanique a été élaboré pour augmenter la taille de grain. Des essais de FGNC, utilisant des éprouvettes issues des deux tailles de microstructures (matériau initial et celui écroui traité) dans lesquelles sont introduits des défauts hémisphériques de tailles différentes, ont été effectués pour estimer les limites de fatigue pour différents rapports taille de défaut / taille de grain. Lorsque les diagrammes de Kitagawa sont présentés en valeurs relatives(limite de fatigue / celle du matériau sans défaut en fonction de la taille de défaut / taille de grain), il existe une seule courbe qui combine les deux microstructures. Ce diagramme de Kitagawa sans dimension permet ainsi d’analyser la réduction de la limite de fatigue causée par un défaut. L’utilisation de la taille relative du défaut par rapport à la dimension microstructurale caractéristique apparaît comme plus pertinente que l’emploi de la taille physique réelle du défaut.Ces résultats expérimentaux sont utilisés pour reproduire les essais en FGNC avec des simulations Éléments Finis sur des microstructures 3D représentatives du fer Armco. La compétition existant entre la concentration de contrainte induite par le défaut géométrique et les régions fortement sollicitées de la microstructure engendrées parl’anisotropie du comportement mécanique des grains est étudiée. Un critère mésoscopique (à partir des grandeurs mécaniques moyennées par grain) basé sur une approche statistique permet de retrouver l’allure du diagramme de Kitagawa adimensionné, c’est-à-dire la taille relative du défaut critique à partir de laquelle ce dernier prend le passur l’hétérogénéité de la réponse de la microstructure et conditionne ainsi la tenue en fatigue du polycristal. La modification du critère mésoscopique par la prise en compte des hétérogénéités intragranulaires (via l’écart-type par grain des grandeurs mécaniques) est discutée
The objective of this thesis is to study the influence of the ratio between the defect size and themicrostructure characteristic length on the fatigue limit (for a fixed fatigue life) of a metallic material, under highcycle fatigue (HCF). Pure Armco iron is chosen because its simple microstructure has a single characteristic lengthat the mesoscopic scale (grain scale) : the grain size. The aim of the study is thus to study the competition betweena structural effect (surface defect) and a material effect (grain size) in the context of mechanical stresses in HCF.In order to obtain a comparable different grain size, a thermomechanical protocol has been developed. HCF tests,using specimens from both microstructure sizes (initial material and processed hardened material) in which hemisphericaldefects of different sizes were introduced, were performed to estimate the fatigue limits for different defectsize / grain size ratios. When Kitagawa diagrams are presented in relative values (fatigue limit / fatigue limit ofdefect free material versus defect size / grain size), there is a single curve that combines the two microstructures.This dimensionless Kitagawa diagram thus makes it possible to analyze the reduction of the fatigue limit inducedby a defect. The use of the relative size of the defect with respect to the characteristic microstructural dimensionappears to be more relevant than the use of the physical size of the defect.These experimental results are used to reproduce the HCF tests with Finite Element simulations on 3D microstructuresrepresentative of Armco iron. The competition existing between the stress concentration induced by thegeometrical defect and the highly stressed regions of the microstructure generated by the anisotropy of the mechanicalbehavior of the grains is studied. A mesoscopic criterion (involving mechanical quantities averaged by grain)based on a statistical approach allows to find the evolution of the dimensionless Kitagawa diagram, ie the relativesize of the critical defect from which it predominates over the response heterogeneity of the microstructure and thusgoverns the fatigue behavior of the polycrystal. The modification of the mesoscopic criterion by taking into accountintragranular heterogeneities (with the standard deviation per grain of mechanical quantities) is discussed
37

Mfouapon, Alassa. "Conception et estimation d'un modèle DSGE pour la prévision macroéconomique : un petit modèle d'économie ouverte pour le Cameroun." Thesis, Paris 2, 2015. http://www.theses.fr/2015PA020076/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse propose une analyse de la dynamique macroéconomique de l’économie camerounaise. On commence par une analyse quantitative générale du cycle des affaires au Cameroun, fondée sur des données macroéconomiques annuelles que nous avons nous-mêmes assemblées. Cette première exploration laisse apparaître un certain nombre de caractéristiques qui se prêtent bien à une modélisation de type néo-keynesien. Nous construisons alors un modèle dynamique stochastique d’équilibre général (DSGE) de l’économie camerounaise. Ce modèle comporte les blocs de construction de modèles DSGE néo-keynésiens standards (par exemple, la rigidité des prix et des salaires des rigidités, et des coûts d'ajustement), mais il inclut également un certain nombre de caractéristiques spécifiques (telles que l'exportation des matières premières et les revenus du pétrole entre autre) dont on montre qu’elles jouent un rôle important dans la dynamique de l'économie camerounaise. Le modèle est estimé et évalué selon une approche bayésienne. La performance du modèle DSGE en termes de prévision est comparée à celle d’un modèle de marche aléatoire, à celle d’un modèle vectoriel auto-régressif (VAR) et, enfin, à celle d’un modèle vectoriel auto-régressif de type Bayesien (BVAR). Nous trouvons que, le modèle DSGE est plus précis en matière de prévision au moins dans un horizon de court-terme. Pour ce qui est des fluctuations macroéconomiques, les chocs des prix des produits de base génèrent une expansion de la production, une augmentation de l'emploi et une baisse de l'inflation tandis que des chocs liés aux prix du pétrole ont un impact direct sur le coût marginal de production qui augmente et provoque une augmentation de l'inflation en même temps que production et emploi baissent. Notons que, les chocs extérieurs et les chocs d'offre domestiques représentent une grande part des fluctuations de la production et de l'investissement. Aussi, l'évolution de la production sur l'ensemble de l'échantillon est dominée par le choc de prix des matières premières et le choc des prix du pétrole
This thesis aims at analyzing the macroeconomic dynamics of the Cameroonian economy. It begins with a quantitative analysis of the business cycle in Cameroon, based on annual macroeconomic data, especially gathered for this purpose. This preliminary inquiry highlights a number of features that can be accounted for in a new-keynesian modelling framework. A dynamic stochastic general equilibrium (DSGE) model of the new-keynesian family is thus constructed as a mean of describing the salient feautures of the Cameroonian economy. It has the traditional blocks of new-keynesian DSGE models (Sticky prices and wages, adjustment costs, etc). But it also accounts for a number of characteristics of the Cameroonian economy that are shown to be influential in the dynamics of the cameroonian economy (e.g. oil revenues or primary goods exports). The model is then estimated and evaluated, based on a Bayesian approach. Its forecasting performance is also assessed through comparison to the performances of a random walk model, a vector autoregressive (VAR) model and a Bayesian VAR (BVAR) model. It turns out that, at least for short horizons, the DSGE model shows the highest perfromance. As to macroeconomic fluctuations, the estimated model suggests that commodity price shocks generate an output expansion, an increase in employment and a fall in inflation. In addition, oil price shocks have a direct impact on marginal costs which increase and provoke a rising in inflation while output and employment tend to fall. Foreign shoks and domestic supply shocks account for a large share of output and investment fluctuations. The evolution of output over the whole sample is dominated by commodity price shocks and oil price shocks as one would expect
38

Guy, Yann. "L'impact de la finance de marché sur le comportement d'investissement des entreprises : une confrontation des approches microéconomique et macroéconomique." Phd thesis, Université Paris-Diderot - Paris VII, 2012. http://tel.archives-ouvertes.fr/tel-00738271.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La recherche porte sur les liens entre la stratégie de croissance des entreprises non financières et les conditions de son financement en France depuis le début des années 1980. Selon cet objectif, le travail empirique consiste à entreprendre une comparaison entre les phénomènes observés au plan microéconomique sur la base des comptes consolidés des grands groupes cotés, et au plan macroéconomique à partir des données de la comptabilité nationale. La thèse met à jour deux points essentiels. Dans le cadre du régime d'accumulation financiarisé et sous l'impulsion des groupes cotés, l'investissement des entreprises françaises (i) a un caractère dépressif sur le long terme, qui s'accentue nettement en fin de période ; et (ii) est pris dans un cycle financier déflationniste. Nous testons ces évolutions à travers une modélisation VECM sur données de comptabilité nationale et par l'estimateur GMM en première différence sur un panel des groupes cotés au SBF 250. Les équations de comportement estimées sont issues des modèles SFC post-keynésiens.
39

Villemot, Sébastien. "Essays on Modeling the Sovereign Default Risk." Paris, EHESS, 2012. http://www.theses.fr/2012EHES0055.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse contribue à la littérature sur la dette souveraine et le risque de défaut, en se fondant notamment sur les récents développements de la littérature quantitative sur la dette souveraine. La première contribution est une solution au problème suivant : la plupart des modèles de dette souveraine prédisent le défaut pour des valeurs très faibles du ratio dette sur PIB, en contradiction avec ce qui est observé dans les données. En partant de l’observation que les pays ne souhaitent généralement pas faire défaut mais y sont forcés par les marchés, je présente un modèle qui peut reproduire les principaux faits stylisés concernant le risque souverain. J'établis ensuite une typologie des crises de dette en trois catégories: les crises qui sont la conséquence d'un choc exogène, celles qui sont des prophéties auto-réalisatrices, et les crises auto-imposées qui sont la conséquence d'une tendance rationnelle au surendettement lorsque le risque d'un choc négatif est élevé. La proportion de crises auto-réalisatrices et auto-imposées dans les données est estimée à environ 10% pour chacune de ces catégories. J'étudie également comment le défaut souverain peut se comprendre dans les modèles de cycles réels en petite économie ouverte. Il ressort que ces modèles oscillent entre deux cas polaires: le défaut y est soit inexistant soit trop fréquent. Ces modèles sont donc peu adaptés à l'étude du risque de défaut, risque qui doit donc être endogénéisé pour obtenir des résultats utiles. Enfin, je fais une contribution méthodologique en présentant une nouvelle méthode de résolution des modèles de défaut souverain endogène. Cette méthode améliore significativement la frontière vitesse-précision actuelle
This thesis contributes to the literature on sovereign debt and default risk, building on theoretical models of strategic default and on more recent developments of the quantitative sovereign debt literature. The first contribution is to suggest a solution to the “sovereign default puzzle:” most quantitative sovereign debt models predict a default at very low debt-to-GDP thresholds, in clear contradiction with what is observed in the data. Starting from the observation that countries generally do not want to default but are rather forced into it by the markets, I present a model which can replicate the key stylized facts regarding sovereign risk. As another contribution, I establish a typology of debt crises in three categories: those crises that are the consequence of exogenous shocks, those that are self-fulfilling prophecies, and those self-enforcing crises that are the consequence of a rational tendency to over-borrow when the risk of a negative shock is high. The estimated proportion of self-fulfilling and self-enforcing crises in the data is about 10% in each case. I also study how sovereign default can be understood in the context of small open economy real business cycle models. The conclusion is that these models oscillate between two polar cases: default is either inexistent or too frequent, depending on the chosen parameter values. These models are therefore not well suited for studying sovereign risk, and default needs to be fully endogeneized in order to get meaningful results. Finally, I make a methodological contribution by presenting a new computational method for solving endogenous default models. It is shown to dramatically improve the existing speed-accuracy frontier
40

Dureau, Clément. "Fatigue d'aciers inoxydables austénitiques traités par grenaillage ultrasonore sévère : contributions expérimentales et numériques à l'étude de l'amorçage et la propagation des fissures." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0143.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine de la fatigue à grand nombre de cycles, les fissures s'initient le plus souvent à la surface des pièces. Par conséquent, en plus des propriétés mécaniques globales, les caractéristiques de la surface et de la sous-couche, telles que la rugosité et les contraintes résiduelles affectent la durée de vie en fatigue. La rugosité a essentiellement une influence sur la phase d'amorçage des fissures. En effet, la présence d'irrégularités de surface entraine des concentrations de contraintes qui peuvent produire de fortes déformations locales et éventuellement entrainer la formation de défauts de type fissures. Par ailleurs, la présence de contraintes résiduelles affecte à la fois la phase d'amorçage et de propagation des fissures. Elles affectent la plasticité proche de la surface et influencent donc l'amorçage des fissures. De plus, en se superposant au chargement mécanique macroscopique, elles modifient localement le niveau de sollicitation et peuvent donc affecter la propagation des fissures.Le grenaillage ultrasonore (SMAT) est un traitement mécanique de surface qui consiste à bombarder un échantillon avec des billes mises en mouvement par un dispositif atteignant des fréquences de vibration de 20 kHz. Les impacts répétés entrainent une déformation plastique de la surface menant au développement de contraintes résiduelles de compression ainsi qu'un gradient de microstructure caractérisé par des zones très déformées en sous couche et des tailles de grains submicroniques en surface. Un tel traitement a été réalisé sur des aciers inoxydables austénitiques afin d'étudier l'amorçage et la propagation de fissures de fatigue dans le champ complexe de microstructure et de contraintes résiduelles induit par le SMAT.Des essais en fatigue uniaxiale à grand nombre de cycles ont été conduits à deux rapports de charge différents (en traction-compression à RTC=-1 et en traction-traction à RTT=0,1). Ils ont permis de mettre en évidence un effet variable du SMAT en fonction de la condition de chargement cyclique. En effet, pour RTC une amélioration de la limite de fatigue a été mesurée alors que pour RTT c'est un abattement de la limite de fatigue qui a été constaté. Dans le but d'expliquer cette différence, une étude approfondie des éprouvettes rompues et non-rompues de l'état initial et SMAT, a été menée. Il s'est avéré que dans les conditions de chargement étudiées, les redistributions des contraintes résiduelles peuvent être considérées comme le facteur principal permettant d'expliquer les performances variables en fatigue ainsi que les amorçages observé aux différents sites d'initiation. En considérant les contraintes résiduelles de surface stabilisées après chargement en fatigue, l'utilisation d'un critère de Crossland a permis d'expliquer à la fois l'effet du rapport de charge et du SMAT sur le comportement en fatigue à grand nombre de cycles des aciers inoxydables.Une modélisation des gradients de propriétés mécaniques et de contraintes résiduelles caractéristiques du SMAT par la méthode des éléments finis a été proposée (via ABAQUS) dans le but de comprendre et de prédire les relaxations de contraintes résiduelles. Les résultats des simulations ont été confrontés aux données obtenues expérimentalement et un très bon accord a été obtenu. La capacité du modèle à rendre compte du comportement en fatigue à faible et à grand nombre de cycles a été évaluée, et une cohérence très correcte a été obtenue entre les résultats numériques et expérimentaux.Des éprouvettes pourvues d'un défaut artificiel surfacique ont ensuite été préparées afin d'évaluer la sensibilité à la présence d'accidents géométriques, mais aussi pour suivre la propagation des fissures de fatigue par la méthode des répliques. Il a été démontré que les éprouvettes SMAT ne présentent pas une sensibilité exacerbée à la présence de défauts par rapport à l'état initial pour RTT, alors qu'à RTC une sensibilité légèrement accrue a été mesurée. [...]
In the high cycle fatigue, cracks initiate most of the time at the surface of workpieces. Therefore, in addition to the overall mechanical properties, surface and sub-surface characteristics such as roughness and residual stresses affect the fatigue life. Roughness essentially influences the cracks initiation phase. Indeed, the presence of surface irregularities induces stress concentrations producing high local strains potentially leading to the formation of crack-like defects. Besides, the presence of residual stresses affects both the crack initiation and propagation phase. They affect the plasticity close to the surface and influence the crack initiation. Moreover, superposed with the macroscopic loading, they locally modify the stress field and therefore may affect the crack propagation behavior as well.The ultrasonic shot peening (SMAT) is a surface mechanical treatment which consists in impacting a sample with shots put in motion by a vibrating device operating at frequencies up to 20 kHz. The repeated impacts lead to a surface plastic strain allowing the formation of compressive residual stresses as well as a microstructure gradient characterized by highly deformed zones in the sub-surface and submicronic grain size just below the surface. Such treatment was carried out to austenitic stainless steels in order to study the fatigue crack initiation and propagation in the complex microstructure and residual stress field induced by the SMAT.Uniaxial high cycle fatigue tests have been conducted for two different load ratios (under tension-compression at RTC=-1 and under tension-tension at RTT=0.1). They allowed to highlight the variable effectiveness of the SMAT with regard of the cyclic loading conditions. Indeed, at RTC, an increase of the fatigue limit was measured whereas for RTT a reduction of the fatigue limit was observed. In order to explain this difference, an in-depth study of the initial state and SMAT treated broken and run-out samples was carried out. It turns out that under the studied loading conditions the modifications of residual stress state can be considered as the primary factor governing the varying fatigue performances and the observed triggering at different initiation sites. Considering the stabilized surface residual stress after fatigue loading, the use of a Crossland criterion allowed to explain both the effects of load ratio and SMAT on the high cycle fatigue behavior of the stainless steel.A modelling method of the mechanical properties and residual stresses gradients was then developed using the finite elements method (via ABAQUS) in order to understand and predict the residual stresses redistributions. The results of the simulations were compared to the experimental measurements, and a good agreement was observed. The capacity of the model to simulate both the strain- and stress-controlled fatigue behavior was evaluated and a good consistency between the numerical and experimental results were obtained.Specimens with an artificial surface defect were then prepared in order to evaluate the surface anomalies sensitivity, and also to study the fatigue crack propagation behavior using the surface replication method. It was shown that the SMAT samples do not exhibit an increased sensitivity to the presence of defects compared to the initial state when loaded at RTT, whereas for RTC a slightly increased sensitivity was identified. Studying the crack propagation at the surface of the specimens highlighted different behaviors for different load ratios. Also, despite the presence of a defect, the crack initiation phase remained important. Finally, crack fronts were marked by different methods which permitted plotting the fatigue crack growth curves. It was then shown that at RTC, fatigue crack growth behavior in the SMAT layer is drastically different from the initial material, whereas at RTT no difference was revealed
41

Liang, Xiaoyu. "Comportement en fatigue à grand nombre de cycle d’un acier inoxydable 316L obtenu par fabrication additive : effets de la microstructure, de la rugosité et des défauts." Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAE017.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude vise à étudier l'influence de la microstructure, de la rugosité et des défauts de surface sur le comportement en fatigue à grand nombre de cycles (FGNC) d'un acier inoxydable 316L obtenu par fabrication additive (FA). Composée d’un volet expérimental et d’un volet numérique, elle est motivée par le fait que les matériaux issus du procédé de FA présentent souvent un état de surface et une microstructure très distincts des couples procédés de fabrication / matériaux conventionnels. Afin de clairement identifier le rôle joué par chacun des facteurs influents sur la réponse en fatigue, différentes techniques de caractérisation (Profilométrie, EBSD, Tomographie RX, dureté …) sont employées et permettent de mettre en évidence un niveau de rugosité important après fabrication ainsi que des textures morphologiques et cristallographiques marquées. Pour ce qui est du comportement sous chargement mécanique, des essais cycliques à déformation totale imposée mettent en évidence un écrouissage cyclique avec durcissement puis adoucissement. Une importante campagne d’essais en fatigue est conduite sous différents modes de chargement (traction, flexion, torsion) et pour différentes configurations d’état de surface (brut de fabrication, poli). L’analyse des faciès de rupture fait apparaître le rôle prépondérant joué par les défauts de type « lack of fusion » sur les mécanismes d’amorçage en surface des fissures de fatigue. Un diagramme de type Kitagawa-Takahashi est construit à partir de l’observation de la taille des défauts à l’amorçage et le rôle des amas de défaut est clairement démontré. L’étude numérique comporte deux parties distinctes avec, d’abord, un travail préliminaire relatif à la construction d’une méthode non locale adaptée à la prise en compte des effets de microstructure en fatigue dans le cas d’un acier 316L corroyé. A partir des données collectées lors de la campagne expérimentale portant sur l’acier SLM 316L, un modèle d'éléments finis tenant compte de la rugosité, des défauts et de la microstructure est construit. Les calculs sont conduits en utilisant un comportement de type élasticité cubique associé ou pas à de la plasticité cristalline. À l'aide d’une approche faisant appel à la statistique des extrêmes, les résultats des simulations EF sont analysés de manière à quantifier les effets respectifs de la rugosité de surface, de la taille et morphologie des grains, de la texture cristallographique et des défauts
This study aims to investigate the influence of both the microstructure and surface defects on the high cycle fatigue (HCF) behavior of a 316L stainless steel obtained by additive manufacturing (AM). Surface defects and microstructure are dominant factors of fatigue behavior, while the AM materials often exhibit distinguished surface state and microstructure compared to conventional materials. The current study begins with an investigation of the material properties that are related to fatigue behavior. Microstructure observations of the powder and fabricated specimens are undertaken. Profilometry and tomography analyses make the inherent defects visible. The hardness, elastic behavior and elastic-plastic behavior are studied via mechanical tests. Then, load-controlled fatigue tests concerning different surface-treated specimens under different loading types are conducted. To reveal the mechanism of fatigue failure in the studied specimens, a comprehensive fractography analysis is carried out. Experimental research reveals the weakening of fatigue strength due to lack-of-fusion defects. Yet, the effect of the microstructural attributes is difficult to evaluate without numerical tools. A preliminary numerical study about the application of the non-local method in an explicit microstructure sensitive model is undertaken to complement the microstructure-sensitive modeling framework. Based on the data collected in the experimental campaign, a finite element model that can take into consideration of the defects and the microstructure of the SLM SS 316L is built up. Finite element analyses are performed with both cubic elasticity and polycrystal plasticity constitutive laws. With the help of the statistical method, the results from the FE model are used to quantitatively assess the influence of surface roughness and microstructural attributes on the fatigue performance of SLM SS 316L
42

Sauboua, Emmanuelle. "Modélisation stochastique fonctionnelle du transfert d'eau et d'azote sous culture de maïs : application à l'évaluation de l'impact des pratiques agricoles en plaine de Bièvre." Université Joseph Fourier (Grenoble), 2001. http://www.theses.fr/2001GRE10095.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Kaddouri, Isma. "Problèmes inverses pour des problèmes d'évolution paraboliques à coefficients périodiques." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4322/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse est constitué de l'étude de deux problèmes inverses associés à des équations paraboliques à coefficients périodiques. Dans la première partie, on a considéré une équation parabolique à coefficients et condition initiale périodiques. Notre travail a consisté à aborder le cas de coefficient à régularité faible et à minimiser les contraintes d'observations requises pour établir notre résultat de reconstruction du potentiel. On a commencé par établir un résultat d'existence et d'unicité de la solution dans un espace d'énergie adéquat. Ensuite, on a énoncé un principe du maximum adapté aux hypothèses du problème étudié et on a travaillé avec des coefficients mesurables et bornés. Enfin, on a reconstruit le potentiel en établissant une inégalité de Carleman. Le résultat d'identification a été obtenu via une inégalité de stabilité de type Lipschitz. Dans le second travail, on s'est intéressé à la détermination d'un coefficient périodique en espace du terme de réaction dans une équation de réaction-diffusion définie dans l'espace entier $mathbb{R}$. On établit un résultat d'unicité en utilisant un nouveau type d'observations. La nature du problème étudié, posé dans l'espace $mathbb{R}$, nous a permis d'utiliser la notion de vitesse asymptotique de propagation. On a prouvé l'existence de cette vitesse et on l'a caractérisé. On a surdéterminé le problème inverse en choisissant une famille de conditions initiales à décroi-ssance exponentielle. Notre principal résultat est que ce coefficient est déterminé de façon unique, à une symétrie près, par l'observation d'un continuum de vitesses asymptotiques de propagation
This thesis consists in the study of two problems associated to inverse para-bolic equations with periodic coefficients. We are interested in identifying one coefficient by using two different methods. In the first part, we consider a parabolic equation with periodic coefficients and periodic initial condition. Our work consists to consider the case of coefficient with weak regularity and to minimize the constraints of observations which are required to establish our reconstruction result. We establish a result of existence and uniqueness of the solution in adequate energy space. Then we prove a maximum principle adapted to the hypothesis of the problem studied and we work with measurable and bounded coefficients. Finally, we reconstruct the potential by establishing a Carleman estimate. The identification result was achieved via an inequality of stability. In the second work, we are interested to determine a periodic coefficient of the reaction term defined in the whole space $mathbb{R}$. We establish a uniqueness result by using a new type of observations. The nature of the studied problem allowed us to use the notion of asymptotic speed of propagation. We prove the existence of this speed and we give its characterization. We overdetermin the inverse problem by choosing a family of initial conditions exponentially decaying. Our main result is that the coefficient is uniquely determined up to a symmetry, by the observation of a continuum of asymptotic speed of propagation
44

Grusea, Simona. "Applications du calcul des probabilités à la recherche de régions génomiques conservées." Phd thesis, Université de Provence - Aix-Marseille I, 2008. http://tel.archives-ouvertes.fr/tel-00377445.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se concentre sur quelques sujets de probabilités et statistique liés à la génomique comparative. Dans la première partie nous présentons une approximation de Poisson composée pour calculer des probabilités impliquées dans des tests statistiques pour la significativité des régions génomiques conservées trouvées par une approche de type région de référence.
Un aspect important de notre démarche est le fait de prendre en compte l'existence des familles multigéniques. Dans la deuxième partie nous proposons trois mesures, basées sur la distance de transposition dans le groupe symétrique, pour quantifier l'exceptionalité de l'ordre des gènes dans des régions génomiques conservées. Nous avons obtenu des expressions analytiques pour leur distribution dans le cas d'une permutation aléatoire. Dans la troisième partie nous avons étudié la distribution du nombre de cycles dans le graphe des points de rupture d'une permutation signée aléatoire. Nous avons utilisé la technique ``Markov chain imbedding'' pour obtenir cette distribution en terme d'un produit de matrices de transition d'une certaine chaîne de Markov finie. La connaissance de cette
distribution fournit par la suite une très bonne approximation pour la distribution de la distance d'inversion.
45

Nehme, Zeinab. "Nanoparticules magnétiques d’architecture complexe core-shell : couplage d'échange bias et interaction dipolaire." Thesis, Le Mans, 2016. http://www.theses.fr/2016LEMA1019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail de thèse est consacré à l'étude numérique de nanoparticules (NPs) magnétiques core@shell Fe3O4@CoO présentant des propriétés d'échange bias (EB) en utilisant la méthode Monte Carlo (MC). En particulier, nous nous sommes concentrés sur l'étude de l'effet des réponses collectives (interactions inter-particules telles que les interactions dipolaires (ID)) sur les propriétés magnétiques de ces structures. Des résultats expérimentaux préliminaires, montrant l'existence d'une relation entre le décalage du cycle d'hystérésis et l'interaction entre NPs, ont motivé le travail numérique mené dans le cadre de cette thèse.La première partie de ce mémoire est une étude méthodologique visant à trouver les conditions optimales pour simuler les cycles d'hystérésis d'une façon correcte par MC.Les résultats révèlent une dépendance linéaire entre le champ coercitif Hc et la constante d'anisotropie effective pour des conditions non biaisées (algorithme libre, algorithme du cône, algorithme mixte). La deuxième partie est consacrée à l'étude, à l'échelle atomique, des nanostructures présentant l'EB dont nous avons reproduit les deux caractéristiques (un décalage du cycle d'hystérésis, une augmentation importante de Hc).Nous avons également proposé une méthode permettant l'évaluation de la valeur de l'anisotropie effective.En passant à l'échelle d'une assemblée de NPs, plusieurs modèles furent étudiés. Nous arrivons à interpréter les résultats expérimentaux selon le degré d'agrégation des NPs. Nous montrons que l'agrégation (interactions d'échanges entre les NPs) a un effet direct sur le champ d'échange bias, mais le rôle d'ID sur le champ d'échange mérite des études complémentaires
This thesis is dedicated to the numerical study by means of Monte Carlo (MC) simulations of core@shell Fe3O4@CoO magnetic nanoparticles (NPs) presenting exchange bias properties (EB). In particular, we focused our study on the effect of collective responses (inter-particle interactions as dipolar interactions (DI)) on the magnetic properties of these structures. Our numerical work is motivated by some preliminary experimental results showing the existence of a relationship between the hysteresis loop shift (exchange bias field) and the interaction between NPs. The first part of this thesis is a methodological study to figure out the optimal conditions to simulate hysteresis loops correctly by MC. The results reveal that the coercive field Hc is linearly related to the effective anisotropy constant for non-biased conditions (free algorithm, cone algorithm, mixed algorithm). The second part is dedicated to the study of exchange-biased nanostructures at the atomic scale. We have been able to reproduce both characteristics of EB (hysteresis loop shift, significant increase in Hc). A method allowing the evaluation of the effective anisotropy has been proposed. Considering an assembly of nanoparticles, several models are studied. The experimental results are interpreted according to the degree of aggregation of NPs. It was shown that the aggregation (exchange interactions between NPs) has a direct effect on the exchange bias field, but the role of the ID on the exchange field requires complimentary calculations to be clarified
46

Petronevich, Anna. "Dynamic factor model with non-linearities : application to the business cycle analysis." Thesis, Paris 1, 2017. http://www.theses.fr/2017PA01E050/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est dédiée à une classe particulière de modèles à facteurs dynamiques non linéaires, les modèles à facteurs dynamiques à changement de régime markovien (MS-DFM). Par la combinaison des caractéristiques du modèle à facteur dynamique et celui du modèle à changement de régimes markoviens(i.e. la capacité d’agréger des quantités massives d’information et de suivre des processus fluctuants), ce cadre s’est révélé très utile et convenable pour plusieurs applications, dont le plus important est l’analyse des cycles économiques.La connaissance de l’état actuel des cycles économiques est crucial afin de surveiller la santé économique et d’évaluer les résultats des politiques économiques. Néanmoins, ce n’est pas une tâche facile à réaliser car, d’une part, il n’y a pas d’ensemble de données et de méthodes communément reconnus pour identifier les points de retournement, d’autre part, car les institutions officielles annoncent un nouveau point de retournement, dans les pays où une telle pratique existe, avec un délai structurel de plusieurs mois.Le MS-DFM est en mesure de résoudre ces problèmes en fournissant des estimations de l’état actuel de l’économie de manière rapide, transparente et reproductible sur la base de la composante commune des indicateurs macroéconomiques caractérisant le secteur réel.Cette thèse contribue à la vaste littérature sur l’identification des points de retournement du cycle économique dans trois direction. Dans le Chapitre 3, on compare les deux techniques d’estimation de MS-DFM, les méthodes en une étape et en deux étapes, et on les applique aux données françaises pour obtenir la chronologie des points de retournement du cycle économique. Dans Chapitre 4, sur la base des simulations de Monte Carlo, on étudie la convergence des estimateurs de la technique retenue - la méthode d’estimation en deux étapes, et on analyse leur comportement en échantillon fini. Dans le Chapitre 5, on propose une extension de MS-DFM - le MS-DFM à l’influence dynamique (DI-MS-DFM)- qui permet d’évaluer la contribution du secteur financier à la dynamique du cycle économique et vice versa, tout en tenant compte du fait que l’interaction entre eux puisse être dynamique
This thesis is dedicated to the study of a particular class of non-linear Dynamic Factor Models, the Dynamic Factor Models with Markov Switching (MS-DFM). Combining the features of the Dynamic Factor model and the Markov Switching model, i.e. the ability to aggregate massive amounts of information and to track recurring processes, this framework has proved to be a very useful and convenient instrument in many applications, the most important of them being the analysis of business cycles.In order to monitor the health of an economy and to evaluate policy results, the knowledge of the currentstate of the business cycle is essential. However, it is not easy to determine since there is no commonly accepted dataset and method to identify turning points, and the official institutions announce a newturning point, in countries where such practice exists, with a structural delay of several months. The MS-DFM is able to resolve these issues by providing estimates of the current state of the economy in a timely, transparent and replicable manner on the basis of the common component of macroeconomic indicators characterizing the real sector. The thesis contributes to the vast literature in this area in three directions. In Chapter 3, I compare the two popular estimation techniques of the MS-DFM, the one-step and the two-step methods, and apply them to the French data to obtain the business cycle turning point chronology. In Chapter 4, on the basis of Monte Carlo simulations, I study the consistency of the estimators of the preferred technique -the two-step estimation method, and analyze their behavior in small samples. In Chapter 5, I extend the MS-DFM and suggest the Dynamical Influence MS-DFM, which allows to evaluate the contribution of the financial sector to the dynamics of the business cycle and vice versa, taking into consideration that the interaction between them can be dynamic
47

"La méthode Vittoz au service du développement des compétences des utilisateurs des Cycles Repère. Évaluation de la pertinence de l'insertion d'une série d'exercices inspirée par la méthode Vittoz dans la démarche de création des Cycles Repère par le biais d'une expérimentation effectuée lors du projet « Carnets du Nord »." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/25931/25931.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

"La méthode Jacques Lecoq et les Cycles Repère. Deux outils de travail complémentaires dans la création du spectacle Le temps nous est gare." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24945/24945.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Streiff, Dorothee. "Etude de la nucléation et de la propagation dynamique d'une rupture par la méthode des nombres d'ondes discrets." Phd thesis, 1995. http://tel.archives-ouvertes.fr/tel-00744393.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La nucléation et la propagation dynamique d'une rupture est modélisée par une méthode d'équations intégrales aux frontières où les fonctions de Green sont calculées par la méthode des nombres d'ondes discrets. Pour cela, un modèle de crack en mode plan clans un milieu homogène, linéaire et élastique est considéré. Pour caractériser la propagation, les conditions de rupture proviennent du critère numériquement défini par Hamano. L'étude de la propagation suivant une faille unique montre que la vitesse de rupture dépend de la résistance du milieu, caractérisée par le coefficient S. Suivant la valeur dé S, cette vitesse est sub-Rayleigh ou super-cisaillantes. Nous avons alors montré que lors du séisme d'Imperial Valley, la vitesse de rupture pouvait atteindre des valeurs proches de la vitesse des ondes P dans le milieu. L'étude de la propagation de la rupture sur différents segments de faille a été effectuée dans le cas du séisme de Parkfield. Après avoir déterminé les zones de nucléation possible pour un second segment, la propagation dynamique a été modélisée sur deux segments de faille. Nous avons alors observé que la nucléation et la propagation sur le second segment dépendent de la valeur du coefficient S.
50

Fu, Xiaorui. "Parallel metaheuristics for stochastic capacitated multicommodity network design." Thèse, 2008. http://hdl.handle.net/1866/7208.

Full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography