Dissertations / Theses on the topic 'Algorithmes stochastiques identification de paramètres'

To see the other types of publications on this topic, follow the link: Algorithmes stochastiques identification de paramètres.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 20 dissertations / theses for your research on the topic 'Algorithmes stochastiques identification de paramètres.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Koenig, Guillaume. "Par vagues et marées : étude de la circulation hydrodynamique d’un lagon étroit de Nouvelle-Calédonie et identification des conditions aux bords à l’aide d’un algorithme stochastique." Electronic Thesis or Diss., Aix-Marseille, 2021. http://www.theses.fr/2021AIXM0533.

Full text
Abstract:
Dans cette thèse, j’ai étudié l’hydrodynamique du lagon de Ouano en Nouvelle-Calédonie. Pour ce faire, j’ai implémenté un nouvel algorithme d’identification de paramètres. Le déferlement des vagues sur la barrière corallienne et les marées dominent l’hydrodynamique du lagon de Ouano. Je voulais évaluer leur impact relatif sur l’échange d’eau avec l’océan. Plusieurs études ont été menées dans le lagon auparavant. Je me base sur leur résultats pour la circulation et les outils de modélisations qu’elles ont mis en place dans ma thèse. Notamment, je réutilise le modèle CROCO ( Coastal Regional OceanCOmmunity) de C. Chevalier. J’utilise aussi des données récoltées dans le lagon en2016. Malgré ces travaux préalables, il reste des incertitudes sur la quantité d’eau amenée dans le lagon par le déferlement des vagues et la marée. De plus, la paramétrisation du déferlement, de la friction sur le récif et les conditions aux bords de marées ont incertaines dans le modèle numérique. Pour améliorer ces paramétrisations, ou même d’autres paramètres, j’ai implémenté et testé un nouvel outil. Cet outil était un algorithme stochastique d’identification de paramètres, l’algorithme Simultaneous Pertubations Stochastic Approximations(SPSA).Nous avons d’abord testé différentes versions de l’algorithme dans des environnements contrôlés, et notamment avec un modèle de turbulence unidimensionnel. J’ai ensuite utilisé cet algorithme pour identifier des conditions aux bords avec un modèle tidal linéaire du lagon de Ouano. Enfin, j’ai utilisé l’algorithme pour étudier l’impact du déferlement des vagues sur les courants mesurés comme des courants de marée dans le lagon de Ouano
In this thesis, I have studied the hydrodynamics of the Ouano coral lagoon in NewCaledonia and implemented a novel parameter identification algorithm to do so.Wave-breaking and tides dominate the Ouano lagoon; I wanted to evaluate theirimpact on the lagoon flushing.Several studies have been done in the lagoon before. I rely on both their findings forthe circulation and their tools for the modeling, namely the CROCO ( Coastal RegionalOcean COmmunity model) of C. Chevalier. I also have used data collected in 2016 inthe lagoon. However, some uncertainties remained on the amount of water broughtby the tides and the wave-breaking in the lagoon. Also, the parametrization of thewave-breaking friction coefficient and the tidal boundary conditions in the numericalmodel was uncertain.I implemented and tested a tool to improve those parametrizations or other modelparameters. This tool was a stochastic parameter identification algorithm, the Simul-taneous Perturbations Stochastic Approximations (SPSA) algorithm.We first tested different variants of the algorithm in a controlled environment andwith a 1-D turbulence model. Then I have used this algorithm to identify boundaryconditions with a linear tidal model of the Ouano lagoon. Finally, I have used thealgorithm to study the impact of the wave-breaking on the measurement of tides inthe Ouano
APA, Harvard, Vancouver, ISO, and other styles
2

Tong, Dinh Quy. "Méthodes d'estimation de paramètres de modèles autorégressifs multivariés." Grenoble 1, 1991. http://www.theses.fr/1991GRE10141.

Full text
Abstract:
Cette thèse est consacrée à l'étude des méthodes d'estimation pour un modèle autorégressif multivarié et spécialement à la construction d'algorithmes pour la mise en œuvre de la méthode du maximum de vraisemblance. On présente dans les deux premiers chapitres les différents notions et algorithmes utilisés dans le domaine de l'estimation autorégressive multivariée. On y étudie les aspects algorithmiques de la méthode de Yule-Walker, des méthodes de Burg généralisées, des méthodes basées sur les corrélations partielles. . . La méthode du maximum de vraisemblance est l'objet des trois derniers chapitres. On introduit les différentes façons de calculer la fonction de Log-vraisemblance, ses dérivées premières exactes (par rapport aux différents ensembles de paramètres caractérisant le modèle) et des approximations de ses dérivées secondes. A l'aide de la technique itérative de Newton-Raphson modifiée (méthode itérative de Fisher) on construit ensuite des algorithmes d'optimisation pour le problème d'estimation du maximum de vraisemblance. Les résultats de simulation et les aspects de l'implémentation de ces algorithmes sont également présentés
APA, Harvard, Vancouver, ISO, and other styles
3

Douillet, Pascal. "Identification de paramètres océaniques par une méthode inverse." Rennes, INSA, 1985. http://www.theses.fr/1985ISAR0001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Harb, Nizar. "Identification inverse de paramètres biomécaniques en hyperélasticité anisotrope." Phd thesis, Université de Technologie de Belfort-Montbeliard, 2013. http://tel.archives-ouvertes.fr/tel-00879257.

Full text
Abstract:
Les travaux de cette thèse s'inscrivent dans le cadre du développement de méthodes d'identification inverse de paramètres matériau. On porte un intérêt particulier à la biomécanique des tissus souples renforcés par des fibres de collagène (artère, disque intervertébral, peau, tendon, ligament, etc.), dans le cadre de leurs réponses viscoélastiques et en grandes déformations et en grands déplacements (hyperélasticité). Fortement non-linéaires et anisotropes, les lois constitutives en biomécanique contiennent un nombre important de paramètres matériau. Le problème inverse qui permet de les identifier est de grande dimension et fortement non linéaire. En raison de difficultés numériques liées à sa résolution avec des méthodes à base de gradient, nous avons développé deux nouvelles méthodes d'identification inverse de paramètres nommées GAO (Genetic algorithms & Analytical Optimization) et MMIM (Maximum-Minimum Identification Method).La méthode GAO combine de manière avantageuse les méthodes déterministes de type gradient avec les algorithmes génétiques. Son originalité consiste à introduire des calculs analytiques pour la partie déterministe, ce qui permet d'accélérer et d'améliorer la convergence des algorithmes génétiques. Cette stratégie est appliquée dans le cadre de l'hyperélasticité anisotrope.En ce qui concerne la méthode MMIM, elle opère selon un critère d'identification basé sur la norme infinie et elle utilise les algorithmes génétiques. Elle permet d'identifier les paramètres de lois viscoélastiques quasi-linéaires. Elle garantit une réponse visqueuse constante qui est caractéristique des tissus souples qui sont insensibles à la vitesse de chargement.Les méthodes GAO et MMIM ont identifié avec succès des paramètres de tissus artériels et de tissus du disque intervertébral. Les propriétés de ces tissus sont décrits par ailleurs dans le mémoire dans un contexte plus général où on expose l'anatomie, l'histologie et le mécanisme de déformation aux différents niveaux hiérarchiques (nano-échelle à milli-échelle) d'un tissu souple renforcé par des fibres de collagène. Ceci permet de comprendre le rôle des efforts dans la relation liant la structure à la fonction en biologie.
APA, Harvard, Vancouver, ISO, and other styles
5

Robles, Bernard. "Etude de la pertinence des paramètres stochastiques sur des modèles de Markov cachés." Phd thesis, Université d'Orléans, 2013. http://tel.archives-ouvertes.fr/tel-01058784.

Full text
Abstract:
Le point de départ de ce travail est la thèse réalisée par Pascal Vrignat sur la modélisation de niveaux de dégradation d'un système dynamique à l'aide de Modèles de Markov Cachés (MMC), pour une application en maintenance industrielle. Quatre niveaux ont été définis : S1 pour un arrêt de production et S2 à S4 pour des dégradations graduelles. Recueillant un certain nombre d'observations sur le terrain dans divers entreprises de la région, nous avons réalisé un modèle de synthèse à base de MMC afin de simuler les différents niveaux de dégradation d'un système réel. Dans un premier temps, nous identifions la pertinence des différentes observations ou symboles utilisés dans la modélisation d'un processus industriel. Nous introduisons ainsi le filtre entropique. Ensuite, dans un but d'amélioration du modèle, nous essayons de répondre aux questions : Quel est l'échantillonnage le plus pertinent et combien de symboles sont ils nécessaires pour évaluer au mieux le modèle ? Nous étudions ensuite les caractéristiques de plusieurs modélisations possibles d'un processus industriel afin d'en déduire la meilleure architecture. Nous utilisons des critères de test comme les critères de l'entropie de Shannon, d'Akaike ainsi que des tests statistiques. Enfin, nous confrontons les résultats issus du modèle de synthèse avec ceux issus d'applications industrielles. Nous proposons un réajustement du modèle pour être plus proche de la réalité de terrain.
APA, Harvard, Vancouver, ISO, and other styles
6

Jin, Yinfu. "Identification Les paramètres des sols et sélection de modèles de comportement en utilisant des algorithmes génétiques." Thesis, Ecole centrale de Nantes, 2016. http://www.theses.fr/2016ECDN0017.

Full text
Abstract:
Le sujet de la thèse concerne l'identification des paramètres des sols et sélection de modèles de comportement en utilisant des algorithmes génétiques. Tout d'abord, une étude comparative sur l'identification des paramètres par différentes méthodes d'optimisation est effectuée. Ensuite, un algorithme génétique réel codé (RCGA) est conçu pour améliorer la performance d’un algorithme génétique ( GA ) dans l'identification des paramètres du sol. Par la suite, le RCGA est utilisé pour construire la formulation de la prédiction de la compressibilité des argiles remaniés basée sur la régression polynomiale évolutive (EPR) en utilisant l’indice des vides initial e0, la limite de liquidité wL et l’indice de plasticité IP. Ensuite, une procédure efficace pour identifier les paramètres d'argiles structurées est proposé e en employant le RCGA avec un modèle élastoviscoplastique anisotrope. Une procédure de validation est menée ainsi que des applications démontrant que la procédure est utile pratiquement avec une réduction du coût des essais au laboratoire. Enfin, le choix d'un modèle approprié pour les sable s avec les caractéristiques nécessaires en fonction des essais classiques et un moyen facile d'identifier les paramètres pour les applications géotechniques est discuté en utilisant le RCGA et différents modèles de sable. L’écrouissage plastique non - linéaire, l'implémentation d e la li g ne d'état critique avec l’effet d’enchevêtrement , les types et nombres d’essais et le niveau de déformation nécessaire sont discutés pour la sélection et l'utilisation des modèles de sable
The subject of this thesis is the identification of soil parameters and the selection of constitutive models using genetic algorithms. First, various optimization methods for identifying soil parameters are studied. Then, a real - coded genetic algorithm (RCGA) has been developed to improve the performance of genetic algorithms (GA) for identifying soil parameters. Subsequently, the RCG A is employed to construct a formula for predicting the compressibility of remolded clays by using an evolutionary polynomial regression ( EPR ) based on the initial void ratio e 0 , the liquid limit w L and the plastic index I P . Then, an efficient procedure fo r identifying the necessary parameters of soft structured clay s is propose d by employing the enhanced RCGA coupled with an advanced anisotropic elasto - viscoplastic model. This approach is then validated and several applications are developed to demonstrate that the procedure can be used with a reduction of the testing cost . F inally , an appropriate model of sand with the necessary features based on conventional tests and with an easy way of identifying parameters for geotechnical applications by employ ing th e RCGA and different sand models is selected. A discussion on nonlinear plastic stress - strain hardening , the incorporation of the critical state concept with interlocking effect , test types and numbers , and necessary strain level for the selection and use of sand models concludes the thesis
APA, Harvard, Vancouver, ISO, and other styles
7

Anglade, Célimène. "Contribution à l'identification des paramètres rhéologiques des suspensions cimentaires à l'état frais." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30031/document.

Full text
Abstract:
Le travail de thèse s'inscrit dans la modélisation numérique de l'écoulement des matériaux cimentaires à l'état frais couplée à un outil d'identification des paramètres. Il traite en particulier l'étape de mise en place de l'identification par analyse inverse. D'abord, une analyse de la littérature fait ressortir l'existence d'outils rhéométriques dédiés aux suspensions cimentaires ; le passage des grandeurs macroscopiques à celles locales est faite, soit par le biais de l'utilisation de géométries conventionnelles, soit au moyen de méthodes de calibration. Néanmoins, ces outils ne permettent pas de trouver une signature rhéologique unique pour une même suspension. De plus, les stratégies d'identification des paramètres relatifs aux matériaux cimentaires frais sont peu nombreuses et limitées aux données locales. Ensuite, une stratégie qui consiste à identifier les paramètres d'une loi supposée, directement à partir des mesures macroscopiques simulées (couples, vitesses de rotation imposées au mobile de cisaillement) a été développée et validée en 2D, en discutant notamment de l'efficacité des algorithmes d'optimisation testés (méthode du simplexe et algorithmes génétiques), en fonction du degré de connaissances que l'utilisateur a du matériau. Enfin, la méthode a été appliquée en 3D sur des fluides modèles supposés homogènes. Elle apparaît efficace en fluide pseudo-plastique, notamment par combinaison des algorithmes d'optimisation. Mais il reste des obstacles à lever en fluide visco-plastique, vraisemblablement liés aux outils expérimentaux plutôt qu'à la procédure d'identification elle-même
The thesis work is part of the numerical modeling of the flow of cementitious materials in the fresh state coupled with an identification procedure of the parameters. It deals in particular with the step of the development of the identification by inverse analysis. First,the literature review reveals the existence of rheometric tools dedicated to cementitious suspensions; The passage from the macroscopic quantities to the local ones is made either by the use of conventional geometries or by means of calibration methods. Nevertheless, these tools do not make it possible to find the expected single rheological signature for a given suspension. In addition, there are few studies reporting strategies for identifying constitutive parameters in the case of fresh cement-based materials and they are limited to local data. Then, a strategy consisting in identifying the parameters of a supposed law, directly on the basis of the simulated macroscopic measurements (torques, rotational speeds imposed on the shearing tool) was developed and validated in 2D, discussing in particular the efficiency Of the optimization algorithms tested (simplex method and genetic algorithms), according to the degree of knowledge that the user has of the material. Finally, the method has been applied in 3D on model fluids, assuming that they are homogeneous. The method appears effective in the case of pseudo-plastic fluid, in particular by combining both optimization algorithms used. But there remain obstacles to overcome in the case of visco-plastic fluids, probably related to the experimental tools rather than to the procedure of identification itself
APA, Harvard, Vancouver, ISO, and other styles
8

Dimogianopoulos, Dimitrios. "Commande adaptative des systèmes linéaires à paramètres constants et lentement variant dans le temps." Compiègne, 1999. http://www.theses.fr/1999COMP1230.

Full text
Abstract:
Cette thèse concerne la commande adaptative des systèmes linéaires pouvant garantir une performance élevée du processus en boucle fermée. Dans un premier temps nous proposons un schéma combinant un algorithme standard d'identification par Moindres Carrés (MC) accouplé à un contrôleur inédit. Ce schéma s'applique à des systèmes à paramètres constants dans le temps (CT). Ce contrôleur adaptatif a été appliqué à la commande d'un processus réel (un générateur de vapeur). Ensuite, nous étudions une classe de systèmes à paramètres variant dans le temps (MT). Dans le but d'obtenir une identification réussie, nous proposons un algorithme MC récursif pouvant s'accommoder des particularités des systèmes VT. L'usage de cet algorithme assure que la matrice de covariance reste toujours bornée. Alors, elle peut être utilisée pour modifier des paramètres estimés ne correspondant pas à des modèles commandables, Le schéma de commande est complété par l'adoption d'un contrôleur continu par placement des pôles. La stabilité du système en boucle fermée a été démontrée. Finalement, nous proposons un algorithme MC non récursif pour l'estimation des paramètres MT. Cet algorithme conserve l'optimalité de la solution du problème d'estimation même quand une modification des paramètres estimés est nécessaire. A cause du temps de traitement des données hors ligne, les paramètres sont obtenus périodiquement. Ainsi, nous complétons cet algorithme avec un contrôleur hybride Celui-ci fonctionne en continu mais ses paramètres sont obtenus, eux aussi, périodiquement. L'analyse de stabilité de la boucle fermée est effectuée et les signaux restent toujours bornés.
APA, Harvard, Vancouver, ISO, and other styles
9

Geisweiller, Nil. "Étude sur la modélisation et la vérification probabiliste d'architectures de simulations distribuées pour l'évaluation de performances." Toulouse, ENSAE, 2006. http://www.theses.fr/2006ESAE0003.

Full text
Abstract:
L'objectif défini dans cette thèse est d’utiliser les récentes techniques de model checking probabiliste afin de vérifier des contraintes de performances sur des architectures de simulations distribuées. L'aspect probabiliste de l'approche permet à la fois de réduire la complexité du modèle et d’exprimer des contraintes de performances plus souples. Dans cette thèse nous avons dans un premier temps tenté d’utiliser le model checking probabiliste afin de formuler et de vérifier de telles contraintes de performances. Nous avons utilisé le model checker PRISM et confronté les résultats obtenus avec des données réelles provenant de simulations distribuées. Ceci a permis de révéler une difficulté fondamentale de cette démarche : il est difficile de choisir les coefficients du modèle pour que les résultats obtenus par le model checker coïncident avec la réalité. En clair, le modèle doit être réaliste. Afin de surmonter cette difficulté nous avons d’abord utilisé des algorithmes d'approximation qui ont permis d’obtenir des modèles plus réalistes mais sans structure, les rendant difficilement compréhensibles et manipulables. Afin de remédier à ce problème nous avons adapté un de ces algorithmes d’approximation, permettant d’induire des distributions de type phase à partir d’un ensemble de temps d’absorption, pour lui permettre d’opérer sur des modèles décrit dans l’algébre PEPA, un langage de modélisation basé sur une approche compositionnelle. L'algorithme a ensuite été étendu afin de fonctionner avec des exécutions partiellement observables au lieu de temps d’absorption, permettant ainsi de travailler sur des modèles PEPA sans état absorbant. Les expérimentations s’appuient sur le logiciel EMPEPA, distribué librement en Open-source, développé dans le cadre des travaux de thèse, et implantant en particulier ces deux algorithmes.
APA, Harvard, Vancouver, ISO, and other styles
10

Fernandez, Tapia Joaquin. "Modeling, optimization and estimation for the on-line control of trading algorithms in limit-order markets." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066354/document.

Full text
Abstract:
L'objectif de ce travail de thèse est une étude quantitive des differents problèmes mathematiques qui apparaissent en trading algorithmique. Concrètement, on propose une approche scientifique pour optimiser des processus relatifs a la capture et provision de liquidités pour des marchés electroniques.Du au fort caractère appliqué de ce travail, on n'est pas seulement intéressés par la rigeur mathématique de nos résultats, mais on souhaite aussi a comprendre ce travail de recherche dans le contexte des differentes étapes qui font partie de l'implementation pratique des outils que l'on developpe; par exemple l'interpretation du modèle, l'estimation de parametres, l'implementation informatique etc.Du point de vue scientifique, le coeur de notre travail est fondé sur deux techniques empruntées au monde de l'optimisation et des probabilités, celles sont : le contrôle stochastique et l'approximation stochastique.En particulier, on présente des resultats academiques originaux pour le probleme de market-making haute fréquence et le problème de liquidation de portefeuille en utilisant des limit-orders; dans le deux cas on utilise une approche d'optimisation dite backwards. De la même façon, on résout le problème de market-making en utilisant une approche "forward", ceci étant innovateur dans la litterature du trading optimal car il ouvre la porte à des techniques d'apprentissage automatique.Du pont de vue pratique, cette thèse cherches à creer un point entre la recherche academique et l'industrie financière. Nos resultats sont constamment considérés dans la perspective de leur implementation pratique. Ainsi, on concentre une grande partie de notre travail a étudier les differents facteurs qui sont importants a comprendre quand on transforme nos techniques quantitatives en valeur industrielle: comprendre la microstructure des marchés, des faits stylisés, traitrement des données, discussions sur les modèles, limitations de notre cadre scientifique etc
This PhD thesis focuses on the quantitative analysis of mathematical problems arising in the field of optimal algorithmic trading. Concretely, we propose a scientific approach in order to optimize processes related to the capture and provision of liquidity in electronic markets. Because of the strongly industry-focused character of this work, not only we are interested in giving rigorous mathematical results but also to understand this research project in the context of the different stages that come into play during the practical implementation of the tools developed throughout the following chapters (e.g. model interpretation, parameter estimation, programming etc.).From a scientific standpoint the core of our work focuses on two techniques taken from the world of optimization and probability; these are, stochastic control and stochastic approximation. In particular, we provide original academic results for the problem of high frequency market making and the problem of portfolio liquidation by using limit orders; both by using a backward optimization approach. We also propose a forward optimization framework to solve the market making problem; the latter approach being quite innovative for optimal trading, as it opens the door for machine learning techniques.From a practical angle, this PhD thesis seeks to create a bridge between academic research and practitioners. Our mathematical findings are constantly put in perspective in terms of their practical implementation. Hence, we focus a large part of our work on studying the different factors that are of paramount importance to understand when transforming our quantitative techniques into industrial value: understanding the underlying market microstructure, empirical stylized facts, data processing, discussion about the models, limitations of our scientific framework etc
APA, Harvard, Vancouver, ISO, and other styles
11

Francq, Christian. "Identification et minimalité dans les séries chronologiques." Montpellier 2, 1989. http://www.theses.fr/1989MON20210.

Full text
Abstract:
Pour un processus arma multivarie donne, il existe de multiples representations et les degres ne sont pas uniques. Les causes de la multiplicite des representations sont plus nombreuses et compliquees que dans le cas scalaire et il est necessaire de definir plusieurs types de representation minimale, c'est-a-dire de representation dont les degres sont, en un certain sens, les plus petits possibles. Dans le chapitre 1, nous caracterisons les degres des representations identifiables, a l'aide de la fonction d'autocovariance. Le chapitre 2 est consacre a l'estimation des degres d'un arma univarie a partir d'un estimateur de l'autocorrelation. Le chapitre 3 traite l'estimation des degres dans le cas multivarie. Dans le chapitre 4, nous abordons l'identification des modeles non lineaires par l'etude d'une sous-classe de processus bilineaires. En annexe, nous presentons une methode de generation rapide d'echantilons ordonnes d'une variable reelle permettant de fixer une qualite a priori pour la realisation obtenue
APA, Harvard, Vancouver, ISO, and other styles
12

Vandekerkhove, Pierre. "Identification de l'ordre des processus ARMA stables : contribution à l'étude statistique des chaînes de Markov cachées." Montpellier 2, 1997. http://www.theses.fr/1997MON20115.

Full text
Abstract:
La premiere partie de cette these est consacree a l'etude du critere odq (order determination quantity) intervenant dans le probleme du choix des ordres d'un processus arma vectoriel stable. La deuxieme partie est consacree a l'etude statistique des chaines de markov cachees (cmc). Nous generalisons l'etude statistique des cmc a espace fini d'etats de baum et petrie au cas non stationnaire. Nous proposons d'autre part un algorithme d'estimation des parametres d'une cmc a espace d'etats quelconque base sur la methode du recuit simule dont nous montrons la convergence p. S. En loi. Nous donnons aussi un principe de grandes deviations pour des moyennes empiriques de fonctions de cmc, que nous relions au probleme de l'estimation des parametres d'une cmc par la methode du recuit simule classique. Nous concluons ce travail par l'estimation des parametres du modele mo-m1 du gene du virus hiv, au moyen de notre algorithme.
APA, Harvard, Vancouver, ISO, and other styles
13

Fraysse, Philippe. "Estimation récursive dans certains modèles de déformation." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00844393.

Full text
Abstract:
Cette thèse est consacrée à l'étude de certains modèles de déformation semi-paramétriques. Notre objectif est de proposer des méthodes récursives, issues d'algorithmes stochastiques, pour estimer les paramètres de ces modèles. Dans la première partie, on présente les outils théoriques existants qui nous seront utiles dans la deuxième partie. Dans un premier temps, on présente un panorama général sur les méthodes d'approximation stochastique, en se focalisant en particulier sur les algorithmes de Robbins-Monro et de Kiefer-Wolfowitz. Dans un second temps, on présente les méthodes à noyaux pour l'estimation de fonction de densité ou de régression. On s'intéresse plus particulièrement aux deux estimateurs à noyaux les plus courants qui sont l'estimateur de Parzen-Rosenblatt et l'estimateur de Nadaraya-Watson, en présentant les versions récursives de ces deux estimateurs.Dans la seconde partie, on présente tout d'abord une procédure d'estimation récursive semi-paramétrique du paramètre de translation et de la fonction de régression pour le modèle de translation dans la situation où la fonction de lien est périodique. On généralise ensuite ces techniques au modèle vectoriel de déformation à forme commune en estimant les paramètres de moyenne, de translation et d'échelle, ainsi que la fonction de régression. On s'intéresse finalement au modèle de déformation paramétrique de variables aléatoires dans le cadre où la déformation est connue à un paramètre réel près. Pour ces trois modèles, on établit la convergence presque sûre ainsi que la normalité asymptotique des estimateurs paramétriques et non paramétriques proposés. Enfin, on illustre numériquement le comportement de nos estimateurs sur des données simulées et des données réelles.
APA, Harvard, Vancouver, ISO, and other styles
14

Mourad, Aya. "Identification de la conductivité hydraulique pour un problème d'intrusion saline : Comparaison entre l'approche déterministe et l'approche stochastique." Thesis, Littoral, 2017. http://www.theses.fr/2017DUNK0465/document.

Full text
Abstract:
Le thème de cette thèse est l'identification de paramètres tels que la conductivité hydraulique, K, pour un problème d'intrusion marine dans un aquifère isotrope et libre. Plus précisément, il s'agit d'estimer la conductivité hydraulique en fonction d'observations ou de mesures sur le terrain faites sur les profondeurs des interfaces (h, h₁), entre l'eau douce et l'eau salée et entre le milieu saturé et la zone insaturée. Le problème d'intrusion marine consiste en un système à dérivée croisée d'edps de type paraboliques décrivant l'évolution de h et de h₁. Le problème inverse est formulé en un problème d'optimisation où la fonction coût minimise l'écart quadratique entre les mesures des profondeurs des interfaces et celles fournies par le modèle. Nous considérons le problème exact comme une contrainte pour le problème d'optimisation et nous introduisons le Lagrangien associé à la fonction coût. Nous démontrons alors que le système d'optimalité a au moins une solution, les princcipales difficultés étant de trouver le bon ensemble pour les paramètres admissibles et de prouver la différentiabilité de l'application qui associe (h(K), h₁(K₁)) à K. Ceci constitue le premier résultat de la thèse. Le second résultat concerne l'implémentation numérique du problème d'optimisation. Notons tout d'abord que, concrètement, nous ne disposons que d'observations ponctuelles (en espace et en temps) correspondant aux nombres de puits de monitoring. Nous approchons donc la fonction coût par une formule de quadrature qui est ensuite minimisée en ultilisant l'algorithme de la variable à mémoire limitée (BLMVM). Par ailleurs, le problème exact et le problème adjoint sont discrétisés en espace par une méthode éléments finis P₁-Lagrange combinée à un schéma semi-implicite en temps. Une analyse de ce schéma nous permet de prouver qu'il est d'ordre 1 en temps et en espace. Certains résultats numériques sont présentés pour illustrer la capacité de la méthode à déterminer les paramètres inconnus. Dans la troisième partie de la thèse, nous considérons la conductivité hydraulique comme un paramètre stochastique. Pour réaliser une étude numérique rigoureuse des effets stochastiques sur le problème d'intrusion marine, nous utilisons les développements de Wiener pour tenir compte des variables aléatoires. Le système initiale est alors transformé en une suite de systèmes déterministes qu'on résout pour chaque coefficient stochastique du développement de Wiener
This thesis is concerned with the identification, from observations or field measurements, of the hydraulic conductivity K for the saltwater intrusion problem involving a nonhomogeneous, isotropic and free aquifer. The involved PDE model is a coupled system of nonlinear parabolic equations completed by boudary and initial conditions, as well as compatibility conditions on the data. The main unknowns are the saltwater/freshwater interface depth and the elevation of upper surface of the aquifer. The inverse problem is formulated as the optimization problem where the cost function is a least square functional measuring the discrepancy between experimental interfaces depths and those provided by the model. Considering the exact problem as a constraint for the optimization problem and introducing the Lagrangian associated with the cost function, we prove that the optimality system has at least one solution. The main difficulties are to find the set of all eligible parameters and to prove the differentiability of the operator associating to the hydraulic conductivity K, the state variables (h, h₁). This is the first result of the thesis. The second result concerns the numerical implementation of the optimization problem. We first note that concretely, we only have specific observations (in space and in time) corresponding to the number of monitoring wells, we then adapt the previous results to the case of discrete observations data. The gradient of the cost function is computed thanks to an approximate formula in order to take into account the discrete observations data. The cost functions then is minimized by using a method based on BLMVM algorithm. On the other hand, the exact problem and the adjoint problem are discretized in space by a P₁-Lagrange finite element method combined with a semi-implicit time discretization scheme. Some numerical results are presented to illustrate the ability of the method to determine the unknown parameters. In the third part of the thesis we consider the hydraulic conductivity as a stochastic parameter. To perform a rigorous numerical study of stochastic effects on the saltwater intrusion problem, we use the spectral decomposition and the stochastic variational problem is reformulated to a set of deterministic variational problems to be solved for each Wiener polynomial chaos
APA, Harvard, Vancouver, ISO, and other styles
15

Ming, Lu. "A numerical platform for the identification of dynamic non-linear constitutive laws using multiple impact tests : application to metal forming and machining." Phd thesis, Toulouse, INPT, 2018. http://oatao.univ-toulouse.fr/20112/1/MING_Lu.pdf.

Full text
Abstract:
The main concern of this thesis is to propose a new inverse identification procedure applied to metal forming and machining situations, which can provide an appropriate parameters set for any elastoplastic constitutive law following J_{2} plasticity and isotropic hardening, by evaluating the correlation between the experimental and numerical responses. Firstly the identification program has been developed, which combines the Levenberg-Marquardt algorithm and the Data processing methods to optimize the constitutive parameters. In terms of experimentation, dynamic compression and tensile tests have been conducted. The final deformed shape of specimens, which relies on a post-mortem analysis, has been selected as the observation quantity. As for the numerical simulation, the numerical models of the same experimental procedure have been built with the finite element software Abaqus/Explicit in order to provide numerical responses. A numerical algorithm has been proposed for the implementation of user defined elastoplastic constitutive laws in Abaqus/Explicit.
APA, Harvard, Vancouver, ISO, and other styles
16

Vázquez, Guevara Víctor Hugo. "Asymptotical results for models ARX in adaptive tracking." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14032/document.

Full text
Abstract:
Cette thèse est consacrée aux résultats asymptotiques pour les modèles ARX en poursuite adaptative. Elle est constituée de quatre parties. La première partie est une brève introduction sur les modèles ARMAX et un état de l’art des principaux résultats de la littérature en poursuite adaptative. La seconde partie porte sur l’introduction d’un nouveau concept de contrôlabilité forte pour les modèles ARX en poursuite adaptative. Il permet de généraliser les résultats antérieurs. On montre la convergence presque sûre des algorithmes des moindres carrés ordinaires et pondérés. On établit également le théorème de la limite centrale ainsi que la loi du logarithme itéré pour ces deux algorithmes. La troisième partie est dédiée aux modèles ARX qui ne sont pas fortement contrôlables. On montre que, via un contrôle de poursuite excité, il est possible de s’affranchir de l’hypothèse de forte contrôlabilité. La quatrième partie est consacrée au comportement asymptotique de la statistique de Durbin-Watson pour les modèles ARX en poursuite adaptative via des arguments martingales
This thesis is devoted to asymptotical results for ARX models in adaptive tracking. It is divided into four parts. The first part is a short introduction on ARMAX models together with a state of the art on the main results in the literature on adaptive tracking. The second part deals with a new concept of strong controllability for ARX models in adaptive tracking. This new notion allows us to extend the previous convergence results. We prove the almost sure convergence for both least squares and weighted least squares algorithms. We also establish a central limit theorem and a law of iterated logarithm for these two algorithms. The third part is dedicated to ARX models that are not strongly controllable. Thanks to a persistently excited adaptive tracking control, we show that it is possible to get rid of the strong controllability assumption. The fourth part deals with the asymptotic behaviour of the Durbin-Watson statistic for ARX models in adaptive tracking via a martingale approach
APA, Harvard, Vancouver, ISO, and other styles
17

Karavelić, Emir. "Stochastic Galerkin finite element method in application to identification problems for failure models parameters in heterogeneous materials." Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2501.

Full text
Abstract:
Cette thèse traite de rupture localisée de structures construites en matériau composite hétérogène, comme le béton, à deux échelles différentes. Ces deux échelles sont connectées par le biais de la mise à l'échelle stochastique, où toute information obtenue à l'échelle méso est utilisée comme connaissance préalable à l'échelle macro. À l'échelle méso, le modèle de réseau est utilisé pour représenter la structure multiphasique du béton, à savoir le ciment et les granulats. L'élément de poutre représenté par une poutre Timoshenko 3D intégrée avec de fortes discontinuités assure un maillage complet indépendance de la propagation des fissures. La géométrie de la taille des agrégats est prise en accord avec la courbe EMPA et Fuller tandis que la distribution de Poisson est utilisée pour la distribution spatiale. Les propriétés des matériaux de chaque phase sont obtenues avec une distribution gaussienne qui prend en compte la zone de transition d'interface (ITZ) par l'affaiblissement du béton. À l'échelle macro, un modèle de plasticité multisurface est choisi qui prend en compte à la fois la contribution d'un écrouissage sous contrainte avec une règle d'écoulement non associative ainsi que des composants d'un modèle d'adoucissement de déformation pour un ensemble complet de différents modes de défaillance 3D. Le modèle de plasticité est représenté par le critère de rendement Drucker-Prager, avec une fonction potentielle plastique similaire régissant le comportement de durcissement tandis que le comportement de ramollissement des contraintes est représenté par le critère de St. Venant. La procédure d'identification du modèle macro-échelle est réalisée de manière séquentielle. En raison du fait que tous les ingrédients du modèle à l'échelle macro ont une interprétation physique, nous avons fait l'étalonnage des paramètres du matériau en fonction de l'étape particulière. Cette approche est utilisée pour la réduction du modèle du modèle méso-échelle au modèle macro-échelle où toutes les échelles sont considérées comme incertaines et un calcul de probabilité est effectué. Lorsque nous modélisons un matériau homogène, chaque paramètre inconnu du modèle réduit est modélisé comme une variable aléatoire tandis que pour un matériau hétérogène, ces paramètres de matériau sont décrits comme des champs aléatoires. Afin de faire des discrétisations appropriées, nous choisissons le raffinement du maillage de méthode p sur le domaine de probabilité et la méthode h sur le domaine spatial. Les sorties du modèle avancé sont construites en utilisant la méthode de Galerkin stochastique fournissant des sorties plus rapidement le modèle avancé complet. La procédure probabiliste d'identification est réalisée avec deux méthodes différentes basées sur le théorème de Bayes qui permet d'incorporer de nouvelles bservations générées dans un programme de chargement particulier. La première méthode Markov Chain Monte Carlo (MCMC) est identifiée comme mettant à jour la mesure, tandis que la deuxième méthode Polynomial Chaos Kalman Filter (PceKF) met à jour la fonction mesurable. Les aspects de mise en œuvre des modèles présentés sont donnés en détail ainsi que leur validation à travers les exemples numériques par rapport aux résultats expérimentaux ou par rapport aux références disponibles dans la littérature
This thesis deals with the localized failure for structures built of heterogeneous composite material, such as concrete, at two different scale. These two scale are latter connected through the stochastic upscaling, where any information obtained at meso-scale are used as prior knowledge at macro-scale. At meso scale, lattice model is used to represent the multi-phase structure of concrete, namely cement and aggregates. The beam element represented by 3D Timoshenko beam embedded with strong discontinuities ensures complete mesh independency of crack propagation. Geometry of aggregate size is taken in agreement with EMPA and Fuller curve while Poisson distribution is used for spatial distribution. Material properties of each phase is obtained with Gaussian distribution which takes into account the Interface Transition Zone (ITZ) through the weakening of concrete. At macro scale multisurface plasticity model is chosen that takes into account both the contribution of a strain hardening with non-associative flow rule as well as a strain softening model components for full set of different 3D failure modes. The plasticity model is represented with Drucker-Prager yield criterion, with similar plastic potential function governing hardening behavior while strain softening behavior is represented with St. Venant criterion. The identification procedure for macro-scale model is perfomed in sequential way. Due to the fact that all ingredients of macro-scale model have physical interpretation we made calibration of material parameters relevant to particular stage. This approach is latter used for model reduction from meso-scale model to macro-scale model where all scales are considered as uncertain and probability computation is performed. When we are modeling homogeneous material each unknown parameter of reduced model is modeled as a random variable while for heterogeneous material, these material parameters are described as random fields. In order to make appropriate discretizations we choose p-method mesh refinement over probability domain and h-method over spatial domain. The forward model outputs are constructed by using Stochastic Galerkin method providing outputs more quickly the the full forward model. The probabilistic procedure of identification is performed with two different methods based on Bayes’s theorem that allows incorporating new observation generated in a particular loading program. The first method Markov Chain Monte Carlo (MCMC) is identified as updating the measure, whereas the second method Polynomial Chaos Kalman Filter (PceKF) is updating the measurable function. The implementation aspects of presented models are given in full detail as well as their validation throughthe numerical examples against the experimental results or against the benchmarks available from literature
APA, Harvard, Vancouver, ISO, and other styles
18

Li, Ji. "Analyse mathématique de modèles d'intrusion marine dans les aquifères côtiers." Thesis, Littoral, 2015. http://www.theses.fr/2015DUNK0378/document.

Full text
Abstract:
Le thème de cette thèse est l'analyse mathématique de modèles décrivant l'intrusion saline dans les aquifères côtiers. On a choisi d'adopter la simplicité de l'approche avec interface nette : il n'y a pas de transfert de masse entre l'eau douce et l'eau salée (resp. entre la zone saturée et la zone sèche). On compense la difficulté mathématique liée à l'analyse des interfaces libres par un processus de moyennisation verticale nous permettant de réduire le problème initialement 3D à un système d'edps définies sur un domaine, Ω, 2D. Un second modèle est obtenu en combinant l'approche 'interface nette' à celle avec interface diffuse ; cette approche est déduite de la théorie introduite par Allen-Cahn, utilisant des fonctions de phase pour décrire les phénomènes de transition entre les milieux d'eau douce et d'eau salée (respectivement les milieux saturé et insaturé). Le problème d'origine 3D est alors réduit à un système fortement couplé d'edps quasi-linéaires de type parabolique dans le cas des aquifères libres décrivant l'évolution des profondeurs des 2 surfaces libres et de type elliptique-parabolique dans le cas des aquifères confinés, les inconnues étant alors la profondeur de l'interface eau salée par rapport à eau douce et la charge hydraulique de l'eau douce. Dans la première partie de la thèse, des résultats d'existence globale en temps sont démontrés montrant que l'approche couplée interface nette-interface diffuse est plus pertinente puisqu'elle permet d'établir un principe du maximum plus physique (plus précisèment une hiérarchie entre les 2 surfaces libres). En revanche, dans le cas de l'aquifère confiné, nous montrons que les deux approches conduisent à des résultats similaires. Dans la seconde partie de la thèse, nous prouvons l'unicité de la solution dans le cas non dégénéré, la preuve reposant sur un résultat de régularité du gradient de la solution dans l'espace Lr (ΩT), r > 2, (ΩT = (0,T) x Ω). Puis nous nous intéressons à un problème d'identification des conductivités hydrauliques dans le cas instationnaire. Ce problème est formulé par un problème d'optimisation dont la fonction coût mesure l'écart quadratique entre les charges hydrauliques expérimentales et celles données par le modèle
The theme of this thesis is the analysis of mathematical models describing saltwater intrusion in coastal aquifers. The simplicity of sharp interface approach is chosen : there is no mass transfer between fresh water and salt water (respectively between the saturated zone and the area dry). We compensate the mathematical difficulty of the analysis of free interfaces by a vertical averaging process allowing us to reduce the 3D problem to system of pde's defined on a 2D domain Ω. A second model is obtained by combining the approach of 'sharp interface' in that with 'diffuse interface' ; this approach is derived from the theory introduced by Allen-Cahn, using phase functions to describe the phenomena of transition between fresh water and salt water (respectively the saturated and unsaturated areas). The 3D problem is then reduced to a strongly coupled system of quasi-linear parabolic equations in the unconfined case describing the evolution of the DEPTHS of two free surfaces and elliptical-parabolic equations in the case of confined aquifer, the unknowns being the depth of salt water/fresh water interface and the fresh water hydraulic head. In the first part of the thesis, the results of global in time existence are demonstrated showing that the sharp-diffuse interface approach is more relevant since it allows to establish a mor physical maximum principle (more precisely a hierarchy between the two free surfaces). In contrast, in the case of confined aquifer, we show that both approach leads to similar results. In the second part of the thesis, we prove the uniqueness of the solution in the non-degenerate case. The proof is based on a regularity result of the gradient of the solution in the space Lr (ΩT), r > 2, (ΩT = (0,T) x Ω). Then we are interest in a problem of identification of hydraulic conductivities in the unsteady case. This problem is formulated by an optimization problem whose cost function measures the squared difference between experimental hydraulic heads and those given by the model
APA, Harvard, Vancouver, ISO, and other styles
19

Trevezas, Samis. "Etude de l'estimation du Maximum de Vraisemblance dans des modèles Markoviens, Semi-Markoviens et Semi-Markoviens Cachés avec Applications." Phd thesis, Université de Technologie de Compiègne, 2008. http://tel.archives-ouvertes.fr/tel-00472644.

Full text
Abstract:
Dans ce travail je présente une étude unifiée basée sur l'estimation du maximum de vraisemblance pour des modèles markoviens, semi-markoviens et semi-markoviens cachés. Il s'agit d'une étude théorique des propriétés asymptotiques de l'EMV des modèles mentionnés ainsi que une étude algorithmique. D'abord, nous construisons l'estimateur du maximum de vraisemblance (EMV) de la loi stationnaire et de la variance asymptotique du théorème de la limite centrale (TLC) pour des fonctionnelles additives des chaînes de Markov ergodiques et nous démontrons sa convergence forte et sa normalité asymptotique. Ensuite, nous considérons un modèle semi-markovien non paramétrique. Nous présentons l'EMV exact du noyau semi-markovien qui gouverne l'évolution de la chaîne semi-markovienne (CSM) et démontrons la convergence forte, ainsi que la normalité asymptotique de chaque sous-vecteur fini de cet estimateur en obtenant des formes explicites pour les matrices de covariance asymptotiques. Ceci a été appliqué pour une observation de longue durée d'une seule trajectoire d'une CSM, ainsi que pour une suite des trajectoires i.i.d. d'une CSM censurée à un instant fixe. Nous introduisons un modèle semi-markovien caché (MSMC) général avec dépendance des temps de récurrence en arrière. Nous donnons des propriétés asymptotiques de l'EMV qui correspond à ce modèle. Nous déduisons également des expressions explicites pour les matrices de covariance asymptotiques qui apparaissent dans le TLC pour l'EMV des principales caractéristiques des CSM. Enfin, nous proposons une version améliorée de l'algorithme EM (Estimation-Maximisation) et une version stochastique de cet algorithme (SAEM) afin de trouver l'EMV pour les MSMC non paramétriques. Des exemples numériques sont présentés pour ces deux algorithmes.
APA, Harvard, Vancouver, ISO, and other styles
20

Trevezas, Samis. "Etude de l'estimation du maximum de vraisemblance dans des modèles markoviens, semi-markoviens et semi-markoviens cachés avec applications." Phd thesis, Compiègne, 2008. http://www.theses.fr/2008COMP1772.

Full text
Abstract:
Nous construisons l'estimateur du maximum de vraisemblance (EMV) de la loi stationnaire et de la variance asymptotique du théorème de la limite centrale (TLC) pour des fonctionnelles additives des chaînes de Markov ergodiques et nous démontrons sa convergence forte et sa normalité asymptotique. Ensuite, nous considérons un modèle semi-markovien non paramétrique. Nous présentons l'EMV exact du noyau semi-markovien qui gouverne l'évolution de la chaîne semi-markovienne (CSM) et démontrons la convergence forte, ainsi que la normalité asymptotique de chaque sous-vecteur fini de cet estimateur en obtenant des formes explicites pour les matrices de covariance asymptotiques. Ceci a été appliqué pour une observation de longue durée d'une seule trajectoire d'une CSM, ainsi que pour une suite des trajectoires i. I. D. D'une CSM censurée à un instant fixe. Nous introduisons un modèle semi-markovien caché (MSMC) général avec dépendance des temps de récurrence arrière. Nous donnons des propriétés asymptotiques de l'EMV qui correspond à ce modèle. Nous déduisons également des expressions explicites pour les matrices de de covariance asymptotiques qui apparaissent dans le TLC pour l'EMV des principales caractéristiques des CSM. Enfin, nous proposons une version améliorée de l'algorithme EM (Estimation-Maximisation) et une version stochastique de cet algorithme (SAEM) afin de trouver l'EMV pour les MSMC non para métriques. Des exemples numériques sont présentés pour ces deux algorithmes
We construct the maximum likehood estimator (MLE) of the stationnary distribution an of the asymptotic variance of the central limit theorem for additive functionals of ergodic Markov chains and we prove its strong consistency and its asymptotic normamlity. In the sequel, we consider a non-parametric semi-Markov model. We present the exact MLE of the semi-Markov kernel that governs the evolution of the semi-Markov chain (SMC) and we prove the strong consistency as well as the asymptotic normality of every finite subvector of this estimator by obtaining explicit forms for the asymptotic covariance matrices. The asymptotics were considered for one trajectory of SMC as well as for a sequence of i. D. D. Observations of a SMC censored at a fixed time. We introduce a general hidden semi-Markov model (HSMM) with backward recurrence time dependence. We prove asymptotic properties of the MLE that corresponds to this model. We also deduce explicit expressions for the asymptotic covariance matrices that appear in the CLT for the MLE of some basic characteristics of the SMC. Finally, we propose an improved version of the EM algorithm for HSMM and a stochastic version of this algorithm (SAEM), in order to find the MLE for non-parametric HSMMs. Numerical examples are presented for both algorithms
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography