Teses / dissertações sobre o tema "Algorithme de simulation stochastique"

Siga este link para ver outros tipos de publicações sobre o tema: Algorithme de simulation stochastique.

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Algorithme de simulation stochastique".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Makhlouf, Azmi. "Régularité fractionnaire et analyse stochastique de discrétisations ; Algorithme adaptatif de simulation en risque de crédit". Phd thesis, Grenoble INPG, 2009. http://www.theses.fr/2009INPG0154.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Cette thèse concerne trois sujets de probabilités numériques et de mathématiques financières. D'abord, nous étudions le module de régularité L2 en temps de la composante Z d'une EDSR markovienne à coefficients lipschitziens, mais dont la fonction terminale g est irrégulière. Ce module est lié à l'erreur d'approximation par schéma d'Euler. Nous montrons, de façon optimale, que l'ordre de convergence est explicitement lié à la régularité fractionnaire de g. Ensuite, nous proposons une méthode de Monte-Carlo séquentielle pour le calcul efficace du prix d'une tranche de CDO, basée sur des variables de contrôle séquentielles, dans un cadre où les taux de recouvrement sont aléatoires et i. I. D. Enfin, nous analysons l'erreur de couverture associée à la stratégie en Delta-Gamma. La régularité fractionnaire de la fonction payoff joue un rôle crucial dans le choix des dates de rebalancement, afin d'atteindre des vitesses de convergence optimales
This thesis deals with three issues from numerical probability and mathematical finance. First, we study the L2-time regularity modulus of the Z-component of a Markovian BSDE with Lipschitz-continuous coefficients, but with irregular terminal function g. This modulus is linked to the approximation error of the Euler scheme. We show, in an optimal way, that the order of convergence is explicitly connected to the fractional regularity of g. Second, we propose a sequential Monte-Carlo method in order to efficiently compute the price of a CDO tranche, based on sequential control variates. The recoveries are supposed to be i. I. D. Random variables. Third, we analyze the tracking error related to the Delta-Gamma hedging strategy. The fractional regularity of the payoff function plays a crucial role in the choice of the trading dates, in order to achieve optimal rates of convergence
2

Makhlouf, Azmi. "Régularité fractionnaire et analyse stochastique de discrétisations ; Algorithme adaptatif de simulation en risque de crédit". Phd thesis, Grenoble INPG, 2009. http://tel.archives-ouvertes.fr/tel-00460269.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Cette thèse concerne trois sujets de probabilités numériques et de mathématiques financières. D'abord, nous étudions le module de régularité L2 en temps de la composante Z d'une EDSR markovienne à coefficients lipschitziens, mais dont la fonction terminale g est irrégulière. Ce module est lié à l'erreur d'approximation par schéma d'Euler. Nous montrons, de façon optimale, que l'ordre de convergence est explicitement lié à la régularité fractionnaire de g. Ensuite, nous proposons une méthode de Monte-Carlo séquentielle pour le calcul efficace du prix d'une tranche de CDO, basée sur des variables de contrôle séquentielles, dans un cadre où les taux de recouvrement sont aléatoires et i.i.d. Enfin, nous analysons l'erreur de couverture associée à la stratégie en Delta-Gamma. La régularité fractionnaire de la fonction payoff joue un rôle crucial dans le choix des dates de rebalancement, afin d'atteindre des vitesses de convergence optimales.
3

Phi, Tien Cuong. "Décomposition de Kalikow pour des processus de comptage à intensité stochastique". Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4029.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
L'objectif de cette thèse est de construire des algorithmes capables de simuler l'activité d'un réseau de neurones. L'activité du réseau de neurones peut être modélisée par le train de spikes de chaque neurone, qui sont représentés par un processus ponctuel multivarié. La plupart des approches connues pour simuler des processus ponctuels rencontrent des difficultés lorsque le réseau sous-jacent est de grande taille.Dans cette thèse, nous proposons de nouveaux algorithmes utilisant un nouveau type de décomposition de Kalikow. En particulier, nous présentons un algorithme permettant de simuler le comportement d'un neurone intégré dans un réseau neuronal infini sans simuler l'ensemble du réseau. Nous nous concentrons sur la preuve mathématique que notre algorithme renvoie les bons processus ponctuels et sur l'étude de sa condition d'arrêt. Ensuite, une preuve constructive montre que cette nouvelle décomposition est valable pour divers processus ponctuels.Enfin, nous proposons des algorithmes, qui peuvent être parallélisés et qui permettent de simuler une centaine de milliers de neurones dans un graphe d'interaction complet, sur un ordinateur portable. Plus particulièrement, la complexité de cet algorithme semble linéaire par rapport au nombre de neurones à simuler
The goal of this thesis is to construct algorithms which are able to simulate the activity of a neural network. The activity of the neural network can be modeled by the spike train of each neuron, which are represented by a multivariate point processes. Most of the known approaches to simulate point processes encounter difficulties when the underlying network is large.In this thesis, we propose new algorithms using a new type of Kalikow decomposition. In particular, we present an algorithm to simulate the behavior of one neuron embedded in an infinite neural network without simulating the whole network. We focus on mathematically proving that our algorithm returns the right point processes and on studying its stopping condition. Then, a constructive proof shows that this new decomposition holds for on various point processes.Finally, we propose algorithms, that can be parallelized and that enables us to simulate a hundred of thousand neurons in a complete interaction graph, on a laptop computer. Most notably, the complexity of this algorithm seems linear with respect to the number of neurons on simulation
4

Panloup, Fabien. "Approximation récursive du régime stationnaire d'une équation différentielle stochastique avec sauts". Paris 6, 2006. http://www.theses.fr/2006PA066397.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Cette thèse est dans sa majeure partie consacrée à la construction et l'étude de méthodes implémentables par ordinateur permettant d'approcher le régime stationnaire d'un processus ergordique multidimensionnel solution d'une EDS dirigée par un processus de Lévy. S'appuyant sur une approche développée par Lamberton&Pagès puis Lemaire dans le cadre des diffusions Browniennes, nos méthodes basées sur des schémas d'Euler à pas décroissant, « exacts » ou « approchés », permettent de simuler efficacement la probabilité invariante mais également la loi globale d'un tel processus en régime stationnaire. Ce travail possède des applications théoriques et pratiques diverses dont certaines sont développées ici (TCL p. S. Pour les lois stables, théorème limite relatif aux valeurs extrêmes, pricing d'options pour des modèles à volatilité stochastique stationnaire. . . ).
5

Panloup, Fabien. "Approximation récursive du régime stationnaire d'une Equation Differentielle Stochastique avec sauts". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2006. http://tel.archives-ouvertes.fr/tel-00120508.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
La thématique principale de cette thèse est la construction et l'étude de méthodes implémentables par ordinateur permettant d'approcher le régime stationnaire d'un processus ergordique multidimensionnel solution d'une EDS dirigée par un processus de Lévy. S'appuyant sur une approche développée par Lamberton&Pagès puis Lemaire dans le cadre des diffusions Browniennes, nos méthodes basées sur des schémas
d'Euler à pas décroissant, « exacts » ou « approchés », permettent de simuler efficacement la probabilité invariante mais également la loi globale d'un tel processus en régime stationnaire.
Ce travail possède des applications théoriques et pratiques diverses dont certaines
sont développées ici (TCL p.s. pour les lois stables, théorème limite relatif aux valeurs extrêmes, pricing d'options pour des modèles à volatilité stochastique stationnaire...).
6

Abdelghani, Maher. "Identification temporelle des structures : approche des algorithmes sous-espace dans l'espace état". Montpellier 2, 1995. http://www.theses.fr/1995MON20185.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Les methodes d'identification temporelles permettent dans certains cas de franchir les limites inherentes aux methodes frequentielles. La majorite des methodes temporelles traitent les modeles polynomiaux connus pour introduire des problemes mathematiques mal conditionnes au plan numerique. On presente dans ce travail la mise en uvre, l'analyse et la comparaison des algorithmes sous-espace (n4sid, moesp) appliquees a l'identification des structures. Des modifications sont proposees afin de les rendre plus robustes. Des etudes, par simulation, et experimentales, mettent en exergue leurs avantages par rapport a d'autres methodes telles que era ou arx
7

Reutenauer, Victor. "Algorithmes stochastiques pour la gestion du risque et l'indexation de bases de données de média". Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4018/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Cette thèse s’intéresse à différents problèmes de contrôle et d’optimisation dont il n’existe à ce jour que des solutions approchées. D’une part nous nous intéressons à des techniques visant à réduire ou supprimer les approximations pour obtenir des solutions plus précises voire exactes. D’autre part nous développons de nouvelles méthodes d’approximation pour traiter plus rapidement des problèmes à plus grande échelle. Nous étudions des méthodes numériques de simulation d’équation différentielle stochastique et d’amélioration de calculs d’espérance. Nous mettons en œuvre des techniques de type quantification pour la construction de variables de contrôle ainsi que la méthode de gradient stochastique pour la résolution de problèmes de contrôle stochastique. Nous nous intéressons aussi aux méthodes de clustering liées à la quantification, ainsi qu’à la compression d’information par réseaux neuronaux. Les problèmes étudiés sont issus non seulement de motivations financières, comme le contrôle stochastique pour la couverture d’option en marché incomplet mais aussi du traitement des grandes bases de données de médias communément appelé Big data dans le chapitre 5. Théoriquement, nous proposons différentes majorations de la convergence des méthodes numériques d’une part pour la recherche d’une stratégie optimale de couverture en marché incomplet dans le chapitre 3, d’autre part pour l’extension la technique de Beskos-Roberts de simulation d’équation différentielle dans le chapitre 4. Nous présentons une utilisation originale de la décomposition de Karhunen-Loève pour une réduction de variance de l’estimateur d’espérance dans le chapitre 2
This thesis proposes different problems of stochastic control and optimization that can be solved only thanks approximation. On one hand, we develop methodology aiming to reduce or suppress approximations to obtain more accurate solutions or something exact ones. On another hand we develop new approximation methodology in order to solve quicker larger scale problems. We study numerical methodology to simulated differential equations and enhancement of computation of expectations. We develop quantization methodology to build control variate and gradient stochastic methods to solve stochastic control problems. We are also interested in clustering methods linked to quantization, and principal composant analysis or compression of data thanks neural networks. We study problems motivated by mathematical finance, like stochastic control for the hedging of derivatives in incomplete market but also to manage huge databases of media commonly known as big Data in chapter 5. Theoretically we propose some upper bound for convergence of the numerical method used. This is the case of optimal hedging in incomplete market in chapter 3 but also an extension of Beskos-Roberts methods of exact simulation of stochastic differential equations in chapter 4. We present an original application of karhunen-Loève decomposition for a control variate of computation of expectation in chapter 2
8

Lemaire, Vincent. "Estimation récursive de la mesure invariante d'un processus de diffusion". Phd thesis, Université de Marne la Vallée, 2005. http://tel.archives-ouvertes.fr/tel-00011281.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
L'objet de la thèse est l'étude d'un algorithme, simple d'implémentation et récursif, permettant de calculer l'intégrale d'une fonction par rapport à la probabilité invariante d'un processus solution d'une équation différentielle stochastique de dimension finie.
La principale hypothèse sur ces solutions (diffusions) est l'existence d'une fonction de Lyapounov garantissant une condition de stabilité. Par le théorème ergodique on sait que les mesures empiriques de la diffusion convergent vers une mesure invariante. Nous étudions une convergence similaire lorsque la diffusion est discrétisée par un schéma d'Euler de pas décroissant. Nous prouvons que les mesures empiriques pondérées de ce schéma convergent vers la mesure invariante de la diffusion, et qu'il est possible d'intégrer des fonctions exponentielles lorsque le coefficient de diffusion est suffisamment petit. De plus, pour une classe de diffusions plus restreinte, nous prouvons la convergence presque sûre et dans Lp du schéma d'Euler vers la diffusion.
Nous obtenons des vitesses de convergence pour les mesures empiriques pondérées et donnons les paramètres permettant une vitesse optimale. Nous finissons l'étude de ce schéma lorsqu'il y a présence de multiples mesures invariantes. Cette étude se fait en dimension 1, et nous permet de mettre en évidence un lien entre classification de Feller et fonctions de Lyapounov.
Dans la dernière partie, nous exposons un nouvel algorithme adaptatif permettant de considérer des problèmes plus généraux tels que les systèmes Hamiltoniens ou les systèmes monotones. Il s'agit de considérer les mesures empiriques d'un schéma d'Euler construit à partir d'une suite de pas aléatoires adaptés dominée par une suite décroissant vers 0.
9

Bouttier, Clément. "Optimisation globale sous incertitude : algorithmes stochastiques et bandits continus avec application aux performances avion". Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30176.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Cette thèse est consacrée à l'étude théorique et numérique d'algorithmes d'optimisation stochastiques adaptés au traitement du problème de planification des trajectoires d'avions en environnement incertain. L'optimisation des temps de vol et de la consommation de carburant est un élément central de la compétitivité des compagnies aériennes. Elles sont à la recherche d'outils permettant d'optimiser le choix de leurs routes aériennes avec toujours plus de précision. Pourtant, les méthodes actuellement disponibles pour l'optimisation de ces routes aériennes requièrent l'utilisation de représentations simplifiées des performances avion. Nous proposons, dans cette thèse, de répondre à cette exigence de précision et d'adapter, par conséquent, nos méthodes de résolution aux contraintes de la modélisation industrielle des performances avion tout en tenant compte de l'incertitude qui pèse sur les conditions réelles de vol (trafic aérien et conditions atmosphériques). Nous appuyons notre démarche par trois contributions scientifiques. Premièrement, nous avons mis en place un environnement de test pour algorithmes d'optimisation de trajectoires. Ce cadre a permis d'unifier la procédure de test pour l'ensemble des modèles de performances avion. Deuxièmement, nous avons développé et analysé sur le plan théorique deux nouveaux algorithmes d'optimisation stochastique globale en l'absence de dérivés. La première approche, très générique, n'utilise pas d'information particulière liée à la dynamique avion. Il s'agit de l'algorithme NSA basé sur la méthode du recuit simulé. Les développements théoriques ont abouti à la formulation des conditions et vitesse de convergence de cet algorithme. La seconde approche, l'algorithme SPY, est plus spécifique, il utilise une information de régularité lipschitzienne autour de l'optimum recherche. Il s'agit d'un algorithme de type bandits Lipschitz, basé sur la méthode de Piyavskii. De même, nous analysons les conditions de convergence de cet algorithme et fournissons une borne supérieure sur son erreur d'optimisation (regret simple)
This PhD thesis is dedicated to the theoretical and numerical analysis of stochastic algorithms for the stochastic flight planning problem. Optimizing the fuel consumption and flight time is a key factor for airlines to be competitive. These companies thus look for flight optimization tools with higher and higher accuracy requirements. However, nowadays available methodologies for flight planning are based on simplified aircraft performance models. In this PhD, we propose to fulfill the accuracy requirements by adapting our methodology to both the constraints induced by the utilization of an industrial aircraft performance computation code and the consideration of the uncertainty about the real flight conditions, i.e., air traffic and weather conditions. Our proposal is supported by three main contributions. First, we design a numerical framework for benchmarking aircraft trajectory optimization tools. This provides us a unified testing procedure for all aircraft performance models. Second, we propose and study (both theoretically and numerically) two global derivative-free algorithms for stochastic optimization problems. The first approach, the NSA algorithm, is highly generic and does not use any prior knowledge about the aircraft performance model. It is an extension of the simulated annealing algorithm adapted to noisy cost functions. We provide an upper bound on the convergence speed of NSA to globally optimal solutions. The second approach, the SPY algorithm, is a Lipschitz bandit algorithm derived from Piyavskii's algorithm. It is more specific as it requires the knowledge of some Lipschitz regularity property around the optimum, but it is therefore far more efficient. We also provide a theoretical study of this algorithm through an upper bound on its simple regret
10

Berro, Julien. "Du monomère à la cellule : modèle de la dynamique de l'actine". Université Joseph Fourier (Grenoble), 2006. http://www.theses.fr/2006GRE10226.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Les filaments d'actine sont des polymères biologiques très abondants dans le cytosquelette des eucaryotes. Leur auto-assemblage et leur autoorganisation sont très dynamiques et ils jouent un rôle majeur dans la motilité cellulaire et dans les déformations de la membrane. Nous présentons dan cette thèse trois approches de modélisation, à différentes échelles, afin de mieux comprendre les mécanismes de régulation de l'assemblage, de l'organisation et de la production de forces par des filaments biologiques tels que les filaments d'actine. Nous avons tout d'abord développé un outil de simulation multi-agent stochastique pour l'étude de la dynamique de filaments biologiques prenant en compte les interactions à l'échelle du nanomètre. Ce nouvel outil nous a permis de mettre en évidence l'accélération du turnover des monomères d'actine par fragmentation des filaments par l'ADF/Cofiline ainsi que les ruptures de symétries induites par cette protéine, résultats concordant avec les expériences de l'équipe de L. Blanchoin (CEA Grenoble). Nous avons également mené l'étude d'un modèle continu pour le flambage de filaments qui a permis d'estimer les forces exercées in vivo et in vitro en fonction des conditions d'attachement des extrémités et de donner des conditions limites de certains paramètres permettant le flambage. Troisièmement, nous avons développé un cadre pour l'organisation des données de cinétique biochimique de réseaux de régulation que nous avons utilisé pour la régulation de la polymérisation de l'actine. Ces trois approches de modélisation ont permis d'améliorer la connaissance sur la dynamique de l'actine et sont complémentaires aux approches expérimentales de la biologie
Actin filaments are biological polymers that are very abundant in eucaryot cytoskeleton. Their auto-assembly and auto-organization are highly dynami. And are essential in cell motility and membrane deformations. Ln this thesis we propose three approaches, on different scales, in order to enlighten mechanisms for the regulation ofassembly of, organization of and production of force by biological filaments such as actin filaments. First, we have developed a stochastic multi-agent simulation tool for studying biological filaments taking into consideration interactions on the nanometer scale. This new tool allowed us to bring out the acceleration of actin monomer turnover due to fragmentation of filaments by ADF/Cofilin and the symmetry breaking induced by thisprotein, which agree weil with experimental data from L. Blanchoin team (CEA Grenoble). Secondly, we studied a continuou model for filament buckling, providing, on the one hand, an estimation of forces exerted in vitro or in vivo with respect to extremity attachment conditions and, on the other hand, limit conditions for buckling. Thirdly, we developed a framework for organizing kinetic biochemical data from reaction networks, which was used for the regulation of actin polymerization. These three modeling approaches improved the knowledge on actin dynamics and are useful complements for experimental approaches in biology
11

Hessami, Mohammad Hessam. "Modélisation multi-échelle et hybride des maladies contagieuses : vers le développement de nouveaux outils de simulation pour contrôler les épidémies". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAS036/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Les études théoriques en épidémiologie utilisent principalement des équations différentielles pour étudier (voire tenter de prévoir) les processus infectieux liés aux maladies contagieuses, souvent sous des hypothèses peu réalistes (ex: des populations spatialement homogènes). Cependant ces modèles ne sont pas bien adaptés pour étudier les processus épidémiologiques à différentes échelles et ils ne sont pas efficaces pour prédire correctement les épidémies. De tels modèles devraient notamment être liés à la structure sociale et spatiale des populations. Dans cette thèse, nous proposons un ensemble de nouveaux modèles dans lesquels différents niveaux de spatialité (par exemple la structure locale de la population, en particulier la dynamique de groupe, la distribution spatiale des individus dans l'environnement, le rôle des personnes résistantes, etc.) sont pris en compte pour expliquer et prédire la façon dont des maladies transmissibles se développent et se répandent à différentes échelles, même à l'échelle de grandes populations. La manière dont les modèles que nous avons développé sont paramétrés leur permet en outre d'être reliés entre eux pour bien décrire en même temps le processus épidémiologique à grande échelle (population d'une grande ville, pays ...) mais avec précision dans des zones de surface limitée (immeubles de bureaux, des écoles). Nous sommes d'abord parvenus à inclure la notion de groupes dans des systèmes d'équations différentielles de modèles SIR (susceptibles, infectés, résistants) par une réécriture des dynamiques de population s'inspirant des réactions enzymatiques avec inhibition non compétitive : les groupes (une forme de complexe) se forment avec des compositions différentes en individus S, I et R, et les individus R se comportent ici comme des inhibiteurs non compétitifs. Nous avons ensuite couplé de tels modèles SIR avec la dynamique globale des groupes simulée par des algorithmes stochastiques dans un espace homogène, ou avec les dynamiques de groupe émergentes obtenues dans des systèmes multi-agents. Comme nos modèles fournissent de l'information bien détaillée à différentes échelles (c'est-à-dire une résolution microscopique en temps, en espace et en population), nous pouvons proposer une analyse de criticité des processus épidémiologiques. Nous pensons en effet que les maladies dans un environnement social et spatial donné présentent des signatures caractéristiques et que de telles mesures pourraient permettre l'identification des facteurs qui modifient leur dynamique.Nous visons ainsi à extraire l'essence des systèmes épidémiologiques réels en utilisant différents modèles mathématique et numériques. Comme nos modèles peuvent prendre en compte les comportements individuels et les dynamiques de population, ils sont en mesure d'utiliser des informations provenant du BigData, collectée par les technologies des réseaux mobiles et sociaux. Un objectif à long terme de ce travail est d'utiliser de tels modèles comme de nouveaux outils pour réduire les épidémies en guidant les rythmes et organisation humaines, par exemple en proposant de nouvelles architectures et en changeant les comportements pour limiter les propagations épidémiques
Theoretical studies in epidemiology mainly use differential equations, often under unrealistic assumptions (e.g. spatially homogeneous populations), to study the development and spreading of contagious diseases. Such models are not, however, well adapted understanding epidemiological processes at different scales, nor are they efficient for correctly predicting epidemics. Yet, such models should be closely related to the social and spatial structure of populations. In the present thesis, we propose a series of new models in which different levels of spatiality (e.g. local structure of population, in particular group dynamics, spatial distribution of individuals in the environment, role of resistant people, etc) are taken into account, to explain and predict how communicable diseases develop and spread at different scales, even at the scale of large populations. Furthermore, the manner in which our models are parametrised allow them to be connected together so as to describe the epidemiological process at a large scale (population of a big town, country ...) and with accuracy in limited areas (office buildings, schools) at the same time.We first succeed in including the notion of groups in SIR (Susceptible, Infected, Recovered) differential equation systems by a rewriting of the SIR dynamics in the form of an enzymatic reaction in which group-complexes of different composition in S, I and R individuals form and where R people behave as non-competitive inhibitors. Then, global group dynamics simulated by stochastic algorithms in a homogeneous space, as well emerging ones obtained in multi-agent systems, are coupled to such SIR epidemic models. As our group-based models provide fine-grain information (i.e. microscopical resolution of time, space and population) we propose an analysis of criticality of epidemiological processes. We think that diseases in a given social and spatial environment present characteristic signatures and that such measurements could allow the identification of the factors that modify their dynamics.We aim here to extract the essence of real epidemiological systems by using various methods based on different computer-oriented approaches. As our models can take into account individual behaviours and group dynamics, they are able to use big-data information yielded from smart-phone technologies and social networks. As a long term objective derived from the present work, one can expect good predictions in the development of epidemics, but also a tool to reduce epidemics by guiding new environmental architectures and by changing human health-related behaviours
12

Mercier, Quentin. "Optimisation multicritère sous incertitudes : un algorithme de descente stochastique". Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4076/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Cette thèse s’intéresse à l’optimisation multiobjectif sans contrainte lorsque les objectifs sont exprimés comme des espérances de fonctions aléatoires. L’aléa est modélisé par l’intermédiaire de variables aléatoires et on considère qu’il n’impacte pas les variables d’optimisation du problème. La thèse consiste à proposer un algorithme de descente qui permet l’obtention des solutions de Pareto du problème d’optimisation ainsi écrit. En utilisant des résultats d’analyse convexe, il est possible de construire un vecteur de descente commun à l’ensemble des objectifs du problème d’optimisation pour un tirage des variables aléatoires donné. Une suite itérative consistant à descendre dans la direction du vecteur de descente commun calculé au point courant et pour un tirage aléatoire unique et indépendant des variables aléatoires est alors construite. De cette manière, l’estimation coûteuse des espérances à chaque étape du processus d’optimisation n’est pas nécessaire. Il est possible de prouver les convergences en norme et presque sûre de cette suite vers les solutions de Pareto du problème d’optimisation en espérance et d’obtenir un résultat de vitesse de convergence lorsque la suite de pas de descente est bien choisie. Après avoir proposé diverses méthodes numériques d’amélioration de l’algorithme, un ensemble d’essais numériques est mené et les résultats de l’algorithme proposé sont comparés à ceux obtenus par deux autres algorithmes classiques de la littérature. Les résultats obtenus sont comparés par l’intermédiaire de mesures adaptées à l’optimisation multiobjectif et sont analysés par le biais de profils de performance. Des méthodes sont alors proposées pour prendre en compte deux types de contrainte et sont illustrées sur des problèmes d’optimisation de structures mécaniques. Une première méthode consiste à pénaliser les objectifs par l’intermédiaire de fonctions de pénalisation exacte lorsque la contrainte est décrite par une fonction déterministe. Pour les contraintes probabilistes, on propose de remplacer les contraintes par des objectifs supplémentaires, ces contraintes probabilistes étant alors reformulées comme des espérances de fonctions indicatrices, le problème étant résolu à l’aide de l’algorithme proposé dans la thèse sans avoir à estimer les probabilités des contraintes à chaque itération
This thesis deals with unconstrained multiobjective optimization when the objectives are written as expectations of random functions. The randomness is modelled through random variables and we consider that this does not impact the problem optimization variables. A descent algorithm is proposed which gives the Pareto solutions without having to estimate the expectancies. Using convex analysis results, it is possible to construct a common descent vector that is a descent vector for all the objectives simultaneously, for a given draw of the random variables. An iterative sequence is then built and consists in descending following this common descent vector calculated at the current point and for a single independent draw of the random variables. This construction avoids the costly estimation of the expectancies at each step of the algorithm. It is then possible to prove the mean square and almost sure convergence of the sequence towards Pareto solutions of the problem and at the same time, it is possible to obtain a speed rate result when the step size sequence is well chosen. After having proposed some numerical enhancements of the algorithm, it is tested on multiple test cases against two classical algorithms of the literature. The results for the three algorithms are then compared using two measures that have been devised for multiobjective optimization and analysed through performance profiles. Methods are then proposed to handle two types of constraint and are illustrated on mechanical structure optimization problems. The first method consists in penalising the objective functions using exact penalty functions when the constraint is deterministic. When the constraint is expressed as a probability, the constraint is replaced by an additional objective. The probability is then reformulated as an expectation of an indicator function and this new problem is solved using the algorithm proposed in the thesis without having to estimate the probability during the optimization process
13

Hurbain, Julien. "Modélisation de la réponse métabolique à un stress oxydant : rôle des régulations". Electronic Thesis or Diss., Université de Lille (2022-....), 2022. http://www.theses.fr/2022ULILR045.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Les cellules vivantes, telles que les cellules de mammifères en particulier, sont continuellement exposées à des types de stress multiples et variés. Ces stress peuvent perturber l'homéostasie cellulaire et induire des dégâts sur les composants cellulaires qui pourraient induire plusieurs types de maladies. C'est notamment le cas d'un changement d'état redox cellulaire appelé stress oxydatif induit par production excessive ou une consommation insuffisante d'espèces réactives de l'oxygène. L'une des espèces réactives de l'oxygène les plus importantes est le peroxyde d'hydrogène (H2O2).Les cellules ont développé des mécanismes de défense efficaces contre le stress oxydatif qui impliquent des systèmes anti-oxydants tels que les glutathions qui réduisent les molécules oxydantes, mais aussi des voies métaboliques telles que la voie des Pentoses Phosphates (PPP) et la glycolyse. Ces voies métaboliques sont connues pour rediriger les ressources de flux de carbone de la glycolyse vers le PPP, ce qui induit un recyclage élevé du NADPH nécessaire à un taux de détoxification efficace des systèmes anti-oxydants. Il n'est cependant pas clair comment les mécanismes de régulation (i) contribuent à une telle réallocation des ressources de flux métaboliques pendant le stress oxydatif et (ii) donnent lieu aux profils d'adaptation observés des concentrations intracellulaires de H2O2.Dans la thèse, le rôle des régulations dans la réponse métabolique au stress oxydatif est abordé à l'aide d'un cadre de modélisation cinétique. Tout d'abord, un modèle est construit à partir d'un ensemble de données métabolomiques et de marquage 13C,en utilisant des méthodes classiques d'estimation de paramètre mais aussi une nouvelle technique d'analyse des flux métaboliques basée sur un algorithme de simulation stochastique. L'analyse systématique du modèle révèle que de nombreuses inhibitions métaboliques, notamment sur G6PD, PGI et GAPD, peuvent favoriser le reroutage des flux pour la production de NADPH. En particulier, nous montrons que toutes ces régulations fonctionnent de manière dose-dépendante et complémentaire, ce qui explique certains paradoxes et controverses, et est cohérent avec les phénotypes d'adaptation observés. Un modèle plus phénoménologique a également été développé pour montrer comment un tel phénotype d'adaptation pourrait contribuer à l'hétérogénéité du destin cellulaire, comme la mort fractionnée, en tant que résultat à long terme du stress oxydatif
Living cells such as mammalian cells in particular, are continuously exposed to multiple and varied types of stress. These stresses can perturb the cellular homeostasis and induce damages on the cellular components which could induce several types of diseases. It is particularly the case for a change of cellular redox state called oxidative stress induced by an excessive production or insufficient consumption of reactive oxygen species such as hydrogen peroxide (H2O2).Cells have developed efficient defence mechanisms against oxidative stress that involve anti-oxidant systems such as glutathiones which reduce the oxidizing molecules, but also metabolic pathways such as Pentose Phosphate Pathway (PPP) and glycolysis. These metabolic pathways are known to reroute the carbon flux resources from the glycolysis toward the PPP which induces high NADPH recycling that is required for efficient detoxification rate of the anti-oxidant systems. It remains however unclear how regulatory mechanisms (i) contribute to such reallocation of metabolic flux resources during oxidative stress and (ii) give rise to observed adaptation profiles of intracellular H2O2 concentrations. In the thesis, the role of regulations in the metabolic response to oxidative stress is addressed using a comprehensive kinetic modeling framework. First, a model is built from a set of metabolomics and 13C labeling data, using conventional parameter estimation methods but also a novel metabolic flux analysis techniques based on a stochastic simulation algorithm. Systematic analysis of the model reveals that many metabolic inhibitions, especially on G6PD, PGI and GAPD, can favour flux rerouting for NADPH production. In particular, we show that all these regulations work in a dose-dependent and complementary manner, which explains some paradoxes and controversies, and is consistent with observed adaptation phenotypes. A more phenomenological model has also been developed to show how such adaptation phenotype could contribute to cell-fate heterogeneity, such as fractional killing, as a long-term outcome of oxidative stress
14

Geisweiller, Nil. "Étude sur la modélisation et la vérification probabiliste d'architectures de simulations distribuées pour l'évaluation de performances". Toulouse, ENSAE, 2006. http://www.theses.fr/2006ESAE0003.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
L'objectif défini dans cette thèse est d’utiliser les récentes techniques de model checking probabiliste afin de vérifier des contraintes de performances sur des architectures de simulations distribuées. L'aspect probabiliste de l'approche permet à la fois de réduire la complexité du modèle et d’exprimer des contraintes de performances plus souples. Dans cette thèse nous avons dans un premier temps tenté d’utiliser le model checking probabiliste afin de formuler et de vérifier de telles contraintes de performances. Nous avons utilisé le model checker PRISM et confronté les résultats obtenus avec des données réelles provenant de simulations distribuées. Ceci a permis de révéler une difficulté fondamentale de cette démarche : il est difficile de choisir les coefficients du modèle pour que les résultats obtenus par le model checker coïncident avec la réalité. En clair, le modèle doit être réaliste. Afin de surmonter cette difficulté nous avons d’abord utilisé des algorithmes d'approximation qui ont permis d’obtenir des modèles plus réalistes mais sans structure, les rendant difficilement compréhensibles et manipulables. Afin de remédier à ce problème nous avons adapté un de ces algorithmes d’approximation, permettant d’induire des distributions de type phase à partir d’un ensemble de temps d’absorption, pour lui permettre d’opérer sur des modèles décrit dans l’algébre PEPA, un langage de modélisation basé sur une approche compositionnelle. L'algorithme a ensuite été étendu afin de fonctionner avec des exécutions partiellement observables au lieu de temps d’absorption, permettant ainsi de travailler sur des modèles PEPA sans état absorbant. Les expérimentations s’appuient sur le logiciel EMPEPA, distribué librement en Open-source, développé dans le cadre des travaux de thèse, et implantant en particulier ces deux algorithmes.
15

Vagne, Quentin. "Stochastic models of intra-cellular organization : from non-equilibrium clustering of membrane proteins to the dynamics of cellular organelles". Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC205/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Cette thèse a pour sujet la biologie cellulaire, et plus particulièrement l'organisation interne des cellules eucaryotes. Bien que les différents acteurs régissant cette organisation aient été en grande partie identifiées, on ignore encore comment une architecture si complexe et dynamique peut émerger de simples interactions entres molécules. Un des objectifs des différentes études présentées dans cette thèse est de construire un cadre théorique permettant d'appréhender cette auto-organisation. Pour cela, nous étudions des problèmes spécifiques à différentes échelles allant du nanomètre (dynamique des hétérogénéités dans les membranes biologiques) au micromètre (organisation des organelles cellulaires), en utilisant des simulations numériques stochastiques et des méthodes analytiques. Le texte est organisé pour présenter les résultats des plus petites au plus grandes échelles. Dans le premier chapitre, nous étudions l'organisation de la membrane d'un seul compartiment en modélisant la dynamique d'hétérogénéités membranaires. Dans le second chapitre, nous étudions la dynamique d'un compartiment unique échangeant des vésicules avec le milieu extérieur. Nous étudions également comment deux compartiments différents peuvent être générés par les mêmes mécanismes d'échanges de vésicules. Enfin, dans le troisième chapitre, nous développons un modèle global de la dynamique des organelles cellulaires, dans le contexte particulier de la biogenèse de l'appareil de Golgi
This thesis deals with cell biology, and particularly with the internal organization of eukaryotic cells. Although many of the molecular players contributing to the intra-cellular organization have been identified, we are still far from understanding how the complex and dynamical intra-cellular architecture emerges from the self-organization of individual molecules. One of the goals of the different studies presented in this thesis is to provide a theoretical framework to understand such self-organization. We cover specific problems at different scales, ranging from membrane organization at the nanometer scale to whole organelle structure at the micron scale, using analytical work and stochastic simulation algorithms. The text is organized to present the results from the smallest to the largest scales. In the first chapter, we study the membrane organization of a single compartment by modeling the dynamics of membrane heterogeneities. In the second chapter we study the dynamics of one membrane-bound compartment exchanging vesicles with the external medium. Still in the same chapter, we investigate the mechanisms by which two different compartments can be generated by vesicular sorting. Finally in the third chapter, we develop a global model of organelle biogenesis and dynamics in the specific context of the Golgi apparatus
16

Terrier, Pierre. "Algorithmes stochastiques pour simuler l'évolution microstructurale d'alliages ferritiques : une étude de la dynamique d'amas". Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1135/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Cette thèse s'intéresse au vieillissement des métaux au niveau microstructural. On étudie en particulier les défauts (amas de lacunes, interstitiels ou solutés) via un modèle de dynamique d'amas (DA), qui permet de prédire l'évolution des concentrations de défauts sur des temps longs (plusieurs dizaines d'années). Ce modèle est décrit par un système d'équations différentielles ordinaires (EDOs) de très grande taille, pouvant excéder la centaine de milliards d'équations. Les méthodes numériques classiques de simulation d'EDOs ne sont alors pas efficaces pour de tels systèmes. On montre dans un premier temps que la DA est bien posée et qu'elle vérifie certaines bonnes propriétés physiques comme la conservation de la quantité de matière et la positivité de la solution. On s'intéresse également à une approximation de la DA, qui prend la forme d'une équation aux dérivées partielles, de type Fokker--Planck. On caractérise en particulier l'erreur d'approximation entre la DA et cette approximation. Dans un second temps, on introduit un algorithme de simulation de la DA. Cet algorithme est basé sur un splitting de la dynamique ainsi que sur une interprétation probabiliste des équations de la DA (sous la forme d'un processus de saut) ou de son approximation de Fokker--Planck (sous la forme d'un processus de Langevin). Le but est de réduire le nombre d'équations à résoudre et d'accélérer par conséquent les simulations. On utilise enfin cet algorithme de simulation à différents modèles physiques. On confirme l'intérêt de ce nouvel algorithme pour des modèles complexes. On montre également que cet algorithme permet d'enrichir le modèle de dynamique d'amas à moindre coût
We study ageing of materials at a microstructural level. In particular, defects such as vacancies, interstitials and solute atoms are described by a model called Cluster Dynamics (CD), which characterize the evolution of the concentrations of such defects, on period of times as long as decades. CD is a set of ordinary differential equations (ODEs), which might contain up to hundred of billions of equations. Therefore, classical methods used for solving system of ODEs are not suited in term of efficiency. We first show that CD is well-posed and that physical properties such as the conservation of matter and the preservation of the sign of the solution are verified. We also study an approximation of CD, namely the Fokker--Planck approximation, which is a partial differential equation. We quantify the error between CD and its approximation. We then introduce an algorithm for simulating CD. The algorithm is based on a splitting of the dynamics and couples a deterministic and a stochastic approach of CD. The stochastic approach interprets directly CD as a jump process or its approximation as a Langevin process. The aim is to reduce the number of equations to solve, hence reducing the computation time. We finally apply this algorithm to physical models. The interest of this approach is validated on complex models. Moreover, we show that CD can be efficiently improved thanks to the versatility of the algorithm
17

Frantz, Yves. "Simulation stochastique des réseaux karstiques". Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0215.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Difficiles d'accès, les réseaux karstiques ne sont généralement que partiellement décrits. Les techniques d'exploration classiques produisent par ailleurs des données éparses et sujettes à des incertitudes concernant la position des conduits et leurs dimensions, paramètres essentiels aux simulations d'écoulement. Les simulations stochastiques permettent de mieux gérer et évaluer ces incertitudes en proposant plusieurs représentations équiprobables de systèmes karstiques. Le simulateur idéal devrait permettre de construire des réseaux de drains karstiques tridimensionnels, honorant les observations de terrain (indices de karstification), les connaissances apportées par les essais de traçage, les informations recueillies sur des parties accessibles du réseau et celles apportées par l'étude d'autres réseaux. C'est dans ce contexte que s'inscrit cette thèse qui propose 3 principales contributions. La première contribution est l'analyse statistique d'une base de données de 49 réseaux karstiques. Elle se focalise sur l'étude de la géométrie des conduits, à travers l'analyse de deux métriques : le rayon équivalent et le ratio largeur-hauteur. Aucune loi statistique générique qui décrirait la géométrie des conduits n'a pu être mise en évidence. Néanmoins, la variabilité spatiale des propriétés géométriques à différentes échelles a été caractérisée, notamment grâce au développement de variogrammes 1D-curvilinéaires. L'hypothèse répandue d'une organisation hiérarchique des géométries de conduits a également été analysée et rejetée. La deuxième contribution est le développement de deux méthodes de simulation stochastique de propriétés le long de réseaux karstiques s'appuyant sur les résultats de l'analyse statistique. La première méthode se focalise sur la reproduction de la variabilité des propriétés à l'échelle du réseau, tandis que la deuxième se concentre sur la reproduction de la variabilité au sein et entre les branches du réseau.Elles sont toutes deux basées sur les méthodes de Simulations Gaussiennes Séquentielles (SGS), ici adaptées à des objets 1D-curvilinéaires. La troisième contribution est le prototype d'une méthode ayant pour but de simuler stochastiquement des réseaux karstiques discrets sous forme de graphes (qualifiés de squelettes des réseaux). Il est espéré qu'une fois entièrement développée, elle permette de simuler différents types de réseaux et de prendre directement en compte les données de terrain ainsi que les informations géologiques. Elle consiste en trois grandes étapes : i) la génération d'un nuage de points, ii) le calcul de leur connectivité et iii) leur connexion pour former le squelette du réseau karstique. Ces contributions ouvrent de nouvelles perspectives quant à la simulation de réseaux de drains karstiques utilisables pour la simulation d'écoulement (e.g., SWMM, Epanet, Modflow-CFP), ce qui devrait permettre une meilleure caractérisation des flux en leur sein
Despite intensive explorations by speleologists, karstic networks remain only partially described as many conduits are not accessible to humans. The classical exploration techniques produce sparse data subject to uncertainties concerning the conduit position and their dimensions, which are essential parameters for flow simulations.Stochastic simulations make it possible to better handle and assess these uncertainties by offering several equally probable karstic system representations.The ideal simulator should allow for the construction of tridimensional karstic drain networks, respecting the field observations (karstification markers), the knowledge brought by tracer tests, the information collected in the accessible parts of the network and those obtained by the study of other networks.In this context, this PhD thesis offers 3 main contributions.The first contribution is the statistical analysis of a database of 49 karstic networks.It focuses on the study of conduit geometry, through the analysis of two metrics : the equivalent radius and the width-height ratio.No generic statistical law describing the network geometry was found.Nonetheless, the spatial variability of the geometrical properties at different scales was characterized, mostly through the development of 1D-curvilinear variograms.The widespread hypothesis of a hierarchical organization of the conduit geometries has also been analysed and rejected.The second contribution is the development of two methods allowing stochastic simulations of properties along karstic networks and based on the results of the statistical analysis. The first method focuses on the reproduction of the property variability at the network scale, while the second one focuses on the reproduction of the variability within and between the network branches.Both are based on the Sequential Gaussian Simulation methods and are adapted to 1D-curvilinear objects.The third contribution is the prototype of a method aiming to stochastically simulate discrete karstic networks as graphs (known as network skeletons}). We hope that once completed, it would allow the simulation of different network types, while taking directly into account field data and geological information. It is divided in three main steps : i) the generation of a point cloud, ii) the computation of the point connectivity and iii) their connection to create the skeleton of the karstic network.These contributions open new prospects regarding the simulation of karstic drain networks usable for flow simulation (e.g., SWMM, Epanet, Modflow-CFP), which should allow a better characterization of the associated flows
18

Picot, Romain. "Amélioration de la fiabilité numérique de codes de calcul industriels". Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS242.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
De nombreux travaux sont consacrés à la performance des simulations numériques, or il est important de tenir compte aussi de l'impact des erreurs d'arrondi sur les résultats produits. Ces erreurs d'arrondi peuvent être estimées grâce à l'Arithmétique Stochastique Discrète (ASD), implantée dans la bibliothèque CADNA. Les algorithmes compensés permettent d'améliorer la précision des résultats, sans changer le type numérique utilisé. Ils ont été conçus pour être généralement exécutés en arrondi au plus près. Nous avons établi des bornes d'erreur pour ces algorithmes en arrondi dirigé et montré qu'ils peuvent être utilisés avec succès avec le mode d'arrondi aléatoire de l'ASD. Nous avons aussi étudié l’impact d’une précision cible des résultats sur les types numériques des différentes variables. Nous avons développé l'outil PROMISE qui effectue automatiquement ces modifications de types tout en validant les résultats grâce à l’ASD. L'outil PROMISE a ainsi fourni de nouvelles configurations de types mêlant simple et double précision dans divers programmes numériques et en particulier dans le code MICADO développé à EDF. Nous avons montré comment estimer avec l'ASD les erreurs d'arrondi générées en quadruple précision. Nous avons proposé une version de CADNA qui intègre la quadruple précision et qui nous a permis notamment de valider le calcul de racines multiples de polynômes. Enfin nous avons utilisé cette nouvelle version de CADNA dans l'outil PROMISE afin qu'il puisse fournir des configurations à trois types (simple, double et quadruple précision)
Many studies are devoted to performance of numerical simulations. However it is also important to take into account the impact of rounding errors on the results produced. These rounding errors can be estimated with Discrete Stochastic Arithmetic (DSA), implemented in the CADNA library. Compensated algorithms improve the accuracy of results, without changing the numerical types used. They have been designed to be generally executed with rounding to nearest. We have established error bounds for these algorithms with directed rounding and shown that they can be used successfully with the random rounding mode of DSA. We have also studied the impact of a target precision of the results on the numerical types of the different variables. We have developed the PROMISE tool which automatically performs these type changes while validating the results thanks to DSA. The PROMISE tool has thus provided new configurations of types combining single and double precision in various programs and in particular in the MICADO code developed at EDF. We have shown how to estimate with DSA rounding errors generated in quadruple precision. We have proposed a version of CADNA that integrates quadruple precision and that allowed us in particular to validate the computation of multiple roots of polynomials. Finally we have used this new version of CADNA in the PROMISE tool so that it can provide configurations with three types (single, double and quadruple precision)
19

Gavra, Iona Alexandra. "Algorithmes stochastiques d'optimisation sous incertitude sur des structures complexes : convergence et applications". Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30141/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Les principaux sujets étudiés dans cette thèse concernent le développement d'algorithmes stochastiques d'optimisation sous incertitude, l'étude de leurs propriétés théoriques et leurs applications. Les algorithmes proposés sont des variantes du recuit simulé qui n'utilisent que des estimations sans biais de la fonction de coût. On étudie leur convergence en utilisant des outils développés dans la théorie des processus de Markov : on utilise les propriétés du générateur infinitésimal et des inégalités fonctionnelles pour mesurer la distance entre leur distribution et une distribution cible. La première partie est dédiée aux graphes quantiques, munis d'une mesure de probabilité sur l'ensemble des sommets. Les graphes quantiques sont des versions continues de graphes pondérés non-orientés. Le point de départ de cette thèse a été de trouver la moyenne de Fréchet de tels graphes. La moyenne de Fréchet est une extension aux espaces métriques de la moyenne euclidienne et est définie comme étant le point qui minimise la somme des carrés des distances pondérées à tous les sommets. Notre méthode est basée sur une formulation de Langevin d'un recuit simulé bruité et utilise une technique d'homogénéisation. Dans le but d'établir la convergence en probabilité du processus, on étudie l'évolution de l'entropie relative de sa loi par rapport a une mesure de Gibbs bien choisie. En utilisant des inégalités fonctionnelles (Poincaré et Sobolev) et le lemme de Gronwall, on montre ensuite que l'entropie relative tend vers zéro. Notre méthode est testée sur des données réelles et nous proposons une méthode heuristique pour adapter l'algorithme à de très grands graphes, en utilisant un clustering préliminaire. Dans le même cadre, on introduit une définition d'analyse en composantes principales pour un graphe quantique. Ceci implique, une fois de plus, un problème d'optimisation stochastique, cette fois-ci sur l'espace des géodésiques du graphe. Nous présentons un algorithme pour trouver la première composante principale et conjecturons la convergence du processus de Markov associé vers l'ensemble voulu. Dans une deuxième partie, on propose une version modifiée de l'algorithme du recuit simulé pour résoudre un problème d'optimisation stochastique global sur un espace d'états fini. Notre approche est inspirée du domaine général des méthodes Monte-Carlo et repose sur une chaine de Markov dont la probabilité de transition à chaque étape est définie à l'aide de " mini-lots " de taille croissante (aléatoire). On montre la convergence en probabilité de l'algorithme vers l'ensemble optimal, on donne la vitesse de convergence et un choix de paramètres optimisés pour assurer un nombre minimal d'évaluations pour une précision donnée et un intervalle de confiance proche de 1. Ce travail est complété par un ensemble de simulations numériques qui illustrent la performance pratique de notre algorithme à la fois sur des fonctions tests et sur des données réelles issues de cas concrets
The main topics of this thesis involve the development of stochastic algorithms for optimization under uncertainty, the study of their theoretical properties and applications. The proposed algorithms are modified versions of simulated an- nealing that use only unbiased estimators of the cost function. We study their convergence using the tools developed in the theory of Markov processes: we use properties of infinitesimal generators and functional inequalities to measure the distance between their probability law and a target one. The first part is concerned with quantum graphs endowed with a probability measure on their vertex set. Quantum graphs are continuous versions of undirected weighted graphs. The starting point of the present work was the question of finding Fréchet means on such a graph. The Fréchet mean is an extension of the Euclidean mean to general metric spaces and is defined as an element that minimizes the sum of weighted square distances to all vertices. Our method relies on a Langevin formulation of a noisy simulated annealing dealt with using homogenization. In order to establish the convergence in probability of the process, we study the evolution of the relative entropy of its law with respect to a convenient Gibbs measure. Using functional inequalities (Poincare and Sobolev) and Gronwall's Lemma, we then show that the relative entropy goes to zero. We test our method on some real data sets and propose an heuristic method to adapt the algorithm to huge graphs, using a preliminary clustering. In the same framework, we introduce a definition of principal component analysis for quantum graphs. This implies, once more, a stochastic optimization problem, this time on the space of the graph's geodesics. We suggest an algorithm for finding the first principal component and conjecture the convergence of the associated Markov process to the wanted set. On the second part, we propose a modified version of the simulated annealing algorithm for solving a stochastic global optimization problem on a finite space. Our approach is inspired by the general field of Monte Carlo methods and relies on a Markov chain whose probability transition at each step is defined with the help of mini batches of increasing (random) size. We prove the algorithm's convergence in probability towards the optimal set, provide convergence rate and its optimized parametrization to ensure a minimal number of evaluations for a given accuracy and a confidence level close to 1. This work is completed with a set of numerical experiments and the assessment of the practical performance both on benchmark test cases and on real world examples
20

Viseur, Sophie. "Simulation stochastique basée-objet de chenaux". Vandoeuvre-les-Nancy, INPL, 2001. http://www.theses.fr/2001INPL036N.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
L'hétérogénéité dans la répartition des sédiments issus de systèmes de chenaux fait de cette architecture une hôte potentielle aux hydrocarbures. Lors de l'étude d'un réservoir, la connaissance des structures souterraines est disponible via les données issues de forages, de campagnes sismiques et de la connaissance géologique du domaine. Les processus de simulation stochastique représentent de nos jours un outil important pour la gestion d'un champ pétrolier à partir des simples données recueillies de la subsurface de la terre. Le but de ces méthodes est de générer plusieurs modèles équiprobables de l'architecture fluviatile afin d'étudier les risques encourus lors de l'exploitation d'un champ pétrolier. Et chaque modèle ainsi généré se doit e satisfaire les données de subsurface et refléter les informations issues de la connaissance géologique du champ étudié. Deux principales approches ont été proposées dans ce domaine : les approches dites " basées-pixel " et les approches dites " basées-objet ". Les méthodes basées pixels s'attachent à distribuer les valeurs d'une propriété (soit continue comme la perméabilité ou la porosité, ou discrète comme les indexes de faciès) dans le volume d'étude. Les méthodes objet (ou booléennes) consiste en la génération d'objets modélisant les corps fluviatiles présents dans le domaine étudié et de les distribuer dans le volume réservoir. Cependant, les difficultés généralement rencontrées dans ces dernières approches consistent à pouvoir générer de manière efficace des modèles réalistes prenant en comptes des données " dures " (les données de puits) ou " floues " (les données de proportion). Nos travaux ont donc été voués à la recherche d'une nouvelle méthode de simulation stochastique basée objet permettant de générer plusieurs modèles d'empilements de chenaux équiprobables, réalistes et rendant compte des données de subsurface.
21

Benoit, Anne. "Méthodes et algorithmes pour l'évaluation des performances des systèmes". Phd thesis, Grenoble INPG, 2003. http://tel.archives-ouvertes.fr/tel-00004361.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Les chaînes de Markov facilitent l'analyse des performances des systèmes dynamiques dans de nombreux domaines d'application. Cette thèse présente le formalisme des réseaux d'automates stochastiques pour représenter des systèmes markoviens. Le principal objectif des travaux consiste à améliorer les méthodes existantes pour évaluer les performances de systèmes informatiques à grand espace d'états. Pour cela, nous introduisons le concept de réseaux d'automates stochastiques avec réplication, ainsi que des techniques pour simplifier le modèle étudié en réduisant la taille de l'espace d'états. Pour rechercher des indices de performances, on propose une amélioration de l'opération de base en tenant compte du fait que dans de nombreux modèles, la proportion d'états accessibles est faible. Les méthodes et algorithmes développés au cours de la thèse ont été implémentés dans le logiciel PEPS 2003. Des exemples numériques sont présentés pour illustrer les apports de cette thèse.
22

Reuillon, Romain. "Simulations stochastiques en environnements distribués : application aux grilles de calcul". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2008. http://tel.archives-ouvertes.fr/tel-00731242.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Contrairement aux modèles déterministes, le déroulement d'un modèle stochastique est conditionné par la réalisation de variables aléatoires. L'utilisation de hasard permet d'approcher un résultat le plus souvent incalculable de manière déterministe. En contrepartie, il est nécessaire d'estimer les paramètres des distributions associées aux quantités aléatoires en sortie du modèle stochastique. Ce calcul requiert l'exécution de multiples réplications indépendantes de la même expérience et de ce fait, d'une importante quantité de calcul. Toutes les simulations stochastiques comportent par conception un aspect naturellement parallèle. Elles représentent ainsi une des applications phares pour l'utilisation d'environnements de calculs distribués permettant de partager de la puissance de calcul à l'échelle mondiale, appelée grille de calcul. Bien que 50% des cycles des plus gros supercalculateurs de la planète soient consommés par des calculs stochastiques, les techniques de génération parallèle de nombres pseudoaléatoires sont méconnues. Il existe de ce fait un risque bien réel de produire et de publier des résultats de simulations stochastiques erronés. Cette thèse présente l'état de l'art des méthodes pour la distribution des réplications de simulations stochastiques et contribue à leur développement. Elle propose ainsi des méthodes novatrices permettant d'assurer une traçabilité dans le processus complexe de distribution de simulations stochastiques. Elle expose enfin des applications dans les domaines de l'imagerie médicale nucléaire et des simulations environnementales totalisant plus de 70 années de calcul sur un ordinateur séquentiel.
23

Xayaphoummine, Alain. "Simulations et expériences sur le repliement de l'ARN : prédictions statistiques des pseudonœuds in silico et réalisation de commutateurs ARN par transcription in vitro". Université Louis Pasteur (Strasbourg) (1971-2008), 2004. https://publication-theses.unistra.fr/public/theses_doctorat/2004/XAYAPHOUMMINE_Alain_2004.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Minvielle-Larrousse, Pierre. "Méthodes de simulation stochastique pour le traitement de l’information". Thesis, Pau, 2019. http://www.theses.fr/2019PAUU3005.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Lorsqu’une grandeur d’intérêt ne peut être directement mesurée, il est fréquent de procéder à l’observation d’autres quantités qui lui sont liées par des lois physiques. Ces quantités peuvent contenir de l’information sur la grandeur d’intérêt si l’on sait résoudre le problème inverse, souvent mal posé, et inférer la valeur. L’inférence bayésienne constitue un outil statistique puissant pour l’inversion, qui requiert le calcul d’intégrales en grande dimension. Les méthodes Monte Carlo séquentielles (SMC), aussi dénommées méthodes particulaires, sont une classe de méthodes Monte Carlo permettant d’échantillonner selon une séquence de densités de probabilité de dimension croissante. Il existe de nombreuses applications, que ce soit en filtrage, en optimisation globale ou en simulation d’évènement rare. Les travaux ont porté notamment sur l’extension des méthodes SMC dans un contexte dynamique où le système, régi par un processus de Markov caché, est aussi déterminé par des paramètres statiques que l’on cherche à estimer. En estimation bayésienne séquentielle, la détermination de paramètres fixes provoque des difficultés particulières : un tel processus est non-ergodique, le système n’oubliant pas ses conditions initiales. Il est montré comment il est possible de surmonter ces difficultés dans une application de poursuite et identification de formes géométriques par caméra numérique CCD. Des étapes d’échantillonnage MCMC (Chaîne de Markov Monte Carlo) sont introduites pour diversifier les échantillons sans altérer la distribution a posteriori. Pour une autre application de contrôle de matériau, qui cette fois « hors ligne » mêle paramètres statiques et dynamiques, on a proposé une approche originale. Elle consiste en un algorithme PMMH (Particle Marginal Metropolis-Hastings) intégrant des traitements SMC Rao-Blackwellisés, basés sur des filtres de Kalman d’ensemble en interaction.D’autres travaux en traitement de l’information ont été menés, que ce soit en filtrage particulaire pour la poursuite d’un véhicule en phase de rentrée atmosphérique, en imagerie radar 3D par régularisation parcimonieuse ou en recalage d’image par information mutuelle
When a quantity of interest is not directly observed, it is usual to observe other quantities that are linked by physical laws. They can provide information about the quantity of interest if it is able to solve the inverse problem, often ill posed, and infer the value. Bayesian inference is a powerful tool for inversion that requires the computation of high dimensional integrals. Sequential Monte Carlo (SMC) methods, a.k.a. interacting particles methods, are a type of Monte Carlo methods that are able to sample from a sequence of probability densities of growing dimension. They are many applications, for instance in filtering, in global optimization or rare event simulation.The work has focused in particular on the extension of SMC methods in a dynamic context where the system, governed by a hidden Markov process, is also determined by static parameters that we seek to estimate. In sequential Bayesian estimation, the determination of fixed parameters causes particular difficulties: such a process is non-ergodic, the system not forgetting its initial conditions. It is shown how it is possible to overcome these difficulties in an application of tracking and identification of geometric shapes by CCD digital camera. Markov Monte Carlo Chain (MCMC) sampling steps are introduced to diversify the samples without altering the posterior distribution. For another material control application, which mixes static and dynamic parameters, we proposed an original offline approach. It consists of a Particle Marginal Metropolis-Hastings (PMMH) algorithm that integrates Rao-Blackwellized SMC, based on a bank of interacting Ensemble Kalman filters.Other information processing works has been conducted: particle filtering for atmospheric reentry vehicle tracking, 3D radar imaging by sparse regularization and image registration by mutual information
25

Tauvel, Claire. "Optimisation stochastique à grande échelle". Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10305.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
L’objet de cette thèse est l’étude d’algorithmes itératifs permettant de résoudre des problèmes d’optimisation convexe avec ou sans contraintes fonctionnelles, des problèmes de résolutions d’inégalités variationnelles à opérateur monotone et des problèmes de recherche de point selle. Ces problèmes sont envisagés lorsque la dimension de l’espace de recherche est grande et lorsque les valeurs des différentes fonctions étudiées et leur sous/sur-gradients ne sont pas connues exactement et ne sont accessibles qu’au travers d’un oracle stochastique. Les algorithmes que nous étudions sont des adaptations au cas stochastique de deux algorithmes : le premier inspiré de la méthode de descente en miroir de Nemirovski et Yudin et le second, de l’algorithme d’extrapolation duale de Nesterov. Pour chacun de ces deux algorithmes, nous donnons des bornes pour l’espérance et pour les déviations modérées de l’erreur d’approximation sous différentes hypothèses de régularité pour tous les problèmes sans contraintes fonctionnelles envisagées et nous donnons des versions adaptatives de ces algorithmes qui permettent de s’affranchir de connaître certains paramètres de ces problèmes non accessibles en pratique. Enfin nous montrons comment, à l’aide d’un algorithme auxiliaire inspiré de la méthode de Newton et des résultats obtenus lors de la résolution des problèmes de recherche de point selle, il est possible de résoudre des problèmes d’optimisation sous contraintes fonctionnelles
In this thesis we study iterative algorithms in order to solve constrained and unconstrained convex optimization problems, variational inequalities with monotone operators and saddle point problems. We study these problems when the dimension of the search space is high and when the values of the functions of interest are unknown and we just can deal with a stochastic oracle. The algorithms we study are stochastic adaptation of two algorithms : the first one is a variant of the mirror descent algorithm proposed by Nemirovski and Yudin and the second one a variant of the dual extrapolation algorithm by Nesterov. For both of them, we provide bounds for the expected value and bounds for moderate deviations of the approximation error with different regularity hypothesis for all the unconstrained problems we study and we propose adaptative versions of the algorithms in order to get rid of the knowledge of some parameters depending on the problem studied and unavailable in practice. At last we show how to solve constrained stochastic optimization problems thanks to an auxiliary algorithm inspired by the Newton descent one and thanks to the results we obtained for the saddle point problems
26

Tauvel, Claire. "Optimisation stochastique à grande échelle". Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00364777.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
L'objet de cette thèse est l'étude d'algorithmes itératifs permettant de résoudre des problèmes d'optimisation convexe avec ou sans contraintes fonctionnelles, des problèmes de résolutions d'inégalités variationnelles à opérateur monotone et des problèmes de recherche de point selle. Ces problèmes sont envisagés lorsque la dimension de l'espace de recherche est grande et lorsque les valeurs des différentes fonctions étudiées et leur sous/sur-gradients ne sont pas connues exactement et ne sont accessibles qu'au travers d'un oracle stochastique. Les algorithmes que nous étudions sont des adaptations au cas stochastique de deux algorithmes : le premier inspiré de la méthode de descente en miroir de Nemirovski et Yudin et le second, de l'algorithme d'extrapolation duale de Nesterov. Pour chacun de ces deux algorithmes, nous donnons des bornes pour l'espérance et pour les déviations modérées de l'erreur d'approximation sous différentes hypothèses de régularité pour tous les problèmes sans contraintes fonctionnelles envisagées et nous donnons des versions adaptatives de ces algorithmes qui permettent de s'affranchir de connaître certains paramètres de ces problèmes non accessibles en pratique. Enfin nous montrons comment, à l'aide d'un algorithme auxiliaire inspiré de la méthode de Newton et des résultats obtenus lors de la résolution des problèmes de recherche de point selle, il est possible de résoudre des problèmes d'optimisation sous contraintes fonctionnelles.
27

Saadane, Sofiane. "Algorithmes stochastiques pour l'apprentissage, l'optimisation et l'approximation du régime stationnaire". Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30203/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Dans cette thèse, nous étudions des thématiques autour des algorithmes stochastiques et c'est pour cette raison que nous débuterons ce manuscrit par des éléments généraux sur ces algorithmes en donnant des résultats historiques pour poser les bases de nos travaux. Ensuite, nous étudierons un algorithme de bandit issu des travaux de N arendra et Shapiro dont l'objectif est de déterminer parmi un choix de plusieurs sources laquelle profite le plus à l'utilisateur en évitant toutefois de passer trop de temps à tester celles qui sont moins per­formantes. Notre but est dans un premier temps de comprendre les faiblesses structurelles de cet algorithme pour ensuite proposer une procédure optimale pour une quantité qui mesure les performances d'un algorithme de bandit, le regret. Dans nos résultats, nous proposerons un algorithme appelé NS sur-pénalisé qui permet d'obtenir une borne de regret optimale au sens minimax au travers d'une étude fine de l'algorithme stochastique sous-jacent à cette procédure. Un second travail sera de donner des vitesses de convergence pour le processus apparaissant dans l'étude de la convergence en loi de l'algorithme NS sur-pénalisé. La par­ticularité de l'algorithme est qu'il ne converge pas en loi vers une diffusion comme la plupart des algorithmes stochastiques mais vers un processus à sauts non-diffusif ce qui rend l'étude de la convergence à l'équilibre plus technique. Nous emploierons une technique de couplage afin d'étudier cette convergence. Le second travail de cette thèse s'inscrit dans le cadre de l'optimisation d'une fonc­tion au moyen d'un algorithme stochastique. Nous étudierons une version stochastique de l'algorithme déterministe de boule pesante avec amortissement. La particularité de cet al­gorithme est d'être articulé autour d'une dynamique qui utilise une moyennisation sur tout le passé de sa trajectoire. La procédure fait appelle à une fonction dite de mémoire qui, selon les formes qu'elle prend, offre des comportements intéressants. Dans notre étude, nous verrons que deux types de mémoire sont pertinents : les mémoires exponentielles et poly­nomiales. Nous établirons pour commencer des résultats de convergence dans le cas général où la fonction à minimiser est non-convexe. Dans le cas de fonctions fortement convexes, nous obtenons des vitesses de convergence optimales en un sens que nous définirons. En­fin, l'étude se termine par un résultat de convergence en loi du processus après une bonne renormalisation. La troisième partie s'articule autour des algorithmes de McKean-Vlasov qui furent intro­duit par Anatoly Vlasov et étudié, pour la première fois, par Henry McKean dans l'optique de la modélisation de la loi de distribution du plasma. Notre objectif est de proposer un al­gorithme stochastique capable d'approcher la mesure invariante du processus. Les méthodes pour approcher une mesure invariante sont connues dans le cas des diffusions et de certains autre processus mais ici la particularité du processus de McKean-Vlasov est de ne pas être une diffusion linéaire. En effet, le processus a de la mémoire comme les processus de boule pesante. De ce fait, il nous faudra développer une méthode alternative pour contourner ce problème. Nous aurons besoin d'introduire la notion de pseudo-trajectoires afin de proposer une procédure efficace
In this thesis, we are studying severa! stochastic algorithms with different purposes and this is why we will start this manuscript by giving historicals results to define the framework of our work. Then, we will study a bandit algorithm due to the work of Narendra and Shapiro whose objectif was to determine among a choice of severa! sources which one is the most profitable without spending too much times on the wrong orres. Our goal is to understand the weakness of this algorithm in order to propose an optimal procedure for a quantity measuring the performance of a bandit algorithm, the regret. In our results, we will propose an algorithm called NS over-penalized which allows to obtain a minimax regret bound. A second work will be to understand the convergence in law of this process. The particularity of the algorith is that it converges in law toward a non-diffusive process which makes the study more intricate than the standard case. We will use coupling techniques to study this process and propose rates of convergence. The second work of this thesis falls in the scope of optimization of a function using a stochastic algorithm. We will study a stochastic version of the so-called heavy bali method with friction. The particularity of the algorithm is that its dynamics is based on the ali past of the trajectory. The procedure relies on a memory term which dictates the behavior of the procedure by the form it takes. In our framework, two types of memory will investigated : polynomial and exponential. We will start with general convergence results in the non-convex case. In the case of strongly convex functions, we will provide upper-bounds for the rate of convergence. Finally, a convergence in law result is given in the case of exponential memory. The third part is about the McKean-Vlasov equations which were first introduced by Anatoly Vlasov and first studied by Henry McKean in order to mode! the distribution function of plasma. Our objective is to propose a stochastic algorithm to approach the invariant distribution of the McKean Vlasov equation. Methods in the case of diffusion processes (and sorne more general pro cesses) are known but the particularity of McKean Vlasov process is that it is strongly non-linear. Thus, we will have to develop an alternative approach. We will introduce the notion of asymptotic pseudotrajectory in odrer to get an efficient procedure
28

Cartier, Manuel. "La dynamique de l'adaptation d'industries : simulation par algorithme génétique". Paris 9, 2003. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2003PA090057.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Ben, Hamida Elyiès. "Modélisation stochastique et simulation des réseaux sans fil multi-sauts". Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0063/these.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Un réseau sans fil multi-sauts est un réseau auto-organisé dans lequel les entités communiquent par radio, sans avoir recourt à une infrastructure centralisée. La connectivité de bout en bout est assurée au moyen de communication multi-sauts. Ces travaux de thèse s’inscrivent dans la problématique de la modélisation et la simulation des réseaux sans fil multi-sauts et s’articulent autour de trois axes. Tout d’abord, nous abordons le problème du dimensionnement des protocoles de découverte de voisinage. Nous proposons une modélisation stochastique du réseau, des noeuds et du médium radio. Ensuite, nous analysons analytiquement l’impact de la couche physique sur les performances des protocoles et nous appliquons les résultats obtenus à un scénario réel issu du projet MOSAR. Dans la deuxième partie de cette thèse, nous considérons la problématique de la simulation des réseaux sans fil. Nous commençons par présenter une étude comparative des différents simulateurs actuels, et nous introduisons le simulateur WSNet grâce auquel nous évaluons l’impact de la modélisation de la couche physique sur le comportement des protocoles de haut niveau. Enfin, le dernier axe de recherche aborde la problématique de la dissémination dans les réseaux de capteurs avec puits mobiles. Nous introduisons le protocole LBDD qui se base sur la notion d’infrastructure virtuelle. Ensuite, nous évaluons et comparons LBDD à différentes approches existantes au moyen d’analyse théorique et de simulation
A wireless multi-hop network is a self-organizing network where entities communicate wirelessly without the need of a centralized base station. The end-to-end connection is accomplished through multi-hop communication. This thesis relates to the problem of modeling and simulation of wireless multi-hop networks and is divided into three main parts. First, we address the problem of the design of neighbor discovery protocols. We propose a stochastic modeling of the network, the nodes and the radio channel. We then analytically analyse the impact of the physical layer modeling on the performance of hello protocols and we propose a method to adapt the protocol parameters to meet application constraints. A real scenario from the MOSAR project is analyzed. In the second part, we consider the problem of simulation of wireless multi-hop networks. We first provide a detailed comparative study of various existing simulators and we introduce the WSNet simulation environment. Using WSNet we investigate the impact of the physical layer modeling on the behavior of high-level protocols. Finally, in the last part, we address the problem of data dissemination in wireless sensor networks with mobile sinks. We introduce the LBDD protocol which is based on the concept of virtual infrastructure. We then evaluate and compare LBDD to different approaches using theoretical analysis and simulation
30

Jourdan, Laetitia. "Métaheuristiques Coopératives : du déterministe au stochastique". Habilitation à diriger des recherches, Université des Sciences et Technologie de Lille - Lille I, 2010. http://tel.archives-ouvertes.fr/tel-00523274.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Ce travail présente nos principales contributions à la résolution de problèmes d'optimisation combinatoire en environnements déterministe et stochastique. Au niveau des métaheuristiques, une vue unifiée de la conception de métaheuristiques à solution unique et de métaheuristiques multi-objective est proposée. Cette unification a permis notamment de retravailler la plateforme ParadisEO afin d'offrir plus de flexibilité et de polyvalence. La synthèse des travaux présente également une vue unifiée des métaheuristiques coopératives. Nous montrons que cette vue convient aussi bien pour des coopérations entre métaheuristiques que des coopération entre des métaheuristiques et des méthodes exactes mais également des coopérations entre des métaheuristiques et des algorithmes d'extraction de connaissances. Différents exemples de coopérations réalisées dans mes travaux de recherche illustent ces coopérations et leur application à des problèmes d'optimisation combinatoire mono- et multi-objectif. Cette habilitation se termine par la présentation de travaux réalisés en optimisation stochastique notamment dans le cadre de l'optimisation sous incertitude et de l'optimisation dynamique. L'importance des critères de robustesse est discutée ainsi que l'intérêt et la mise en œuvre de méthodes coopératives dans un contexte dynamique. Les principales applications présentées on été réalisées sur des problèmes en transport et logistique ainsi qu'en biologie dans le cadre de l'ANR Dock.
31

Chatenet-Laurent, Nathalie. "Algorithme d'apprentissage de la politique optimale d'un processus stochastique : application à un réseau d'alimentation en eau potable". Bordeaux 1, 1997. http://www.theses.fr/1997BOR10540.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Cette these s'interesse a l'apprentissage de problemes de controle a solutions optimales non stationnaires par une technique d'apprentissage par renforcement, le qlearning. Cette methode, comme la plupart des techniques de renforcement a toujours ete utilisee dans des applications a solutions stationnaires. La prise en compte du temps inherente a la programmation dynamique, a ete omise dans les algorithmes de type qlearning. Or un environnement non stationnaire, un cout ou une recompense dependant du temps a minimiser ou maximiser, amenent naturellement vers des solutions optimales non stationnaires. Cette dependance par rapport au temps oblige a mettre en uvre des traitements particuliers qui fournissent des solutions heuristiques economes en temps. Des simulations numeriques sont menees de maniere a mettre en evidence les solutions proposees. Enfin, la these se concretise par la mise en place d'un prototype permettant de gerer un reseau d'alimentation en eau potable de maniere optimale en utilisant une methode d'apprentissage auto-adaptatif, tel que le qlearning. Il evite, contrairement aux methodes de programmation mathematique de se heurter a la necessite de connaitre parfaitement le comportement hydraulique des reseaux, ce qui necessitait des calages a chaque modification de la structure du reseau
32

Nguyen, Thi Thao. "Approximation et simulation d'équations différentielles stochastiques singulières". Orléans, 2003. http://www.theses.fr/2003ORLE2032.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Chotin-Avot, Roselyne. "Architectures matérielles pour l'arithmétique stochastique discrète". Paris 6, 2003. http://hal.upmc.fr/tel-01267458.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Fallot, Pierre. "Etude d'un modèle stochastique du rayonnement solaire". Grenoble 1, 1992. http://www.theses.fr/1992GRE10146.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Dans ce travail, nous étudions une modélisation de l'évolution au cours du temps du rayonnement solaire caractérisée par l'alternance entre éclaircies et passages nuageux. La nature des observations fournies par les stations météorologiques nous invite à proposer un modèle stochastique mettant essentiellement en jeu un processus aléatoire binaire, de renouvellement alterné, qui représente la visibilité du disque solaire. En premier lieu, nous effectuons une étude probabiliste du processus des durées de séjour cumulées dans un état, sur des intervalles de temps successifs, associé au processus de base: nous déterminons précisément les lois, les moments et certaines transformées de Laplace. Cette analyse nous permet alors d'estimer les paramètres introduits dans notre modèle. Les techniques d'estimation statistique proposées reposent essentiellement sur la méthode du maximum de vraisemblance et celle des moments et sont améliorées empiriquement à l'aide de simulations. Des résultats de convergence sont alors établis. Le modèle est enfin appliqué à des données réelles d'ensoleillement. Les estimations des paramètres conduisent alors généralement à une adéquation convenable du modèle avec des valeurs déduites des observations réelles
35

Pereira, De Oliveira Luís Carlos. "Développement d'une méthodologie de modélisation cinétique de procédés de raffinage traitant des charges lourdes". Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2013. http://tel.archives-ouvertes.fr/tel-00839871.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Une nouvelle méthodologie de modélisation cinétique des procédés de raffinage traitant les charges lourdes a été développée. Elle modélise, au niveau moléculaire, la composition de la charge et les réactions mises en œuvre dans le procédé.La composition de la charge est modélisée à travers un mélange de molécules dont les propriétés sont proches de celles de la charge. Le mélange de molécules est généré par une méthode de reconstruction moléculaire en deux étapes. Dans la première étape, les molécules sont créées par assemblage de blocs structuraux de manière stochastique. Dans la deuxième étape, les fractions molaires sont ajustées en maximisant un critère d'entropie d'information.Le procédé de raffinage est ensuite simulé en appliquant, réaction par réaction, ses principales transformations sur le mélange de molécules, à l'aide d'un algorithme de Monte Carlo.Cette méthodologie est appliquée à deux cas particuliers : l'hydrotraitement de gazoles et l'hydroconversion de résidus sous vide (RSV). Pour le premier cas, les propriétés globales de l'effluent sont bien prédites, ainsi que certaines propriétés moléculaires qui ne sont pas accessibles dans les modèles traditionnels. Pour l'hydroconversion de RSV, dont la structure moléculaire est nettement plus complexe, la conversion des coupes lourdes est correctement reproduite. Par contre, la prédiction des rendements en coupes légères et de la performance en désulfuration est moins précise. Pour les améliorer, il faut d'une part inclure de nouvelles réactions d'ouverture de cycle et d'autre part mieux représenter la charge en tenant compte des informations moléculaires issues des analyses des coupes de l'effluent.
36

Sbaï, Mohamed. "Modélisation de la dépendance et simulation de processus en finance". Thesis, Paris Est, 2009. http://www.theses.fr/2009PEST1046/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
La première partie de cette thèse est consacrée aux méthodes numériques pour la simulation de processus aléatoires définis par des équations différentielles stochastiques (EDS). Nous commençons par l’étude de l’algorithme de Beskos et al. [13] qui permet de simuler exactement les trajectoires d’un processus solution d’une EDS en dimension 1. Nous en proposons une extension à des fins de calcul exact d’espérances et nous étudions l’application de ces idées à l’évaluation du prix d’options asiatiques dans le modèle de Black & Scholes. Nous nous intéressons ensuite aux schémas numériques. Dans le deuxième chapitre, nous proposons deux schémas de discrétisation pour une famille de modèles à volatilité stochastique et nous en étudions les propriétés de convergence. Le premier schéma est adapté à l’évaluation du prix d’options path-dependent et le deuxième aux options vanilles. Nous étudions également le cas particulier où le processus qui dirige la volatilité est un processus d’Ornstein-Uhlenbeck et nous exhibons un schéma de discrétisation qui possède de meilleures propriétés de convergence. Enfin, dans le troisième chapitre, il est question de la convergence faible trajectorielle du schéma d’Euler. Nous apportons un début de réponse en contrôlant la distance de Wasserstein entre les marginales du processus solution et du schéma d’Euler, uniformément en temps. La deuxième partie de la thèse porte sur la modélisation de la dépendance en finance et ce à travers deux problématiques distinctes : la modélisation jointe entre un indice boursier et les actions qui le composent et la gestion du risque de défaut dans les portefeuilles de crédit. Dans le quatrième chapitre, nous proposons un cadre de modélisation original dans lequel les volatilités de l’indice et de ses composantes sont reliées. Nous obtenons un modèle simplifié quand la taille de l’indice est grande, dans lequel l’indice suit un modèle à volatilité locale et les actions individuelles suivent un modèle à volatilité stochastique composé d’une partie intrinsèque et d’une partie commune dirigée par l’indice. Nous étudions la calibration de ces modèles et montrons qu’il est possible de se caler sur les prix d’options observés sur le marché, à la fois pour l’indice et pour les actions, ce qui constitue un avantage considérable. Enfin, dans le dernier chapitre de la thèse, nous développons un modèle à intensités permettant de modéliser simultanément, et de manière consistante, toutes les transitions de ratings qui surviennent dans un grand portefeuille de crédit. Afin de générer des niveaux de dépendance plus élevés, nous introduisons le modèle dynamic frailty dans lequel une variable dynamique inobservable agit de manière multiplicative sur les intensités de transitions. Notre approche est purement historique et nous étudions l’estimation par maximum de vraisemblance des paramètres de nos modèles sur la base de données de transitions de ratings passées
The first part of this thesis deals with probabilistic numerical methods for simulating the solution of a stochastic differential equation (SDE). We start with the algorithm of Beskos et al. [13] which allows exact simulation of the solution of a one dimensional SDE. We present an extension for the exact computation of expectations and we study the application of these techniques for the pricing of Asian options in the Black & Scholes model. Then, in the second chapter, we propose and study the convergence of two discretization schemes for a family of stochastic volatility models. The first one is well adapted for the pricing of vanilla options and the second one is efficient for the pricing of path-dependent options. We also study the particular case of an Orstein-Uhlenbeck process driving the volatility and we exhibit a third discretization scheme which has better convergence properties. Finally, in the third chapter, we tackle the trajectorial weak convergence of the Euler scheme by providing a simple proof for the estimation of the Wasserstein distance between the solution and its Euler scheme, uniformly in time. The second part of the thesis is dedicated to the modelling of dependence in finance through two examples : the joint modelling of an index together with its composing stocks and intensity-based credit portfolio models. In the forth chapter, we propose a new modelling framework in which the volatility of an index and the volatilities of its composing stocks are connected. When the number of stocks is large, we obtain a simplified model consisting of a local volatility model for the index and a stochastic volatility model for the stocks composed of an intrinsic part and a systemic part driven by the index. We study the calibration of these models and show that it is possible to fit the market prices of both the index and the stocks. Finally, in the last chapter of the thesis, we define an intensity-based credit portfolio model. In order to obtain stronger dependence levels between rating transitions, we extend it by introducing an unobservable random process (frailty) which acts multiplicatively on the intensities of the firms of the portfolio. Our approach is fully historical and we estimate the parameters of our model to past rating transitions using maximum likelihood techniques
37

Culioli, Jean-Christophe. "Algorithmes de decomposition/coordination en optimisation stochastique". Paris, ENMP, 1987. http://www.theses.fr/1987ENMP0059.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Les systemes consideres, souvent complexes a modeliser et/ou optimiser peuvent etre constitues de sous-systemes heterogenes pour lesquels une technique globale de resolution n'est pas necessairement appropriee ou possible, meme s'ils sont equivalents et peu nombreux
38

Diabaté, Modibo. "Modélisation stochastique et estimation de la croissance tumorale". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM040.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Cette thèse porte sur la modélisation mathématique de la dynamique du cancer ; elle se divise en deux projets de recherche.Dans le premier projet, nous estimons les paramètres de la limite déterministe d'un processus stochastique modélisant la dynamique du mélanome (cancer de la peau) traité par immunothérapie. L'estimation est réalisée à l'aide d'un modèle statistique non-linéaire à effets mixtes et l'algorithme SAEM, à partir des données réelles de taille tumorale mesurée au cours du temps chez plusieurs patients. Avec ce modèle mathématique qui ajuste bien les données, nous évaluons la probabilité de rechute du mélanome (à l'aide de l'algorithme Importance Splitting), et proposons une optimisation du protocole de traitement (doses et instants du traitement).Nous proposons dans le second projet, une méthode d'approximation de vraisemblance basée sur une approximation de l'algorithme Belief Propagation à l'aide de l'algorithme Expectation-Propagation, pour une approximation diffusion du modèle stochastique de mélanome observée chez un seul individu avec du bruit gaussien. Cette approximation diffusion (définie par une équation différentielle stochastique) n'ayant pas de solution analytique, nous faisons recours à une méthode d'Euler pour approcher sa solution (après avoir testé la méthode d'Euler sur le processus de diffusion d'Ornstein Uhlenbeck). Par ailleurs, nous utilisons une méthode d'approximation de moments pour faire face à la multidimensionnalité et la non-linéarité de notre modèle. A l'aide de la méthode d'approximation de vraisemblance, nous abordons l'estimation de paramètres dans des Modèles de Markov Cachés
This thesis is about mathematical modeling of cancer dynamics ; it is divided into two research projects.In the first project, we estimate the parameters of the deterministic limit of a stochastic process modeling the dynamics of melanoma (skin cancer) treated by immunotherapy. The estimation is carried out with a nonlinear mixed-effect statistical model and the SAEM algorithm, using real data of tumor size. With this mathematical model that fits the data well, we evaluate the relapse probability of melanoma (using the Importance Splitting algorithm), and we optimize the treatment protocol (doses and injection times).We propose in the second project, a likelihood approximation method based on an approximation of the Belief Propagation algorithm by the Expectation-Propagation algorithm, for a diffusion approximation of the melanoma stochastic model, noisily observed in a single individual. This diffusion approximation (defined by a stochastic differential equation) having no analytical solution, we approximate its solution by using an Euler method (after testing the Euler method on the Ornstein Uhlenbeck diffusion process). Moreover, a moment approximation method is used to manage the multidimensionality and the non-linearity of the melanoma mathematical model. With the likelihood approximation method, we tackle the problem of parameter estimation in Hidden Markov Models
39

Comte, Fabienne. "Causalite, cointegration, memoire longue : modelisation stochastique en temps continu, estimation et simulation". Paris 1, 1994. http://www.theses.fr/1994PA010084.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Aupetit, Benjamin. "Calcul d'indicateurs de sûreté de fonctionnement de modèles AltaRica 3.0 par simulation stochastique". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASC004.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Dans un contexte de conception d'un système critique complexe, les études de sûreté de fonctionnement permettent de faire des choix de solutions techniques.Le langage de modélisation choisi doit avoir un pouvoir d'expression suffisant pour représenter les différents comportements envisagés : dans ces travaux, AltaRica 3.0 est utilisé.Mais le calcul d'indicateurs de sûreté de fonctionnement sur des modèles complexes est alors difficile : une solution est l'utilisation de la simulation stochastique pour les estimer.Il est alors nécessaire pour l'analyste de décrire quels sont les indicateurs qu'il souhaite estimer, et quelles sont leurs relations avec le modèle : un ensemble de mesures, couvrant les besoins classiques en sûreté de fonctionnement, est proposé.La qualité des estimations est liée au nombre de mesures, et donc à la performance de l'outil logiciel de simulateur stochastique : des améliorations de la simulation stochastique de modèles AltaRica 3.0 ont été implémentées dans l'outil de la plateforme OpenAltaRica.L'utilisation d'outils de calcul logiciel dans un contexte de certification doit faire l'objet d'une évaluation sur leur qualité : une méthodologie d'évaluation de simulateurs stochastiques de sûreté de fonctionnement, non limitée à AltaRica 3.0, est présentée.Enfin, une étude de cas d'un système mécatronique complexe permet de présenter les possibilités de la simulation stochastique et du langage AltaRica 3.0 pour une étude de sûreté de fonctionnement de cette classe de systèmes
Safety assessment of a critical and complex system allows choices of technical solutions.The chosen modelling language for those assessments must have sufficient power of expression to represent the different behaviours envisaged: AltaRica 3.0 is here used.But computation of dependability indicators on complex models is then difficult: stochastic simulation is a solution, but only allow to estimate values.It is then necessary for the analyst to describe which indicators he wishes to estimate, and what their relations with the model are: a set of measures, covering the conventional needs in dependability, is proposed.The estimation quality is related to the number of measurements, and therefore to the performances of the stochastic simulator software tool: improvements of stochastic simulation of AltaRica 3.0 models have been implemented in the tool of the OpenAltaRica platform.The use of software computation tools in a certification context must be evaluated on their quality: a stochastic simulator reliability evaluation methodology, not limited to AltaRica 3.0, is presented.Finally, a case study of a complex mechatronic system presents the possibilities of stochastic simulation and AltaRica 3.0 for a safety study of this class of systems
41

Besbes, Mariem. "Modélisation et résolution du problème d’implantation des ateliers de production : proposition d’une approche combinée Algorithme Génétique – Algorithme A*". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC094.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Pour faire face à la concurrence, les entreprises cherchent à améliorer leurs performances industrielles. L’une des solutions à ce défi réside dans la détermination de la meilleure configuration des ateliers de production. Ce type de problème est connu en anglais par Facility Layout Problem « FLP». Dans ce contexte, notre travail propose une méthodologie pour la définition de la configuration d’atelier à travers une approche réaliste. Plus précisément, notre objectif est de prendre en compte les distances réelles parcourues par les pièces dans l’atelier et des contraintes liées au système qui n’ont pas encore été intégrées aux modèles proposés dans la littérature. Pour ce faire, notre première contribution scientifique consiste à développer une nouvelle méthodologie qui utilise l’algorithme A* pour identifier les distances les plus courtes entre les postes de travail de manière réaliste. La méthodologie proposée combine l’Algorithme Génétique (AG) et l’algorithme A* afin d’explorer des espaces de solutions. Pour se rapprocher de plus en plus des cas réels, notre deuxième contribution consiste à présenter une nouvelle formulation généralisée du FLP initialement étudié, en tenant compte de différentes formes et de dimensions des équipements ainsi que de l’atelier. Les résultats obtenus prouvent l’applicabilité et la faisabilité de cette approche dans diverses situations. Une étude comparative de l’approche proposée avec les essaims particulaires intégrés avec A* a prouvé la qualité de la première approche en terme de coût de transport. Finalement, notre troisième contribution consiste à traiter le FLP dans un espace 3D où des contraintes spatiales sont intégrées dans la phase de modélisation. La résolution est une extension de la méthodologie proposée pour le problème 2D, qui intègre donc l'algorithme A* et l’AG afin de générer diverses configurations dans l’espace 3D. Pour chacune de ces contributions, une analyse de sensibilité des différents paramètres d’AG utilisés a été faite à l’aide de simulations de Monte Carlo
To face the competition, companies seek to improve their industrial performance. One of the solutions to this challenge lies in determining the best configuration of the production workshops. This type of problem is known in English by Facility Layout Problem "FLP". In this context, our work proposes a methodology for the definition of the workshop configuration through a realistic approach. More precisely, our goal is to take into account the actual distances traveled by the parts in the workshop and system-related constraints that have not yet been incorporated into the models proposed in the literature. To do this, our first scientific contribution is to develop a new methodology that uses the A* algorithm to identify the shortest distances between workstations in a realistic way. The proposed methodology combines the Genetic Algorithm (GA) and the algorithm A* to explore solution spaces. To get closer to real cases, our second contribution is to present a new generalized formulation of FLP initially studied, taking into account different shapes and dimensions of the equipment and the workshop. The results obtained prove the applicability and the feasibility of this approach in various situations. A comparative study of the proposed approach with particle swarms integrated with A * proved the quality of the first approach in terms of transport cost. Finally, our third contribution is to treat the FLP in a 3D space where spatial constraints are integrated into the modeling phase. The resolution is an extension of the proposed methodology for the 2D problem, which therefore integrates the A * algorithm and the AG to generate various configurations in the 3D space. For each of these contributions, a sensitivity analysis of the different AG parameters used was made using Monte Carlo simulations
42

Moarefvand, Parviz. "Méthode des éléments distincts stochastique". Vandoeuvre-les-Nancy, INPL, 1998. http://www.theses.fr/1998INPL047N.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Nous avons développé la méthode des éléments distincts de façon à ce qu'elle puisse tenir compte de données présentées sous forme probabiliste et fournir des résultats sous cette même forme. Nous avons donné le nom de méthode des éléments distincts stochastique à cette nouvelle méthode de modélisation numérique. Le développement s'est appuyé sur le code de calcul Udec et le nouveau code s'appelle Pudec pour probabilistic universal distinct element code. L'idée à l'origine de ce travail est l'utilisation de plus en plus fréquente de méthodes probabilistes dans le calcul d'ouvrages en génie civil, alors qu'elles sont encore assez peu, voire pas du tout, utilisées dans les calculs de stabilité de massifs rocheux fractures. Dans ce domaine, la variabilité des données, en plus de l'incertitude sur les mesures, sont des raisons pour lesquelles il apparait nécessaire d'adapter les codes de calcul utilisés à des approches probabilistes. Nous faisons d'abord un rappel des bases théoriques relatives à la notion de probabilité et aux fonctions de variables aléatoires ainsi qu'un exposé des techniques d'approximation. Nous exposons ensuite brièvement des méthodes stochastiques actuelles dont l'analyse de fiabilité et les méthodes des éléments finis stochastiques avant de présenter les principes du code Udec origine et le choix retenu pour y implanter des calculs probabilistes. Les modifications apportées au code Udec et le développement du nouveau code Pudec sont l'objet de la suite du mémoire. Nous consacrons notamment un chapitre à la validation du nouveau code au moyen de tests élémentaires qui illustrent l'intérêt et la performance de la méthode des éléments distincts stochastique et nous présentons un problème minier analyse au moyen de cette méthode.
43

Luu, Keurfon. "Optimisation numérique stochastique évolutionniste : application aux problèmes inverses de tomographie sismique". Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM077/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
La tomographie sismique des temps de trajet est un problème d'optimisation mal-posé du fait de la non-linéarité entre les temps et le modèle de vitesse. Par ailleurs, l'unicité de la solution n'est pas garantie car les données peuvent être expliquées par de nombreux modèles. Les méthodes de Monte-Carlo par Chaînes de Markov qui échantillonnent l'espace des paramètres sont généralement appréciées pour répondre à cette problématique. Cependant, ces approches ne peuvent pleinement tirer partie des ressources computationnelles fournies par les super-calculateurs modernes. Dans cette thèse, je me propose de résoudre le problème de tomographie sismique à l'aide d'algorithmes évolutionnistes. Ce sont des méthodes d'optimisation stochastiques inspirées de l'évolution naturelle des espèces. Elles opèrent sur une population de modèles représentés par un ensemble d'individus qui évoluent suivant des processus stochastiques caractéristiques de l'évolution naturelle. Dès lors, la population de modèles peut être intrinsèquement évaluée en parallèle ce qui rend ces algorithmes particulièrement adaptés aux architectures des super-calculateurs. Je m'intéresse plus précisément aux trois algorithmes évolutionnistes les plus populaires, à savoir l'évolution différentielle, l'optimisation par essaim particulaire, et la stratégie d'évolution par adaptation de la matrice de covariance. Leur faisabilité est étudiée sur deux jeux de données différents: un jeu réel acquis dans le contexte de la fracturation hydraulique et un jeu synthétique de réfraction généré à partir du modèle de vitesse Marmousi réputé pour sa géologie structurale complexe
Seismic traveltime tomography is an ill-posed optimization problem due to the non-linear relationship between traveltime and velocity model. Besides, the solution is not unique as many models are able to explain the observed data. The non-linearity and non-uniqueness issues are typically addressed by using methods relying on Monte Carlo Markov Chain that thoroughly sample the model parameter space. However, these approaches cannot fully handle the computer resources provided by modern supercomputers. In this thesis, I propose to solve seismic traveltime tomography problems using evolutionary algorithms which are population-based stochastic optimization methods inspired by the natural evolution of species. They operate on concurrent individuals within a population that represent independent models, and evolve through stochastic processes characterizing the different mechanisms involved in natural evolution. Therefore, the models within a population can be intrinsically evaluated in parallel which makes evolutionary algorithms particularly adapted to the parallel architecture of supercomputers. More specifically, the works presented in this manuscript emphasize on the three most popular evolutionary algorithms, namely Differential Evolution, Particle Swarm Optimization and Covariance Matrix Adaptation - Evolution Strategy. The feasibility of evolutionary algorithms to solve seismic tomography problems is assessed using two different data sets: a real data set acquired in the context of hydraulic fracturing and a synthetic refraction data set generated using the Marmousi velocity model that presents a complex geology structure
44

Seck, Babacar. "Optimisation stochastique sous contrainte de risque et fonctions d'utilité". Phd thesis, Ecole des Ponts ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004576.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Dans un contexte d'ouverture à la concurrence et d'émergence des marchés de l'énergie, la production d'électricité est affectée par de nouvelles sources d'aléas : le risque de marché. Nous étudions la possibilité d'introduire des contraintes de risque financier dans le processus d'optimisation de la production de l'électricité. Nous distinguons l'approche "ingénieur" (prise en compte du risque par des mesures de risque) de l'approche "économiste" (prise en compte du risque par des fonctions d'utilité), au Chapitre 1. Ces deux points de vue sont rapprochés dans le Chapitre 2. Une application numérique relativement simple est présentée pour illustrer le lien qui existe entre la Conditional Value-at-Risk et l'aversion aux pertes. Le résultat d'équivalence obtenu dans le Chapitre 2 est étendu à un cadre d'optimisation dynamique dans le Chapitre 3. Une application numérique de cette approche et une programmation dynamique sous contrainte de risque sont faites au Chapitre 4 pour résoudre un problème de gestion de production de l'électricité sous une contrainte de Condition al Value-at-Risk.
45

Luu, Keurfon. "Optimisation numérique stochastique évolutionniste : application aux problèmes inverses de tomographie sismique". Electronic Thesis or Diss., Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM077.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
La tomographie sismique des temps de trajet est un problème d'optimisation mal-posé du fait de la non-linéarité entre les temps et le modèle de vitesse. Par ailleurs, l'unicité de la solution n'est pas garantie car les données peuvent être expliquées par de nombreux modèles. Les méthodes de Monte-Carlo par Chaînes de Markov qui échantillonnent l'espace des paramètres sont généralement appréciées pour répondre à cette problématique. Cependant, ces approches ne peuvent pleinement tirer partie des ressources computationnelles fournies par les super-calculateurs modernes. Dans cette thèse, je me propose de résoudre le problème de tomographie sismique à l'aide d'algorithmes évolutionnistes. Ce sont des méthodes d'optimisation stochastiques inspirées de l'évolution naturelle des espèces. Elles opèrent sur une population de modèles représentés par un ensemble d'individus qui évoluent suivant des processus stochastiques caractéristiques de l'évolution naturelle. Dès lors, la population de modèles peut être intrinsèquement évaluée en parallèle ce qui rend ces algorithmes particulièrement adaptés aux architectures des super-calculateurs. Je m'intéresse plus précisément aux trois algorithmes évolutionnistes les plus populaires, à savoir l'évolution différentielle, l'optimisation par essaim particulaire, et la stratégie d'évolution par adaptation de la matrice de covariance. Leur faisabilité est étudiée sur deux jeux de données différents: un jeu réel acquis dans le contexte de la fracturation hydraulique et un jeu synthétique de réfraction généré à partir du modèle de vitesse Marmousi réputé pour sa géologie structurale complexe
Seismic traveltime tomography is an ill-posed optimization problem due to the non-linear relationship between traveltime and velocity model. Besides, the solution is not unique as many models are able to explain the observed data. The non-linearity and non-uniqueness issues are typically addressed by using methods relying on Monte Carlo Markov Chain that thoroughly sample the model parameter space. However, these approaches cannot fully handle the computer resources provided by modern supercomputers. In this thesis, I propose to solve seismic traveltime tomography problems using evolutionary algorithms which are population-based stochastic optimization methods inspired by the natural evolution of species. They operate on concurrent individuals within a population that represent independent models, and evolve through stochastic processes characterizing the different mechanisms involved in natural evolution. Therefore, the models within a population can be intrinsically evaluated in parallel which makes evolutionary algorithms particularly adapted to the parallel architecture of supercomputers. More specifically, the works presented in this manuscript emphasize on the three most popular evolutionary algorithms, namely Differential Evolution, Particle Swarm Optimization and Covariance Matrix Adaptation - Evolution Strategy. The feasibility of evolutionary algorithms to solve seismic tomography problems is assessed using two different data sets: a real data set acquired in the context of hydraulic fracturing and a synthetic refraction data set generated using the Marmousi velocity model that presents a complex geology structure
46

Wahl, François. "Un environnement d'aide aux ingénieurs basé sur une architecture en tâches et sur un module de visualisation de courbes. Application à la conception de procédés de raffinage". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1994. http://tel.archives-ouvertes.fr/tel-00529958.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Dans le domaine du génie chimique, les ingénieurs tracent des courbes pour analyser les données recueillies. Une fois validée, cette connaissance est exploitée, en combinaison avec d'autres savoirs, sous forme de tâches. Cette thèse présente une architecture capable d'enchaîner n'importe quel type de tâches et de visualiser des courbes, appliquée à un problème d'aide à la conception de procédé de raffinage. L'architecture proposée repose sur une analyse objets des raisonnements, où figurent les notions de relations (inversibles ou non) et de flux du point de vue statique, de problèmes et de tâches du point de vue dynamique. Le module de visualisation exploite toutes les sortes de relations entre les variables et s'appuie sur des méthodes élaborées de tracé, dont deux sont nouvelles : la première s'inspire d'exemples a priori comme dans le raisonnement à base de cas, la seconde utilise les notions de monotonie et de concavité pour déduire des lignes dans un ensemble de points. L'application est exposée dans le détail et conduit à une analyse des problèmes de conception, et nous avons développé notamment une nouvelle classification de ces systèmes.
47

Bouzid, Makram. "Contribution à la modélisation de l'interaction agent / environnement : modélisation stochastique et simulation parallèle". Nancy 1, 2001. http://www.theses.fr/2001NAN10271.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Ma thèse se situe à l'intersection des systèmes multi-agents (SMA) et du parallélisme, et concerne la simulation parallèle des SMA. Deux problèmes sont abordés : le premier est la modélisation des incertitudes et des erreurs qui peuvent se produire au niveau des capteurs et des effecteurs des agents au moment de leurs interactions avec l'environnement, en vue d'une simulation multi-agent qui soit plus fidèle à la réalité. Le second problème concerne l'exploitation du parallélisme inhérent des SMA, afin d'obtenir de bonnes performances parallèles et réduire le temps d'exécution et/ou traiter des problèmes de plus grandes tailles. Deux modèles sont ainsi proposés : un modèle formel de SMA, qui comprend un modèle stochastique d'interaction entre l'agent et l'environnement, et un modèle de simulation parallèle basé sur la répartition des conflits survenant entre les agents, et sur un équilibrage dynamique de charge entre les processeurs. Des résultats satisfaisants obtenus sont présentés
This thesis belongs at the same time to the multi-agent system (MAS) and parallelism domains, and more precisely to the parallel simulation of MAS. Two problems are tackled: First one concerns the modeling and simulation of situated agents, together with the unreliability of their sensors and effectors, in order to perform simulations which results will be more realistic. The second problem relates to the exploitation of the inherent parallelism of multi-agent systems, in order to obtain good parallel performances, by reducing the execution time and/or processing problems of bigger sizes. Two models are proposed: a formal model of multi-agent systems, including a stochastic model of the agent/environment interaction, and a parallel simulation model for multi-agent systems based on the distribution of the conflicts occurring between the agents, and on a dynamic load balancing mechanism between the processors. The satisfactory results we have obtained are presented
48

Khuu, Minh-Thang. "Contribution à l'accélération de la simulation stochastique sur des modèles AltaRica Data Flow". Aix-Marseille 2, 2008. http://theses.univ-amu.fr.lama.univ-amu.fr/2008AIX22021.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Cette thèse porte sur l’accélération de la simulation stochastique appliquée aux modèles de type d’états/transitions. Dans le domaine de la sûreté de fonctionnement des systèmes, la simulation stochastique est pratiquement la seule méthode d’analyse accessible pour les modèles de type d’états/transitions de grande taille. Cependant, les simulations risquent d’être très longues afin d’obtenir des résultats statistiquement stables. Pour réduire le temps d’exécution des simulations, nous examinons la représentation du système par des instructions d’un langage de programmation. Le langage AltaRica Data Flow (ADF) est le point de départ de cette thèse. Nous mettons en oeuvre une transformation d’une description ADF en instructions du langage C, et une génération automatisée d’un simulateur stochastique du système étudié. Les expérimentations effectuées favorisent largement l’utilisation des simulateurs générés par rapport aux simulateurs classiques
This thesis relates to the study of stochastic simulation acceleration which applied to states/transitions models. In system dependability studies, stochastic simulation is practically the only method accessible for large states/transitions models. However, simulation processes are likely to be very long in order to obtain statistically stable results. To reduce simulation execution time, we examine the representation of the studied system by instructions of a programming language. The AltaRica Data Flow (ADF) language is the starting point of this thesis. This language generalizes the most used formalisms in system dependability studies. We implement a transformation of an ADF description into instructions of the C language, and an automated generation of a stochastic simulator for the studied system. The carried out experiments justify the use of the generated simulators with compared to the traditional simulators
49

Akrour, Nawal. "Simulation stochastique des précipitations à fine échelle : application à l'observation en milieu urbain". Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLV014/document.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Les précipitations ont une très grande variabilité sur une large gamme d'échelles tant spatiale que temporelle. Cette variabilité est une source importante d'incertitude pour la mesure, les applications et la modélisation, et au-delà pour la simulation et la prévision. De plus, les précipitations sont des processus extrêmement intermittents et possèdent plusieurs régimes d’invariance d’échelle. Le générateur de champ précipitant développé au cours de la thèse est basé sur la modélisation statistique de l’hétérogénéité et de l’intermittence des précipitations à fine échelle. L’originalité de la modélisation repose en partie sur l’analyse de données observées par un disdromètre à très fine résolution. Cette modélisation qui diffère des modèles existants dont la résolution est plutôt de l’ordre de la minute, voire de l’heure ou du jour, permet d’obtenir des simulations dont les propriétés sont réalistes sur une large gamme d’échelle. Ce simulateur permet de produire des séries chronologiques dont les caractéristiques statistiques sont similaires aux observations aussi bien à l’échelle de simulation (15s) qu’après dégradation (1h et 1 jour). Les propriétés multi-échelles du simulateur sont obtenues grâce à une approche hybride qui repose sur une simulation à fine échelle des évènements de pluie par un générateur multifractal associé à une simulation du support basée sur une hypothèse de type Poissonienne. Une étape de re-normalisation des taux de pluie assure l’adaptation du générateur à la zone climatique considérée.Le simulateur permet la génération de cartes 2D de lames d’eau. La méthodologie développée pour les séries chronologiques est étendue au cas 2D. Le simulateur stochastique multi-échelle 2D ainsi développé reproduit les caractéristiques géostatistiques et topologiques à la résolution de 1x1 km2. Ce générateur est utilisé dans le cadre d’une étude de faisabilité d’un nouveau système d’observation des précipitations en milieu urbain. Le principe de ce système repose sur l’utilisation de mesures opportunistes de l’affaiblissement subit par les ondes radios émises par les satellites géostationnaires TV-SAT dans la bande 10.7-12.7 GHz. De façon plus spécifique on suppose que les terminaux de réception TVSAT installés en ville chez les particuliers sont capables de mesurer de tels affaiblissements. A ce stade de l’étude nous ne disposons pas de telles observations. L’étude s’appuie donc sur des cartes de précipitations issues du générateur 2D et d’un réseau de capteur hypothétique. Le système d’observation envisagé permettra d’estimer les champs de précipitation (30x30 Km2) et avec une résolution spatiale de 0.5x0.5 Km2
Precipitations are highly variable across a wide range of both spatial and temporal scales. This variability is a major source of uncertainty for the measurement and modeling, also for the simulation and prediction. Moreover, rainfall is an extremely intermittent process with multiple scale invariance regimes. The rain-field generator developed during the thesis is based on the fine-scale statistic modeling of rain by the mean of its heterogeneity and intermittency. The modeling originality partially rest on the analysis of fine-scale disdrometer data. This model differs from other existing models whose resolution is roughly a minute or even an hour or a day. It provides simulations with realistic properties across a wide range ofscales. This simulator produces time series with statistical characteristics almost identical to the observations both at the 15s resolution and, after degradation, at hourly or daily resolutions. The multi-scale properties of our simulator are obtained through a hybrid approach that relies on a fine scale simulation of rain events using a multifractal generator associated with a rain support simulation based on a Poissonian-type hypothesis. A final re-normalization step of the rain rate is added in order to adapt the generator to the relevant climate area. The simulator allows the generation of 2D water-sheets. The methodology developed in the first part is extended to the 2 Dimension case. The multi-scale 2D stochastic simulator thus developed can reproduce geostatistical and topological characteristics at the spatial resolution of 1x1 km2.This generator is used in the scope of the feasability study of a new observation system for urban area. The principle of this system is based on the opportunistic use of attenuation measurements provided by geostationary TV satellites which radio waves lay in the 10.7 to 12.7 GHz bandwidth. More specifically it is assumed that the SAT-TV reception terminals installed in private homes are able to measure such attenuations. At this stage of the study we do not have such observations. The study is therefore based on rainfall maps generated using the 2D generator in addition to a hypothetical sensor network. The considered observation system will allow to estimate precipitation fields (30 x 30 km2) with a spatial resolution of 0.5x0.5 km2
50

Akrour, Nawal. "Simulation stochastique des précipitations à fine échelle : application à l'observation en milieu urbain". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLV014.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Resumo:
Les précipitations ont une très grande variabilité sur une large gamme d'échelles tant spatiale que temporelle. Cette variabilité est une source importante d'incertitude pour la mesure, les applications et la modélisation, et au-delà pour la simulation et la prévision. De plus, les précipitations sont des processus extrêmement intermittents et possèdent plusieurs régimes d’invariance d’échelle. Le générateur de champ précipitant développé au cours de la thèse est basé sur la modélisation statistique de l’hétérogénéité et de l’intermittence des précipitations à fine échelle. L’originalité de la modélisation repose en partie sur l’analyse de données observées par un disdromètre à très fine résolution. Cette modélisation qui diffère des modèles existants dont la résolution est plutôt de l’ordre de la minute, voire de l’heure ou du jour, permet d’obtenir des simulations dont les propriétés sont réalistes sur une large gamme d’échelle. Ce simulateur permet de produire des séries chronologiques dont les caractéristiques statistiques sont similaires aux observations aussi bien à l’échelle de simulation (15s) qu’après dégradation (1h et 1 jour). Les propriétés multi-échelles du simulateur sont obtenues grâce à une approche hybride qui repose sur une simulation à fine échelle des évènements de pluie par un générateur multifractal associé à une simulation du support basée sur une hypothèse de type Poissonienne. Une étape de re-normalisation des taux de pluie assure l’adaptation du générateur à la zone climatique considérée.Le simulateur permet la génération de cartes 2D de lames d’eau. La méthodologie développée pour les séries chronologiques est étendue au cas 2D. Le simulateur stochastique multi-échelle 2D ainsi développé reproduit les caractéristiques géostatistiques et topologiques à la résolution de 1x1 km2. Ce générateur est utilisé dans le cadre d’une étude de faisabilité d’un nouveau système d’observation des précipitations en milieu urbain. Le principe de ce système repose sur l’utilisation de mesures opportunistes de l’affaiblissement subit par les ondes radios émises par les satellites géostationnaires TV-SAT dans la bande 10.7-12.7 GHz. De façon plus spécifique on suppose que les terminaux de réception TVSAT installés en ville chez les particuliers sont capables de mesurer de tels affaiblissements. A ce stade de l’étude nous ne disposons pas de telles observations. L’étude s’appuie donc sur des cartes de précipitations issues du générateur 2D et d’un réseau de capteur hypothétique. Le système d’observation envisagé permettra d’estimer les champs de précipitation (30x30 Km2) et avec une résolution spatiale de 0.5x0.5 Km2
Precipitations are highly variable across a wide range of both spatial and temporal scales. This variability is a major source of uncertainty for the measurement and modeling, also for the simulation and prediction. Moreover, rainfall is an extremely intermittent process with multiple scale invariance regimes. The rain-field generator developed during the thesis is based on the fine-scale statistic modeling of rain by the mean of its heterogeneity and intermittency. The modeling originality partially rest on the analysis of fine-scale disdrometer data. This model differs from other existing models whose resolution is roughly a minute or even an hour or a day. It provides simulations with realistic properties across a wide range ofscales. This simulator produces time series with statistical characteristics almost identical to the observations both at the 15s resolution and, after degradation, at hourly or daily resolutions. The multi-scale properties of our simulator are obtained through a hybrid approach that relies on a fine scale simulation of rain events using a multifractal generator associated with a rain support simulation based on a Poissonian-type hypothesis. A final re-normalization step of the rain rate is added in order to adapt the generator to the relevant climate area. The simulator allows the generation of 2D water-sheets. The methodology developed in the first part is extended to the 2 Dimension case. The multi-scale 2D stochastic simulator thus developed can reproduce geostatistical and topological characteristics at the spatial resolution of 1x1 km2.This generator is used in the scope of the feasability study of a new observation system for urban area. The principle of this system is based on the opportunistic use of attenuation measurements provided by geostationary TV satellites which radio waves lay in the 10.7 to 12.7 GHz bandwidth. More specifically it is assumed that the SAT-TV reception terminals installed in private homes are able to measure such attenuations. At this stage of the study we do not have such observations. The study is therefore based on rainfall maps generated using the 2D generator in addition to a hypothetical sensor network. The considered observation system will allow to estimate precipitation fields (30 x 30 km2) with a spatial resolution of 0.5x0.5 km2

Vá para a bibliografia