Siga este link para ver outros tipos de publicações sobre o tema: Convergence of Markov processes.

Teses / dissertações sobre o tema "Convergence of Markov processes"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Convergence of Markov processes".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Hahn, Léo. "Interacting run-and-tumble particles as piecewise deterministic Markov processes : invariant distribution and convergence". Electronic Thesis or Diss., Université Clermont Auvergne (2021-...), 2024. http://www.theses.fr/2024UCFA0084.

Texto completo da fonte
Resumo:
1. Simuler des systèmes actifs et métastables avec des processus de Markov déterministes par morceaux (PDMPs): quelle dynamique choisir pour simuler efficacement des états métastables? comment exploiter directement la nature hors équilibre des PDMPs pour étudier les systèmes physiques modélisés? 2. Modéliser des systèmes actifs avec des PDMPs: quelles conditions doit remplir un système pour être modélisable par un PDMP? dans quels cas le système a-t-il un distribution stationnaire? comment calculer des quantités dynamiques (ex: rates de transition) dans ce cadre? 3. Améliorer les techniques de simulation de systèmes à l'équilibre: peut-on utiliser les résultats obtenus dans le cadre de systèmes hors équilibre pour accélérer la simulation de systèmes à l'équilibre? comment utiliser l'information topologique pour adapter la dynamique en temps réel?
1. Simulating active and metastable systems with piecewise deterministic Markov processes (PDMPs): - Which dynamics to choose to efficiently simulate metastable states? - How to directly exploit the non-equilibrium nature of PDMPs to study the modeled physical systems? 2. Modeling active systems with PDMPs: - What conditions must a system meet to be modeled by a PDMP? - In which cases does the system have a stationary distribution? - How to calculate dynamic quantities (e.g., transition rates) in this framework? 3. Improving simulation techniques for equilibrium systems: - Can results obtained in the context of non-equilibrium systems be used to accelerate the simulation of equilibrium systems? - How to use topological information to adapt the dynamics in real-time?
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Pötzelberger, Klaus. "On the Approximation of finite Markov-exchangeable processes by mixtures of Markov Processes". Department of Statistics and Mathematics, WU Vienna University of Economics and Business, 1991. http://epub.wu.ac.at/526/1/document.pdf.

Texto completo da fonte
Resumo:
We give an upper bound for the norm distance of (0,1) -valued Markov-exchangeable random variables to mixtures of distributions of Markov processes. A Markov-exchangeable random variable has a distribution that depends only on the starting value and the number of transitions 0-0, 0-1, 1-0 and 1-1. We show that if, for increasing length of variables, the norm distance to mixtures of Markov processes goes to 0, the rate of this convergence may be arbitrarily slow. (author's abstract)
Series: Forschungsberichte / Institut für Statistik
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Drozdenko, Myroslav. "Weak Convergence of First-Rare-Event Times for Semi-Markov Processes". Doctoral thesis, Västerås : Mälardalen University, 2007. http://urn.kb.se/resolve?urn=urn:nbn:se:mdh:diva-394.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Yuen, Wai Kong. "Application of geometric bounds to convergence rates of Markov chains and Markov processes on R[superscript]n". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/NQ58619.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Kaijser, Thomas. "Convergence in distribution for filtering processes associated to Hidden Markov Models with densities". Linköpings universitet, Matematik och tillämpad matematik, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-92590.

Texto completo da fonte
Resumo:
A Hidden Markov Model generates two basic stochastic processes, a Markov chain, which is hidden, and an observation sequence. The filtering process of a Hidden Markov Model is, roughly speaking, the sequence of conditional distributions of the hidden Markov chain that is obtained as new observations are received. It is well-known, that the filtering process itself, is also a Markov chain. A classical, theoretical problem is to find conditions which implies that the distributions of the filtering process converge towards a unique limit measure. This problem goes back to a paper of D Blackwell for the case when the Markov chain takes its values in a finite set and it goes back to a paper of H Kunita for the case when the state space of the Markov chain is a compact Hausdor space. Recently, due to work by F Kochmann, J Reeds, P Chigansky and R van Handel, a necessary and sucient condition for the convergence of the distributions of the filtering process has been found for the case when the state space is finite. This condition has since been generalised to the case when the state space is denumerable. In this paper we generalise some of the previous results on convergence in distribution to the case when the Markov chain and the observation sequence of a Hidden Markov Model take their values in complete, separable, metric spaces; it has though been necessary to assume that both the transition probability function of the Markov chain and the transition probability function that generates the observation sequence have densities.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Lachaud, Béatrice. "Détection de la convergence de processus de Markov". Phd thesis, Université René Descartes - Paris V, 2005. http://tel.archives-ouvertes.fr/tel-00010473.

Texto completo da fonte
Resumo:
Notre travail porte sur le phénomène de cutoff pour des n-échantillons de processus de Markov, dans le but de l'appliquer à la détection de la convergence d'algorithmes parallélisés. Dans un premier temps, le processus échantillonné est un processus d'Ornstein-Uhlenbeck. Nous mettons en évidence le phénomène de cutoff pour le n-échantillon, puis nous faisons le lien avec la convergence en loi du temps d'atteinte par le processus moyen d'un niveau fixé. Dans un second temps, nous traitons le cas général où le processus échantillonné converge à vitesse exponentielle vers sa loi stationnaire. Nous donnons des estimations précises des distances entre la loi du n-échantillon et sa loi stationnaire. Enfin, nous expliquons comment aborder les problèmes de temps d'atteinte liés au phénomène du cutoff.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Fisher, Diana. "Convergence analysis of MCMC method in the study of genetic linkage with missing data". Huntington, WV : [Marshall University Libraries], 2005. http://www.marshall.edu/etd/descript.asp?ref=568.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Wang, Xinyu. "Sur la convergence sous-exponentielle de processus de Markov". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00840858.

Texto completo da fonte
Resumo:
Ma thèse de doctorat se concentre principalement sur le comportement en temps long des processus de Markov, les inégalités fonctionnelles et les techniques relatives. Plus spécifiquement, Je vais présenter les taux de convergence sous-exponentielle explicites des processus de Markov dans deux approches : la méthode Meyn-Tweedie et l'hypocoercivité (faible). Le document se divise en trois parties. Dans la première partie, Je vais présenter quelques résultats importants et des connaissances connexes. D'abord, un aperçu de mon domaine de recherche sera donné. La convergence exponentielle (ou sous-exponentielle) des chaînes de Markov et des processus de Markov (à temps continu) est un sujet d'actualité dans la théorie des probabilité. La méthode traditionnelle développée et popularisée par Meyn-Tweedie est largement utilisée pour ce problème. Dans la plupart des résultats, le taux de convergence n'est pas explicite, et certains d'entre eux seront brièvement présentés. De plus, la fonction de Lyapunov est cruciale dans l'approche Meyn-Tweedie, et elle est aussi liée à certaines inégalités fonctionnelles (par exemple, inégalité de Poincaré). Cette relation entre fonction de Lyapounov et inégalités fonctionnelles sera donnée avec les résultats au sens L2. En outre, pour l'exemple de l'équation cinétique de Fokker-Planck, un résultat de convergence exponentielle explicite de la solution sera introduite à la manière de Villani : l'hypocoercivité. Ces contenus sont les fondements de mon travail, et mon but est d'étudier la décroissance sous-exponentielle. La deuxième partie, fait l'objet d'un article écrit en coopération avec d'autres sur les taux de convergence sous-exponentielle explicites des processus de Markov à temps continu. Comme nous le savons, les résultats sur les taux de convergence explicites ont été donnés pour le cas exponentiel. Nous les étendons au cas sous-exponentielle par l'approche Meyn-Tweedie. La clé de la preuve est l'estimation du temps de passage dans un ensemble "petite", obtenue par Douc, Fort et Guillin, mais pour laquelle nous donnons une preuve plus simple. Nous utilisons aussi la construction du couplage et donnons une ergodicité sous exponentielle explicite. Enfin, nous donnons quelques applications numériques. Dans la dernière partie, mon second article traite de l'équation cinétique de Fokker-Planck. Je prolonge l'hypocoercivité à l'hypocoercivité faible qui correspond à inégalité de Poincaré faible. Grâce à cette extension, on peut obtenir le taux de convergence explicite de la solution, dans des cas sous-exponentiels. La convergence est au sens H1 et au sens L2. A la fin de ce document, j'étudie le cas de l'entropie relative comme Villani, et j'obtiens la convergence au sens de l'entropie. Enfin, Je donne deux exemples pour les potentiels qui impliquent l'inégalité de Poincaré faible ou l'inégalité de Sobolev logarithmique faible pour la mesure invariante.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Bouguet, Florian. "Étude quantitative de processus de Markov déterministes par morceaux issus de la modélisation". Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S040/document.

Texto completo da fonte
Resumo:
L'objet de cette thèse est d'étudier une certaine classe de processus de Markov, dits déterministes par morceaux, ayant de très nombreuses applications en modélisation. Plus précisément, nous nous intéresserons à leur comportement en temps long et à leur vitesse de convergence à l'équilibre lorsqu'ils admettent une mesure de probabilité stationnaire. L'un des axes principaux de ce manuscrit de thèse est l'obtention de bornes quantitatives fines sur cette vitesse, obtenues principalement à l'aide de méthodes de couplage. Le lien sera régulièrement fait avec d'autres domaines des mathématiques dans lesquels l'étude de ces processus est utile, comme les équations aux dérivées partielles. Le dernier chapitre de cette thèse est consacré à l'introduction d'une approche unifiée fournissant des théorèmes limites fonctionnels pour étudier le comportement en temps long de chaînes de Markov inhomogènes, à l'aide de la notion de pseudo-trajectoire asymptotique
The purpose of this Ph.D. thesis is the study of piecewise deterministic Markov processes, which are often used for modeling many natural phenomena. Precisely, we shall focus on their long time behavior as well as their speed of convergence to equilibrium, whenever they possess a stationary probability measure. Providing sharp quantitative bounds for this speed of convergence is one of the main orientations of this manuscript, which will usually be done through coupling methods. We shall emphasize the link between Markov processes and mathematical fields of research where they may be of interest, such as partial differential equations. The last chapter of this thesis is devoted to the introduction of a unified approach to study the long time behavior of inhomogeneous Markov chains, which can provide functional limit theorems with the help of asymptotic pseudotrajectories
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Chotard, Alexandre. "Markov chain Analysis of Evolution Strategies". Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112230/document.

Texto completo da fonte
Resumo:
Cette thèse contient des preuves de convergence ou de divergence d'algorithmes d'optimisation appelés stratégies d'évolution (ESs), ainsi que le développement d'outils mathématiques permettant ces preuves.Les ESs sont des algorithmes d'optimisation stochastiques dits ``boîte noire'', i.e. où les informations sur la fonction optimisée se réduisent aux valeurs qu'elle associe à des points. En particulier, le gradient de la fonction est inconnu. Des preuves de convergence ou de divergence de ces algorithmes peuvent être obtenues via l'analyse de chaînes de Markov sous-jacentes à ces algorithmes. Les preuves de convergence et de divergence obtenues dans cette thèse permettent d'établir le comportement asymptotique des ESs dans le cadre de l'optimisation d'une fonction linéaire avec ou sans contrainte, qui est un cas clé pour des preuves de convergence d'ESs sur de larges classes de fonctions.Cette thèse présente tout d'abord une introduction aux chaînes de Markov puis un état de l'art sur les ESs et leur contexte parmi les algorithmes d'optimisation continue boîte noire, ainsi que les liens établis entre ESs et chaînes de Markov. Les contributions de cette thèse sont ensuite présentées:o Premièrement des outils mathématiques généraux applicables dans d'autres problèmes sont développés. L'utilisation de ces outils permet d'établir aisément certaines propriétés (à savoir l'irreducibilité, l'apériodicité et le fait que les compacts sont des small sets pour la chaîne de Markov) sur les chaînes de Markov étudiées. Sans ces outils, établir ces propriétés était un processus ad hoc et technique, pouvant se montrer très difficile.o Ensuite différents ESs sont analysés dans différents problèmes. Un (1,\lambda)-ES utilisant cumulative step-size adaptation est étudié dans le cadre de l'optimisation d'une fonction linéaire. Il est démontré que pour \lambda > 2 l'algorithme diverge log-linéairement, optimisant la fonction avec succès. La vitesse de divergence de l'algorithme est donnée explicitement, ce qui peut être utilisé pour calculer une valeur optimale pour \lambda dans le cadre de la fonction linéaire. De plus, la variance du step-size de l'algorithme est calculée, ce qui permet de déduire une condition sur l'adaptation du paramètre de cumulation avec la dimension du problème afin d'obtenir une stabilité de l'algorithme. Ensuite, un (1,\lambda)-ES avec un step-size constant et un (1,\lambda)-ES avec cumulative step-size adaptation sont étudiés dans le cadre de l'optimisation d'une fonction linéaire avec une contrainte linéaire. Avec un step-size constant, l'algorithme résout le problème en divergeant lentement. Sous quelques conditions simples, ce résultat tient aussi lorsque l'algorithme utilise des distributions non Gaussiennes pour générer de nouvelles solutions. En adaptant le step-size avec cumulative step-size adaptation, le succès de l'algorithme dépend de l'angle entre les gradients de la contrainte et de la fonction optimisée. Si celui ci est trop faible, l'algorithme convergence prématurément. Autrement, celui ci diverge log-linéairement.Enfin, les résultats sont résumés, discutés, et des perspectives sur des travaux futurs sont présentées
In this dissertation an analysis of Evolution Strategies (ESs) using the theory of Markov chains is conducted. Proofs of divergence or convergence of these algorithms are obtained, and tools to achieve such proofs are developed.ESs are so called "black-box" stochastic optimization algorithms, i.e. information on the function to be optimized are limited to the values it associates to points. In particular, gradients are unavailable. Proofs of convergence or divergence of these algorithms can be obtained through the analysis of Markov chains underlying these algorithms. The proofs of log-linear convergence and of divergence obtained in this thesis in the context of a linear function with or without constraint are essential components for the proofs of convergence of ESs on wide classes of functions.This dissertation first gives an introduction to Markov chain theory, then a state of the art on ESs and on black-box continuous optimization, and present already established links between ESs and Markov chains.The contributions of this thesis are then presented:o General mathematical tools that can be applied to a wider range of problems are developed. These tools allow to easily prove specific Markov chain properties (irreducibility, aperiodicity and the fact that compact sets are small sets for the Markov chain) on the Markov chains studied. Obtaining these properties without these tools is a ad hoc, tedious and technical process, that can be of very high difficulty.o Then different ESs are analyzed on different problems. We study a (1,\lambda)-ES using cumulative step-size adaptation on a linear function and prove the log-linear divergence of the step-size; we also study the variation of the logarithm of the step-size, from which we establish a necessary condition for the stability of the algorithm with respect to the dimension of the search space. Then we study an ES with constant step-size and with cumulative step-size adaptation on a linear function with a linear constraint, using resampling to handle unfeasible solutions. We prove that with constant step-size the algorithm diverges, while with cumulative step-size adaptation, depending on parameters of the problem and of the ES, the algorithm converges or diverges log-linearly. We then investigate the dependence of the convergence or divergence rate of the algorithm with parameters of the problem and of the ES. Finally we study an ES with a sampling distribution that can be non-Gaussian and with constant step-size on a linear function with a linear constraint. We give sufficient conditions on the sampling distribution for the algorithm to diverge. We also show that different covariance matrices for the sampling distribution correspond to a change of norm of the search space, and that this implies that adapting the covariance matrix of the sampling distribution may allow an ES with cumulative step-size adaptation to successfully diverge on a linear function with any linear constraint.Finally, these results are summed-up, discussed, and perspectives for future work are explored
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Tagorti, Manel. "Sur les abstractions et les projections des processus décisionnels de Markov de grande taille". Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0005/document.

Texto completo da fonte
Resumo:
Les processus décisionnels de Markov (MDP) sont un formalisme mathématique des domaines de l'intelligence artificielle telle que la planification, l'apprentissage automatique, l'apprentissage par renforcement... Résoudre un MDP permet d'identifier la stratégie (politique) optimale d'un agent en interaction avec un environnement stochastique. Lorsque la taille de ce système est très grande il devient difficile de résoudre ces processus par les moyens classiques. Cette thèse porte sur la résolution des MDP de grande taille. Elle étudie certaines méthodes de résolutions: comme les abstractions et les méthodes dites de projection. Elle montre les limites de certaines abstractions et identifie certaines structures "les bisimulations" qui peuvent s'avérer intéressantes pour une résolution approchée du problème. Cette thèse s'est également intéressée à une méthode de projection l'algorithme Least square temporal difference LSTD(λ). Une estimation de la borne sur la vitesse de convergence de cet algorithme a été établie avec une mise en valeur du rôle joué par le paramètre [lambda]. Cette analyse a été étendue pour déduire une borne de performance pour l'algorithme Least square non stationary policy iteration LS(λ)NSPI en estimant la borne d'erreur entre la valeur calculée à une itération fixée et la valeur sous la politique optimale qu'on cherche à identifier
Markov Decision Processes (MDP) are a mathematical formalism of many domains of artifical intelligence such as planning, machine learning, reinforcement learning... Solving an MDP means finding the optimal strategy or policy of an agent interacting in a stochastic environment. When the size of this system becomes very large it becomes hard to solve this problem with classical methods. This thesis deals with the resolution of MDPs with large state space. It studies some resolution methods such as: abstractions and the projection methods. It shows the limits of some approachs and identifies some structures that may be interesting for the MDP resolution. This thesis focuses also on projection methods, the Least square temporal difference algorithm LSTD(λ). An estimate of the rate of the convergence of this algorithm has been derived with an emphasis on the role played by the parameter [lambda]. This analysis has then been generalized to the case of Least square non stationary policy iteration LS(λ)NSPI . We compute a performance bound for LS([lambda])NSPI by bounding the error between the value computed given a fixed iteration and the value computed under the optimal policy, that we aim to determine
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Copros, Guillaume. "Stationnarité forte sur des graphes discrets ou quantiques". Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30088/document.

Texto completo da fonte
Resumo:
Dans cette thèse, on s'intéresse à la notion de temps fort de stationnarité et à celle, étroitement liée, de dual de stationnarité forte. Ces outils permettent d'étu- dier la convergence de processus ergodiques, en déterminant un instant aléatoire où l'équilibre est atteint. Les espaces d'état des processus considérés ici sont des graphes continus ou discrets. Dans la première partie, on considère le cas discret, et on dégage une condition nécessaire et suffisante à l'existence, pour n'importe quelle loi initiale, d'un temps fort de stationnarité fini. Pour cela, on construit explicitement un dual de station- narité forte, à valeurs dans l'ensemble des parties connexes du graphe, qui évolue à chaque étape en ajoutant ou en enlevant des points de sa frontière. Lorsque cette opération sépare l'ensemble dual en plusieurs parties, afin de ne pas le déconnecter, une de ces parties est choisie au hasard, avec une probabilité proportionnelle à son poids par la mesure invariante. On s'intéresse également au comportement général d'un processus dual, et on donne quelques exemples différents de celui construit précédemment. Dans la deuxième partie, on traite le cas continu, et le processus étudié est alors une diffusion. On caractérise notamment sa mesure invariante, et on explicite un générateur infinitésimal qui devrait être celui d'un processus dual. Néanmoins, ce cas s'avère plus compliqué que le cas discret. Le processus dual n'est donc construit que pour un mouvement brownien sur un graphe particulier, comme l'unique so- lution d'un problème de martingale. Des pistes sont présentées pour traiter des diffusions sur des graphes plus généraux, notamment en utilisant la convergence d'une suite de processus de saut tels que ceux présentés dans la première partie
In this thesis, we are interested in the notion of strong stationary time, and in that, strongly connected, of strong stationary dual. These tools allow to study the convergence of ergodic processes, by determining a random time when the equilibrium is reached. The state space of the considered processes are discrete or continuous graphs. In the first part, we consider the discrete case, and we explicit a necessary and sufficient condition to the existence, for any initial distribution, of a finite strong stationary time. To do so, we construct explicitly a strong stationary dual, with values in the set of connected subsets of the graph, which evolves at each step by adding or removing some points at its border. Whenever this operation separates the dual set in several parts, in order not to disconnect it, one of these parts is chosen randomly, with a probability proportionnal to its weight relative to the invariant distribution. We also study the general behaviour of any dual process,2 and we give some other examples. In the second part, we deal with the continuous case, and the studied process is then a diffuion. We caracterize its invariant distribution, and we explicit an infinitesimal generator, which is expected to be that of a dual process. Nevertheless, this case turns out to be a little more involved that the discrete one. The dual process is thus constructed only for a brownian motion on a particular graph, as the unique solution of a martingale problem. Some leads are given to solve the case of diffusions on more general graphs, especially by using the convergence of a sequence of jump processes such as those presented in the first part
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Bertoncini, Olivier. "Convergence abrupte et métastabilité". Phd thesis, Rouen, 2007. http://www.theses.fr/2007ROUES038.

Texto completo da fonte
Resumo:
Le but de cette thèse est de relier deux phénomènes relatifs au comportement asymptotique des processus stochastiques, qui jusqu'à présent étaient restés dissociés. La convergence abrupte ou phénomène de cutoff d'une part, et la métastabilité d'autre part. Dans le cas du cutoff, une convergence abrupte vers la mesure d'équilibre du processus a lieu à un instant que l'on peut déterminer, alors que la métastabilité est liée à une grande incertitude sur l'instant où l'on va sortir d'un certain équilibre. On propose un cadre commun pour étudier et comparer les deux phénomènes : celui des chaînes de naissance et de mort à temps discret sur N, avec une dérive vers zéro. On montre que sous l'hypothèse de dérive il y a convergence abrupte vers zéro et métastabilité dans l'autre sens. De plus la dernière excursion dans la métastabilité est la renversée temporelle d'une trajectoire typique de cutoff. On étend notre approche au modèle d'Ehrenfest, ce qui nous permet de montrer la convergence abrupte et la métastabilité sous une hypothèse de dérive plus faible
The aim of this thesis is to link two phenomena concerning the asymptotical behavior of stochastic processes, which were disjoined up to now. The abrupt convergence or cutoff phenomenon on one hand, and metastability on the other hand. In the cutoff case an abrupt convergence towards the equilibrium measure occurs at a time which can be determined, whereas metastability is linked to a great uncertainty of the time at which we leave some equilibrium. We propose a common framework to compare and study both phenomena : that of discrete time birth and death chains on N with drift towards zero. Under the drift hypothesis, we prove that there is an abrupt convergence towards zero, metastability in the other direction, and that the last exit in the metastability is the time reverse of a typical cutoff path. We extend our approach to the Ehrenfest model, which allows us to prove abrupt convergence and metastability with a weaker drift hypothesis
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Bertoncini, Olivier. "Convergence abrupte et métastabilité". Phd thesis, Université de Rouen, 2007. http://tel.archives-ouvertes.fr/tel-00218132.

Texto completo da fonte
Resumo:
Le but de cette thèse est de relier deux phénomènes relatifs au comportement asymptotique des processus stochastiques, qui jusqu'à présent étaient restés dissociés. La convergence abrupte ou phénomène de cutoff d'une part, et la métastabilité d'autre part. Dans le cas du cutoff, une convergence abrupte vers la mesure d'équilibre du processus a lieu à un instant que l'on peut déterminer, alors que la métastabilité est liée à une grande incertitude sur l'instant où l'on va sortir d'un certain équilibre. On propose un cadre commun pour étudier et comparer les deux phénomènes : celui des chaînes de naissance et de mort à temps discret sur $\mathbb{N}$, avec une dérive vers zéro.
On montre que sous l'hypothèse de dérive il y a convergence abrupte vers zéro et métastabilité dans l'autre sens. De plus la dernière excursion dans la métastabilité est la renversée temporelle d'une trajectoire typique de cutoff.
On étend notre approche au modèle d'Ehrenfest, ce qui nous permet de montrer la convergence abrupte et la métastabilité sous une hypothèse de dérive plus faible.
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Tagorti, Manel. "Sur les abstractions et les projections des processus décisionnels de Markov de grande taille". Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0005.

Texto completo da fonte
Resumo:
Les processus décisionnels de Markov (MDP) sont un formalisme mathématique des domaines de l'intelligence artificielle telle que la planification, l'apprentissage automatique, l'apprentissage par renforcement... Résoudre un MDP permet d'identifier la stratégie (politique) optimale d'un agent en interaction avec un environnement stochastique. Lorsque la taille de ce système est très grande il devient difficile de résoudre ces processus par les moyens classiques. Cette thèse porte sur la résolution des MDP de grande taille. Elle étudie certaines méthodes de résolutions: comme les abstractions et les méthodes dites de projection. Elle montre les limites de certaines abstractions et identifie certaines structures "les bisimulations" qui peuvent s'avérer intéressantes pour une résolution approchée du problème. Cette thèse s'est également intéressée à une méthode de projection l'algorithme Least square temporal difference LSTD(λ). Une estimation de la borne sur la vitesse de convergence de cet algorithme a été établie avec une mise en valeur du rôle joué par le paramètre [lambda]. Cette analyse a été étendue pour déduire une borne de performance pour l'algorithme Least square non stationary policy iteration LS(λ)NSPI en estimant la borne d'erreur entre la valeur calculée à une itération fixée et la valeur sous la politique optimale qu'on cherche à identifier
Markov Decision Processes (MDP) are a mathematical formalism of many domains of artifical intelligence such as planning, machine learning, reinforcement learning... Solving an MDP means finding the optimal strategy or policy of an agent interacting in a stochastic environment. When the size of this system becomes very large it becomes hard to solve this problem with classical methods. This thesis deals with the resolution of MDPs with large state space. It studies some resolution methods such as: abstractions and the projection methods. It shows the limits of some approachs and identifies some structures that may be interesting for the MDP resolution. This thesis focuses also on projection methods, the Least square temporal difference algorithm LSTD(λ). An estimate of the rate of the convergence of this algorithm has been derived with an emphasis on the role played by the parameter [lambda]. This analysis has then been generalized to the case of Least square non stationary policy iteration LS(λ)NSPI . We compute a performance bound for LS([lambda])NSPI by bounding the error between the value computed given a fixed iteration and the value computed under the optimal policy, that we aim to determine
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Rochet, Sophie. "Convergence des algorithmes génétiques : modèles stochastiques et épistasie". Aix-Marseille 1, 1998. http://www.theses.fr/1998AIX11032.

Texto completo da fonte
Resumo:
Les algorithmes genetiques sont des algorithmes evolutifs introduits par john holland dans les annees 70. Ils sont utilises pour resoudre les problemes d'optimisation. Le travail realise dans cette these se concentre autour de l'idee de convergence dans ces algorithmes sur le plan theorique et pratique. Tout d'abord, deux modeles sont elabores dans le but d'acceder a une demonstration purement mathematique d'un theoreme enonce par holland, le theoreme des schemas, concernant les structures preservees lors d'un cycle de l'algorithme genetique. En ce qui concerne l'action de la selection, il faut utiliser les distributions de bernoulli afin d'arriver a un resultat en accord avec celui de holland. Le meme modele n'etant pas exploitable pour les autres operateurs, un modele dynamique plus classique est construit a l'aide des chaines de markov. Ce modele est utilise afin d'approcher le theoreme des schemas sous un autre angle, en utilisant une generalisation de la notion de schema. L'aspect pratique de la convergence est aussi etudie a l'aide d'un outil introduit par davidor : l'epistasie. La definition de celle-ci etant assez obscure au depart, une analyse en detail a ete faite, grace a une decomposition dans la base de walsh. Ce travail met en lumiere la signification profonde de l'epistasie et sa relation etroite avec une approximation lineaire. A l'aide des resultat theoriques demontres, qui permettent de calculer l'epistasie de maniere acceleree, une campagne de tests a ete menee sur divers aspects de la convergence et de la difficulte d'un probleme pour l'algorithme genetique. Une etude sur le choix de l'estimateur de l'epistasie permet de mettre en evidence l'importance des resultats obtenus pour une estimation efficace. Enfin, les relations entre epistasie et performance de l'operateur de croisement sont mises en lumiere.
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Selig, Thomas. "Convergence de cartes et tas de sable". Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0286/document.

Texto completo da fonte
Resumo:
Cette thèse est dédiée à l'étude de divers problèmes se situant à la frontière entre combinatoire et théorie des probabilités. Elle se compose de deux parties indépendantes : la première concerne l'étude asymptotique de certaines familles de \cartes" (en un sens non traditionnel), la seconde concerne l'étude d'une extension stochastique naturelle d'un processus dynamique classique sur un graphe appelé modèle du tas de sable. Même si ces deux parties sont a priori indépendantes, elles exploitent la même idée directrice, à savoir les interactions entre les probabilités et la combinatoire, et comment ces domaines sont amenés à se rendreservice mutuellement. Le Chapitre introductif 1 donne un bref aperçu des interactions possibles entre combinatoire et théorie des probabilités, et annonce les principaux résultats de la thèse. Le Chapitres 2 donne une introduction au domaine de la convergence des cartes. Les contributions principales de cette thèse se situent dans les Chapitres 3, 4 (pour les convergences de cartes) et 5 (pour le modèle stochastique du tas de sable)
This Thesis studies various problems located at the boundary between Combinatorics and Probability Theory. It is formed of two independent parts. In the first part, we study the asymptotic properties of some families of \maps" (from a non traditional viewpoint). In thesecond part, we introduce and study a natural stochastic extension of the so-called Sandpile Model, which is a dynamic process on a graph. While these parts are independent, they exploit the same thrust, which is the many interactions between Combinatorics and Discrete Probability, with these two areas being of mutual benefit to each other. Chapter 1 is a general introduction to such interactions, and states the main results of this Thesis. Chapter 2 is an introduction to the convergence of random maps. The main contributions of this Thesis can be found in Chapters 3, 4 (for the convergence of maps) and 5 (for the Stochastic Sandpile model)
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Collingwood, Jesse. "Path Properties of Rare Events". Thesis, Université d'Ottawa / University of Ottawa, 2015. http://hdl.handle.net/10393/31948.

Texto completo da fonte
Resumo:
Simulation of rare events can be costly with respect to time and computational resources. For certain processes it may be more efficient to begin at the rare event and simulate a kind of reversal of the process. This approach is particularly well suited to reversible Markov processes, but holds much more generally. This more general result is formulated precisely in the language of stationary point processes, proven, and applied to some examples. An interesting question is whether this technique can be applied to Markov processes which are substochastic, i.e. processes which may die if a graveyard state is ever reached. First, some of the theory of substochastic processes is developed; in particular a slightly surprising result about the rate of convergence of the distribution pi(n) at time n of the process conditioned to stay alive to the quasi-stationary distribution, or Yaglom limit, is proved. This result is then verified with some illustrative examples. Next, it is demonstrated with an explicit example that on infinite state spaces the reversal approach to analyzing both the rate of convergence to the Yaglom limit and the likely path of rare events can fail due to transience.
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Gavra, Iona Alexandra. "Algorithmes stochastiques d'optimisation sous incertitude sur des structures complexes : convergence et applications". Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30141/document.

Texto completo da fonte
Resumo:
Les principaux sujets étudiés dans cette thèse concernent le développement d'algorithmes stochastiques d'optimisation sous incertitude, l'étude de leurs propriétés théoriques et leurs applications. Les algorithmes proposés sont des variantes du recuit simulé qui n'utilisent que des estimations sans biais de la fonction de coût. On étudie leur convergence en utilisant des outils développés dans la théorie des processus de Markov : on utilise les propriétés du générateur infinitésimal et des inégalités fonctionnelles pour mesurer la distance entre leur distribution et une distribution cible. La première partie est dédiée aux graphes quantiques, munis d'une mesure de probabilité sur l'ensemble des sommets. Les graphes quantiques sont des versions continues de graphes pondérés non-orientés. Le point de départ de cette thèse a été de trouver la moyenne de Fréchet de tels graphes. La moyenne de Fréchet est une extension aux espaces métriques de la moyenne euclidienne et est définie comme étant le point qui minimise la somme des carrés des distances pondérées à tous les sommets. Notre méthode est basée sur une formulation de Langevin d'un recuit simulé bruité et utilise une technique d'homogénéisation. Dans le but d'établir la convergence en probabilité du processus, on étudie l'évolution de l'entropie relative de sa loi par rapport a une mesure de Gibbs bien choisie. En utilisant des inégalités fonctionnelles (Poincaré et Sobolev) et le lemme de Gronwall, on montre ensuite que l'entropie relative tend vers zéro. Notre méthode est testée sur des données réelles et nous proposons une méthode heuristique pour adapter l'algorithme à de très grands graphes, en utilisant un clustering préliminaire. Dans le même cadre, on introduit une définition d'analyse en composantes principales pour un graphe quantique. Ceci implique, une fois de plus, un problème d'optimisation stochastique, cette fois-ci sur l'espace des géodésiques du graphe. Nous présentons un algorithme pour trouver la première composante principale et conjecturons la convergence du processus de Markov associé vers l'ensemble voulu. Dans une deuxième partie, on propose une version modifiée de l'algorithme du recuit simulé pour résoudre un problème d'optimisation stochastique global sur un espace d'états fini. Notre approche est inspirée du domaine général des méthodes Monte-Carlo et repose sur une chaine de Markov dont la probabilité de transition à chaque étape est définie à l'aide de " mini-lots " de taille croissante (aléatoire). On montre la convergence en probabilité de l'algorithme vers l'ensemble optimal, on donne la vitesse de convergence et un choix de paramètres optimisés pour assurer un nombre minimal d'évaluations pour une précision donnée et un intervalle de confiance proche de 1. Ce travail est complété par un ensemble de simulations numériques qui illustrent la performance pratique de notre algorithme à la fois sur des fonctions tests et sur des données réelles issues de cas concrets
The main topics of this thesis involve the development of stochastic algorithms for optimization under uncertainty, the study of their theoretical properties and applications. The proposed algorithms are modified versions of simulated an- nealing that use only unbiased estimators of the cost function. We study their convergence using the tools developed in the theory of Markov processes: we use properties of infinitesimal generators and functional inequalities to measure the distance between their probability law and a target one. The first part is concerned with quantum graphs endowed with a probability measure on their vertex set. Quantum graphs are continuous versions of undirected weighted graphs. The starting point of the present work was the question of finding Fréchet means on such a graph. The Fréchet mean is an extension of the Euclidean mean to general metric spaces and is defined as an element that minimizes the sum of weighted square distances to all vertices. Our method relies on a Langevin formulation of a noisy simulated annealing dealt with using homogenization. In order to establish the convergence in probability of the process, we study the evolution of the relative entropy of its law with respect to a convenient Gibbs measure. Using functional inequalities (Poincare and Sobolev) and Gronwall's Lemma, we then show that the relative entropy goes to zero. We test our method on some real data sets and propose an heuristic method to adapt the algorithm to huge graphs, using a preliminary clustering. In the same framework, we introduce a definition of principal component analysis for quantum graphs. This implies, once more, a stochastic optimization problem, this time on the space of the graph's geodesics. We suggest an algorithm for finding the first principal component and conjecture the convergence of the associated Markov process to the wanted set. On the second part, we propose a modified version of the simulated annealing algorithm for solving a stochastic global optimization problem on a finite space. Our approach is inspired by the general field of Monte Carlo methods and relies on a Markov chain whose probability transition at each step is defined with the help of mini batches of increasing (random) size. We prove the algorithm's convergence in probability towards the optimal set, provide convergence rate and its optimized parametrization to ensure a minimal number of evaluations for a given accuracy and a confidence level close to 1. This work is completed with a set of numerical experiments and the assessment of the practical performance both on benchmark test cases and on real world examples
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Ganidis-Cochard, Hélène. "Convergence de semi-groupes de diffusion : amplitude et problème de Skorokhod". Nancy 1, 1999. http://www.theses.fr/1999NAN10279.

Texto completo da fonte
Resumo:
La thèse est constituée de trois parties indépendantes. Dans la première partie, nous déterminons la vitesse de convergence de certains semi-groupes associés à des processus de diffusion vers leur probabilité invariante. La deuxième partie est consacrée à la loi de l'amplitude pour des chaînes de Markov ultrasphériques ainsi que pour les processus de Bessel. Après avoir établi que les chaînes ultrasphériques, convenablement renormalisées, convergent en loi vers les processus de Bessel, nous explicitons la transformée de Laplace ainsi que le premier moment de l'inverse de l'amplitude ( i. E. Premier instant où l'amplitude dépasse un niveau donne) pour ces deux classes de processus. Les calculs sont développés dans le cas particulier des processus de Bessel de dimension 1 et 3. Enfin, dans la troisième partie, nous considérons deux classes de martingales : 1 - La classe des martingales càdlàg, uniformément intégrables, (Mt)t≥0, dont la loi du couple (M0, M∞) est fixée. 2 - La classe des martingales càdlàg, uniformément intégrables, (Mt)t≥0, dont les lois de M0 et de M∞ sont données. Pour chacun des ces deux problèmes de types Skorokhod, nous construisons des solutions browniennes explicites qui jouent un rôle essentiel dans les inégalités maximales
This thesis is divided in three independant parts. In first part is estimated the convergence rate of sorne semi-groups associated to diffusion processes to their invariant probability. Second part deals with the law of the range process for ultraspherical Markov chains and Bessel processes. Convergence of ultraspherical Markov chains to Bessel processes is first established. Then are evaluated Laplace transform and firts moment for the range inverse (firt passage time for the range process to a given level). Calculations are developped in the case of Bessel processes of dimension one and three. In third part are considered two classes of martingale: 1 - The class of right continuous left limited, uniformly integrable martingales, (Mt)t≥0, such that the law of (M0, M∞) is given. 2 - The class of right continuous left limited, uniformly intégrable martingales, (Mt)t≥0 such that the laws of M0 and M∞ are given. For each of these two kind of Skorokhod's problem, we construct an explicit brownian solution. These solutions are of great importance in maximal inequalies
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Ribeiro, Thaís Saes Giuliani. "Processos de Markov discretos : exemplos voltados para o ensino médio /". Universidade Estadual Paulista (UNESP), 2017. http://hdl.handle.net/11449/152301.

Texto completo da fonte
Resumo:
Submitted by Thaís Saes Giuliani null (thais_saes@hotmail.com) on 2017-12-13T20:19:43Z No. of bitstreams: 1 Dissertação Thaís Saes Giuliani Ribeiro.pdf: 1429513 bytes, checksum: 6145616464ae520fc8e8d6211d5e63d2 (MD5)
Submitted by Thaís Saes Giuliani Ribeiro (thais_saes@hotmail.com) on 2017-12-14T11:25:03Z No. of bitstreams: 1 Dissertação Thaís Saes Giuliani Ribeiro.pdf: 1429513 bytes, checksum: 6145616464ae520fc8e8d6211d5e63d2 (MD5)
Approved for entry into archive by Elza Mitiko Sato null (elzasato@ibilce.unesp.br) on 2017-12-14T12:31:48Z (GMT) No. of bitstreams: 1 ribeiro_tsg_me_sjrp.pdf: 1429513 bytes, checksum: 6145616464ae520fc8e8d6211d5e63d2 (MD5)
Made available in DSpace on 2017-12-14T12:31:48Z (GMT). No. of bitstreams: 1 ribeiro_tsg_me_sjrp.pdf: 1429513 bytes, checksum: 6145616464ae520fc8e8d6211d5e63d2 (MD5) Previous issue date: 2017-11-30
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Neste trabalho, mostramos como construir um processo estocástico de Markov e seu espaço de probabilidade a partir das probabilidades de transição e da distribuição inicial. Além disso, mostramos a convergência das matrizes de transição utilizando como ferramenta conhecimentos de Álgebra Linear. A aplicação das cadeias de Markov num contexto voltado para o Ensino Médio é mostrado no último capítulo, onde procuramos oferecer aos alunos a oportunidade de ter uma visão mais ampla de como a Matemática pode ser aplicada em outras áreas do conhecimento.
In this work, we show how to construct a stochastic Markov process and its probability space from the transition probabilities and the initial distribution. In addition, we show to investigate the convergence of the transition matrices using Linear Algebra knowledge as a tool. Application of Markov chains in a context focused on High School, it is shown in the last chapter, where we try to offer the students the opportunity to have a view of how mathematics can be applied in other areas of knowledge.
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Lopusanschi, Olga. "Chemins rugueux issus de processus discrets". Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS074/document.

Texto completo da fonte
Resumo:
Le présent travail se veut une contribution à l’extension du domaine des applications de la théorie des chemins rugueux à travers l’étude de la convergence des processus discrets, qui permet un nouveau regard sur plusieurs problèmes qui se posent dans le cadre du calcul stochastique classique. Nous étudions la convergence en topologie rugueuse, d’abord des chaînes de Markov sur graphes périodiques, ensuite des marches de Markov cachées, et ce changement de cadre permet d’apporter des informations supplémentaires sur la limite grâce à l’anomalie d’aire, invisible en topologie uniforme. Nous voulons montrer que l’utilité de cet objet dépasse le cadre des équations différentielles. Nous montrons également comment le cadre des chemins rugueux permet d’en- coder la manière dont on plonge un modèle discret dans l’espace des fonctions continues, et que les limites des différents plongements peuvent être différenciées précisément grâce à l’anomalie d’aire. Nous définissons ensuite les temps d’occupation itérés pour une chaîne de Markov et montrons, en utilisant les sommes itérées, qu’ils donnent une structure combinatoire aux marches de Markov cachées. Nous proposons une construction des chemins rugueux en passant par les sommes itérées et la comparons à la construction classique, faite par les intégrales itérées, pour trouver à la limite deux types de chemins rugueux différents, non-géométrique et géométrique respectivement. Pour finir, nous illustrons le calcul et la construction de l’anomalie d’aire et nous donnons quelques résultats supplémentaires sur la convergence des sommes et temps d’occupation itérés
Through the present work, we hope to contribute to extending the domain of applications of rough paths theory by studying the convergence of discrete processes and thus allowing for a new point of view on several issues appearing in the setting of classical stochastic calculus. We study the convergence, first of Markov chains on periodic graphs, then of hidden Markov walks, in rough path topology, and we show that this change of setting allows to bring forward extra information on the limit using the area anomaly, which is invisible in the uniform topology. We want to show that the utility of this object goes beyond the setting of dierential equations. We also show how rough paths can be used to encode the way we embed a discrete process in the space of continuous functions, and that the limits of these embeddings dier precisely by the area anomaly term. We then define the iterated occupation times for a Markov chain and show using iterated sums that they form an underlying combinatorial structure for hidden Markov walks. We then construct rough paths using iterated sums and compare them to the classical construction, which uses iterated integrals, to get two dierent types of rough paths at the limit: the non-geometric and the geometric one respectively. Finally, we illustrate the computation and construction of the area anomaly and we give some extra results on the convergence of iterated sums and occupation times
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Charlot, François. "Systèmes de files d'attente : stabilité, récurrence, convergence en loi et intégrabilité". Rouen, 1988. http://www.theses.fr/1988ROUES033.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Arrar, Nawel Khadidja. "Problèmes de convergence, optimisation d'algorithmes et analyse stochastique de systèmes de files d'attente avec rappels". Paris 1, 2012. http://www.theses.fr/2012PA010067.

Texto completo da fonte
Resumo:
Pour optimiser la gestion des réseaux de télécommunication, nous considérons le système de file d'attente MX/G/1 avec rappels et clients impatients. En utilisant la méthode des variables supplémentaires, nous obtenons les fonctions génératrices partielles de l'état stationnaire conjointe de l'état du serveur et du nombre de clients dans le groupe de rappels. Pour compléter l'analyse du modèle considéré, nous calculons la distribution stationnaire de la chaîne de Markov induite, grâce à laquelle nous présentons la propriété de la décomposition stochastique. Cependant, la fonction génératrice de la distribution stationnaire du nombre de clients dans le groupe de rappels, est obtenue sous une forme explicite, très complexe et ne révèle pas la nature de la distribution en question. Alors, nous étudions le comportement asymptotique de la variable aléatoire représentant le nombre de clients en orbite et dans le système pour des valeurs limites des différents paramètres. Nous complétons notre travail par des exemples numériques.
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Fritsch, Coralie. "Approches probabilistes et numériques de modèles individus-centrés du chemostat". Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20062/document.

Texto completo da fonte
Resumo:
Dans une première partie, nous proposons un nouveau modèle de chemostat dans lequel la population bactérienne est représentée de manière individu-centrée, structurée en masse, et la dynamique du substrat est modélisée par une équation différentielle ordinaire. Nous obtenons un processus markovien que nous décrivons à l'aide de mesures aléatoires. Nous déterminons, sous une certaine renormalisation du processus, un résultat de convergence en loi de ce modèle individu-centré hybride vers la solution d'un système d'équations intégro-différentielles. Dans une seconde partie, nous nous intéressons à des modèles de dynamiques adaptatives du chemostat. Nous reprenons le modèle individu-centré étudié dans la première partie, auquel nous ajoutons un mécanisme de mutation. Sous des hypothèses de mutations rares et de grande population, les résultats asymptotiques obtenus dans la première partie nous permettent de réduire l'étude d'une population mutante à un modèle de croissance-fragmentation-soutirage en milieu constant. Nous étudions la probabilité d'extinction de cette population mutante. Nous décrivons également le modèle déterministe associé au modèle individu-centré hybride avec mutation et nous comparons les deux approches, stochastique et déterministe; notamment nous démontrons qu'elles mènent au même critère de possibilité d'invasion d'une population mutante dans une population résidente.Nous présentons des simulations numériques illustrant les résultats mathématiques obtenus
In the first part, we propose a new chemostat model in which the bacterial population is mass structured and individual-based and the substrate dynamics are modelized by an ordinary differential equation. We obtain a Markovian process which we describe as random measures. We determine, under a certain normalization of the process, a result of convergence in distribution towards the solution of a system of integro-differential equations. In the second part, we are interested in adaptive dynamic models of the chemostat. We add a mutation mechanism to the individual-based model which was studied in the first part. Under rare mutations and large population size hypotheses, the asymptotical result of the first part allows us to reduce the study of the mutant population to a growth-fragmentation-washout model in a constant environment. We study the extinction probability of this mutant population. We also describe the deterministic model related to the hybrid individual-based model with mutations and we compare these two approaches (stochastic and deterministic). In particular we prove that the two approaches lead to the same invasion criteria of a mutant population in a resident population.We present numeric simulations in order to illustrate the mathematical results
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Durmus, Alain. "High dimensional Markov chain Monte Carlo methods : theory, methods and applications". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLT001/document.

Texto completo da fonte
Resumo:
L'objet de cette thèse est l'analyse fine de méthodes de Monte Carlopar chaînes de Markov (MCMC) et la proposition de méthodologies nouvelles pour échantillonner une mesure de probabilité en grande dimension. Nos travaux s'articulent autour de trois grands sujets.Le premier thème que nous abordons est la convergence de chaînes de Markov en distance de Wasserstein. Nous établissons des bornes explicites de convergence géométrique et sous-géométrique. Nous appliquons ensuite ces résultats à l'étude d'algorithmes MCMC. Nous nous intéressons à une variante de l'algorithme de Metropolis-Langevin ajusté (MALA) pour lequel nous donnons des bornes explicites de convergence. Le deuxième algorithme MCMC que nous analysons est l'algorithme de Crank-Nicolson pré-conditionné, pour lequel nous montrerons une convergence sous-géométrique.Le second objet de cette thèse est l'étude de l'algorithme de Langevin unajusté (ULA). Nous nous intéressons tout d'abord à des bornes explicites en variation totale suivant différentes hypothèses sur le potentiel associé à la distribution cible. Notre étude traite le cas où le pas de discrétisation est maintenu constant mais aussi du cas d'une suite de pas tendant vers 0. Nous prêtons dans cette étude une attention toute particulière à la dépendance de l'algorithme en la dimension de l'espace d'état. Dans le cas où la densité est fortement convexe, nous établissons des bornes de convergence en distance de Wasserstein. Ces bornes nous permettent ensuite de déduire des bornes de convergence en variation totale qui sont plus précises que celles reportées précédemment sous des conditions plus faibles sur le potentiel. Le dernier sujet de cette thèse est l'étude des algorithmes de type Metropolis-Hastings par échelonnage optimal. Tout d'abord, nous étendons le résultat pionnier sur l'échelonnage optimal de l'algorithme de Metropolis à marche aléatoire aux densités cibles dérivables en moyenne Lp pour p ≥ 2. Ensuite, nous proposons de nouveaux algorithmes de type Metropolis-Hastings qui présentent un échelonnage optimal plus avantageux que celui de l'algorithme MALA. Enfin, nous analysons la stabilité et la convergence en variation totale de ces nouveaux algorithmes
The subject of this thesis is the analysis of Markov Chain Monte Carlo (MCMC) methods and the development of new methodologies to sample from a high dimensional distribution. Our work is divided into three main topics. The first problem addressed in this manuscript is the convergence of Markov chains in Wasserstein distance. Geometric and sub-geometric convergence with explicit constants, are derived under appropriate conditions. These results are then applied to thestudy of MCMC algorithms. The first analyzed algorithm is an alternative scheme to the Metropolis Adjusted Langevin algorithm for which explicit geometric convergence bounds are established. The second method is the pre-Conditioned Crank-Nicolson algorithm. It is shown that under mild assumption, the Markov chain associated with thisalgorithm is sub-geometrically ergodic in an appropriated Wasserstein distance. The second topic of this thesis is the study of the Unadjusted Langevin algorithm (ULA). We are first interested in explicit convergence bounds in total variation under different kinds of assumption on the potential associated with the target distribution. In particular, we pay attention to the dependence of the algorithm on the dimension of the state space. The case of fixed step sizes as well as the case of nonincreasing sequences of step sizes are dealt with. When the target density is strongly log-concave, explicit bounds in Wasserstein distance are established. These results are then used to derived new bounds in the total variation distance which improve the one previously derived under weaker conditions on the target density.The last part tackles new optimal scaling results for Metropolis-Hastings type algorithms. First, we extend the pioneer result on the optimal scaling of the random walk Metropolis algorithm to target densities which are differentiable in Lp mean for p ≥ 2. Then, we derive new Metropolis-Hastings type algorithms which have a better optimal scaling compared the MALA algorithm. Finally, the stability and the convergence in total variation of these new algorithms are studied
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Castiel, Eyal. "Study of QB-CSMA algorithms". Thesis, Toulouse, ISAE, 2019. http://www.theses.fr/2019ESAE0038.

Texto completo da fonte
Resumo:
La performance des réseaux sans fil où les utilisateurs partagent l'air comme moyen de communication est fortement limitée par le phénomène d'interférence électromagnétique. En effet, deux utilisateurs proches qui communiquent sur la même fréquence verront leurs ondes interférer, ce qui peut entraîner la perte de l'information transmise. Ainsi, il est indispensable de mettre en place des protocoles d'accès visant à limiter l'interférence en choisissant de manière efficace les utilisateurs autorisés à émettre à chaque instant. D'un point de vue scientifique, il s'agit d'un problème difficile qui a attiré l'attention de la communauté en informatique et probabilités appliquées depuis plus de 30 ans. Récemment, une nouvelle classe de protocoles d'accès - appelés protocoles CSMA adaptatifs - a émergé, et semble très prometteuse : par exemple, il a été montré que ces nouveaux protocoles possèdent une propriété très attrayante de stabilité maximale. Le but de ce projet est d'approfondir la connaissance que l'on a des protocoles CSMA adaptatifs dits QB (pour l'anglais "Queue-Based") qui à ce jour est encore extrêmement limitée. Concernant ces protocoles, le but de ce projet est de prouver des résultats théoriques permettant de comprendre le compromis réalisable entre débit et délai. Modèle probabiliste - d'un point de vue technique, il s'agit d'étudier le modèle suivant: chaque utilisateur du réseau est représenté par le nœud d'un graphe G, appelé graphe d'interférence, et tel que deux voisins du graphe ne peuvent être actifs simultanément. Des paquets à transmettre arrivent à chaque nœud au cours du temps, et le but est de choisir quels nœuds sont actifs à un moment donné. Le protocole CSMA-QB répond à cette question de la manière suivante : lorsqu'un nœud est actif, il se désactive à taux constant et lorsqu'il est inactif et qu'aucun de ses voisins ne le bloquent, alors il s'active à un taux qui dépend du nombre de paquets en attente de transmission via une fonction ψ appelée fonction d'activation. Le but général de la thèse est de comprendre l'influence de la topologie de G et du choix de ψ sur la performance du protocole. Pour cela, il s'agira d'étudier le temps de mélange de la dynamique de Glauber ainsi qu'un phénomène classique en théorie des probabilités, appelé phénomène de moyennisation stochastique, qui permettent une compréhension fine du comportement dynamique du réseau
Performance of wireless networks, in which users share the air as support for their communications is strongly limited by electromagnetic interference. That is, two users close to each other trying to send a message on the same frequency will experience interference between their messages, eventually leading to the loss of some information. It is then crucial to develop medium access protocols aiming to limit the occurrence of such a phenomena by choosing in an effective (and distributed) manner which station is allowed to transmit. From a scientific point of view, it is a difficult issue which has had some attention from the community in the field of computer science and applied probability in the past 30 years. Recently, a new class of medium access protocols - called adaptive CSMA - emerged and seem quite promising: for example, it has been shown that they exhibit a desirable property: throughput optimality (maximum stability). The goal of this project is to increase the knowledge we have the adaptive CSMA (or CSMA QB, for Queue Based) which is to this day quite limited (notably in the expected waiting time of a request arriving in the system, called delay). Our goal will be to prove theoric results to enhance our understanding of the throughput/delay trade-off
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Durmus, Alain. "High dimensional Markov chain Monte Carlo methods : theory, methods and applications". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLT001.

Texto completo da fonte
Resumo:
L'objet de cette thèse est l'analyse fine de méthodes de Monte Carlopar chaînes de Markov (MCMC) et la proposition de méthodologies nouvelles pour échantillonner une mesure de probabilité en grande dimension. Nos travaux s'articulent autour de trois grands sujets.Le premier thème que nous abordons est la convergence de chaînes de Markov en distance de Wasserstein. Nous établissons des bornes explicites de convergence géométrique et sous-géométrique. Nous appliquons ensuite ces résultats à l'étude d'algorithmes MCMC. Nous nous intéressons à une variante de l'algorithme de Metropolis-Langevin ajusté (MALA) pour lequel nous donnons des bornes explicites de convergence. Le deuxième algorithme MCMC que nous analysons est l'algorithme de Crank-Nicolson pré-conditionné, pour lequel nous montrerons une convergence sous-géométrique.Le second objet de cette thèse est l'étude de l'algorithme de Langevin unajusté (ULA). Nous nous intéressons tout d'abord à des bornes explicites en variation totale suivant différentes hypothèses sur le potentiel associé à la distribution cible. Notre étude traite le cas où le pas de discrétisation est maintenu constant mais aussi du cas d'une suite de pas tendant vers 0. Nous prêtons dans cette étude une attention toute particulière à la dépendance de l'algorithme en la dimension de l'espace d'état. Dans le cas où la densité est fortement convexe, nous établissons des bornes de convergence en distance de Wasserstein. Ces bornes nous permettent ensuite de déduire des bornes de convergence en variation totale qui sont plus précises que celles reportées précédemment sous des conditions plus faibles sur le potentiel. Le dernier sujet de cette thèse est l'étude des algorithmes de type Metropolis-Hastings par échelonnage optimal. Tout d'abord, nous étendons le résultat pionnier sur l'échelonnage optimal de l'algorithme de Metropolis à marche aléatoire aux densités cibles dérivables en moyenne Lp pour p ≥ 2. Ensuite, nous proposons de nouveaux algorithmes de type Metropolis-Hastings qui présentent un échelonnage optimal plus avantageux que celui de l'algorithme MALA. Enfin, nous analysons la stabilité et la convergence en variation totale de ces nouveaux algorithmes
The subject of this thesis is the analysis of Markov Chain Monte Carlo (MCMC) methods and the development of new methodologies to sample from a high dimensional distribution. Our work is divided into three main topics. The first problem addressed in this manuscript is the convergence of Markov chains in Wasserstein distance. Geometric and sub-geometric convergence with explicit constants, are derived under appropriate conditions. These results are then applied to thestudy of MCMC algorithms. The first analyzed algorithm is an alternative scheme to the Metropolis Adjusted Langevin algorithm for which explicit geometric convergence bounds are established. The second method is the pre-Conditioned Crank-Nicolson algorithm. It is shown that under mild assumption, the Markov chain associated with thisalgorithm is sub-geometrically ergodic in an appropriated Wasserstein distance. The second topic of this thesis is the study of the Unadjusted Langevin algorithm (ULA). We are first interested in explicit convergence bounds in total variation under different kinds of assumption on the potential associated with the target distribution. In particular, we pay attention to the dependence of the algorithm on the dimension of the state space. The case of fixed step sizes as well as the case of nonincreasing sequences of step sizes are dealt with. When the target density is strongly log-concave, explicit bounds in Wasserstein distance are established. These results are then used to derived new bounds in the total variation distance which improve the one previously derived under weaker conditions on the target density.The last part tackles new optimal scaling results for Metropolis-Hastings type algorithms. First, we extend the pioneer result on the optimal scaling of the random walk Metropolis algorithm to target densities which are differentiable in Lp mean for p ≥ 2. Then, we derive new Metropolis-Hastings type algorithms which have a better optimal scaling compared the MALA algorithm. Finally, the stability and the convergence in total variation of these new algorithms are studied
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Doignon, Yoann. "Le vieillissement démographique en Méditerranée : convergences territoriales et spatiales". Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM3097.

Texto completo da fonte
Resumo:
La transition démographique bouleverse les équilibres de population du monde. Si la croissance des populations a été soulignée par les démographes durant la seconde moitié du XXe siècle, le vieillissement est également une conséquence de ce changement de régime démographique. Néanmoins, les études démographiques et géoprospectives ne sont pas si nombreuses sur le sujet. Il semble pertinent de dépasser les cadres nationaux pour adopter une échelle infranationale pour comprendre les évolutions observées. Nous étudions ici le futur du vieillissement démographique des sociétés méditerranéennes dans sa dimension dynamique. La Méditerranée constitue un laboratoire intéressant pour l'étude du vieillissement : on y trouve une grande pluralité de situations démographiques. Les enjeux de cette étude dépassent son cadre thématique : pour la mener à bien, plusieurs défis méthodologiques ont dû être relevés. Des données démographiques aux échelles infranationales, issues de sources nombreuses et disparates, ont été collectées et harmonisées pour l'ensemble de l'espace méditerranéen. Elles ont servi à établir des scénarios prospectifs et des projections pour les 50 années à venir. Il a fallu adapter des méthodes issues d'autres disciplines pour mesurer le processus de convergence, et même en proposer de nouvelles. La thèse met en avant la diversité des convergences à l’œuvre dans le vieillissement des populations méditerranéennes. Les différents scénarios analysés décrivent tous une convergence globale des vieillissements mais rappellent aussi que l’hétérogénéité observée dans la répartition spatiale du phénomène devrait perdurer encore longtemps et pourrait se renforcer localement
The demographic transition upsets population balances worldwide. If population growth has been studied by demographers throughout the second half of the 20th century, ageing is an equally significant consequence of this demographic change. Nevertheless, studies demographic and geoprospective are not so many. In order to understand the observed changes, it seems appropriate to look beyond national borders for choose the level of sub-national territories. We study the future of Mediterranean societies' ageing in its dynamic dimension. The Mediterranean is an interesting laboratory because we found a great plurality of situations. To reach our goal, several challenges had to be overcome regarding the collection of data, their harmonization, their projection and analysis. For the whole Mediterranean area, we have collected and harmonized geo-demographic data to sub-national scales from many disparate sources. They were then used to establish future scenarios and projections for the next 50 years. Finally, we had to adapt methods from other disciplines (especially econometrics) to establish convergence of measures. We even propose news methods to answer our questions. The Ph.D. highlights the diversity of convergence proccess involved in the ageing populations of the Mediterranean. Territorial convergence and spatial convergence are taking part in the approximation of the regions' characteristics in terms of ageing. All the different scenarios analyzed describe future that highlight the global convergence of ageing but also remind that the observed heterogeneity in the spatial distribution of the phenomenon should last a long time and could strengthen locally
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Papamichail, Chrysanthi. "Estimation of dynamical systems with application in mechanics". Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2284.

Texto completo da fonte
Resumo:
Cette thèse porte sur inférence statistique, les méthodes bootstrap et l’analyse multivariée dans le cadre des processus semi-markoviens. Les applications principales concernent un problème de la mécanique de la rupture. Ce travail a une contribution double. La première partie concerne la modélisation stochastique du phénomène de la propagation de fissure de fatigue. Une équation différentielle stochastique décrit le mécanisme de la dégradation et le caractère aléatoire inné du phénomène est traité par un processus de perturbation. Sous l'hypothèse que ce processus soit un processus markovien (ou semi-markovien) de saut, la fiabilité du modèle est étudiée en faisant usage de la théorie du renouvellement markovien et une nouvelle méthode, plus rapide, de calcul de fiabilité est proposée avec l'algorithme correspondant. La méthode et le modèle pour le processus markovien de perturbation sont validés sur des données expérimentales. Ensuite, la consistance forte des estimateurs des moindres carrés des paramètres du modèle est obtenue en supposant que les résidus du modèle stochastique de régression, dans lequel le modèle initial est transformé, soient des différences de martingales. Dans la deuxième partie de la thèse, nous avons abordé le problème difficile de l'approximation de la distribution limite de certains estimateurs non paramétriques des noyaux semi-markoviens ou certaines fonctionnelles via la méthode bootstrap pondérée dans un cadre général. Des applications de ces résultats sur des problèmes statistiques sont données pour la construction de bandes de confiance, les tests statistiques, le calcul de la valeur p du test et pour l’estimation des inverses généralisés
The present dissertation is devoted to the statistical inference, bootstrap methods and multivariate analysis in the framework of semi-Markov processes. The main applications concern a mechanical problem from fracture mechanics. This work has a two-fold contribution. The first part concerns in general the stochastic modeling of the fatigue crack propagation phenomenon. A stochastic differential equation describes the degradation mechanism and the innate randomness of the phenomenon is handled by a perturbation process. Under the assumption that this process is a jump Markov (or semi-Markov) process, the reliability of the model is studied by means of Markov renewal theory and a new, faster, reliability calculus method is proposed with the respective algorithm. The method and the model for the Markov perturbation process are validated on experimental fatigue data. Next, the strong consistency of the least squares estimates of the model parameters is obtained by assuming that the residuals of the stochastic regression model are martingale differences into which the initial model function is transformed. In the second part of the manuscript, we have tackled the difficult problem of approximating the limiting distribution of certain non-parametric estimators of semi-Markov kernels or some functionals of them via the weighted bootstrap methodology in a general framework. Applications of these results on statistical problems such as the construction of confidence bands, the statistical tests, the computation of the p-value of the test are provided and the estimation of the generalized inverses
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Valois, Isabela da Silva. "PATHS OF CONVERGENCE OF AGRICULTURAL INCOME IN BRAZIL - AN ANALYSIS FROM MARKOV PROCESS OF FIRST ORDER FOR THE PERIOD 1996 TO 2009". Universidade Federal do CearÃ, 2012. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=8110.

Texto completo da fonte
Resumo:
Conselho Nacional de Desenvolvimento CientÃfico e TecnolÃgico
The Brazilian agricultural sector has made in the period of stabilization after the Real Plan (1996-2009) a satisfactory economic dynamics, in which the level of agricultural products began an upward trend and virtually uninterrupted growth. This performance suggests that state economies are undergoing a process of catching up, which in the long run there would be a tendency for poorer economies achieve the same level of economic growth (in terms of per capita agricultural GDP) of the richest economies, setting a process of convergence to steady state. Accordingly, this paper seeks to analyze the convergence of per capita agricultural income between the states of Brazil, making sure that the dynamics of the agricultural sector had contributed to the reduction of inequalities existing interstate. To this end, it was used the first-order Markov process. The results indicate the occurrence of movements backward economies to levels of income per capita agricultural lower, indicating that the economies under review showed a trend of impoverishment, despite the global economic growth presented by the sector over the period. Among the factors that led these economies to tread a path of impoverishment, one can cite the emphasis of public policy to export crops, not covered by all the federating units of the country, which would result in the strengthening of the state economies have developed, expense of which are under development; beyond the migration of manpower for the agricultural production centers in more developed agricultural, causing the "Red Queen Effect," in which the growth of agricultural GDP does not translate into growth of income per capita in the field. However, the focus of this study is to identify the occurrence of convergence / divergence, no inferences about the causes that led to the initiation of such a movement, since these factors make room for new studies that seek to investigate them, in order to provide tools for the formulation of agricultural policies aimed at minimizing or even reversal of the causes that lead to poverty in the countryside.
O setor agropecuÃrio brasileiro tem apresentado no perÃodo de pÃs estabilizaÃÃo do Plano Real (1996-2009) uma dinÃmica econÃmica satisfatÃria, em que o nÃvel de produto agropecuÃrio iniciou uma trajetÃria ascendente e praticamente ininterrupta de crescimento. Tal performance sugere que as economias estaduais estejam passando por um processo de catching up, em que no longo prazo existiria uma tendÃncia das economias mais pobres alcanÃarem o mesmo nÃvel de crescimento econÃmico (em termos de PIB per capita agropecuÃrio) das economias mais ricas, configurando um processo de convergÃncia no steady state. Eom efeito, este, trabalho busca analisar a convergÃncia da renda agropecuÃria per capita entre os estados do Brasil, verificando se a dinÃmica do setor agrÃcola teria contribuÃdo para a reduÃÃo das desigualdades interestaduais preexistentes. Para tal, fez-se uso do processo markoviano de primeira ordem. Os resultados apontaram a ocorrÃncia de movimentos de retrocesso das economias para nÃveis de renda per capita agropecuÃria inferiores, indicando que as economias em anÃlise apresentaram uma tendÃncia de empobrecimento, apesar do crescimento econÃmico global do setor ao longo do perÃodo. Dentre os fatores que levariam tais economias a trilharem uma trajetÃria de empobrecimento, pode-se citar a Ãnfase das polÃticas pÃblicas Ãs culturas de exportaÃÃo, nÃo contempladas por todas as unidades federativas do PaÃs, o que resultaria no fortalecimento das economias estaduais jà desenvolvidas, em detrimento das que se encontram em desenvolvimento; alÃm dos movimentos migratÃrios da mÃo-de-obra agropecuÃria para os centros produtores agrÃcolas mais desenvolvidos, causando o âEfeito Rainha Vermelhaâ, em que o crescimento do PIB agropecuÃrio nÃo se traduziria em crescimento das rendas per capita no campo. Contudo, o foco deste estudo consiste na identificaÃÃo da ocorrÃncia do processo de convergÃncia/divergÃncia, sem inferir sobre as causas que levariam ao desencadeamento de tal movimento, jà que tais fatores abrem espaÃo para novos estudos que busquem investigÃ-los, a fim de poder fornecer instrumentos de formulaÃÃo de polÃticas pÃblicas agropecuÃrias direcionadas à minimizaÃÃo ou mesmo reversÃo das causas que levam à pobreza no campo.
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Viano, Marie-Claude. "Quelques problèmes de statistiques dans les processus". Paris 11, 1988. http://www.theses.fr/1988PA112331.

Texto completo da fonte
Resumo:
La thèse est divisée en trois parties : Dans la première nous montrons la convergence faible vers un processus gaussien de la fonctionnelle du rapport de vraisemblance Zn (t). Nous nous plaçons dans le cas d'une dépendance markovienne. Successivement pour une chaine stationnaire puis pour une chaine Harris récurrente non stationnaire nous obtenons la convergence de Zn(. ) restreinte à une suite d'ensembles dont la probabilité tend vers 1. Enfin la convergence de Zn non restreinte est montrée sous les conditions de mélange. Dans la deuxième partie, à propos d'un échantillonnage selon un processus de renouvellement effectué sur une procédure de Kalman, nous étudions la convergence d'une suite d'itérations aléatoires. La loi limite est une mesure singulière dont le support est un ensemble de type Cantor. La troisième partie est consacrée à la notion d'excitation persistante. Un premier texte introduit les outils, leurs propriétés et aborde l'étude du manque d'e citation. Le deuxième donne des conditions suffisantes pour la convergence presque sure de l'estimateur des moindres carrés généralisés des paramètres d'un processus ARMAX.
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Helali, Amine. "Vitesse de convergence de l'échantillonneur de Gibbs appliqué à des modèles de la physique statistique". Thesis, Brest, 2019. http://www.theses.fr/2019BRES0002/document.

Texto completo da fonte
Resumo:
Les méthodes de Monte Carlo par chaines de Markov MCMC sont des outils mathématiques utilisés pour simuler des mesures de probabilités π définies sur des espaces de grandes dimensions. Une des questions les plus importantes dans ce contexte est de savoir à quelle vitesse converge la chaine de Markov P vers la mesure invariante π. Pour mesurer la vitesse de convergence de la chaine de Markov P vers sa mesure invariante π nous utilisons la distance de la variation totale. Il est bien connu que la vitesse de convergence d’une chaine de Markov réversible P dépend de la deuxième plus grande valeur propre en valeur absolue de la matrice P notée β!. Une partie importante dans l’estimation de β! consiste à estimer la deuxième plus grande valeur propre de la matrice P, qui est notée β1. Diaconis et Stroock (1991) ont introduit une méthode basée sur l’inégalité de Poincaré pour estimer β1 pour le cas général des chaines de Markov réversibles avec un nombre fini d'état. Dans cette thèse, nous utilisons la méthode de Shiu et Chen (2015) pour étudier le cas de l'algorithme de l'échantillonneur de Gibbs pour le modèle d'Ising unidimensionnel avec trois états ou plus appelé aussi modèle de Potts. Puis, nous généralisons le résultat de Shiu et Chen au cas du modèle d’Ising deux- dimensionnel avec deux états. Les résultats obtenus minorent ceux introduits par Ingrassia (1994). Puis nous avons pensé à perturber l'échantillonneur de Gibbs afin d’améliorer sa vitesse de convergence vers l'équilibre
Monte Carlo Markov chain methods MCMC are mathematical tools used to simulate probability measures π defined on state spaces of high dimensions. The speed of convergence of this Markov chain X to its invariant state π is a natural question to study in this context.To measure the convergence rate of a Markov chain we use the total variation distance. It is well known that the convergence rate of a reversible Markov chain depends on its second largest eigenvalue in absolute value denoted by β!. An important part in the estimation of β! is the estimation of the second largest eigenvalue which is denoted by β1.Diaconis and Stroock (1991) introduced a method based on Poincaré inequality to obtain a bound for β1 for general finite state reversible Markov chains.In this thesis we use the Chen and Shiu approach to study the case of the Gibbs sampler for the 1−D Ising model with three and more states which is also called Potts model. Then, we generalize the result of Shiu and Chen (2015) to the case of the 2−D Ising model with two states.The results we obtain improve the ones obtained by Ingrassia (1994). Then, we introduce some method to disrupt the Gibbs sampler in order to improve its convergence rate to equilibrium
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Izri, Nora. "Evaluation de performances des réseaux tout optiques à topologie en anneau". Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS0014.

Texto completo da fonte
Resumo:
L'augmentation du trafic Internet associée à une forte émergence des demandes de QoS (Quality of Service) par les applications clientes, crée de nouvelles contraintes sur les réseaux. Ces facteurs engendrent un besoin de plus en plus élevé en bande passante, et une nécessité de gestion des ressources disponibles plus efficace. Durant cette thèse, nous avons évalué des mécanismes de gestion des ressources dans un anneau tout optique utilisant des composants OPADM (Optical Packet ADD/Drop Multiplexer), en offrant une garantie de QoS au niveau des sous-longueurs d'onde. Cet anneau permet de transporter du trafic provenant des réseaux fixes et mobiles. Une étude de convergence fixe-mobile au niveau de la couche physique a été menée. A notre niveau, la convergence fixe-mobile se traduit par l'estimation de la capacité du réseau à supporter à la fois du trafic fixe et mobile, tout en répondant aux exigences de QoS des différents trafics et opérateurs. Pour atteindre ces objectifs, nous avons proposé trois approches de convergence se focalisant sur la nécessité de séparer ou pas le trafic fixe du mobile au niveau électronique, ainsi que sur l'utilisation du conteneur optique entre ces deux types de trafics. Ces approches ont été étudiées par simulation. Nos travaux ont également porté sur la reconfiguration dynamique des multiplexeurs optiques de type ROADM (Reconfigurable Optical ADD/Drop Multiplexer). Ainsi, nous avons étudié le problème d'optimisation des délais de bout-en-bout des paquets clients, en proposant une approche d'agrégation des canaux prenant en compte les paramètres de QoS. Nous avons développé des modèles analytiques et numériques pour valider cette proposition
The increase in Internet traffic due to a sharp rise in requests for QoS (Quality of Service) by client applications, generates new constraints on the networks. These factors create a need in terms of bandwidth becoming higher, and a requirement to manage resources more efficiently. In this thesis, we evaluated the mechanisms of resources management in an all-optical ring using components OPADM (Optical Packet Add/Drop Multiplexer), offering a guarantee of QoS at the sub-wavelength. This ring can carry traffic from fixed and mobile networks. A study of fixed-mobile convergence at the physical layer was conducted. At our level, the fixed-mobile convergence results in the estimation of network capacity to support both fixed and mobile traffic, while meeting the QoS requirements of different traffic and operators. To achieve these goals, we proposed three approaches to convergence focusing on the need to separate fixed and mobile traffic in the electronics queuing or not, as well as the use of optical container traffic between fixed and mobile. These approaches have been studied by simulation. Our work has also focused on optical technology for dynamic reconfiguration of optical multiplexers as ROADM (Reconfigurable Optical Add/Drop Multiplexer). Thus, we studied the optimization problem of end-to-end delay of electronic packets by proposing the channels aggregation approach, taking into account the QoS parameters. We have developed analytical and numerical models to validate this proposal
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Wehbe, Diala. "Simulations and applications of large-scale k-determinantal point processes". Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I012/document.

Texto completo da fonte
Resumo:
Avec la croissance exponentielle de la quantité de données, l’échantillonnage est une méthode pertinente pour étudier les populations. Parfois, nous avons besoin d’échantillonner un grand nombre d’objets d’une part pour exclure la possibilité d’un manque d’informations clés et d’autre part pour générer des résultats plus précis. Le problème réside dans le fait que l’échantillonnage d’un trop grand nombre d’individus peut constituer une perte de temps.Dans cette thèse, notre objectif est de chercher à établir des ponts entre la statistique et le k-processus ponctuel déterminantal(k-DPP) qui est défini via un noyau. Nous proposons trois projets complémentaires pour l’échantillonnage de grands ensembles de données en nous basant sur les k-DPPs. Le but est de sélectionner des ensembles variés qui couvrent un ensemble d’objets beaucoup plus grand en temps polynomial. Cela peut être réalisé en construisant différentes chaînes de Markov où les k-DPPs sont les lois stationnaires.Le premier projet consiste à appliquer les processus déterminantaux à la sélection d’espèces diverses dans un ensemble d’espèces décrites par un arbre phylogénétique. En définissant le noyau du k-DPP comme un noyau d’intersection, les résultats fournissent une borne polynomiale sur le temps de mélange qui dépend de la hauteur de l’arbre phylogénétique.Le second projet vise à utiliser le k-DPP dans un problème d’échantillonnage de sommets sur un graphe connecté de grande taille. La pseudo-inverse de la matrice Laplacienne normalisée est choisie d’étudier la vitesse de convergence de la chaîne de Markov créée pour l’échantillonnage de la loi stationnaire k-DPP. Le temps de mélange résultant est borné sous certaines conditions sur les valeurs propres de la matrice Laplacienne.Le troisième sujet porte sur l’utilisation des k-DPPs dans la planification d’expérience avec comme objets d’étude plus spécifiques les hypercubes latins d’ordre n et de dimension d. La clé est de trouver un noyau positif qui préserve le contrainte de ce plan c’est-à-dire qui préserve le fait que chaque point se trouve exactement une fois dans chaque hyperplan. Ensuite, en créant une nouvelle chaîne de Markov dont le n-DPP est sa loi stationnaire, nous déterminons le nombre d’étapes nécessaires pour construire un hypercube latin d’ordre n selon le n-DPP
With the exponentially growing amount of data, sampling remains the most relevant method to learn about populations. Sometimes, larger sample size is needed to generate more precise results and to exclude the possibility of missing key information. The problem lies in the fact that sampling large number may be a principal reason of wasting time.In this thesis, our aim is to build bridges between applications of statistics and k-Determinantal Point Process(k-DPP) which is defined through a matrix kernel. We have proposed different applications for sampling large data sets basing on k-DPP, which is a conditional DPP that models only sets of cardinality k. The goal is to select diverse sets that cover a much greater set of objects in polynomial time. This can be achieved by constructing different Markov chains which have the k-DPPs as their stationary distribution.The first application consists in sampling a subset of species in a phylogenetic tree by avoiding redundancy. By defining the k-DPP via an intersection kernel, the results provide a fast mixing sampler for k-DPP, for which a polynomial bound on the mixing time is presented and depends on the height of the phylogenetic tree.The second application aims to clarify how k-DPPs offer a powerful approach to find a diverse subset of nodes in large connected graph which authorizes getting an outline of different types of information related to the ground set. A polynomial bound on the mixing time of the proposed Markov chain is given where the kernel used here is the Moore-Penrose pseudo-inverse of the normalized Laplacian matrix. The resulting mixing time is attained under certain conditions on the eigenvalues of the Laplacian matrix. The third one purposes to use the fixed cardinality DPP in experimental designs as a tool to study a Latin Hypercube Sampling(LHS) of order n. The key is to propose a DPP kernel that establishes the negative correlations between the selected points and preserve the constraint of the design which is strictly confirmed by the occurrence of each point exactly once in each hyperplane. Then by creating a new Markov chain which has n-DPP as its stationary distribution, we determine the number of steps required to build a LHS with accordance to n-DPP
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Lesquoy-de, Turckheim Élisabeth. "Tests non paramétriques et rééchantillonnage : le modèle de Cox périodique". Paris 11, 1987. http://www.theses.fr/1987PA112474.

Texto completo da fonte
Resumo:
Cette thèse comporte trois parties. La première est l'étude de deux tests non­ paramétriques définis par rééchantillonnage. Leur puissance est estimée de façon fortement consistante, par simulation. L'un permet de comparer deux distributions dans un dispositif en blocs 2 x 2, l'autre de tester l'indépendance de deux temps de survie censurés. La deuxième partie adapte le modèle de régression de Cox à un processus ponctuel dont l'intensité de base est périodique et les régresseurs des processus prévisibles, ergodiques et
The first part proposes two nonparametric test defined by a simulation. One compares two distributions functions in a two-by-two black design, the other tests the independence of two censored survival times. The second part is an adaptation of Cox's regression model to a counting process having a periodic underlying intensity and predictable processes as regressors. These processes are ergodic and ϕ-mixing. The underlying intensity is estimated using either an empirical distribution-type estimate or a histogram-type estimate. These two estimates are asymptotically Gaussian and equivalent, as well as the associated regression parameters estimates. Finally, the model is applied to the analysis of a feeding pattern. The third part is a. Modelling of the kinetics of drought rhizogenesis of Sinapis alba
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Jan, Christophe. "Vitesse de convergence dans le TCL pour des processus associés à des systèmes dynamiques et aux produits de matrices aléatoires". Rennes 1, 2001. http://www.theses.fr/2001REN10073.

Texto completo da fonte
Resumo:
La question de la vitesse de convergence dans le TCL a fait l'objet de nombreux travaux. Dans cette thèse, nous nous intéressons à différents types de situations liées d'une part à des processus et d'autre part au comportement limite de produits de matrices aléatoires. Dans une première partie, nous établissons quelques résultats de vitesses concernant des processus à accroissement de martingale de moments finis de tout ordre, puis des processus bornés. Dans une seconde partie, nous étudions le comportement asymptotique de produits de matrices aléatoires. Dans ce domaine, nous établissons des résultats de vitesse et de TCL pour des processus de matrices inversibles sous des conditions d'intégrabilité affaiblies.
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Gonzalez, Karen. "Contribution à l’étude des processus markoviens déterministes par morceaux : étude d’un cas-test de la sûreté de fonctionnement et problème d’arrêt optimal à horizon aléatoire". Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14139/document.

Texto completo da fonte
Resumo:
Les Processus Markoviens Déterministes par Morceaux (PDMP) ont été introduits dans la littérature par M.H.A Davis comme une classe générale de modèles stochastiques. Les PDMP forment une famille de processus markoviens qui décrivent une trajectoire déterministe ponctuée par des sauts aléatoires. Dans une première partie, les PDMP sont utilisés pour calculer des probabilités d'événements redoutés pour un cas-test de la fiabilité dynamique (le réservoir chauffé) par deux méthodes numériques différentes : la première est basée sur la résolution du système différentieldécrivant l'évolution physique du réservoir et la seconde utilise le calcul de l'espérancede la fonctionnelle d'un PDMP par un système d'équations intégro-différentielles.Dans la seconde partie, nous proposons une méthode numérique pour approcher lafonction valeur du problème d'arrêt optimal pour un PDMP. Notre approche estbasée sur la quantification de la position après saut et le temps inter-sauts de lachaîne de Markov sous-jacente au PDMP, et la discréetisation en temps adaptée à latrajectoire du processus. Ceci nous permet d'obtenir une vitesse de convergence denotre schéma numérique et de calculer un temps d'arrêt ε-optimal
Piecewise Deterministic Markov Processes (PDMP's) have been introduced inthe literature by M.H.A. Davis as a general class of stochastics models. PDMP's area family of Markov processes involving deterministic motion punctuated by randomjumps. In a first part, PDMP's are used to compute probabilities of top eventsfor a case-study of dynamic reliability (the heated tank system) with two di#erentmethods : the first one is based on the resolution of the differential system giving thephysical evolution of the tank and the second uses the computation of the functionalof a PDMP by a system of integro-differential equations. In the second part, wepropose a numerical method to approximate the value function for the optimalstopping problem of a PDMP. Our approach is based on quantization of the post-jump location and inter-arrival time of the Markov chain naturally embedded in thePDMP, and path-adapted time discretization grids. It allows us to derive boundsfor the convergence rate of the algorithm and to provide a computable ε-optimalstopping time
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Atamna, Asma. "Analysis of Randomized Adaptive Algorithms for Black-Box Continuous Constrained Optimization". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS010/document.

Texto completo da fonte
Resumo:
On s'intéresse à l'étude d'algorithmes stochastiques pour l'optimisation numérique boîte-noire. Dans la première partie de cette thèse, on présente une méthodologie pour évaluer efficacement des stratégies d'adaptation du step-size dans le cas de l'optimisation boîte-noire sans contraintes. Le step-size est un paramètre important dans les algorithmes évolutionnaires tels que les stratégies d'évolution; il contrôle la diversité de la population et, de ce fait, joue un rôle déterminant dans la convergence de l'algorithme. On présente aussi les résultats empiriques de la comparaison de trois méthodes d'adaptation du step-size. Ces algorithmes sont testés sur le testbed BBOB (black-box optimization benchmarking) de la plateforme COCO (comparing continuous optimisers). Dans la deuxième partie de cette thèse, sont présentées nos contributions dans le domaine de l'optimisation boîte-noire avec contraintes. On analyse la convergence linéaire d'algorithmes stochastiques adaptatifs pour l'optimisation sous contraintes dans le cas de contraintes linéaires, gérées avec une approche Lagrangien augmenté adaptative. Pour ce faire, on étend l'analyse par chaines de Markov faite dans le cas d'optimisation sans contraintes au cas avec contraintes: pour chaque algorithme étudié, on exhibe une classe de fonctions pour laquelle il existe une chaine de Markov homogène telle que la stabilité de cette dernière implique la convergence linéaire de l'algorithme. La convergence linéaire est déduite en appliquant une loi des grands nombres pour les chaines de Markov, sous l'hypothèse de la stabilité. Dans notre cas, la stabilité est validée empiriquement
We investigate various aspects of adaptive randomized (or stochastic) algorithms for both constrained and unconstrained black-box continuous optimization. The first part of this thesis focuses on step-size adaptation in unconstrained optimization. We first present a methodology for assessing efficiently a step-size adaptation mechanism that consists in testing a given algorithm on a minimal set of functions, each reflecting a particular difficulty that an efficient step-size adaptation algorithm should overcome. We then benchmark two step-size adaptation mechanisms on the well-known BBOB noiseless testbed and compare their performance to the one of the state-of-the-art evolution strategy (ES), CMA-ES, with cumulative step-size adaptation. In the second part of this thesis, we investigate linear convergence of a (1 + 1)-ES and a general step-size adaptive randomized algorithm on a linearly constrained optimization problem, where an adaptive augmented Lagrangian approach is used to handle the constraints. To that end, we extend the Markov chain approach used to analyze randomized algorithms for unconstrained optimization to the constrained case. We prove that when the augmented Lagrangian associated to the problem, centered at the optimum and the corresponding Lagrange multipliers, is positive homogeneous of degree 2, then for algorithms enjoying some invariance properties, there exists an underlying homogeneous Markov chain whose stability (typically positivity and Harris-recurrence) leads to linear convergence to both the optimum and the corresponding Lagrange multipliers. We deduce linear convergence under the aforementioned stability assumptions by applying a law of large numbers for Markov chains. We also present a general framework to design an augmented-Lagrangian-based adaptive randomized algorithm for constrained optimization, from an adaptive randomized algorithm for unconstrained optimization
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Bounebache, Said Karim. "Équations aux dérivées partielles stochastiques avec un potentiel singulier". Phd thesis, Paris 6, 2012. http://www.theses.fr/2012PA066149.

Texto completo da fonte
Resumo:
Nous nous intéressons dans cette thèse a l’étude de trois dynamiques en dimension infinie, liées à des problèmes d'interface aléatoire. Il s'agira de résoudre uneéquation aux dérivées partielles stochastiques paraboliques avec différents potentiels singuliers. Trois types de potentiel sont étudiés, dans un premier temps nousconsidérons l'équation de la chaleur stochastique avec un potentiel convexe sur R^d, correspondant à l'évolution d'une corde aléatoire dans un ensemble convexeO inclus dans R^d et se réfléchissant sur le bord de O. La mesure de réflexion , vue comme la fonctionnelle additive d'un processus de Hunt, est étudiée au travers de sa mesure de Revuz. L'unicité trajectorielle et l'existence d'une solution forte continue sont prouvées. Pour cela nous utilisons des résultats récents sur la convergence #étroite de processus de Markov avec une mesure invariante log-concave. Nous étudions ensuite l'équation de la chaleur avec un bruit blanc espace-temps,avec un potentiel singulier faisant apparaître un temps local en espace. Cette fois le processus de Markov étudié possède une mesure invariante de type mesure de Gibbs mais avec un potentiel non convexe. L'existence d'une solution faible est prouvée,ainsi que la convergence, vers une solution stationnaire ,d'une suite d'approximation, construite par projections sur des espaces de dimension infinie. Une étude du semi-groupe permet d'obtenir des solutions non-stationnaires. Nous combinons enfin les deux précédents modèles. L'existence d'une solutionstationnaire est prouvée ainsi que la convergence d'un schéma d'approximation comme précédemment
This thesis deals with some topics linked with interface model, ours aim is to find solution of some SPDE of parabolic type with singular potential. Firstly We study the motion of a random string in a convex domain O in R^d, namely the solution of a vector-valued stochastic heat equation, confined in the closure of O and reflected at the boundary of O. We study the structure of the reflection measure by computing its Revuz measure in terms of an infinite dimensional integration by parts formula. We prove extistence and uniqueness of a continuous strong solution. Our method exploits recent results on weak convergence of Markov processes with log-concave invariantmeasures. Secondly We consider a stochastic heat equation driven by a space-time white noise and with a singular drift, where a local-time in space appears. The process we study has an explicit invariant measure of Gibbs type, with a non-convex potential. We obtain existence of a Markov solution, which is associated with an explicit Dirichlet form. Moreover we study approximations of the stationary solution by means of a regularization of the singular drift or by a finite-dimensional projection. Finaly, we extend the previous methods for a SPDE in which the two types of singularity appear
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Desharnais, Josée. "Labelled Markov processes". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0031/NQ64546.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Balan, Raluca M. "Set-Markov processes". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/NQ66119.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Eltannir, Akram A. "Markov interactive processes". Diss., Georgia Institute of Technology, 1993. http://hdl.handle.net/1853/30745.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Martinez, Aguilera Servet. "Description ergodique des processus de Markov qui convergent vers l'équilibre associés aux k-systèmes". Paris 6, 1986. http://www.theses.fr/1986PA066242.

Texto completo da fonte
Resumo:
On donne une description ergodique des processus de Markov canoniques qui convergent vers l'équilibre associés aux k-systèmes. On montre que leur probabilité de transition est concentrée sur la variété stable du point transforme et que le domaine d'attraction de la mesure invariante est le même que pour le k-système. On caractérise la propriété de convergence vers l'équilibre par une entropie de non équilibre. Utilisant une formule d'entropie généralisée de Rokhlein on trouve des conditions pour qu'elle soit préservée pour de tels processus et quand le système de départ est la transformation du boulanger on prouve que le système dynamique induit par le processus est aussi de type Bernoulli. On étudie des systèmes d'espace de base discret.
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Brooks, Stephen Peter. "Convergence diagnostics for Markov Chain Monte Carlo". Thesis, University of Cambridge, 1996. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.363913.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Barois, Brice. "Créativité, attractivité et développement économique des territoires européens". Thesis, Toulon, 2019. http://www.theses.fr/2019TOUL2001/document.

Texto completo da fonte
Resumo:
Cette thèse propose une analyse comparative de la richesse, de la créativité, de la connectivité et de l’attractivité résidentielle des territoires. Dans un premier chapitre, la hiérarchie des richesses régionales dans l’Union Européenne sur la période 2000-2015 est analysée, en se focalisant sur la dynamique de la distribution des PIB par habitant des 276 régions européennes identifiées au niveau NUTS 2. À l’aide de modèles économétriques, ce chapitre montre que les mécanismes structurels européens ne conduisent pas à un processus de convergence des PIB par habitant. Les mécanismes de rattrapage se sont avérés inefficaces et on assiste à une polarisation de performances qu’on caractérise comme l’Europe à deux vitesses. Le second chapitre, sur la période 2006-2013, étudie l’impact direct et indirect des industries créatives et culturelles et de la connectivité sur la richesse des régions européennes. Il montre que lorsque l’on tient compte des effets d’autocorrélation spatiale, l’impact de ces industries sur la richesse des régions européennes est plus contrasté et peut, dans certains cas, creuser les disparités. Le troisième chapitre se concentre sur les migrations résidentielles en France métropolitaine. En analysant les migrations résidentielles entre les zones d’emploi françaises, il constate que les jeunes (15-29 ans) migrent davantage que le reste de la population. Plus l’individu est diplômé, célibataire et locataire, plus il a de chance de migrer. Dans un même temps, les caractéristiques des territoires de localisation influent sur les décisions de migration des individus. Les jeunes préfèrent emménager dans des territoires connectés, où l’emploi créatif est présent et le taux de chômage est faible
This thesis delivers a comparative analysis on the wealth, the creativity, the connectivity and the residential attractiveness of the European territories. In a first chapter, the hierarchy of regional wealth in the European Union over the period 2000-2015 is analyzed, focusing on the dynamics of the distribution of GDP per capita of the 276 European regions identified at the NUTS 2 level. Using econometric models, it shows that the European structural mechanisms don’t lead to a process of convergence of GDP per capita. The catch-up mechanisms have proved ineffective and we are witnessing a polarization of performances that we characterize as the two-speed Europe ... The second chapter, for the period 2006-2013, studies the direct and indirect impact of the creative and cultural industries on the wealth of European regions. It shows that when spatial autocorrelation effects are considered, the impacts of these industries on the wealth of European regions are more contrasted and may, in some cases, widen disparities. The third chapter focuses on residential migration in metropolitan France. By analyzing residential migration between the French employment areas, this work shows that young people (aged 15-29) migrate more than the rest of the population. The more an individual is a graduate, single and renter, the more likely he is to migrate. At the same time, the characteristics of location territories influence the migration decisions of individuals. Young people prefer to move to connected territories, where creative employment is present and where unemployment rate is low
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

莊競誠 e King-sing Chong. "Explorations in Markov processes". Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 1997. http://hub.hku.hk/bib/B31235682.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

James, Huw William. "Transient Markov decision processes". Thesis, University of Bristol, 2006. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.430192.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Ku, Ho Ming. "Interacting Markov branching processes". Thesis, University of Liverpool, 2014. http://livrepository.liverpool.ac.uk/2002759/.

Texto completo da fonte
Resumo:
In engineering, biology and physics, in many systems, the particles or members give birth and die through time. These systems can be modeled by continuoustime Markov Chains and Markov Processes. Applications of Markov Processes are investigated by many scientists, Jagers [1975] for example . In ordinary Markov branching processes, each particles or members are assumed to be identical and independent. However, in some cases, each two members of the species may interact/collide together to give new birth. In considering these cases, we need to have some more general processes. We may use collision branching processes to model such systems. Then, in order to consider an even more general model, i.e. each particles can have branching and collision effect. In this case the branching component and collision component will have an interaction effect. We consider this model as interacting branching collision processes. In this thesis, in Chapter 1, we firstly look at some background, basic concepts of continuous-time Markov Chains and ordinary Markov branching processes. After revising some basic concepts and models, we look into more complicated models, collision branching processes and interacting branching collision processes. In Chapter 2, for collision branching processes, we investigate the basic properties, criteria of uniqueness, and explicit expressions for the extinction probability and the expected/mean extinction time and expected/mean explosion time. In Chapter 3, for interacting branching collision processes, similar to the structure in last chapter, we investigate the basic properties, criteria of uniqueness. Because of the more complicated model settings, a lot more details are required in considering the extinction probability. We will divide this section into several parts and consider the extinction probability under different cases and assumptions. After considering the extinction probability for the interacting branching processes, we notice that the explicit form of the extinction probability may be too complicated. In the last part of Chapter 3, we discuss the asymptotic behavior for the extinction probability of the interacting branching collision processes. In Chapter 4, we look at a related but still important branching model, Markov branching processes with immigration, emigration and resurrection. We investigate the basic properties, criteria of uniqueness. The most interesting part is that we investigate the extinction probability with our technique/methods using in Chapter 4. This can also be served as a good example of the methods introducing in Chapter 3. In Chapter 5, we look at two interacting branching models, One is interacting collision process with immigration, emigration and resurrection. The other one is interacting branching collision processes with immigration, emigration and resurrection. we investigate the basic properties, criteria of uniqueness and extinction probability. My original material starts from Chapter 4. The model used in chapter 4 were introduced by Li and Liu [2011]. In Li and Liu [2011], some calculation in cases of extinction probability evaluation were not strictly defined. My contribution focuses on the extinction probability evaluation and discussing the asymptotic behavior for the extinction probability in Chapter 4. A paper for this model will be submitted in this year. While two interacting branching models are discussed in Chapter 5. Some important properties for the two models are studied in detail.
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Chong, King-sing. "Explorations in Markov processes /". Hong Kong : University of Hong Kong, 1997. http://sunzi.lib.hku.hk/hkuto/record.jsp?B18736105.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia