Academic literature on the topic 'Chaines de Markov'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Chaines de Markov.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Chaines de Markov"

1

Dies, Jacques-Edouard. "Transience des chaines de Markov lineaires sur les permutations." Journal of Applied Probability 24, no. 4 (December 1987): 899–907. http://dx.doi.org/10.2307/3214214.

Full text
Abstract:
Computer scientists have introduced ‘paging algorithms' which are a special class of Markov chains on permutations known, in probability theory, as ‘libraries': books being placed on a shelf T (T is an infinite interval of the set Z of the integers) and a policy ρ : T → T such that ρ (t) < t being chosen, a book b placed at t ∊ T is selected with probability pb, it is removed and replaced at ρ (t) prior to next removal. The different arrangements of books on the shelf are the states of the Markov chain. In this paper we prove that, if the shelf is not bounded on the left, any library (i.e. for any policy ρ and any probability ρ on the books) is transient.
APA, Harvard, Vancouver, ISO, and other styles
2

Dies, Jacques-Edouard. "Transience des chaines de Markov lineaires sur les permutations." Journal of Applied Probability 24, no. 04 (December 1987): 899–907. http://dx.doi.org/10.1017/s0021900200116778.

Full text
Abstract:
Computer scientists have introduced ‘paging algorithms' which are a special class of Markov chains on permutations known, in probability theory, as ‘libraries': books being placed on a shelf T (T is an infinite interval of the set Z of the integers) and a policy ρ : T → T such that ρ (t) &lt; t being chosen, a book b placed at t ∊ T is selected with probability pb , it is removed and replaced at ρ (t) prior to next removal. The different arrangements of books on the shelf are the states of the Markov chain. In this paper we prove that, if the shelf is not bounded on the left, any library (i.e. for any policy ρ and any probability ρ on the books) is transient.
APA, Harvard, Vancouver, ISO, and other styles
3

Córdoba y Ordóñez, Juan, and Javier Antón Burgos. "Aplicación de cadenas de Markov al análisis dinámico de la centralidad en un sistema de transporte." Estudios Geográficos 51, no. 198 (March 30, 1990): 33–64. http://dx.doi.org/10.3989/egeogr.1990.i198.33.

Full text
Abstract:
Se expone en este artículo la utilidad que ofrecen las cadenas de Markov para el análisis de ciertos aspectos dinámicos del sistema de transporte, como la jerarquía de centros, la centralidad y la cohesión de la red. El trabajo se realiza a partir de un supuesto teórico sobre la red de transporte aéreo española y en él se presta especial atención al proceso metodológico. [fr] Cet article verse sur les chaines de Markov comme outil méthodologique pour l'analyse de certains aspects dynamiques des systèmes de transport, tels que la hiérarchie des centres, la centralité et la cohésion du réseau. L'expérience, qui fait surtout attention au processus méthodologique, porte sur un hypothétique réseau espagnol de transport aérien.
APA, Harvard, Vancouver, ISO, and other styles
4

Dimou, Michel, Gabriel Figueiredo De Oliveira, and Alexandra Schaffar. "Entre convergence et disparité. Les SIDS face aux défis de la transition énergétique." Revue d'économie politique Vol. 134, no. 3 (June 21, 2024): 417–41. http://dx.doi.org/10.3917/redp.343.0417.

Full text
Abstract:
L’objectif de cet article est d’analyser les performances énergétiques des petites économies insulaires en développement (SIDS). Dans un contexte de tensions généralisées sur les marchés énergétiques mondiaux, les SIDS se révèlent des espaces particulièrement vulnérables. En utilisant des données de la Banque Mondiale concernant 183 pays, et en mobilisant des tests de convergence et des méthodes non paramétriques telles que les chaines de Markov, cet article compare les performances énergétiques des SIDS à celles des autres pays. Les résultats indiquent qu’il n’existe pas de convergence absolue entre les pays en termes d’intensité énergétique, mais plutôt une convergence par clubs. Bien que la plupart des SIDS se retrouvent dans les clubs inférieurs ou intermédiaires en ce qui concerne leur intensité énergétique, leurs performances en termes de réduction de cette intensité énergétique entre 2000 et 2019 sont parmi les plus faibles.
APA, Harvard, Vancouver, ISO, and other styles
5

Lee, Shiowjen, and J. Lynch. "Total Positivity of Markov Chains and the Failure Rate Character of Some First Passage Times." Advances in Applied Probability 29, no. 3 (September 1997): 713–32. http://dx.doi.org/10.2307/1428083.

Full text
Abstract:
It is shown that totally positive order 2 (TP2) properties of the infinitesimal generator of a continuous-time Markov chain with totally ordered state space carry over to the chain's transition distribution function. For chains with such properties, failure rate characteristics of the first passage times are established. For Markov chains with partially ordered state space, it is shown that the first passage times have an IFR distribution under a multivariate total positivity condition on the transition function.
APA, Harvard, Vancouver, ISO, and other styles
6

Lee, Shiowjen, and J. Lynch. "Total Positivity of Markov Chains and the Failure Rate Character of Some First Passage Times." Advances in Applied Probability 29, no. 03 (September 1997): 713–32. http://dx.doi.org/10.1017/s0001867800028317.

Full text
Abstract:
It is shown that totally positive order 2 (TP2) properties of the infinitesimal generator of a continuous-time Markov chain with totally ordered state space carry over to the chain's transition distribution function. For chains with such properties, failure rate characteristics of the first passage times are established. For Markov chains with partially ordered state space, it is shown that the first passage times have an IFR distribution under a multivariate total positivity condition on the transition function.
APA, Harvard, Vancouver, ISO, and other styles
7

Lund, Robert, Ying Zhao, and Peter C. Kiessler. "A monotonicity in reversible Markov chains." Journal of Applied Probability 43, no. 2 (June 2006): 486–99. http://dx.doi.org/10.1239/jap/1152413736.

Full text
Abstract:
In this paper we identify a monotonicity in all countable-state-space reversible Markov chains and examine several consequences of this structure. In particular, we show that the return times to every state in a reversible chain have a decreasing hazard rate on the subsequence of even times. This monotonicity is used to develop geometric convergence rate bounds for time-reversible Markov chains. Results relating the radius of convergence of the probability generating function of first return times to the chain's rate of convergence are presented. An effort is made to keep the exposition rudimentary.
APA, Harvard, Vancouver, ISO, and other styles
8

Lund, Robert, Ying Zhao, and Peter C. Kiessler. "A monotonicity in reversible Markov chains." Journal of Applied Probability 43, no. 02 (June 2006): 486–99. http://dx.doi.org/10.1017/s0021900200001777.

Full text
Abstract:
In this paper we identify a monotonicity in all countable-state-space reversible Markov chains and examine several consequences of this structure. In particular, we show that the return times toeverystate in a reversible chain have a decreasing hazard rate on the subsequence of even times. This monotonicity is used to develop geometric convergence rate bounds for time-reversible Markov chains. Results relating the radius of convergence of the probability generating function of first return times to the chain's rate of convergence are presented. An effort is made to keep the exposition rudimentary.
APA, Harvard, Vancouver, ISO, and other styles
9

Grewal, Jasleen K., Martin Krzywinski, and Naomi Altman. "Markov models—Markov chains." Nature Methods 16, no. 8 (July 30, 2019): 663–64. http://dx.doi.org/10.1038/s41592-019-0476-x.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Lindley, D. V., and J. R. Norris. "Markov Chains." Mathematical Gazette 83, no. 496 (March 1999): 188. http://dx.doi.org/10.2307/3618756.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Chaines de Markov"

1

Sudyko, Elena. "Dollarisation finançière en Russie." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLE032.

Full text
Abstract:
Le travail développe un modèle de portfolio à propos de la dollarisation financière (FD), et l'estime pour la Russie. La contribution de ce travail sera de construire le premier modèle théorique de variance moyenne asymétrique d'aplatissement sur la dollarisation financière et de le valider empiriquement. Le travail se fonde sur des recherches antérieures qui ont trouvé que l'ajout de moments plus élevés, comme l'asymétrie et l'aplatissement, à la variance minimale du portfolio(MVP) permettant une meilleure modélisation des choix de portfolio et de développe un model comme celui-ci pour la FD. Nous utilisons ensuite les méthodes Markovswitching sur les données mensuelles pour les dépôts bancaires en Russie depuis la fin des années 1990 afin de documenter l'influence dominante de l'inflation et de la dépréciation de la monnaie et de leurs moments comme principaux déterminants de dépôt de dollarisation dans un cadre de variance-moyenne-asymétrique-aplatie en période de crise, par opposition aux périodes normales
This thesis develops a portfolio model of financial dollarization (FD) and estimates it for Russia. The contribution of this work will be to construct the first theoretical meanvariance-skewness-kurtosis model of financial dollarization and to validate it empirically. The work builds on previous research which found that adding higher moments, as Skewness and Kurtosis, to the minimum variance portfolio (MVP) enables a better modelling of portfolio choice, and develops such a model for FD. We then use Markovswitching methods on monthly data for bank deposits in Russia since the late 1990s to document the dominant influence of inflation and currency depreciation and their moments as the main determinants of deposit dollarization in a mean-varianceskewness-kurtosis framework during crisis as opposed to normal periods
APA, Harvard, Vancouver, ISO, and other styles
2

Nunzi, Francois. "Autour de quelques chaines de Markov combinatoires." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC270/document.

Full text
Abstract:
On s'intéresse à deux classes de chaînes de Markov combinatoires. On commence avec les chaînes de Markov de Jonglage, inspirées du modèle de jonglage introduit par Warrington, pour lesquelles on définit des généralisations multivariées des modèles existants. On en calcule les mesures stationnaires et les facteurs de normalisation que l'on exprime par des formules explicites. On s'intéresse également au cas limite où la hauteur maximale à laquelle le jongleur peut lancer ses balles tend vers l'infini. On propose alors une reformulation de la chaîne de Markov en termes de partitions d'entiers, ce qui permet aussi de définir un modèle où le jongleur manipule une infinité de balles. Les preuves sont obtenues en utilisant une chaîne enrichie sur les partitions d'ensembles. On exhibe également, pour l'un des modèles, une propriété de convergence ultrarapide : la mesure stationnaire y est atteinte en un nombre fini d'étapes. Dans le Chapitre suivant, on s'intéresse à des généralisations multivariées de ces modèles : on considère cette fois un jongleur manipulant des balles de différents poids, et lorsqu'une balle entre en collision avec une balle plus légère, cette dernière est éjectée vers le haut, pouvant à son tour en heurter une autre plus légère, jusqu'à ce qu'une balle atteigne l'emplacement le plus élevé. On donnera ici encore une formule explicite pour les mesures stationnaires et les facteurs de normalisation. Dans le dernier Chapitre, on s'intéresse cette fois au modèle du tas de sable stochastique, pour lequel on démontre une conjecture posée par Selig, selon laquelle la mesure stationnaire ne dépend pas de la loi d'ajout des grains de sable
We consider two types of combinatoric Markov chains. We start with Juggling Markov chains, inspired from Warrington's model. We define multivariate generalizations of the existing models, for which we give stationary mesures and normalization factors with closed-form expressions. We also investigate the case where the maximum height at which the juggler may send balls tends to infinity. We then reformulate the Markov chain in terms of integer partitions, which allows us to consider the case where the juggler interacts with infinitely many balls. Our proofs are obtained through an enriched Markov chain on set partitions. We also show that one of the models has the ultrafast convergence property : the stationary mesure is reached after a finite number of steps. In the following Chapter, we consider multivariate generalizations of those models : the juggler now juggles with balls of different weights, and when a heavy ball collides with a lighter one, this light ball is bumped to a higher position, where it might collide with a lighter one, until a ball reaches the highest position. We give closed-form expressions for the stationary mesures and the normalization factors. The last Chapter is dedicated to the stochastic sandpile model, for which we give a proof for a conjecture set by Selig : the stationary mesure does not depend on the law governing sand grains additions
APA, Harvard, Vancouver, ISO, and other styles
3

Aspandiiarov, Sanjar. "Quelques proprietes des chaines de markov et du mouvement brownien." Paris 6, 1994. http://www.theses.fr/1994PA066304.

Full text
Abstract:
Cette these se compose de trois parties qui traitent de divers aspects de la theorie des chaines de markov et du mouvement brownien. Dans la premiere partie nous etablissons un theoreme de convergence, faisant apparaitre le mouvement brownien avec reflexion oblique dans un quart de plan comme limite en loi de chaines de markov reflechies, convenablement changees d'echelle en temps et en espace. Dans la deuxieme partie nous trouvons des conditions necessaires et suffisantes pour l'existence de moments d'ordre p pour les temps d'atteinte de parties compactes du cone par les chaines de markov definies ci-dessus. Pour cette etude nous obtenons des criteres generaux concernant l'existence de moments pour les temps d'atteinte de processus unidimensionnels (non necessairement markoviens). Enfin, en combinant les theoremes de deux premieres parties, nous obtenons certains resultats sur l'existence de moments pour le temps d'atteinte de l'origine par un mouvement brownien reflechi dans un cone. La derniere partie de la these traite un probleme different concernant certains points exceptionnels de la trajectoire d'un mouvement brownien lineaire considere sur un intervalle ferme. Nous nous interessons en particulier a l'ensemble des instants t tels que la valeur du mouvement brownien a l'instant t soit plus grande que les moyennes des valeurs de ce mouvement brownien sur tous les intervalles fermes ayant pour borne superieure t. Nous calculons la dimension de hausdorff de cet ensemble ainsi que celle d'autres ensembles voisins
APA, Harvard, Vancouver, ISO, and other styles
4

Giordana, Nathalie. "Segmentation non supervisee d'images multi-spectrales par chaines de markov cachees." Compiègne, 1996. http://www.theses.fr/1996COMP981S.

Full text
Abstract:
Cette these est consacree a la segmentation non supervisee d'images multi-spectrales par chaines de markov cachees et plus particulierement a l'etude de l'etape d'estimation. L'objet de ce travail est de concevoir des methodes permettant d'estimer des melanges de lois generalises. Ces methodes d'estimation fondees sur l'algorithme ice permettent de detecter parmi un ensemble de lois, celles qui sont le plus fideles a la realite et d'estimer les parametres correspondant a chacune des lois detectees. Les etudes comparatives des differentes methodes mises au point avec les methodes classiques em et ice, sur des chaines simulees puis sur des images, montrent l'efficacite des algorithmes generalises. Nous etudions egalement la segmentation multi-spectrale en considerant des canaux independants pour traiter les melanges generalises et des canaux correles dans le cas de melanges gaussiens. Nous mettons ainsi en evidence l'interet ou non de l'ajout de canaux d'observations. Dans ce cadre de la fusion de donnees, nous nous interessons a la theorie de l'evidence. Nous introduisons alors la notion de chaine de markov cachee evidentielle et nous developpons les methodes de segmentation qui lui sont associee. Les etudes effectuees sur des chaines montrent l'interet de cette modelisation mais egalement ses difficultes de mise en uvre dans un cadre non supervisee
APA, Harvard, Vancouver, ISO, and other styles
5

VALLET, ROBERT. "Applications de l'identification des chaines de markov cachees aux communications numeriques." Paris, ENST, 1991. http://www.theses.fr/1991ENST0032.

Full text
Abstract:
L'objectif de cette these est d'appliquer la modelisation par des modeles de markov caches aux systemes de transmission numeriques. L'algorithme de viterbi determine la suite de symboles de probabilite a posteriori maximale. L'algorithme forward-backward evalue la probabilite a posteriori de chaque symbole d'information. Il peut etre considere comme un algorithme de viterbi a entree et sortie ponderees. L'algorithme de baum-welch utilise ces probabilites a posteriori pour estimer sans sequence d'apprentissage les parametres d'un canal de transmission lineaire ou non lineaire. On a montre les relations qui existent entre les algorithmes d'identification avec et sans sequence d'apprentissage. On a propose un nouvel algorithme d'estimation sans sequence d'apprentissage de la reponse impulsionnelle d'un canal de transmission. On a applique ces algorithmes pour detecter des donnees numeriques codees par un code convolutif et transmises sur un canal dispersif a bruit additif blanc gaussien. Une modulation numerique maq transmise sur un canal agb a phase aleatoire est representee par un modele de markov cache. La loi jointe des symboles d'information et de la phase de la porteuse est une loi melange de gaussienne. Sur ce modele on peut appliquer l'algorithme de viterbi ou l'algorithme forward-backward pour estimer la phase de la porteuse, et on detecte les symboles d'information par un demodulateur partiellement coherent
APA, Harvard, Vancouver, ISO, and other styles
6

LADELLI, LUCIA. "Theoremes limites pour les chaines de markov : application aux algorithmes stochastiques." Paris 6, 1989. http://www.theses.fr/1989PA066283.

Full text
Abstract:
Cette these se compose de quatre articles et d'une note aux comptes rendus de l'academie des sciences concernant d'une part l'etude du comportement d'une classe d'algorithmes stochastiques, d'autre part un theoreme central limite pour des processus stochastiques markoviens intervenant dans certains problemes de statistique. En ce qui concerne les algorithmes, l'interet est centre sur les algorithmes adaptatifs a dynamique markovienne et les resultats obtenus se situent dans la lignee des travaux effectues par a. Benveniste, m. Metivier et p. Priouret. En ce qui concerne le comportement asymptotique des chaines de markov, dans les modeles que nous avons etudies nous obtenons: dans le cas ergodique, la normalite asymptotique, dans le cas recurrent nul, un processus limite qui est un mouvement brownien change de temps par un processus de mittag-leffler independant du brownien
APA, Harvard, Vancouver, ISO, and other styles
7

BENMILOUD, BTISSAM. "Chaines de markov cachees et segmentation non supervisee de sequences d'images." Paris 7, 1994. http://www.theses.fr/1994PA077120.

Full text
Abstract:
Cette these est consacree a la segmentation non supervisee des sequences d'images dans le cadre des modelisations par chaines de markov cachees. Nous mettons l'accent sur la phase d'estimation des parametres, prealable a la phase de segmentation. Nous proposons plusieurs algorithmes originaux d'estimation des parametres obtenus a partir des methodes iterative conditional estimation et stochastic estimation maximisation. Nous montrons leur competitivite vis a vis de l'algorithme estimation maximisation, le plus frequemment utilise pour l'identification des chaines de markov cachees dans differents cas d'homogeneite et de bruitage des chaines. Une etude du comportement de ces differents estimateurs combines avec la methode maximum posterior mode est egalement effectuee sur plusieurs chaines simulees. Nous appliquons ensuite les memes algorithmes sur des images simulees ou reelles. Nous transformons l'image en processus mono dimensionnel grace au parcours de peano. Nous beneficions ainsi de methodes souples et rapides pour la segmentation non supervisee des images. Nous etudions egalement la segmentation locale dans le cas des chaines de markov cachees, en tenant compte d'un certain nombre de voisins les plus proches. Nous exposons ensuite la segmentation non supervisee adaptative basee sur le concept d'estimation locale. Une etude de robustesse des methodes de segmentation a ete abordee, elle permet de choisir des estimateurs selon le comportement de la methode de segmentation vis a vis des parametres estimes. Enfin, une partie de ce travail est consacree a la segmentation spatio temporelle des sequences d'images dans le cas de la modelisation par chaines de markov cachees. Nous proposons trois algorithmes de segmentation non supervisee qui different par la facon d'exploiter l'information contenue dans les images precedentes
APA, Harvard, Vancouver, ISO, and other styles
8

Lezaud, Pascal. "Etude quantitative des chaines de markov par perturbation de leur noyau." Toulouse 3, 1998. https://hal-enac.archives-ouvertes.fr/tel-01084797.

Full text
Abstract:
Dans cette these, nous utilisons la theorie des perturbations des operateurs lineaires pour etudier les processus markoviens. Une telle demarche a permis a d. Gillman (1993) d'etablir une borne de chernoff pour des moyennes empiriques construites a partir d'une chaine de markov a espace d'etats fini. En approfondissant cette demarche, a partir des outils presentes dans le livre de t. Kato perturbation theory for linear operators , nous etendons la borne de chernoff aux processus markoviens d'espace d'etats quelconque qui presentent un trou spectral. Nous obtenons egalement une borne de berry-esseen pour ce type de processus markovien, etendant ainsi le resultat etabli par b. Mann (1996). Bien que notre travail soit principalement theorique, il pourrait eventuellement apporter une contribution a la question du controle de convergence des methodes de monte-carlo.
APA, Harvard, Vancouver, ISO, and other styles
9

Meziane, Abdelouafi. "Quelques resultats nouveaux sur les mesures stationnaires de chaines de markov denombrables." Toulouse 3, 1987. http://www.theses.fr/1987TOU30252.

Full text
Abstract:
Le probleme de trouver une mesure stationnaire explicite d'une chaine de markov (et en particulier d'une librairie) reste souvent sans solution. Dans la premiere partie de cette these, on met en evidence, grace a une interpretation geometrique de la recurrence positive des librairies mixtes, une mesure stationnaire pour toute une classe de librairies a police aleatoire; dans la deuxieme partie, on introduit des chaines liees aux librairies, mais plus simples, dont on donne, outre la mesure stationnaire, un certain nombre de proprietes generales. Enfin, on donne une expression nouvelle, a l'aide de chemin et d'arbres, de la mesure stationnaire d'une chaine finie conduisant a des applications, notamment combinatoires
APA, Harvard, Vancouver, ISO, and other styles
10

El, maalouf Joseph. "Méthodes de Monte Carlo stratifiées pour la simulation des chaines de Markov." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM089.

Full text
Abstract:
Les méthodes de Monte Carlo sont des méthodes probabilistes qui utilisent des ordinateurs pour résoudre de nombreux problèmes de la science à l’aide de nombres aléatoires. Leur principal inconvénient est leur convergence lente. La mise au point de techniques permettant d’accélérer la convergence est un domaine de recherche très actif. C’est l’objectif principal des méthodes déterministes quasi-Monte Carlo qui remplacent les points pseudo-aléatoires de simulation par des points quasi-aléatoires ayant une excellente répartition uniforme. Ces méthodes ne fournissent pas d’intervalles de confiance permettant d’estimer l’erreur. Nous étudions dans ce travail des méthodes stochastiques qui permettent de réduire la variance des estimateurs Monte Carlo : ces techniques de stratification le font en divisant le domaine d’échantillonnageen sous-domaines. Nous examinons l’intérêt de ces méthodes pour l’approximation des chaînes de Markov, la simulation de la diffusion physique et la résolution numérique de la fragmentation.Dans un premier chapitre, nous présentons les méthodes de Monte Carlo pour l’intégration numérique. Nous donnons le cadre général des méthodes de stratification. Nous insistons sur deux techniques : la stratification simple (MCS) et la stratification Sudoku (SS), qui place les points sur des grilles analogues à celle du jeu. Nous pressentons également les méthodesquasi-Monte Carlo qui partagent avec les méthodes de stratification certaines propriétés d'équipartition des points d’échantillonnage.Le second chapitre décrit l’utilisation des méthodes de Monte Carlo stratifiées pour la simulation des chaînes de Markov. Nous considérons des chaînes homogènes uni-dimensionnelles à espace d’états discret ou continu. Dans le premier cas, nous démontrons une réduction de variance par rapport `a la méthode de Monte Carlo classique ; la variance des schémas MCSou SS est d’ordre 3/2, alors que celle du schéma MC est de 1. Les résultats d’expériences numériques, pour des espaces d’états discrets ou continus, uni- ou multi-dimensionnels montrent une réduction de variance liée à la stratification, dont nous estimons l’ordre.Dans le troisième chapitre, nous examinons l’intérêt de la méthode de stratification Sudoku pour la simulation de la diffusion physique. Nous employons une technique de marche aléatoire et nous examinons successivement la résolution d’une équation de la chaleur, d’une équation de convection-diffusion, de problèmes de réaction-diffusion (équations de Kolmogorov et équation de Nagumo) ; enfin nous résolvons numériquement l’équation de Burgers. Dans chacun de ces cas, des tests numériques mettent en évidence une réduction de la variance due à l’emploi de la méthode de stratification Sudoku.Le quatrième chapitre décrit un schéma de Monte Carlo stratifie permettant de simuler un phénomène de fragmentation. La comparaison des performances dans plusieurs cas permet de constater que la technique de stratification Sudoku réduit la variance d’une estimation Monte Carlo. Nous testons enfin un algorithme de résolution d’un problème inverse, permettant d’approcher le noyau de fragmentation, à partir de résultats de l’évolution d’une distribution ;nous utilisons dans ce cas des points quasi-Monte Carlo pour résoudre le problème direct
Monte Carlo methods are probabilistic schemes that use computers for solving various scientific problems with random numbers. The main disadvantage to this approach is the slow convergence. Many scientists are working hard to find techniques that may accelerate Monte Carlo simulations. This is the aim of some deterministic methods called quasi-Monte Carlo, where random points are replaced with special sets of points with enhanced uniform distribution. These methods do not provide confidence intervals that permit to estimate the errordone. In the present work, we are interested with random methods that reduce the variance of a Monte Carlo estimator : the stratification techniques consist of splitting the sampling area into strata where random samples are chosen. We focus here on applications of stratified methods for approximating Markov chains, simulating diffusion in materials, or solving fragmentationequations.In the first chapter, we present Monte Carlo methods in the framework of numerical quadrature, and we introduce the stratification strategies. We focus on two techniques : the simple stratification (MCS) and the Sudoku stratification (SS), where the points repartitions are similar to Sudoku grids. We also present quasi-Monte Carlo methods, where quasi-random pointsshare common features with stratified points.The second chapter describes the use of stratified algorithms for the simulation of Markov chains. We consider time-homogeneous Markov chains with one-dimensional discrete or continuous state space. We establish theoretical bounds for the variance of some estimator, in the case of a discrete state space, that indicate a variance reduction with respect to usual MonteCarlo. The variance of MCS and SS methods is of order 3/2, instead of 1 for usual MC. The results of numerical experiments, for one-dimensional or multi-dimensional, discrete or continuous state spaces show improved variances ; the order is estimated using linear regression.In the third chapter, we investigate the interest of stratified Monte Carlo methods for simulating diffusion in various non-stationary physical processes. This is done by discretizing time and performing a random walk at every time-step. We propose algorithms for pure diffusion, for convection-diffusion, and reaction-diffusion (Kolmogorov equation or Nagumo equation) ; we finally solve Burgers equation. In each case, the results of numerical tests show an improvement of the variance due to the use of stratified Sudoku sampling.The fourth chapter describes a stratified Monte Carlo scheme for simulating fragmentation phenomena. Through several numerical comparisons, we can see that the stratified Sudoku sampling reduces the variance of Monte Carlo estimates. We finally test a method for solving an inverse problem : knowing the evolution of the mass distribution, it aims to find a fragmentation kernel. In this case quasi-random points are used for solving the direct problem
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Chaines de Markov"

1

Gagniuc, Paul A. Markov Chains. Hoboken, NJ, USA: John Wiley & Sons, Inc., 2017. http://dx.doi.org/10.1002/9781119387596.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Brémaud, Pierre. Markov Chains. New York, NY: Springer New York, 1999. http://dx.doi.org/10.1007/978-1-4757-3124-8.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Sericola, Bruno. Markov Chains. Hoboken, NJ USA: John Wiley & Sons, Inc., 2013. http://dx.doi.org/10.1002/9781118731543.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Douc, Randal, Eric Moulines, Pierre Priouret, and Philippe Soulier. Markov Chains. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-97704-1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Graham, Carl. Markov Chains. Chichester, UK: John Wiley & Sons, Ltd, 2014. http://dx.doi.org/10.1002/9781118881866.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Brémaud, Pierre. Markov Chains. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-45982-6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Ching, Wai-Ki, Ximin Huang, Michael K. Ng, and Tak-Kuen Siu. Markov Chains. Boston, MA: Springer US, 2013. http://dx.doi.org/10.1007/978-1-4614-6312-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Hermanns, Holger. Interactive Markov Chains. Berlin, Heidelberg: Springer Berlin Heidelberg, 2002. http://dx.doi.org/10.1007/3-540-45804-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Privault, Nicolas. Understanding Markov Chains. Singapore: Springer Singapore, 2018. http://dx.doi.org/10.1007/978-981-13-0659-4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Hartfiel, Darald J. Markov Set-Chains. Berlin, Heidelberg: Springer Berlin Heidelberg, 1998. http://dx.doi.org/10.1007/bfb0094586.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Chaines de Markov"

1

Carlton, Matthew A., and Jay L. Devore. "Markov Chains." In Probability with Applications in Engineering, Science, and Technology, 423–87. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-52401-6_6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Lindsey, James K. "Markov Chains." In The Analysis of Stochastic Processes using GLIM, 21–42. New York, NY: Springer New York, 1992. http://dx.doi.org/10.1007/978-1-4612-2888-2_2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Gebali, Fayez. "Markov Chains." In Analysis of Computer and Communication Networks, 1–57. Boston, MA: Springer US, 2008. http://dx.doi.org/10.1007/978-0-387-74437-7_3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Lakatos, László, László Szeidl, and Miklós Telek. "Markov Chains." In Introduction to Queueing Systems with Telecommunication Applications, 93–177. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-15142-3_3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Gordon, Hugh. "Markov Chains." In Discrete Probability, 209–49. New York, NY: Springer New York, 1997. http://dx.doi.org/10.1007/978-1-4612-1966-8_9.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Hermanns, Holger. "Markov Chains." In Interactive Markov Chains, 35–55. Berlin, Heidelberg: Springer Berlin Heidelberg, 2002. http://dx.doi.org/10.1007/3-540-45804-2_3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Serfozo, Richard. "Markov Chains." In Probability and Its Applications, 1–98. Berlin, Heidelberg: Springer Berlin Heidelberg, 2009. http://dx.doi.org/10.1007/978-3-540-89332-5_1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Ökten, Giray. "Markov Chains." In Probability and Simulation, 81–98. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-56070-6_4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Robert, Christian P., and George Casella. "Markov Chains." In Springer Texts in Statistics, 139–91. New York, NY: Springer New York, 1999. http://dx.doi.org/10.1007/978-1-4757-3071-5_4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Harris, Carl M. "Markov chains." In Encyclopedia of Operations Research and Management Science, 481–84. New York, NY: Springer US, 2001. http://dx.doi.org/10.1007/1-4020-0611-x_579.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Chaines de Markov"

1

Aminof, Benjamin, Linus Cooper, Sasha Rubin, Moshe Y. Vardi, and Florian Zuleger. "Probabilistic Synthesis and Verification for LTL on Finite Traces." In 21st International Conference on Principles of Knowledge Representation and Reasoning {KR-2023}, 27–37. California: International Joint Conferences on Artificial Intelligence Organization, 2024. http://dx.doi.org/10.24963/kr.2024/3.

Full text
Abstract:
We study synthesis and verification of probabilistic models and specifications over finite traces. Probabilistic models are formalized in this work as Markov Chains and Markov Decisions Processes. Motivated by the recent attention given to, and importance of, finite-trace specifications in AI, we use linear-temporal logic on finite traces as a specification formalism for properties of traces with finite but unbounded time horizons. Since there is no bound on the time horizon, our Markov chains generate infinite traces, and we consider two possible semantics: “existential (resp. universal) prefix- semantics” which says that the finite-trace property holds on some (resp. every) finite prefix of the trace. For both types of semantics, we study two computational problems: the verification problem — “does a given Markov chain satisfy the specification with probability one?”; and the synthesis problem — “find a strategy (if there is one) that ensures the Markov decision process satisfies the specification with probability one”. We provide optimal algorithms that follow an automata-theoretic approach, and prove that the complexity of the synthesis problem is 2EXPTIME-complete for both semantics, and that for the verification problem it is PSPACE-complete for the universal-prefix semantics, but EXPSPACE-complete for the existential-prefix semantics.
APA, Harvard, Vancouver, ISO, and other styles
2

Hunter, Jeffrey J. "Perturbed Markov Chains." In Proceedings of the International Statistics Workshop. WORLD SCIENTIFIC, 2006. http://dx.doi.org/10.1142/9789812772466_0008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Saglam, Cenk Oguz, and Katie Byl. "Metastable Markov chains." In 2014 IEEE 53rd Annual Conference on Decision and Control (CDC). IEEE, 2014. http://dx.doi.org/10.1109/cdc.2014.7039847.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Morris, Lloyd, Juan Luis Arias, Alonso Toro, Andrés Martínez, and Homero Murzi. "Information management for the projection of productive capacities articulated to export scenarios." In Human Interaction and Emerging Technologies (IHIET-AI 2022) Artificial Intelligence and Future Applications. AHFE International, 2022. http://dx.doi.org/10.54941/ahfe100924.

Full text
Abstract:
This article proposes the management of information through the study and analysis of Colombian export scenarios that serve as a reference to articulate strategic nodes, for which an epistemological approach is proposed from a perspective of triangulation of techniques that allows a comprehensive approach in relation to the study of the external market of Colombia. This process is achieved through a comparative and complementary analysis of three techniques: Markov chains, forecasting techniques and mathematical functions. The behavior of sales is transformed into estimates of future behavior that establish a guiding mapping of the production levels that make the supply chain more dynamic. It is recommended to use time series techniques for short- and medium-term forecasts, while Markov chains for prediction and analysis of the sales structure in medium- to long-term forecasts, supported by median predictions through the use of mathematical functions.
APA, Harvard, Vancouver, ISO, and other styles
5

Cogill, Randy, and Erik Vargo. "The Poisson equation for reversible Markov chains: Analysis and application to Markov chain samplers." In 2012 IEEE 51st Annual Conference on Decision and Control (CDC). IEEE, 2012. http://dx.doi.org/10.1109/cdc.2012.6425978.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Zhang, Yu, and Mitchell Bucklew. "Max Markov Chain." In Thirty-Second International Joint Conference on Artificial Intelligence {IJCAI-23}. California: International Joint Conferences on Artificial Intelligence Organization, 2023. http://dx.doi.org/10.24963/ijcai.2023/639.

Full text
Abstract:
In this paper, we introduce Max Markov Chain (MMC), a novel model for sequential data with sparse correlations among the state variables. It may also be viewed as a special class of approximate models for High-order Markov Chains (HMCs). MMC is desirable for domains where the sparse correlations are long-term and vary in their temporal stretches. Although generally intractable, parameter optimization for MMC can be solved analytically. However, based on this result, we derive an approximate solution that is highly efficient empirically. When compared with HMC and approximate HMC models, MMC combines better sample efficiency, model parsimony, and an outstanding computational advantage. Such a quality allows MMC to scale to large domains where the competing models would struggle to perform. We compare MMC with several baselines with synthetic and real-world datasets to demonstrate MMC as a valuable alternative for stochastic modeling.
APA, Harvard, Vancouver, ISO, and other styles
7

Bini, D. A., B. Meini, S. Steffé, and B. Van Houdt. "Structured Markov chains solver." In Proceeding from the 2006 workshop. New York, New York, USA: ACM Press, 2006. http://dx.doi.org/10.1145/1190366.1190378.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Bini, D. A., B. Meini, S. Steffé, and B. Van Houdt. "Structured Markov chains solver." In Proceeding from the 2006 workshop. New York, New York, USA: ACM Press, 2006. http://dx.doi.org/10.1145/1190366.1190379.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Kiefer, Stefan, and A. Prasad Sistla. "Distinguishing Hidden Markov Chains." In LICS '16: 31st Annual ACM/IEEE Symposium on Logic in Computer Science. New York, NY, USA: ACM, 2016. http://dx.doi.org/10.1145/2933575.2933608.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

García, Jesús E. "Combining multivariate Markov chains." In PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON NUMERICAL ANALYSIS AND APPLIED MATHEMATICS 2014 (ICNAAM-2014). AIP Publishing LLC, 2015. http://dx.doi.org/10.1063/1.4912373.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Chaines de Markov"

1

Ramezani, Vahid R., and Steven I. Marcus. Risk-Sensitive Probability for Markov Chains. Fort Belvoir, VA: Defense Technical Information Center, September 2002. http://dx.doi.org/10.21236/ada438509.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Marie, Raymond, Andrew Reibman, and Kishor Trivedi. Transient Solution of Acyclic Markov Chains. Fort Belvoir, VA: Defense Technical Information Center, August 1985. http://dx.doi.org/10.21236/ada162314.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Doerschuk, Peter C., Robert R. Tenney, and Alan S. Willsky. Modeling Electrocardiograms Using Interacting Markov Chains. Fort Belvoir, VA: Defense Technical Information Center, July 1985. http://dx.doi.org/10.21236/ada162758.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Ma, D.-J., A. M. Makowski, and A. Shwartz. Stochastic Approximations for Finite-State Markov Chains. Fort Belvoir, VA: Defense Technical Information Center, January 1987. http://dx.doi.org/10.21236/ada452264.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Соловйов, Володимир Миколайович, V. Saptsin, and D. Chabanenko. Markov chains applications to the financial-economic time series predictions. Transport and Telecommunication Institute, 2011. http://dx.doi.org/10.31812/0564/1189.

Full text
Abstract:
In this research the technology of complex Markov chains is applied to predict financial time series. The main distinction of complex or high-order Markov Chains and simple first-order ones is the existing of after-effect or memory. The technology proposes prediction with the hierarchy of time discretization intervals and splicing procedure for the prediction results at the different frequency levels to the single prediction output time series. The hierarchy of time discretizations gives a possibility to use fractal properties of the given time series to make prediction on the different frequencies of the series. The prediction results for world’s stock market indices are presented.
APA, Harvard, Vancouver, ISO, and other styles
6

Soloviev, V., V. Saptsin, and D. Chabanenko. Financial time series prediction with the technology of complex Markov chains. Брама-Україна, 2014. http://dx.doi.org/10.31812/0564/1305.

Full text
Abstract:
In this research the technology of complex Markov chains, i.e. Markov chains with a memory is applied to forecast financial time-series. The main distinction of complex or high-order Markov Chains and simple first-ord yer ones is the existing of aftereffect or memory. The high-order Markov chains can be simplified to first-order ones by generalizing the states in Markov chains. Considering the «generalized state» as the sequence of states makes a possibility to model high-order Markov chains like first-order ones. The adaptive method of defining the states is proposed, it is concerned with the statistic properties of price returns.
APA, Harvard, Vancouver, ISO, and other styles
7

Krakowski, Martin. Models of Coin-Tossing for Markov Chains. Revision. Fort Belvoir, VA: Defense Technical Information Center, December 1987. http://dx.doi.org/10.21236/ada196572.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Dupuis, Paul, and Hui Wang. Adaptive Importance Sampling for Uniformly Recurrent Markov Chains. Fort Belvoir, VA: Defense Technical Information Center, January 2003. http://dx.doi.org/10.21236/ada461913.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Tsitsiklis, John N. Markov Chains with Rare Transitions and Simulated Annealing. Fort Belvoir, VA: Defense Technical Information Center, September 1985. http://dx.doi.org/10.21236/ada161598.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Harris, Carl M. Rootfinding for Markov Chains with Quasi-Triangular Transition Matrices. Fort Belvoir, VA: Defense Technical Information Center, October 1988. http://dx.doi.org/10.21236/ada202468.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography