Literatura científica selecionada sobre o tema "Chaînes de Markov branchantes"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Consulte a lista de atuais artigos, livros, teses, anais de congressos e outras fontes científicas relevantes para o tema "Chaînes de Markov branchantes".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Artigos de revistas sobre o assunto "Chaînes de Markov branchantes"

1

Delmotte, Thierry. "Estimations pour les chaînes de Markov réversibles". Comptes Rendus de l'Académie des Sciences - Series I - Mathematics 324, n.º 9 (maio de 1997): 1053–58. http://dx.doi.org/10.1016/s0764-4442(97)87885-8.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Brossard, Jean, e Christophe Leuridan. "Chaînes de Markov Constructives Indexées par Z". Annals of Probability 35, n.º 2 (março de 2007): 715–31. http://dx.doi.org/10.1214/009117906000000430.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Ladet, Sylvie, Marc Deconchat, Claude Monteil, Jean-Paul Lacombe e Gérard Ballent. "Les chaînes de Markov spatialisées comme outil de simulation". Revue internationale de géomatique 15, n.º 2 (30 de junho de 2005): 159–73. http://dx.doi.org/10.3166/rig.15.159-173.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Pieczynski, Wojciech. "Copules gaussiennes dans les chaînes triplet partiellement de Markov". Comptes Rendus Mathematique 341, n.º 3 (agosto de 2005): 189–94. http://dx.doi.org/10.1016/j.crma.2005.06.012.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Pieczynski, Wojciech. "Fusion de Dempster–Shafer dans les chaînes triplet partiellement de Markov". Comptes Rendus Mathematique 339, n.º 11 (dezembro de 2004): 797–802. http://dx.doi.org/10.1016/j.crma.2004.10.013.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Miclo, Laurent. "Une variante de l'inégalité de Cheeger pour les chaînes de Markov finies". ESAIM: Probability and Statistics 2 (1998): 1–21. http://dx.doi.org/10.1051/ps:1998101.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Diaconis, P. "Une nouvelle construction de champs Gaussiens à partir de chaînes de Markov". Annales de l'Institut Henri Poincare (B) Probability and Statistics 38, n.º 6 (dezembro de 2002): 863–78. http://dx.doi.org/10.1016/s0246-0203(02)01123-8.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Miclo, Laurent. "Relations entre isopérimétrie et trou spectral pour les chaînes de Markov finies". Probability Theory and Related Fields 114, n.º 4 (julho de 1999): 431–85. http://dx.doi.org/10.1007/s004400050231.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

HERVE, L. "Théorème local pour chaînes de Markov de probabilité de transition quasi-compacte. Applications aux chaînes V-géométriquement ergodiques et aux modèles itératifs". Annales de l'Institut Henri Poincare (B) Probability and Statistics 41, n.º 2 (março de 2005): 179–96. http://dx.doi.org/10.1016/j.anihpb.2004.04.001.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Dridi, Noura, Yves Delignon e Wadih Sawaya. "Critères BIC et AIC pour les chaînes de Markov cachées. Application aux communications numériques". Traitement du signal 31, n.º 3-4 (28 de outubro de 2014): 383–400. http://dx.doi.org/10.3166/ts.31.383-400.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.

Teses / dissertações sobre o assunto "Chaînes de Markov branchantes"

1

Weibel, Julien. "Graphons de probabilités, limites de graphes pondérés aléatoires et chaînes de Markov branchantes cachées". Electronic Thesis or Diss., Orléans, 2024. http://www.theses.fr/2024ORLE1031.

Texto completo da fonte
Resumo:
Les graphes sont des objets mathématiques qui servent à modéliser tout type de réseaux, comme les réseaux électriques, les réseaux de communications et les réseaux sociaux. Formellement un graphe est composé d'un ensemble de sommets et d'un ensemble d'arêtes reliant des paires de sommets. Les sommets représentent par exemple des individus, tandis que les arêtes représentent les interactions entre ces individus. Dans le cas d'un graphe pondéré, chaque arête possède un poids ou une décoration pouvant modéliser une distance, une intensité d'interaction, une résistance. La modélisation de réseaux réels fait souvent intervenir de grands graphes qui ont un grand nombre de sommets et d'arêtes.La première partie de cette thèse est consacrée à l'introduction et à l'étude des propriétés des objets limites des grands graphes pondérés : les graphons de probabilités. Ces objets sont une généralisation des graphons introduits et étudiés par Lovász et ses co-auteurs dans le cas des graphes sans poids sur les arêtes. À partir d'une distance induisant la topologie faible sur les mesures, nous définissons une distance de coupe sur les graphons de probabilités. Nous exhibons un critère de tension pour les graphons de probabilités lié à la compacité relative dans la distance de coupe. Enfin, nous prouvons que cette topologie coïncide avec la topologie induite par la convergence en distribution des sous-graphes échantillonnés. Dans la deuxième partie de cette thèse, nous nous intéressons aux modèles markoviens cachés indexés par des arbres. Nous montrons la consistance forte et la normalité asymptotique de l'estimateur de maximum de vraisemblance pour ces modèles sous des hypothèses standards. Nous montrons un théorème ergodique pour des chaînes de Markov branchantes indexés par des arbres avec des formes générales. Enfin, nous montrons que pour une chaîne stationnaire et réversible, le graphe ligne est la forme d'arbre induisant une variance minimale pour l'estimateur de moyenne empirique parmi les arbres avec un nombre donné de sommets
Graphs are mathematical objects used to model all kinds of networks, such as electrical networks, communication networks, and social networks. Formally, a graph consists of a set of vertices and a set of edges connecting pairs of vertices. The vertices represent, for example, individuals, while the edges represent the interactions between these individuals. In the case of a weighted graph, each edge has a weight or a decoration that can model a distance, an interaction intensity, or a resistance. Modeling real-world networks often involves large graphs with a large number of vertices and edges.The first part of this thesis is dedicated to introducing and studying the properties of the limit objects of large weighted graphs : probability-graphons. These objects are a generalization of graphons introduced and studied by Lovász and his co-authors in the case of unweighted graphs. Starting from a distance that induces the weak topology on measures, we define a cut distance on probability-graphons. We exhibit a tightness criterion for probability-graphons related to relative compactness in the cut distance. Finally, we prove that this topology coincides with the topology induced by the convergence in distribution of the sampled subgraphs. In the second part of this thesis, we focus on hidden Markov models indexed by trees. We show the strong consistency and asymptotic normality of the maximum likelihood estimator for these models under standard assumptions. We prove an ergodic theorem for branching Markov chains indexed by trees with general shapes. Finally, we show that for a stationary and reversible chain, the line graph is the tree shape that induces the minimal variance for the empirical mean estimator among trees with a given number of vertices
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Lacour, Claire. "Estimation non paramétrique adaptative pour les chaînes de Markov et les chaînes de Markov cachées". Phd thesis, Université René Descartes - Paris V, 2007. http://tel.archives-ouvertes.fr/tel-00180107.

Texto completo da fonte
Resumo:
Dans cette thèse, on considère une chaîne de Markov $(X_i)$ à espace d'états continu que l'on suppose récurrente positive et stationnaire. L'objectif est d'estimer la densité de transition $\Pi$ définie par $\Pi(x,y)dy=P(X_{i+1}\in dy|X_i=x)$. On utilise la sélection de modèles pour construire des estimateurs adaptatifs. On se place dans le cadre minimax sur $L^2$ et l'on s'intéresse aux vitesses de convergence obtenues lorsque la densité de transition est supposée régulière. Le risque intégré de nos estimateurs est majoré grâce au contrôle de processus empiriques par une inégalité de concentration de Talagrand. Dans une première partie, on suppose que la chaîne est directement observée. Deux estimateurs différents sont présentés, l'un par quotient, l'autre minimisant un contraste moindres carrés et prenant également en compte l'anisotropie du problème. Dans une deuxième partie, on aborde le cas d'observations bruitées $Y_1,\dots, Y_{n+1}$ où $Y_i=X_i+\varepsilon_i$ avec $(\varepsilon_i)$ un bruit indépendant de la chaîne $(X_i)$. On généralise à ce cas les deux estimateurs précédents. Des simulations illustrent les performances des estimateurs.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

De, Almeida Rui Manuel. "Décantation dans les chaînes de Markov". Lille 1, 1986. http://www.theses.fr/1986LIL10144.

Texto completo da fonte
Resumo:
X=(x(n)) étant une suite d'observations à valeurs respectivement dans (x(1), b(1)). . . De loi inconnue, h désignant l'hypothèse générale (sur l'espace produit infini correspondant) on désire estimer un paramètre donné f, application de h dans (e, d), espace métrique séparable. Dans ce travail, on se restreint au cas où pour toute loi possible, x est une chaîne de Markov homogène
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Faure, Mathieu. "Grandes déviations autonormalisées pour des chaînes de Markov". Phd thesis, Université de Marne la Vallée, 2002. http://tel.archives-ouvertes.fr/tel-00572835.

Texto completo da fonte
Resumo:
L'objectif de cette thèse est l'obtention de principes de grandes déviations autonormalisés, essentiellement pour des modèles markoviens. L'autonormalisation permet d'affaiblir les hypothèses requises pour assurer l'existence d'un Principe de grandes déviations portant par exemple sur les moyennes empiriques d'une suite de variables aléatoires. La démarche suivie est la recherche d'un principe de grandes déviations partiel pour certains couples de variables aléatoires à partir d'un principe de grandes déviations vague et d'une propriété de tension exponentielle partielle. Des techniques de transports sont développées pour établir des PGD vagues relatifs à des suites du type $(\int f dL_n)_n$, à partir de PGD pour des suites de lois empiriques $(L_n)_n$. On aboutit entre autres à des résultats autonormalisés dans un cadre markovien, généralisant ainsi les travaux de Dembo et Shao dans le cas i.i.d.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Noquet, Caroline. "Principe d'invariance local pour les chaînes de Markov". Lille 1, 1997. http://www.theses.fr/1997LIL10167.

Texto completo da fonte
Resumo:
Le point de depart de ce travail est une etude realisee par y. A. Davydov concernant un principe d'invariance local pour une suite de variables aleatoires independantes et identiquement distribuees. Le premier objectif a donc ete de generaliser ce resultat au cas des chaines de markov. La these comprend trois parties. Dans la premiere partie, il s'agit de majorer la distance en variation entre la loi d'une suite et la loi translatee. En particulier, nous traitons le cas des chaines de markov lorsque la translation est non aleatoire et aussi le cas d'une suite de variables aleatoires independantes lorsque la translation est aleatoire. La deuxieme partie montre comment ces inegalites peuvent etre utilisees pour demontrer la continuite absolue entre les lois d'une suite et de sa translatee dans les differents cas enonces precedemment. Enfin, dans la troisieme partie, nous revenons au cas des chaines de markov pour lesquelles, en utilisant l'inegalite demontree dans la premiere partie, nous etablissons un principe d'invariance local.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Thivierge, Sylvain. "Simulation de Monte-Carlo par les chaînes de Markov". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape10/PQDD_0004/MQ42024.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Fernandes, Clément. "Chaînes de Markov triplets et segmentation non supervisée d'images". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAS019.

Texto completo da fonte
Resumo:
Les chaînes de Markov cachées (HMC) sont très utilisées pour la segmentation bayésienne non supervisée de données discrètes. Elles sont particulièrement robustes et, malgré leur simplicité, elles sont suffisamment efficaces dans de nombreuses situations. En particulier pour la segmentation d'image, malgré leur nature unidimensionnelle, elles sont capables, grâce à une transformation des images bidimensionnelles en séquences monodimensionnelles avec le balayage de Peano (PS), de produire des résultats satisfaisants. Cependant, dans certains cas, on peut préférer des modèles plus complexes tels que les champs de Markov cachées (HMF) malgré leur plus grande complexité en temps, pour leurs meilleurs résultats. De plus, les modèles de Markov cachés (les chaînes aussi bien que les champs) ont été étendus aux modèles de Markov couples et triplets, qui peuvent être intéressant dans des cas plus complexes. Par exemple, lorsque le temps de séjour n'est pas géométrique, les chaînes de semi-Markov cachées (HSMC) ont tendance à être plus performantes que les HMC, and on peut dire de même pour les chaînes de Markov évidentielles cachées (HEMC) dans le cas de données non-stationnaires. Dans cette thèse, nous proposons dans un premier lieu une nouvelle chaîne de Markov triplet (TMC), qui étend simultanément les HSMC et les HEMC. Basée sur les chaînes de Markov triplets cachées (HTMC), la nouvelle chaîne de semi-Markov évidentielle cachée (HESMC) peut être utilisée de manière non supervisée, les paramètres étant estimés avec l'algorithme Expectation-Maximization (EM). Nous validons l'intérêt d'un tel modèle grâce à des expériences sur des données synthétiques. Nous nous intéressons ensuite au problème de l'unidimensionnalité des HMC avec PS dans le cadre de la segmentation d'image, en construisant le balayage de Peano contextuel (CPS). Il consiste à associer à chaque indexe dans le HMC obtenu à partir du PS, deux observations sur les pixels qui sont voisins du pixel en question dans l'image considérée, mais qui ne sont pas voisins dans la HMC. On obtient donc trois observations pour chaque point du balayage de Peano, ce qui induit une nouvelle chaîne de Markov conditionnelle (CMC) avec une structure plus complexe, mais dont la loi a posteriori est toujours markovienne. Ainsi, nous pouvons appliquer la méthode classique d'estimation des paramètres : l'algorithme Stochastic Expectation-Maximization (SEM), ainsi qu'étudier la segmentation non supervisée obtenue avec l'estimateur du mode des marginales a posteriori (MPM). Les segmentations supervisées et non supervisées par MPM, basées sur la CMC avec CPS, sont comparés aux HMC avec PS et aux HMF à travers des expériences sur des images synthétiques. Elles améliorent de manière significative les premières, et peuvent même être compétitives avec ces derniers. Finalement, nous étendons les CMC-CPS aux chaînes de Markov couples conditionnelles (CPMC) et à deux chaînes de Markov triplets particulières : les chaînes de Markov évidentielles conditionnelles (CEMC) et les chaînes de semi-Markov conditionnelles (CSMC). Pour chacune de ces extensions, nous montrons qu'elles peuvent améliorer de manière notable leur contrepartie non conditionnelle, ainsi que les CMC-CPS, et peuvent même être compétitives avec les HMF. Par ailleurs, elles permettent de mieux utiliser la généralité du triplet markovien dans le cadre de la segmentation d'image, en contournant les problèmes de temps de calcul considérables qui apparaissent lorsque l'on passe des champs de Markov cachés aux triplets
Hidden Markov chains (HMC) are widely used in unsupervised Bayesian hidden discrete data restoration. They are very robust and, in spite of their simplicity, they are sufficiently efficient in many situations. In particular for image segmentation, despite their mono-dimensional nature, they are able, through a transformation of the bi-dimensional images into mono-dimensional sequences with Peano scan (PS), to give satisfying results. However, sometimes, more complex models such as hidden Markov fields (HMF) may be preferred in spite of their increased time complexity, for their better results. Moreover, hidden Markov models (the chains as well as the fields) have been extended to pairwise and triplet Markov models, which can be of interest in more complex situations. For example, when sojourn time in hidden states is not geometrical, hidden semi-Markov (HSMC) chains tend to perform better than HMC, and such is also the case for hidden evidential Markov chains (HEMC) when data are non-stationary. In this thesis, we first propose a new triplet Markov chain (TMC), which simultaneously extends HSMC and HEMC. Based on hidden triplet Markov chains (HTMC), the new hidden evidential semi-Markov chain (HESMC) model can be used in unsupervised framework, parameters being estimated with Expectation-Maximization (EM) algorithm. We validate its interest through some experiments on synthetic data. Then we address the problem of mono-dimensionality of the HMC with PS model in image segmentation by introducing the “contextual” Peano scan (CPS). It consists in associating to each index in the HMC obtained from PS, two observations on pixels which are neighbors of the pixel considered in the image, but are not its neighbors in the HMC. This gives three observations on each point of the Peano scan, which leads to a new conditional Markov chain (CMC) with a more complex structure, but whose posterior law is still Markovian. Therefore, we can apply the usual parameter estimation method: Stochastic Expectation-Maximization (SEM), as well as study unsupervised segmentation Marginal Posterior Mode (MPM) so obtained. The CMC with CPS based supervised and unsupervised MPM are compared to the classic scan based HMC-PS and the HMF through experiments on artificial images. They improve notably the former, and can even compete with the latter. Finally, we extend the CMC-CPS to Pairwise Conditional Markov (CPMC) chains and two particular triplet conditional Markov chain: evidential conditional Markov chains (CEMC) and conditional semi-Markov chains (CSMC). For each of these extensions, we show through experiments on artificial images that these models can improve notably their non conditional counterpart, as well as the CMC with CPS, and can even compete with the HMF. Beside they allow the generality of markovian triplets to better play its part in image segmentation, while avoiding the substantial time complexity of triplet Markov fields
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Romaskevich, Olga. "Dynamique des systèmes physiques, formes normales et chaînes de Markov". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEN043/document.

Texto completo da fonte
Resumo:
Cette thèse porte sur le comportement asymptotique des systèmes dynamiques et contient cinq chapitres indépendants.Nous considérons dans la première partie de la thèse trois systèmes dynamiques concrets. Les deux premiers chapitres présentent deux modèles de systèmes physiques : dans le premier, nous étudions la structure géométrique des langues d'Arnold de l'équation modélisant le contact de Josephson; dans le deuxième, nous nous intéressons au problème de Lagrange de recherche de la vitesse angulaire asymptotique d'un bras articulé sur une surface. Dans le troisième chapitre nous étudions la géométrie plane du billard elliptique avec des méthodes de la géométrie complexe.Les quatrième et cinquième chapitres sont dédiés aux méthodes générales d'étude asymptotique des systèmes dynamiques. Dans le quatrième chapitre nous prouvons la convergence des moyennes sphériques pour des actions du groupe libre sur un espace mesuré. Dans le cinquième chapitre nous fournissons une forme normale pour un produit croisé qui peut s'avérer utile dans l'étude des attracteurs étranges de systèmes dynamiques
This thesis deals with the questions of asymptotic behavior of dynamical systems and consists of six independent chapters. In the first part of this thesis we consider three particular dynamical systems. The first two chapters deal with the models of two physical systems: in the first chapter, we study the geometric structure and limit behavior of Arnold tongues of the equation modeling a Josephson contact; in the second chapter, we are interested in the Lagrange problem of establishing the asymptotic angular velocity of the swiveling arm on the surface. The third chapter deals with planar geometry of an elliptic billiard.The forth and fifth chapters are devoted to general methods of studying the asymptotic behavior of dynamical systems. In the forth chapter we prove the convergence of markovian spherical averages for free group actions on a probablility space. In the fifth chapter we provide a normal form for skew-product diffeomorphisms that can be useful in the study of strange attractors of dynamical systems
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

RAFI, Selwa. "Chaînes de Markov cachées et séparation non supervisée de sources". Phd thesis, Institut National des Télécommunications, 2012. http://tel.archives-ouvertes.fr/tel-00995414.

Texto completo da fonte
Resumo:
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

COT, CECILE. "Méthodes d'accélération pour les chaînes de Markov à transitions exponentielles". Paris 11, 1998. http://www.theses.fr/1998PA112325.

Texto completo da fonte
Resumo:
Cette these presente quatre types d'acceleration pour les algorithmes d'optimisation stochastiques classiques tels que les dynamiques de metropolis ou de glauber. Toutes sont basees sur l'idee de reduire la taille de l'espace des etats actifs de chaque phase de l'algorithme. Dans la premiere partie, on s'interesse au recuit simule avec des schemas de temperature triangulaires geometriques decroissants, constants par paliers. On montre que de tels schemas permettent d'obtenir l'exposant optimal pour la vitesse de convergence. Dans la seconde partie, on construit un algorithme markovien potentiellement parallele, appele algorithme multi-resolution. Il utilise des tentatives locales et multiples de l'algorithme de metropolis. En jouant sur le nombre de tentatives (resp. La taille des fenetres de localisation), on peut abaisser la barriere de potentiel locale (resp. Globale). Dans la troisieme partie, on se place sur un espace hierarchisable en plusieurs niveaux de resolution. On definit un algorithme markovien, appele algorithme hierarchique, pour lequel chaque recherche basse resolution est validee par une optimisation a haute resolution. Cet algorithme echantillonne partiellement la loi de gibbs. C'est un pre-traitement de l'algorithme de metropolis standard. On calcule un gain de temps effectif sur le probleme de meta-stabilite du modele d'ising. La quatrieme partie, experimentale, accompagne l'etude theorique faite sur les algorithmes precedents. On illustre leurs performances pour la restauration de sequences video corrompues par un bruit gaussien. On propose un modele de reconstruction dichotomique des lignes de niveaux introduit par o. Catoni, prenant en compte un bruit gaussien et les correlations temporelles.
Estilos ABNT, Harvard, Vancouver, APA, etc.

Livros sobre o assunto "Chaînes de Markov branchantes"

1

Foata, Dominique. Processus stochastiques: Processus de Poisson, chaînes de Markov et martingales : cours et exercices corrigeś. Paris: Dunod, 2004.

Encontre o texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Robert, Christian. Méthodes de Monte Carlo par chaînes de Markov. Economica, 1996.

Encontre o texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.

Capítulos de livros sobre o assunto "Chaînes de Markov branchantes"

1

Jedrzejewski, Franck. "Chaînes de Markov". In Modèles aléatoires et physique probabiliste, 67–88. Paris: Springer Paris, 2009. http://dx.doi.org/10.1007/978-2-287-99308-4_4.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Caumel, Yves. "Chaînes de Markov discrètes". In Probabilités et processus stochastiques, 149–78. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0163-6_7.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Chafaï, Djalil, e Florent Malrieu. "Chaînes de Markov cachées". In Recueil de Modèles Aléatoires, 93–103. Berlin, Heidelberg: Springer Berlin Heidelberg, 2016. http://dx.doi.org/10.1007/978-3-662-49768-5_7.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Del Moral, Pierre, e Christelle Vergé. "Chaînes de Markov Discrètes". In Mathématiques et Applications, 3–21. Berlin, Heidelberg: Springer Berlin Heidelberg, 2014. http://dx.doi.org/10.1007/978-3-642-54616-7_1.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Del Moral, Pierre, e Christelle Vergé. "Chaînes de Markov Abstraites". In Mathématiques et Applications, 23–50. Berlin, Heidelberg: Springer Berlin Heidelberg, 2014. http://dx.doi.org/10.1007/978-3-642-54616-7_2.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Del Moral, Pierre, e Christelle Vergé. "Chaînes de Markov Non Linéaires". In Mathématiques et Applications, 51–65. Berlin, Heidelberg: Springer Berlin Heidelberg, 2014. http://dx.doi.org/10.1007/978-3-642-54616-7_3.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Del Moral, Pierre, e Christelle Vergé. "Chaînes de Markov en Auto-Interaction". In Mathématiques et Applications, 67–90. Berlin, Heidelberg: Springer Berlin Heidelberg, 2014. http://dx.doi.org/10.1007/978-3-642-54616-7_4.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Chafaï, Djalil, e Florent Malrieu. "Des chaînes de Markov aux processus de diffusion". In Recueil de Modèles Aléatoires, 357–72. Berlin, Heidelberg: Springer Berlin Heidelberg, 2016. http://dx.doi.org/10.1007/978-3-662-49768-5_27.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Caumel, Yves. "Chaînes de Markov à temps continu et files d’attente". In Probabilités et processus stochastiques, 203–33. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0163-6_9.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Del Moral, Pierre, e Christelle Vergé. "Méthodes de Monte Carlo par Chaînes de Markov (MCMC)". In Mathématiques et Applications, 147–92. Berlin, Heidelberg: Springer Berlin Heidelberg, 2014. http://dx.doi.org/10.1007/978-3-642-54616-7_6.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia