Tesi sul tema "Théorie de la probabilité"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Théorie de la probabilité.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Théorie de la probabilité".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Godfroy-Genin, Anne-Sophie. "De la doctrine de la probabilité à la théorie des probabilités : Pascal, la "Logique de Port-Royal", Jacques Bernoulli". Paris 4, 2004. http://www.theses.fr/2004PA040268.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Entre 1657 et 1713, le concept moderne de probabilités emerge de trois courants jusque là distincts : le calcul des chances et ses applications aux droit et au commerce, les calculs sur un grand nombre de données des tables de mortalité, et le concept philosophique et théologique de probabilité hérité d'Aristote et Saint Thomas d'Aquin et repris par les casuistes jésuites. La solution standard au problème des parties découverte en 1654 par Pascal et Fermat ouvre la voie à l'idée de quantification de l'incertain, et après cinquante ans de tâtonnements conceptuels, permet de passer d'une doctrine théologique de a probabilité à une th́éorie mathématique des probabilités. D'abord instrument rationnel de décision en situation d'incertitude, et une nouvelle logique contre les progrès du scepticisme, ce qui éclaire les discussions contemporaines sur la nature de la probabilité
In the 1654-1713 period, modern probability emerged simoustaneously from the calculations on games of chances and their applications to business and law; as well as from the calculations and tables concerning large collections of data as in mortality tables; and from the philosophical and theological concept of qualitative probability, as herited from Aristotle and Aquinas and revised by the Jesuit casuists. The standard solution of the division problem discovered in 1654 by Pascal and Fermat allowed the idea of quantifying uncertainty, and after fifty years of difficulties in conceptualisation, shifted from a theological doctrine of probability to a mathematical theory of probabilities. At first an instrument to support a rational decision under uncertainty, it progressively became a tool of epistemic measurement of belief, an objective measure of uncertainty and a new logic against the progress of septicism. This enlightens modern discussions on the nature of probability
2

Lanciani, Albino Attilio. "Analyse phénoménologique du concept de probabilité". Lyon, Ecole normale supérieure, 2010. http://www.theses.fr/2010ENSL0087.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette étude porte sur la notion de probabilité telle qu'elle a été élaborée en mathématiques à partir de l'axiomatisation d'A. N. Kolmogorov et en thermodynamique, dans la théorie cinétique des gaz de L. Boltzmann. L'analyse philosophique emprunte des outils à la phénoménologie telle qu'elle est exposée par son fondateur, E, Husserl, tout en prenant en compte certaines contributions postérieures, telles que celles de J. -T. Desanti et de G. -C. Rota. La probabilité représente le point de convergence entre plusieurs questionnements scientifiques. Il s'agit d'une notion feuilletée et stratifiée où s'entrecroisent des éléments d'une importance fondamentale pour une épistémologie rigoureuse et pertinente des dites « sciences dures ». La tâche de l'étude est précisément de frayer une voie possible vers une compréhension phénoménologique de cet horizon problématique. Cette compréhension ne cherche pas cependant à inscrire de force cet horizon dans une doctrine phénoménologique pré-définie. Bien plutôt, elle recourt à certains concepts phénoménologiques, tels que ceux de Fundierung ou d'ontologie formelle, qui se révèlent particulièrement opératoires pour l'analyse du sens de la notion de probabilité. Dans une perspective plus large, nous parvenons ainsi à une interprétation - que l'on pourrait qualifier d'« harmonique » - du mode d'enchaînement des savoirs scientifiques
The current study is based upon the notion of probability as it was formulated in Mathematics after A. N. Kolmogorov’s axiomatisation as well as in thermodynamics as part of the kinetic theory of gases put forward by L. Boltzmann. The philosophical analysis borrows its instruments from phenomenology as it was expounded by its founder, E. Husserl, though taking into account all the subsequent contributions by J. -T. Desanti and G. -C. Rota. Probability is the point of convergence of different scientific questionings. That is a multilayered notion where the fundamental elements are interlaced in view of a rigorous and relevant epistemology of the so called ‘hard sciences’. The task of this study is more precisely that of paving the way to a phenomenological understanding of this problematic horizon. However the aforementioned understanding does not try to force this horizon into a predetermined phenomenological doctrine. On the contrary it avails itself of certain phenomenological concepts, like that of Fundierung or formal ontology, that are extremely operative in the analysis of the meaning of the notion of probability. Viewed from a different angle we can thus get to an interpretation, which could be qualified as ‘harmonic’, of the way the bodies of knowledge are intertwined
3

Osseiran, Ahmad-Chawki. "Contribution à la théorie des probabilités symboliques". Paris 6, 1996. http://www.theses.fr/1996PA066650.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'inscrit dans le domaine du traitement qualitatif de l'incertain. Pour parvenir à nos fins, nous nous sommes basés sur la théorie des multi-ensembles et la logique multivalente qui offrent un substrat à l'élaboration de la représentation symbolique de l'incertitude à l'aide échelle symbolique finie de degrés de certitude. Dans ce domaine, nous avons proposé un véritable calcul symbolique dans le cadre de la logique multivalente, des opérations usuelles d'addition, de soustraction, de multiplication et de division dans l'intervalle réel 0, 1. Les résultats obtenus nous ont permis l'extension de la théorie des probabilités symboliques en les appliquant aux probabilités conditionnelles, aux probabilités indépendantes et au théorème de Bayes. D'où l'aboutissement à une version purement symbolique du réseau bayésien se basant sur les opérations symboliques et les probabilités conditionnelles symboliques. Enfin, nous avons élaboré un algorithme général bayésien pour les arborescences et un logiciel d'application (SYBANES) illustrant la pertinence des outils proposés. A ce stade, il est donc possible de dire qu'à travers notre travail, nous avons pu contribuer d'une façon efficace à l'évolution de la théorie des probabilités symboliques.
4

Pieczynski, Wojciech. "Sur diverses applications de la décantation des lois de probabilité dans la théorie générale de l'estimation statistique". Paris 6, 1986. http://www.theses.fr/1986PA066064.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
On cherche à construire des estimateurs convergents dans le cas des V. A. Non nécessairement indépendantes et équidistribuées. La méthode de la décantation est particulièrement adaptée car elle permet la construction explicite de tels estimateurs et donne des renseignements sur leur vitesse de convergence.
5

Nehme, Bilal. "Techniques non-additives d'estimation de la densité de probabilité". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00576957.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous proposons une nouvelle méthode d'estimation non-paramétrique de la densité de probabilité. Cette méthode d'estimation imprécise combine la théorie de distribution de Schwartz et la théorie de possibilité. La méthode d'estimation que nous proposons est une extension de la méthode d'estimation à noyau. Cette extension est basée sur une nouvelle méthode de représentation de la notion de voisinage sur laquelle s'appuie l'estimation à noyau. Cette représentation porte le nom de noyau maxitif. L'estimation produite est de nature intervalliste. Elle est une enveloppe convexe d'un ensemble d'estimation de Parzen-Rosenblatt obtenus avec un ensemble de noyaux contenus dans une famille particulière. Nous étudions un certain nombre des propriétés théoriques liées à cette nouvelle méthode d'estimation. Parmi ces propriétés, nous montrons un certain type de convergence de cet estimateur. Nous montrons aussi une aptitude particulière de ce type d'estimation à quantifier l'erreur d'estimation liée à l'aspect aléatoire de la distribution des observations. Nous proposons un certain nombre d'algorithmes de faible complexité permettant de programmer facilement les mathodes que nous proposons.
6

Le, Maître François. "Sur les groupes pleins préservant une mesure de probabilité". Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2014. http://tel.archives-ouvertes.fr/tel-00992656.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Soit (X, μ) un espace de probabilité standard et Γ un groupe dénombrable agissant sur X de manière à préserver la mesure de probabilité (p.m.p.). La partition de l'espace X en orbites induite par l'action de Γ est entièrement encodée par le groupe plein de l'action, constitué de l'ensemble des bijections boréliennes de l'espace qui agissent par permutation sur chaque orbite. Plus précisément, le théorème de reconstruction de H. Dye stipule que deux actions p.m.p. sont orbitalement équivalentes (i.e. induisent la même partition à une bijection p.m.p. près) si et seulement si leurs groupes pleins sont isomorphes.Le sujet de cette thèse est grandement motivé par ce théorème de reconstruction, puisqu'il s'agit de voir comment des invariants d'équivalence orbitale, qui portent donc sur la partition de l'espace en orbites, se traduisent en des propriétés algébriques ou topologiques du groupe plein associé.Le résultat majeur porte sur le rang topologique des groupes pleins, c'est-à-dire le nombre minimum d'éléments nécessaires pour engendrer un sous-groupe dense. Il se trouve être fortement relié a un invariant fondamental d'équivalence orbitale : le coût. Plus précisément, nous avons montré que le rang topologique était, dans le cas ergodique, égal à la partie entière du coût de l'action plus un. Le cas non ergodique a également été étudié, et on a obtenu des résultats complémentaires sur la généricité de l'ensemble des générateurs topologiques.Enfin, on a caractérisé les actions dont toutes les orbites sont infinies : ce sont exac- tement celles dont le groupe plein n'admet aucun morphisme non trivial à valeurs dans Z/2Z.
7

Albenque, Marie. "Tresses, animaux, cartes : à l'interaction entre combinatoire et probabilité". Paris 7, 2008. http://www.theses.fr/2008PA077178.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous nous intéressons dans cette thèse à l'étude de certains objets situés à l'interface entre combinatoire et probabilités. Le premier thème abordé est l'énumération des tresses. Notre contribution principale consiste en une extension de la théorie des empilements de Viennot pour les monoïdes de traces à un cadre plus général incluant notamment les monoïdes de Garside, ce qui conduit entre autres à des résultats d'énumération nouveaux pour les monoïdes de tresses. Le second volet de cette thèse est consacré au lien entre l'énumération d'animaux dirigés et les modèles de gaz à particules dures. La définition de chaînes de Markov cycliques et l'établissement de leur convergence vers les chaînes de Markov ordinaires nous permet de donner une présentation unifiée des résultats d'énumération d'animaux sur de nombreux réseaux et d'accéder ainsi à une meilleure compréhension de la dépendance des résultats d'énumération en la forme de la source. La troisième et dernière partie traite des triangulations et quadrangulations en pile, et plus précisément de leurs comportements limites lorsque le nombre de sommets tend vers l'infini. Les contributions principales sont les convergences locales et de Gromov-Hausdorff ainsi que l'asymptotique de la loi des degrés pour les cartes sous la loi uniforme et la convergence comme espace métrique sous la loi historique. Ces résultats reposent sur des outils combinatoires et probabilistes variés : bijection entre arbres et cartes, convergence vers l'arbre continu d'Aldous, étude probabiliste fine du comportement asymptotique de certaines fonctionnelles d'arbres, processus de fragmentation, modèle d'urnes aléatoires,. .
We study in this work some objects lying on the boundary between combinatorics and probability. The first part deals with the enumeration of positive braids. Our most significant contribution here is an extension of Viennot's heaps of pieces theory to a wider frame which includes in particular Garside monoids, this leads to some new enumeration results for braid monoids. The second section is devoted to the link between enumeration of directed animals and hard particle gas models. The definition of cyclic Markov chains as well as some results about their convergence towards ordinary Markov chains enable us to give a unified presentation of enumeration of animals on various lattices and hence to provide a better understanding about the reliance between enumeration results and the form of the source. The third and last part deals with the stack triangulations and quadrangulations, and more precisely with their limiting behaviors when the number of vertices grows to infinity. The main contribution here are the local and Gromov-Hausdorff convergences and the asymptotic of the degree distribution for the maps under the uniform law and the convergence as metric space under the historical distribution. These results rely on numerous combinatorial and probabilistic tools: bijection between trees and maps, convergence towards Aldous' continuum random tree, subtle probabilistic study of some trees properties, fragmentation process, random urns model
8

Philippe, Anne. "Contribution à la théorie des lois de référence et aux méthodes de Monte Carlo". Rouen, 1997. http://www.theses.fr/1997ROUES005.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est composée de deux parties distinctes : la première relève de la statistique bayésienne et la seconde des méthodes de Monte Carlo. Nous étudions, dans la première partie, l'apport des lois non informatives de référence. Nous obtenons, via ces lois et les régions de confiance bayésiennes, une solution au classique problème de Fieller-Creasy posé par le modèle de calibration. Un deuxième problème est l'estimation de fonctions quadratiques d'une moyenne normale. Il conduit à de surprenantes complications dans les inférences bayésiennes et fréquentistes. Nous évaluons les propriétés de ces lois et plus particulièrement leurs propriétés de couverture pour ce modèle. La seconde partie de cette thèse est consacrée à l'estimation des intégrales par les méthodes de Monte Carlo. Nous introduisons un estimateur de Monte Carlo basé sur les propriétés des sommes de Riemann. Nous montrons que cet estimateur possède des propriétés de convergence supérieures aux approches classiques. Nous montrons que la méthode d'échantillonnage pondéré se généralise à notre estimateur et produit un estimateur optimal en terme de réduction de la variance. Nous généralisons notre estimateur aux méthodes de Monte Carlo par chaines de Markov. De plus, nous établissons un critère de contrôle de convergence des chaines de Markov issues des algorithmes de Monte Carlo par chaines de Markov. L'étape de simulation des variables aléatoires, qui apparait dans les méthodes de Monte Carlo, est abordée dans notre étude des lois gamma tronquées. Nous déterminons des algorithmes d'acceptation-rejet dominant les approches classiques. Nous avons illustré les différents résultats obtenus par de nombreuses simulations.
9

Genitrini, Antoine. "Expressions booléennes aléatoires : probabilité, complexité et comparaison quantitative de logiques propositionnelles". Versailles-St Quentin en Yvelines, 2009. http://www.theses.fr/2009VERS0010.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
A travers ma thèse, j'étudie des systèmes propositionnels d'un point de vue probabilité/complexité. Je commence par deux distributions de probabilité sur les fonctions Booléennes, induites par des expressions Booléennes construites avec le connecteur Implication. On donne la structure de la plupart des expressions représentant une fonction donnée, quand le nombre de variables tend vers l'infini. On obtient ainsi l'équivalent asymptotique de la probabilité de la fonction, dépendant de sa complexité. Via la fonction Vrai, on compare quantitativement les logiques classique et intuitionniste de l'implication. Cette comparaison met en évidence certaines propriétés d'une classe d'expressions, qui se retrouvent dans le système propositionnel complet : on compare alors les deux logiques dans ce système. Enfin on étudie les expressions équilibrées des deux systèmes, de l'implication et des deux connecteurs Et et Ou. Dans les deux cas, on exhibe la distribution de probabilité sur les fonctions
In this thesis, I am interested in propositional systems from a probability/complexity point of view. I begin with two probability distributions on Boolean functions, induced by the Boolean expressions built with the Implication connective. I obtain the structure of most of the expressions representing a given function, when the number of variables tends to infinity. This gives the asymptotic equivalent of the probability of the function, depending on its complexity. Via the function True, we compare quantitatively the intuitionistic and classical logics of implication. This comparison highlights some properties of a class of expressions, that are found also in the full propositional system, and we can compare the two logics in this system. Finally we study balanced expressions in the two systems built on implication, or on the two connectors And and Or. In both cases, we exhibit the probability distribution of the functions
10

Hamon, Abdellatif. "Estimation d'une densité de probabilité multidimensionnelle par dualité". Rouen, 2000. http://www.theses.fr/2000ROUES055.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous étudions dans cette thèse l'estimation d'une fonction de densité d'une loi de probabilité multidimensionnelle à partir d'un certain nombre de moments issue de cette loi. Nous considérons ces moments comme une information sur la loi inconnue. Nous introduisons une nouvelle fonction d'information de type Kullback, afin d'utiliser la méthode du maximum d'entropie pour construire un estimateur convergent uniformément vers la loi inconnue lorsque le nombre de moments augmente. Nous utilisons les techniques de dualité de Fenchel-Young pour démontrer dans un premier temps la convergence uniforme de l'estimateur de maximum d'entropie vers la densité inconnue lorsque les fonctions deux densités sont uniformément bornées. Nous explicitons dans un deuxième temps la vitesse de convergence de l'estimateur du maximum d'entropie lorsque les fonctions de moments sont algébriques, trigonométriques définies sur un compact de IR n. Nous construisons une famille de splines à régularité modifiables, puis nous démontrons que lorsque les fonctions de moments proviennent de cette famille alors la convergence uniforme de l'estimateur du maximum d'entropie est assurée. Dans la dernière partie de cette thèse, nous proposons un algorithme de construction d'une loi inconnue à partir d'un certain nombre de ces moments.
11

Et, Tabii Mohamed. "Contributions aux descriptions optimales par modèles statistiques exponentiels". Rouen, 1997. http://www.theses.fr/1997ROUES028.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est consacrée à l'amélioration de l'approximation d'une loi inconnue, par la méthode de la i-projection sous contraintes. L'amélioration consiste à minimiser une information de Kullback pour obtenir la i-projection. La i-projection est définie à l'aide d'une probabilité de référence et de fonctions qui constituent les contraintes. Le rôle de ces données pour améliorer l'approximation est explicite. Nous développons une méthodologie pour caractériser les contraintes, les meilleures tenant compte des propriétés plausibles de la densité de la loi inconnue. Elle consiste de plus à construire pour la méthode de la i-projection, une probabilité de référence, meilleure que celle de départ. Des applications numériques montrent la pertinence de la méthode.
12

Abdous, Belkacem. "Étude d'une classe d'estimateurs à noyau de la densité d'une loi de probabilité". Doctoral thesis, Université Laval, 1989. http://hdl.handle.net/20.500.11794/33251.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans ce travail nous donnons un aperçu des plus intéressantes approches visant à déterminer la fenêtre optimale en estimation de la densité d’une loi de probabilité par la méthode du noyau. Nous construisons ensuite une classe d’estimateurs à noyau de la densité pour lesquels nous avons établi des conditions suffisantes de convergence uniforme presque sûre et L¹ presque sûre vers la densité à estimer f [f incliné vers la droite]. Cette classe d’estimateurs à noyau étant assez générale, elle nous a permis d’appliquer ces résultats de convergence à des estimateurs à noyau classiques comme ceux de Deheuvels (1977-a), Shanmugam (1977), Bierens (1983), et Devroye et Wagner (1983). Elle nous a permis également, de construire une famille d’estimateurs à noyau de moyenne μn et de matrice de variance-covariance Vn, où fin est un estimateur non spécifié de la moyenne de / et Vn, à une constante multiplicative près, la matrice de variance-covariance empirique. Enfin, en simulant quelques modèles univariés connus, nous avons comparé les performances de l’estimateur à noyau de Parzen-Rosenblatt avec celles de l’estimateur à noyau de variance la variance empirique et de moyenne /xn, où a été choisi comme étant la moyenne empirique X n ou bien la médiane X n ou bien la moyenne empirique a-tronquée (a = 0.1) ou bien l’estimateur de Gastwirth (1966).
Québec Université Laval, Bibliothèque 2018
13

Heinkelé, Christophe. "Synthèse modale probabiliste : Théorie et applications". Ecully, Ecole centrale de Lyon, 2008. http://www.theses.fr/2008ECDL0010.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail de cette thèse est focalisé sur le traitement des incertitudes des paramètres d’un système vibroacoustique. Après plusieurs rappels des techniques numériques pour traiter l’impact de l’aléa de ces paramètres sur le comportement du système, nous avons initié une méthode analytique en nous appuyant d’une part sur les calculs de probabilités classiques et d’autre part sur l’analyse modale. Nous avons ainsi commencé par écrire l’expression analytique de la densité de probabilité de la réponse en fréquence d’un oscillateur harmonique en considérant dans un premier temps que seul la fréquence propre était aléatoire de loi uniforme, puis dans un deuxième temps que seul l’amortissement visqueux était aléatoire (de loi uniforme également). Dans un troisième temps nous avons considéré un couple de variables aléatoires. Cette dernière résolution nous a permis d’envisager ensuite la superposition de n oscillateurs et d’écrire la densité de probabilité d’un système vibrant à un degrés de liberté : c’est ce que nous avons désigné par l’analyse modale probabiliste. Nous présentons une application à la poutre d’Euler-Bernoulli traitée par la méthode des éléments finis. Dans cette thèse, nous présentons des techniques numériques de traitement de l’aléa (Projection sur un chaos polynômial), mais un pas vers l’identification des paramètres et de leur aléa a également été tenté. Dans ce cadre, nous utilisons d’abord des méthodes d’identification non paramétrique, puis nous exposons une famille de méthodes basées sur les enveloppes de la réponse du système données par la résolution analytique
The work developed in this phd-thesis is focused on the treatment of the uncertainties of the parameters of a vibro-acoustical system. After several recalls of numerical techniques to treat the impact of the randomness of these parameters on the behaviour of the system, we initiated an analytical method by using on one hand classical calculations of probability and on the other hand the modal analysis. So we began by writing the analytical expression of the probability density function of the frequency response of a harmonic oscillator by considering at first that only the natural frequency is random and governed by an uniform law, then in a second time that only viscous damping was random (of uniform law too). In a third time we considered the couple as being random. By using this last resolution allowed us to superpose n oscillators and to write the probability density funstion of a vibrating system of n degrees of freedom: we called this method the probabilistic modal analysis. We introduce an application on the Euler-Bernoulli beam treated by finite elements method. In this thesis, we introduce numerical techniques about the treatment of the randomness upon parameters (projection on the polynomial chaos), but a step towards the identification of parameters and their randomness was also tried. In this frame, first we use methods of nonparametric identification, then we display a family of methods based on the envelopes of the frequency response of the system given by the analytical resolution
14

Goffard, Pierre-Olivier. "Approximations polynomiales de densités de probabilité et applications en assurance". Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4026/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse a pour objet d'étude les méthodes numériques d'approximation de la densité de probabilité associée à des variables aléatoires admettant des distributions composées. Ces variables aléatoires sont couramment utilisées en actuariat pour modéliser le risque supporté par un portefeuille de contrats. En théorie de la ruine, la probabilité de ruine ultime dans le modèle de Poisson composé est égale à la fonction de survie d'une distribution géométrique composée. La méthode numérique proposée consiste en une projection orthogonale de la densité sur une base de polynômes orthogonaux. Ces polynômes sont orthogonaux par rapport à une mesure de probabilité de référence appartenant aux Familles Exponentielles Naturelles Quadratiques. La méthode d'approximation polynomiale est comparée à d'autres méthodes d'approximation de la densité basées sur les moments et la transformée de Laplace de la distribution. L'extension de la méthode en dimension supérieure à $1$ est présentée, ainsi que l'obtention d'un estimateur de la densité à partir de la formule d'approximation. Cette thèse comprend aussi la description d'une méthode d'agrégation adaptée aux portefeuilles de contrats d'assurance vie de type épargne individuelle. La procédure d'agrégation conduit à la construction de model points pour permettre l'évaluation des provisions best estimate dans des temps raisonnables et conformément à la directive européenne Solvabilité II
This PhD thesis studies numerical methods to approximate the probability density function of random variables governed by compound distributions. These random variables are useful in actuarial science to model the risk of a portfolio of contracts. In ruin theory, the probability of ultimate ruin within the compound Poisson ruin model is the survival function of a geometric compound distribution. The proposed method consists in a projection of the probability density function onto an orthogonal polynomial system. These polynomials are orthogonal with respect to a probability measure that belongs to Natural Exponential Families with Quadratic Variance Function. The polynomiam approximation is compared to other numerical methods that recover the probability density function from the knowledge of the moments or the Laplace transform of the distribution. The polynomial method is then extended in a multidimensional setting, along with the probability density estimator derived from the approximation formula. An aggregation procedure adapted to life insurance portfolios is also described. The method aims at building a portfolio of model points in order to compute the best estimate liabilities in a timely manner and in a way that is compliant with the European directive Solvency II
15

Bardet, Ivan. "Émergence de dynamiques classiques en probabilité quantique". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1071/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse se consacre à l'étude de certaines passerelles existantes entre les probabilités dîtes classiques et la théorie des systèmes quantiques ouverts. Le but de la première partie de ce manuscrit est d'étudier l'émergence de bruits classiques dans l'équation de Langevin quantique. Cette équation sert à modéliser l'action d'un bain quantique sur un petit système dans l'approximation markovienne. L'analogue en temps discret de cette équation est décrit par le schéma des interactions quantiques répétées étudier par Stéphane Attal et Yan Pautrat. Dans des travaux antérieurs, Attal et ses collaborateurs montrent que les bruits classiques naturels apparaissant dans ce cadre sont les variables aléatoires obtuses, dont ils étudient la structure. Mais sont-ils les seuls bruits classiques pouvant émerger, et quand est-il dans le cas général ? De même, en temps continu, il était plus ou moins admis que les seuls bruits classiques apparaissant dans l'équation de Langevin quantique sont les processus de Poisson et le mouvement brownien. Ma contribution dans ce manuscrit consiste à définir une algèbre de von Neumann pertinente sur l'environnement, dite algèbre du bruit, qui encode la structure du bruit. Elle est commutative si et seulement si le bruit est classique ; dans ce cas on confirme les hypothèses précédentes sur sa nature. Dans le cas général, elle permet de montrer une décomposition de l'environnement entre une partie classique maximale et une partie purement quantique. Dans la deuxième partie, nous nous consacrons à l'étude de processus stochastiques classiques apparaissant au sein du système. La dynamique du système est quantique, mais il existe une observable dont l'évolution est classique. Cela se fait naturellement lorsque le semi-groupe de Markov quantique laisse invariante une sous-algèbre de von Neumann commutative et maximale. Nous développons une méthode pour générer de tels semi-groupes, en nous appuyons sur une définition de Stéphane Attal de certaines dilatations d'opérateurs de Markov classiques. Nous montrons ainsi que les processus de Lévy sur Rn admettent des extensions quantiques. Nous étudions ensuite une classe de processus classiques liés aux marches quantiques ouvertes. De tels processus apparaissent lorsque cette fois l'algèbre invariante est le produit tensoriel de deux algèbres, l'une non-commutative et l'autre commutative. Par conséquent, bien que comportant l'aspect trajectoriel propre au processus classiques, de telles marches aléatoires sont hautement quantiques. Nous présentons dans ce cadre une approche variationnelle du problème de Dirichlet. Finalement, la dernière partie est dédiée à l'étude d'un processus physique appelé décohérence induite par l'environnement. Cette notion est fondamentale, puisqu'elle apporte une explication dynamique à l'absence, dans notre vie de tous les jours, de phénomènes quantiques. Nous montrons qu'une telle décohérence a toujours lieu pour des systèmes ouverts décrits par des algèbres de von Neumann finies. Nous initions ensuite une étude innovante sur la vitesse de décohérence, basée sur des inégalités fonctionnelles non-commutatives, qui permet de mettre en avant le rôle de l'intrication quantique dans la décohérence
This thesis focus on the study of several bridges that exist between classical probabilities and open quantum systems theory. In the first part of the thesis, we consider open quantum systems with classical environment. Thus the environment acts as a classical noise so that the evolution of the system results in a mixing of unitary dynamics. My work consisted in defining a relevant von Neumann algebra on the environment which, in this situation, is commutative. In the general case, we show that this algebra leads to a decomposition of the environment between a classical and a quantum part. In the second part, we forget for a time the environment in order to focus on the emergence of classical stochastic processes inside the system. This situation appears when the quantum Markov semigroup leaves an invariant commutative maximal von Neumann algebra. First, we develop a recipe in order to generate such semigroup, which emphasizes the role of a certain kind of classical dilation. We apply the recipe to prove the existence of a quantum extension for L\'evy processes. Then in the same part of the thesis we study a special kind of classical dynamics that can emerge on a bipartite quantum system, call \emph. Such walks are stochastic but displayed strong quantum behavior. We define a Dirichlet problem associated to these walks and solve it using a variational approch and non-commutative Dirichlet forms. Finally, the last part is dedicated to the study of Environment Induced Decoherence for quantum Markov semigroup on finite von Neumann algebra. We prove that such decoherence always occurs when the semigroup has a faithful invariant state. Then we focus on the fundamental problem of estimating the time of the process. To this end we define adapted non-commutative functional inequalities. The central interest of these definitions is to take into account entanglement effects, which are expected to lower the speed of decoherence
16

Mondragơn, Lopez Mauricio Javier. "Probabilité des événements multiples dans la mécanique quantique relativiste-générale et quelques aspects qualitatifs ("philosophiques") sur l'espace et le temps". Aix-Marseille 2, 2008. http://www.theses.fr/2008AIX22017.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Broniatowski, Michel. "Applications de la théoreie des valeurs extrêmes en probabilité et en statistique". Paris 6, 1987. http://www.theses.fr/1987PA066286.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le chapitre 1 utilise les proprietes de la transformee de laplace et les theoreme tauberien de karamata pour caracteriser les relations entre la theorie des valeurs extremes pour des suites de v. A. Reelles independantes et le comportement limite de leurs sommes partielles, lorsques celles-ci sont dans le domaine d'attraction d'une loi stables d'indice entre 0 et 1. Les vitesses de convergence uniforme de la suite des maxima partiels vers la loi limite sont obtenues par cette methode. Le chapitre 2 etudie les deviations de la moyenne empirique s(n)/n ou s(n) = x(1) +. . . +x(n), et les x(i) sont issus d'une suite de v. A. Reelles independantes. On obtient des equivalents pour les pr(s(n)/n a(n)) ou a(n) tend vers ess sup x(1), vers e(x(1)) ou est constant. La methode d'etude est neuve et est reliee a l'etude de theoremes tauberiens nouveaux pour la fonction generatrice des moments. On applique ces resultats a l'etude des maxima des sommes partielles (problemes d'erdoes-renyi) pour des tailles faibles des blocs mobiles; on met en evidence le seuil ou s'efface la theorie des valeurs extremes et ou le comportement p. S. De la statistique d'erdoes-renyi est analogue (qualitativement) a celui des extremes d'une suite de v. A. Normales. Le chapitre 3 traite de la convergence dans l1 de la famille des estimateurs non parametriques de la densite obtenus par validation croisee. On y demontre, sous des conditions de regularite faible, que cette suite de densite converge presque surement dans l1 si et seulement si les extremes de l'echantillon sont stables presque surement; ce resultat explique pourquoi cette methode ne peut etre utilisee que pour l'estimation de densites decroissant tres vite a l'infini (plus vite que la densite exponentielle). Le chapitre 4 traite des conditions d'ergodicite du processeus autoregressif general x(n+1) = t(x(n) + e(n+1)) ou e(i) est une suite de v. A. Reelles independantes, et t est une fonction quelconque. Les proprietes de la loi stationnaires sont reliees a celles de (e(i)) en particulier aux extremes de (e(i)). La methode utilisee (th. De schauder) permet de traiter des cas non classiques. Cette partie a ete faite avec jean diebolt
18

Daniel, Lionel. "Définition d'une logique probabiliste tolérante à l'inconsistance : appliquée à la reconnaissance de scénarios et à la théorie du vote". Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00537758.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les humains raisonnent souvent en présence d'informations contradictoires. Dans cette thèse, j'ébauche une axiomatisation du sens commun sous-jacent à ce raisonnement dit paraconsistant. L'implémentation de cette axiomatisation dans les ordinateurs autonomes sera essentielle si nous envisageons de leur déléguer des décisions critiques ; il faudra également vérifier formellement que leurs réactions soient sans risque en toute situation, même incertaine. Une situation incertaine est ici modélisée par une base de connaissances probabilistes éventuellement inconsistante ; c'est un multi-ensemble de contraintes éventuellement insatisfiable sur une distribution de probabilité de phrases d'un langage propositionnel, où un niveau de confiance peut être attribué à chaque contrainte. Le principal problème abordé est l'inférence de la distribution de probabilité qui représente au mieux le monde réel, d'après une base de connaissances donnée. Les réactions de l'ordinateur, préalablement programmées puis vérifiées, seront déterminées par cette distribution, modèle probabiliste du monde réel. J.B. Paris et al. ont énoncé un ensemble de sept principes, dit de sens commun, qui caractérise l'inférence dans les bases de connaissances probabilistes consistantes. Poursuivant leurs travaux de définition du sens commun, je suggère l'adhésion à de nouveaux principes régissant le raisonnement dans les bases inconsistantes. Ainsi, je définis les premiers outils théoriques fondés sur des principes pour raisonner de manière probabiliste en tolérant l'inconsistance. Cet ensemble d'outils comprend non seulement des mesures de dissimilarité, d'inconsistance, d'incohérence et de précision, mais aussi un processus d'inférence coïncidant avec celui de J.B. Paris dans le cas consistant. Ce processus d'inférence résout un problème de la théorie du vote, c'est-à-dire l'obtention d'un consensus parmi des opinions contradictoires à propos d'une distribution de probabilité telle que la répartition d'un investissement financier. Finalement, l'inconsistance n'est qu'une forme d'incertitude qui ne doit pas entraver notre raisonnement, ni celui des ordinateurs : peut-être qu'une plus grande confiance leur sera accordée s'ils fondent leurs décisions sur notre sens commun.
19

Peyre, Rémi. "Quelques problèmes d'inspiration physique en théorie des probabilités". Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2010. http://tel.archives-ouvertes.fr/tel-00563472.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente quatre travaux de recherche mêlant probabilités et analyse, ayant en commun de s'appuyer sur l'intuition physique, tant dans la position des problèmes que dans leur résolution : 1. On borne les probabilités de transition des chaînes de Markov réversibles discrètes, améliorant la borne de Carne grâce à une démonstration alternative. 2. On démontre la convergence vers la limite de champ moyen dans une approche uniforme et non asymptotique pour un modèle de Boltzmann spatialement homogène. 3. On étudie le coefficient de rho-mélange entre deux tribus, montrant en particulier comment cette quantité peut être tensorisée dans un cadre général, ce qui implique des résultats de décorrélation entre groupes infinis de spins en physique statistique. 4. On s'intéresse, pour une équation de McKean-Vlasov, à la stabilité de l'équilibre homogène en fonction de la température, minorant notamment l'énergie d'activation.
20

Omri, Asma. "Modélisation et utilisation de ressources et services Web et indexation de données dans un contexte d’incertitude". Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1135.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Il est communément admis que la production de données connait, depuis plusieurs années, un développement spectaculaire en raison de la multiplication des nouvelles technologies telles que les réseaux sociaux, les nouveaux appareils mobiles, les compteurs intelligents, les capteurs et le cloud computing. De fait, cette explosion de données devrait se poursuivre et même accélérer. S'interroger sur la façon dont on devrait traiter cette masse de qui devient de plus en plus variée, complexe et moins structurée, est alors essentiel. DaaS ( Data As A Service) peut être définie comme l'approvisionnement, la gestion et la fourniture de données présentées dans un format immédiatement consommable aux utilisateurs professionnels des organisations en tant que service. Les données retournées par ces services se caractérisent généralement par l'incertitude et l'hétérogénéité. Nombreux sont les approches qui traitent les données selon le cycle de vie du service Web qui repose sur 6 phases à savoir la création, la sélection, la découverte, la modélisation, l'invocation et la composition des services, dans le but de résoudre le problème de volume de données, de son hétérogénéité ou de sa vitesse d'évolution. En revanche, il y a très peu d'approches qui s'intéressent à la qualité de données et au traitement de son incertitude dans le Web. Nous nous sommes naturellement intéressés, dans cette thèse, à la question des services Web dans un contexte de systèmes distribués et hétérogènes. La principale contribution à apporter dans le cadre de ce travail de recherche est d'étudier la composition de services et/ou de ressources Web et l'indexation de données dans un contexte incertain. Dans un premier temps, au travers des apports de la littérature, le cadre théorique relatif aux spécificités du concept de service DaaS incertain, est présente en adoptant la théorie possibiliste. Le problème de la composition de services Web et l'impact de l'incertitude, qui peut être associée à la sortie d'un service, sur les processus de sélection et de composition des services sont explicites. Pour ce faire, nous avons proposé une approche possibiliste afin de modéliser l'incertitude des données renvoyées par des services incertains. Plus précisément, nous avons étendu les normes de description de service Web (par exemple, WSDL) pour représenter les degrés d'incertitude des sorties. Nous avons également étendu le processus d'invocation de service pour prendre en compte l'incertitude des données d'entrée. Cette extension est basée sur la théorie des mondes possibles utilisée dans les bases de données possibilistes. Nous avons également mis en avant un ensemble d'operateurs de composition, sensibles aux valeurs d'incertitude, dans le but d'orchestrer des services de données incertains. Dans un deuxième temps, nous avons étudié l'impact de l'incertitude sur la représentation et la manipulation des ressources Web. Nous avons défini le concept de ressource Web incertaine et proposé des mécanismes de composition de ressources. Pour ce faire, un modèle de description de l'incertitude à travers le concept de ressource Web incertaine a été présente. Celui-ci est basé sur un modèle probabiliste ou chaque ressource peut avoir plusieurs représentations possibles, avec une certaine probabilité. Enfin, et dans un dernier temps, nous avons proposé des méthodes d'indexation documentaire des données de type Big Data. Au commencement, nous avons adopté une approche d'indexation syntaxique de données incertaines, ensuite, nous avons suivi une méthode d'indexation sémantique incertaine. Enfin, et pour booster cette démarche, nous avons proposé une méthode hybride d'indexation dans un contexte incertain
It is widely accepted that data production has been developing spectacularly for several years due to the proliferation of new technologies such as social networks, new mobile devices, smart meters, sensors and cloud computing. In fact, this data explosion should continue and even accelerate. To wonder about the way in which one should treat this mass of which becomes more and more varied, complex and less structured, is then essential. DaaS (Data As A Service) can be defined as the supply, management and delivery of data presented in an immediately consumable format business users of organizations as a service. The data returned by these services are generally characterized by uncertainty and heterogeneity. There are many approaches that process data across the Web service lifecycle, which is based on six phases: creation, selection, discovery, modeling, invocation, and composition of services, in order to solve the problem. problem of data volume, its heterogeneity or its speed of evolution. On the other hand, there are very few approaches to data quality and the treatment of uncertainty in the Web. In this thesis, we are naturally interested in the question of Web services in a context of distributed and heterogeneous systems. The main contribution to be made in this research is to study the composition of Web services and / or resources and the indexing of data in an uncertain context. First, through the contributions of the literature, the theoretical framework relative to the specificities of the concept of DaaS service uncertain, is presented by adopting the possibilistic theory. The problem of the composition of Web services and the impact of the uncertainty, which can be associated with the exit of a service, on the processes of selection and composition of the services are explained. To do this, we proposed a possibilistic approach to model the uncertainty of data returned by uncertain services. Specifically, we have extended Web service description standards (for example, WSDL) to represent the uncertainty levels of the outputs. We have also extended the service invocation process to account for the uncertainty of input data. This extension is based on the theory of possible worlds used in possibilistic databases. We also put forward a set of composition operators, sensitive to uncertainty values, in order to orchestrate uncertain data services. Second, we studied the impact of uncertainty on the representation and manipulation of Web resources. We defined the concept of an uncertain web resource and proposed resource composition mechanisms. To do this, a model describing uncertainty through the concept of uncertain web resource was presented. This one is based on a probabilistic model where each resource can have several possible representations, with a certain probability. Finally, and finally, we proposed methods of documentary indexing of data of the Big Data type. Initially, we adopted an approach of syntactic indexing of uncertain data, then we followed an uncertain method of semantic indexing. Finally, and to boost this approach, we have proposed a hybrid method of indexing in an uncertain context
21

Pfeiffer, Laurent. "Sensitivity analysis for optimal control problems. Stochastic optimal control with a probability constraint". Palaiseau, Ecole polytechnique, 2013. https://pastel.hal.science/docs/00/88/11/19/PDF/thesePfeiffer.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est divisée en deux parties. Dans la première partie, nous étudions des problèmes de contrôle optimal déterministes avec contraintes et nous nous intéressons à des questions d'analyse de sensibilité. Le point de vue que nous adoptons est celui de l'optimisation abstraite; les conditions d'optimalité nécessaires et suffisantes du second ordre jouent alors un rôle crucial et sont également étudiées en tant que telles. Dans cette thèse, nous nous intéressons à des solutions fortes. De façon générale, nous employons ce terme générique pour désigner des contrôles localement optimaux pour la norme L1. En renforçant la notion d'optimalité locale utilisée, nous nous attendons à obtenir des résultats plus forts. Deux outils sont utilisés de façon essentielle : une technique de relaxation, qui consiste à utiliser plusieurs contrôles simultanément, ainsi qu'un principe de décomposition, qui est un développement de Taylor au second ordre particulier du lagrangien. Les chapitres 2 et 3 portent sur les conditions d'optimalité nécessaires et suffisantes du second ordre pour des solutions fortes de problèmes avec contraintes pures, mixtes et sur l'état final. Dans le chapitre 4, nous réalisons une analyse de sensibilité pour des problèmes relaxés avec des contraintes sur l'état final. Dans le chapitre 5, nous réalisons une analyse de sensibilité pour un problème de production d'énergie nucléaire. Dans la deuxième partie, nous étudions des problèmes de contrôle optimal stochastique sous contrainte en probabilité. Nous étudions une approche par programmation dynamique, dans laquelle le niveau de probabilité est vu comme une variable d'état supplémentaire. Dans ce cadre, nous montrons que la sensibilité de la fonction valeur par rapport au niveau de probabilité est constante le long des trajectoires optimales. Cette analyse nous permet de développer des méthodes numériques pour des problèmes en temps continu. Ces résultats sont présentés dans le chapitre 6, dans lequel nous étudions également une application à la gestion actif-passif
This thesis is divided into two parts. In the first part, we study constrained deterministic optimal control problems and sensitivity analysis issues, from the point of view of abstract optimization. Second-order necessary and sufficient optimality conditions, which play an important role in sensitivity analysis, are also investigated. In this thesis, we are interested in strong solutions. We use this generic term for locally optimal controls for the L1-norm, roughly speaking. We use two essential tools: a relaxation technique, which consists in using simultaneously several controls, and a decomposition principle, which is a particular second-order Taylor expansion of the Lagrangian. Chapters 2 and 3 deal with second-order necessary and sufficient optimality conditions for strong solutions of problems with pure, mixed, and final-state constraints. In Chapter 4, we perform a sensitivity analysis for strong solutions of relaxed problems with final-state constraints. In Chapter 5, we perform a sensitivity analysis for a problem of nuclear energy production. In the second part of the thesis, we study stochastic optimal control problems with a probability constraint. We study an approach by dynamic programming, in which the level of probability is a supplementary state variable. In this framework, we show that the sensitivity of the value function with respect to the probability level is constant along optimal trajectories. We use this analysis to design numerical schemes for continuous-time problems. These results are presented in Chapter 6, in which we also study an application to asset-liability management
22

Ye, Yinna. "PROBABILITÉ DE SURVIE D'UN PROCESSUS DE BRANCHEMENT DANS UN ENVIRONNEMENT ALÉATOIRE MARKOVIEN". Phd thesis, Université François Rabelais - Tours, 2011. http://tel.archives-ouvertes.fr/tel-00605751.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objet de cette thèse est d'étudier la probabilité de survie d'un processus de branchement en environnement aléatoire markovien et d'étendre dans ce cadre les résultats connus en milieu aléatoire indépendant et identiquement distribué. Le coeur de l'étude repose sur l'utilisation des théorèmes limites locaux pour une marche aléatoire centrée (Sn)n 0 sur R à pas markoviens et pour (mn)n 0, où mn = min (0; S1; ; Sn). Pour traiter le cas d'un environnement aléatoire markovien, nous développons dans un premier temps une étude des théorèmes locaux pour une chaîne semi-markovienne à valeurs réelles en améliorant certains résultats déjà connus et développés initialement par E. L. Presman (voir [22] et [23]). Nous utilisons ensuite ces résultats pour l'étude du comportement asymptotique de la probabilité de survie d'un processus de branchement critique en environnement aléatoire markovien. Les résultats principaux de cette thèse ont été annoncés dans les Comptes Rendus de l'Académie des Sciences ([21]). Un article plus détaillé est soumis pour publication dans la revue Journal of Theoretical Probability. Dans cette thèse, nous précisons les énoncés de ces théorèmes et détaillons leurs démonstrations.
23

Nechita, Ion. "États aléatoires, théorie quantique de l'information et probabilités libres". Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00371592.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse se trouve à l'intersection de la théorie des matrices aléatoires, des probabilités libres et de la théorie de l'information quantique. La plus grande partie des travaux présentés se concentrent sur les aspects probabilistes de l'information quantique et, en particulier, sur l'usage des matrices aléatoires dans différents modèles en théorie quantique. Une autre partie de cette thèse est dédiée à la théorie des probabilités libres et à ses liens avec les matrices aléatoires et l'information quantique. En théorie quantique de l'information, il existe différents modèles de matrices densités aléatoires. On s'intéresse, dans l'esprit de la théorie des matrices aléatoires, au comportement asymptotique des matrices densités, dans la limite où la taille du système converge vers l'infini. Le point de vue pris dans cette thèse est celui des systèmes quantiques ouverts, où l'espace qui nous intéresse est couplé avec l'environnement et le système composé se trouve dans un état pur uniforme. En prenant la trace partielle sur l'environnement, on obtient des matrices densités aléatoires que l'on étudie dans deux régimes asymptotiques. En exploitant des liens avec l'ensemble des matrices aléatoires dites de Wishart, on obtient les densités spectrales limites et les fluctuations des valeurs propres extrémales. En collaboration avec Clément Pellegrini, on étudie des interactions répétées entre un système quantique et une chaîne de systèmes auxiliaires. Nous avons introduit des éléments aléatoires dans ce modèle, soit en considérant que les états de la chaîne sont des variables indépendantes et identiquement distribuées, soit en choisissant, à chaque interaction, une matrice unitaire d'interaction aléatoire uniforme. On s'intéresse aux propriétés asymptotiques des matrices, après un grand nombre d'interactions. Au passage, on introduit un nouveau modèle de matrices densités aléatoires que l'on compare avec les modèles existants dans la littérature. Un problème qui occupe une place centrale dans cette thèse est la conjecture de Nielsen sur la catalyse en théorie quantique de l'information. En collaboration avec Guillaume Aubrun, nous avons progressé vers la preuve de cette conjecture et nous l'avons par la suite généralisée dans différentes directions. L'outil principal utilisé dans ces travaux nous vient de la théorie des probabilités : la théorie des grandes déviations nous permet de comparer stochastiquement des puissances de convolution des mesures de probabilités. Les techniques introduites et le lien avec la théorie des grandes déviations nous ont permis de voir ce problème sous un autre angle et de donner aux théoriciens de l'information quantique un outil de travail puissant. Enfin, toujours en lien avec les matrices aléatoires, cette thèse a donné lieu à deux travaux en probabilités libres. Les ensembles de matrices aléatoires sont des exemples importants et simples où l'on peut observer l'indépendance libre; il est donc naturel de se demander s'il est possible d'obtenir la notion de liberté avec des matrices déterministes. Une telle construction a été proposée par Philippe Biane, en utilisant des sommes de transpositions dans l'algèbre du groupe symétrique. Avec Florent Benaych-Georges, on a pu généraliser les résultats de P. Biane à des cycles quelconques. Notre approche est combinatoire ce qui nous a permis d'aboutir à des formules explicites pour les moments et les cumulants libres des variables à la limite. Grâce à cette même approche nous avons élaboré un modèle analogue en probabilités classiques en remplaçant le groupe symétrique par le groupe abélien des parties d'un ensemble fini, muni de l'opération de différence symétrique. En collaboration avec Stéphane Attal, nous avons construit une approximation de l'espace de Fock libre (qui joue un rôle central en théorie des probabilités non-commutatives) par un produit libre dénombrable d'espaces discrets. Cette idée généralise au cas libre une construction similaire pour l'espace de Fock symétrique, introduite et étudié par S. Attal. En même temps nous avons obtenu une approximation des opérateurs fondamentaux de création, d'annihilation et de jauge par des opérateurs construits à partir des matrices de taille 2. En utilisant ces constructions sont ensuite utilisées pour retrouver quelques approximations connues du mouvement brownien libre et du processus de Poisson libre. Tous ces résultats se généralisent au cas des espaces de Fock de multiplicité supérieure, qui permettent d'approcher des processus multidimensionnels. En conclusion, l'ensemble des travaux scientifiques présentés dans cette thèse se situe à l'intersection de trois grandes directions: les matrices aléatoires, les probabilités libres et la théorie quantique de l'information, l'accent étant mis sur les interactions et sur les liens entre ces domaines.
24

Gaudillière, Alexandre. "Fuga dalla metastabililità per dinamiche stocastiche conservative". Paris 11, 2006. http://www.theses.fr/2006PA112187.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous étudions la fuite de la métastabilité pour un gaz de particules évoluant sous la dynamique conservative de Kawasaki à basse température et à l'intérieur d'un domaine bi-dimensionel de volume exponentiellement grand en la température inverse. Nous décrivons d'abord les trajectoires typiques suivies par le système, dans la version locale du modèle, lors de la première transition entre la métastabilité et la stabilité. Nous établissons ensuite une propriété des marches aléatoires dans le plan qui permet d'étendre les résultats obtenus pour la version locale du modèle à la dynamique originale de Kawasaki. Nous donnons une minoration de la probabilité de non-collision avant un long temps T pour un système de n marches aléatoires avec obstacles fixes. Par ‘collision' il faut entendre collision avec les obstacles fixes aussi bien qu'entre les particules elles-mêmes. Forts de ces résultats nous pouvons prédire les principaux traits de la fuite de la métastabilité pour la dynamique originale de Kawasaki
We study the escape from metastability for a gas of particles evolving under the conservative Kawasaki dynamics, at low tempure and inside a two-dimensional box with exponentially large volune in the inverse temperature. We first describe the typical trajectories followed by the system, in the local version of the model, along the first transition between metastability and stability. Then we prove a property of planar random walks which allows to extend the results obtained for the local version of the model to the original Kawaski dynamics. We give a lower bound for the non-collision probability before a long time T for a system of n random walks with fixed obstacles. By ‘collision' we mean collision with the fixed obstacles as well as collision between the particles themselves. On the basis of these results we can predict the main features of the escape from metastability for the original Kawasaki dynamics
25

Averous, Jean, e Michel Meste. "Famille de boules centrales d'une probabilité sur un espace de Banach. Application aux ordres et mesures de dissymétrie et de kurtosis". Toulouse 3, 1992. http://www.theses.fr/1992TOU30017.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Pour une probabilite sur un espace de banach, les auteurs introduisent une famille de boules centrales, indicee par leur rayon; ce sont les boules fermees dont le centre minimise un critere qui, si le rayon est nul, est celui qui sert a definir la mediane spatiale. Les proprietes de cette mediane ont ete etudiees par kemperman en 1987. Il est montre que ces proprietes, en particulier celles de robustesse et de convergence, sont conservees par les boules centrales. Les proprietes plus specifiques des fonctions de centrage et de dispersion qui associent au rayon d'une boule centrale respectivement le centre et la probabilite de cette boule, sont detaillees. Ces proprietes sont utilisees pour definir, d'une part une dissymetrie par rapport a la mediane dans la direction d'un cone convexe ainsi qu'un ordre et des mesures pour ce concept, d'autre part une fonction de kurtosis sur laquelle les auteurs fondent un ordre ne necessitant pas la symetrie centrale des lois. Des exemples de ces fonctions sont donnes pour des lois usuelles. Centre, dispersion, dissymetrie et kurtosis sont ainsi analyses de facon coherente avec la norme. Dans le cas particulier de lois reelles ils generalisent les m-parametres de centrage par des intervalles centraux optimaux, et definissent pour la s-moyenne un poids des queues coherent avec ce centre. Ce dernier concept leur sert a definir, pour toute loi de s-moyenne finie, une fonction de repartition de loi continue unimodale dont l'analyse exploratoire par des methodes fondees sur les quantiles fournit une description de la loi initiale au sens s-moyenne. Ce concept leur sert egalement a unifier la classification des familles nonparametriques de lois de duree de vie et a preciser leur structure hierarchique
26

Deng, Yuxin. "Axiomatisations et types pour des processus probabilistes et mobiles". Phd thesis, École Nationale Supérieure des Mines de Paris, 2005. http://tel.archives-ouvertes.fr/tel-00155225.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette th`ese se concentre sur des bases th´eoriques utiles pour l'analyse d'algorithmes et de protocoles
pour des syst`emes r´epartis modernes. Deux caract´eristiques importantes des mod`eles pour
ces syst`emes sont les probabilit´es et la mobilit´e typ´ee : des probabilit´es peuvent ˆetre utilis´ees pour
quantifier des comportements incertains ou impr´evisibles, et des types peuvent ˆetre utilis´es pour
garantir des comportements sˆurs dans des syst`emes mobiles. Dans cette th`ese nous d´eveloppons
des techniques alg´ebriques et des techniques bas´ees sur les types pour l'´etude comportementale des
processus probabilistes et mobiles.

Dans la premi`ere partie de la th`ese nous ´etudions la th´eorie alg´ebrique d'un calcul de processus
qui combine les comportements non-d´eterministe et probabiliste dans le mod`ele des automates probabilistes
propos´es par Segala et Lynch. Nous consid´erons diverses ´equivalences comportementales
fortes et faibles, et nous fournissons des axiomatisations compl`etes pour des processus `a ´etats finis,
limit´ees `a la r´ecursion gard´ee dans le cas des ´equivalences faibles.

Dans la deuxi`eme partie de la th`ese nous ´etudions la th´eorie alg´ebrique du -calcul en pr´esence
des types de capacit´es, qui sont tr`es utiles dans les calculs de processus mobiles. Les types de
capacit´es distinguent la capacit´e de lire sur un canal, la capacit´e d'´ecrire sur un canal, et la capacit´e
de lire et d'´ecrire `a la fois. Ils introduisent ´egalement une relation de sous-typage naturelle et
puissante. Nous consid´erons deux variantes de la bisimilarit´e typ´ee, dans leurs versions retard´ees
et anticip´ees. Pour les deux variantes, nous donnons des axiomatisations compl`etes pour les termes
ferm´es. Pour une des deux variantes, nous fournissons une axiomatisation compl`ete pour tous les
termes finis.

Dans la derni`ere partie de la th`ese nous d´eveloppons des techniques bas´ees sur les types pour
v´erifier la propri´et´e de terminaison de certains processus mobiles. Nous fournissons quatre syst`emes
de types pour garantir cette propri´et´e. Les syst`emes de types sont obtenus par des am´eliorations
successives des types du -calcul simplement typ´e. Les preuves de terminaison utilisent des techniques
employ´ees dans les syst`emes de r´e´ecriture. Ces syst`emes de types peuvent ˆetre utilis´es pour
raisonner sur le comportement de terminaison de quelques exemples non triviaux : les codages des
fonctions r´ecursives primitives, le protocole pour coder le choix s´epar´e en terme de composition
parall`ele, une table de symboles implement´ee comme une chaˆıne dynamique de cellules.

Ces r´esultats ´etablissent des bases pour une future ´etude de mod`eles plus avanc´es qui peuvent
combiner des probabilit´es avec des types. Ils soulignent ´egalement la robustesse des techniques
alg´ebriques et de celles bas´ees sur les types pour le raisonnement comportemental.
27

Cléry, Matthias. "La théorie des probabilités et l'Institut Henri Poincaré (1918-1939) : construction d'un champ probabiliste parisien et pratique d'un transfert culturel". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASK003.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le calcul des probabilités connaît des bouleversements profonds entre 1918 et 1939, notamment à Paris où l'Institut Henri Poincaré ouvre en 1928 et se constitue rapidement en centre international dans ce domaine. En utilisant une approche croisée, nous analysons les processus sociaux à l'œuvre au sein de la Faculté des sciences de Paris et au sein de l'Académie des sciences participant à l'affirmation du calcul des probabilités comme discipline mathématique et soutenant les recherches dans ce domaine. Nous mettons ainsi en évidence les stratégies mobilisées par un petit groupe de mathématiciens pour donner un cadre institutionnel aux dynamiques probabilistes à l'échelle parisienne et internationale dans lesquelles ils s'investissent activement. Nous analysons en particulier la pratique d'un transfert culturel alimentant les développements probabilistes à Paris
The mathematics of randomness experienced tremendous changes throughout the interwar period (1918-1939), especially in Paris where the Institut Henri Poincaré (IHP) opened in 1928 and soon became an international scene for probability. Using a cross-approach, we analyse the social processes at work within the Faculty of Science of Paris and the Academy of Science playing a part in the strengthening of probability as a mathematical discipline and supporting research in this field. We highlight the strategies used by a small group of mathematicians in order to build an institutionnal framework for the probabilistic developement both locally and internationally. We particularly analyse the practice of cultural transfer fueling the probabilistic research in Paris
28

Dubois, Frédéric. "Théorie des probabilités et risque : penser l'optimisme épistémologique après la catastrophe". Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26257.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Pour Ulrich Beck, les sociétés modernes sont des « sociétés du risque ». Alors que les développements scientifiques n’ont cessé d’accroître le potentiel technique de l’homme, les succès de la science moderne ont en contrepartie produit des risques et des menaces sans précédent dans l’histoire de l’humanité. Les experts-scientifiques peuvent néanmoins espérer prévoir ces menaces à l'aide des théories probabilistes qu’ils ont eux-mêmes développées. Ainsi, la maîtrise du calcul des aléas, un triomphe de la Raison, semble nous donner un pouvoir d’agir contre l’éventualité de l’actualisation des risques. « Savoir, c’est pouvoir », selon la formule de Francis Bacon. Calculer les risques devrait donc, selon cette même logique, nous donner ce pouvoir d’éviter le pire. Néanmoins, comme Tchernobyl et, plus récemment, Fukushima nous l'ont appris, l’inattendu peut toujours frapper. Ainsi, malgré la prétendue précision de nos calculs probabilistes, le pire demeure possible. Un optimiste pourrait toujours rétorquer que l’actualisation du pire nous permettra de perfectionner nos outils de prédictions. Pour parler en termes leibniziens, une catastrophe est un mal pour un plus grand Bien. Mais que dire alors de la logique des probabilités une fois l’aveu de l’échec de nos calculs? Est-il intrinsèquement impossible d’arriver à un calcul du risque sans risque? Faut-il alors se résigner à cette limite intrinsèque de notre savoir? Ces dernières questions nous conduisent non seulement à questionner la logique interne du calcul des probabilités, mais également la conception moderne du risque qui est au cœur des développements scientifiques modernes.
According to Ulrich Beck, modern societies are “risk societies”. On one hand, modernity has been the cradle of scientific development and, in the wake, the triumph of Reason. On another hand, its scientific successes gave rise to new technologies with such potential risks that some thinkers come to fear the worst for our modern societies. Yet, scientific-experts may hope to prevent and, therefore, rejoice the power to act against the eventuality of such disasters. Indeed, since the refinement of probabilistic theories, science now possesses a powerful tool to foresight the risks it produces. “Knowledge is power”, as Francis Bacon’s credo suggests. Hence, to calculate risks should be sufficient to seize the threats mankind is facing and, thereby, act upon it. But, what if, despite the more precise calculus possible, the worst was still to happen? As Chernobyl and, more recently, Fukushima reminded us, hazard might still have his way over the human ingenuity. Nuclear energy might be a simple example among an increasing number of emerging risk technologies. Still, the gravity of the consequences of its recent failures might whereas be the display of a deeper modern threat. We think we can learn from our experiences and, in such a way, as Leibniz would have said, a catastrophe becomes a prerequisite evil for a greater Good. Can we really learn from our experiences in a way we can, without a doubt, avoid a further catastrophe? Is there not in the epistemological optimism internal logic a greater threat that is obscured by our conception of risk as a mathematical concept? We then have to question not only the internal logic of an optimistic epistemology, but as well the modern constructed concept of risk as it presents itself as the core of modern developments.
29

Giraudo, Davide. "Théorèmes limites de la théorie des probabilités dans les systèmes dynamiques". Rouen, 2015. http://www.theses.fr/2015ROUES056.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse se consacre aux théorèmes limites pour les suites et les champs aléatoires strictement stationnaires, principalement sur le théorème limite central et sa version fonctionnelle, appelée principe d'invariance. Dans un premier temps, nous montrons à l'aide d'un contre-exemple que pour les processus strictement stationnaires β-mélangeants, le théorème limite central peut avoir lieu sans que ce ne soit le cas pour la version fonctionnelle. Nous montrons également que le théorème limite central n'a pas nécessairement lieu pour les sommes partielles d'une suite strictement stationnaire β-mélangeante à valeurs dans un espace de Hilbert de dimension infinie, même en supposant l'uniforme à intégrabilité de la suite des sommes partielles normalisées. Puis nous étudions le principe d'invariance dans l'espace des fonctions hölderiennes. Nous traitons le cas des suites strictement stationnaires tau-dépendantes (au sens de Dedecker, Prieur, 2005) ou rho-mélangeantes. Nous donnons également une condition suffisante sur la loi d'une suite strictement stationnaire d'accroissements d'une martingale et la variance quadratique garantissant le principe d'invariance dans l'espace des fonctions hölderiennes, et nous démontrons son optimalité à l'aide d'un contre-exemple. Ensuite, nous déduisons grâce à une approximation par martingales des conditions dans l'esprit de celles de Hannan (1979), et Maxwell et Woodroofe (2000). Nous discutons ensuite de la décomposition martingale/cobord. Dans le cas des suites, nous fournissons des conditions d'intégrabilité sur la fonction de transfert et le cobord pour que ce dernier ne perturbe pas le principe d'invariance, la loi des logarithmes itérés ou bien la loi forte des grands nombres si ceux-ci ont lieu pour la martingale issue de la décomposition. Dans le cas des champs, nous formulons une condition suffisante pour une décomposition ortho-martingale/cobord. Enfin, nous établissons des inégalités sur les queues des maxima des sommes partielles d'un champ aléatoire de type ortho-martingale ou bien d'un champ qui s'exprime comme une fonctionnelle d'un champ i. I. D. Ces inégalités permettent d'obtenir un principe d'invariance dans les espaces hölderiens pour ces champs aléatoires
This thesis is devoted to limit theorems for strictly stationary sequences and random fields. We concentrate essentially on the central limit theorem and its invariance principle. First, we show with the help of a counter-example that for a strictly stationary absolutely regular sequence, the central limit theorem may hold but not the invariance principle. We also show that the central limit theorem does not take place for partial sums of a Hilbert space valued, strictly stationary and absolutely regular sequence, even if we assume that the normalized partial sums form a uniformly integrable family. Second, we investigate the Holderian invariance principle. We treat the case of tau-dependent (Dedecker, Prieur, 2005) and rho-mixing strictly stationary sequences. We provide a sufficient condition on the law of a strictly stationary martingale difference sequence and the quadratic variance which guarantee the invariance principle in a Hölder space. We construct a counter-example which shows its sharpness. We derive conditions in the spirit of Hannan (1979), and Maxwell and Woodroofe (2000) by a martingale approximation. We then discuss the martingale/coboundary decomposition. In dimension one, we provide sharp integrability conditions on the transfer function and the coboundary for which the later does not spoil the invariance principle, the law of the iterated logarithm or the strong law of large numbers if these theorems take place for the martingale involved in the decomposition. We also provide a sufficient condition for an orthomartingale/coboundary decomposition for strictly stationary random fields. Lastly, we establish tails inequalities for orthomartingale and Bernoulli random fields. We prove an invariance principle in Hölder spaces for these random fields using such inequalities
30

El, Maftouhi Abdelhakim. "Méthodes probabilistes en combinatoire et théorie des graphes". Paris 11, 1994. http://www.theses.fr/1994PA112408.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse rassemble plusieurs travaux dont le point commun est l'utilisation de méthodes probabilistes. La première partie concerne l'étude des paramètres de domination et d'irredondance dans les graphes aléatoires de probabilité d'arête 1/2. Nos résultats apportent un point final à l'étude du trio: irredondance, domination et stabilité dans ces graphes. Dans la deuxième partie on délaisse momentanément les probabilités pour aborder les graphes signés. On s'intéresse plus particulièrement au problème de l'équilibre dans ces graphes. On introduit la notion de sous-graphes équilibrants dont on donne quelques caractérisations qui permettent d'obtenir de nouveaux résultats. Nous introduisons dans la troisième partie la notion de graphes signés aléatoires et nous étudions les principales propriétés statistiques de ces graphes. La quatrième partie est consacrée à l'énumération d'une classe d'ordres partiels. Nous donnons une procédure pour calculer le nombre d'ordres partiels gradués de largeur et de rang donnes. Pour une largeur fixée la procédure utilise un temps de calcul qui est une fonction linéaire du rang. Finalement, dans la dernière partie, on étudie le problème de la satisfiabilité d'un ensemble de 3-clauses aléatoires
31

Fabiani, Patrick. "Représentation dynamique de l'incertain et stratégie de perception pour un système autonome en environnement évolutif". Toulouse, ENSAE, 1996. http://www.theses.fr/1996ESAE0028.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail est une contribution aux recherches sur l'autonomie des systèmes de perception : il s'agit de produire une estimation de l'état présent et futur d'un environnement changeant et dynamique en gérant automatiquement des capteurs et en intégrant des informations incertaines. Pour qu'une telle estimation reste pertinente vis-àvis de l'état réel du monde, le recueil de l'information doit être planifié au cours du temps selon une stratégie de perception fondée sur une évaluation de la validité courante des croyances du système. Que celles-ci soient de nature numérique ou symbolique, leur évolution et leur validité au cours du temps doivent être représentées dans un cadre adéquat. Nos travaux s'appuient sur une large exploration du champ des techniques de représentation de l'incertain. Nous montrons comment la Théorie des Probabilités d'une part, et la Théorie des Possibilités d'autre part offrent une complémentarité très utile en ce qui concerne la représentation dynamique de l'incertain et nous proposons une approche originale pour en tirer parti. Nous distinguons explicitement un degré de confiance représentant une évaluation de la pertinence de l'estimation courant de l'état de l'environnement : l'imprécision de cette estimation d'état est qualifiée par une mesure de probabilité. Dans ce cadre, nous proposons une représentation formelle de l'évolution des croyances du système au cours du temps selon des principes de persistance maximale et d'érosion du degré de confiance. L'étude des règles d'érosion a permis de définir des stratégies de perception. Nous avons testé cette approche en simulation sur un problème de stratégie de surveillance d'une scène à temps et événements discrets, régie par un modèle d'évolution markovien. Les résultats obtenus en comparaison avec d'autres stratégies possibles ouvrent des perspectives intéressantes de développement de méthodes s'appuyant sur l'approche proposée et utilisant des techniques d'optimisation
32

Merabet, Hayet. "Mélanges de probabilités de Dirichlet : neutralité dans les espaces probabilistes aléatoires". Rouen, 1986. http://www.theses.fr/1986ROUES025.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Après une présentation systématique et une généralisation des résultats relatifs aux mélanges de probabilités de Dirichlet et leur usage en statistique bayésienne non paramétrique, une synthèse des travaux sur les différentes notions de "neutralité" est faite à partir d'une définition qui englobe toutes celles données dans la littérature
33

Engoulatov, Alexandre. "La géométrie et la théorie conforme des champs". Paris 11, 2006. http://www.theses.fr/2006PA112343.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte sur une question de géométrie riemannienne motivée par l'étude de la compactification de l'espace de modules de théories de champs conformes. M. Kontsevich associe à une suite de théories de champs conformes qui dégénère un objet limite qui comporte une variété riemannienne M à courbure de Ricci positive ou nulle, et sa théorie de champs sur graphes. Il s'agit d'une famille d'opérateurs sur les puissances tensorielles de l'espace de Hilbert L^2(M), indexés par des graphes métriques. Le prototype est le semi-groupe de la chaleur P_t, associé au graphe à deux sommets et une arête de longueur t. Le résultat principal de la thèse est une estimation de la norme du gradient du logarithme du noyau de la chaleur sur une variété riemannienne compacte, en temps petit, en fonction de la borne inférieure de la courbure de Ricci et du diamètre seulement. La preuve, qui utilise le calcul stochastique, s'étend à certains semi-groupes satisfaisant une inégalité de courbure-dimension à la D. Bakry-M. Emery. A l'aide de résultats de J. Cheeger et T. H. Colding sur la structure des espaces limites (au sens de Gromov-Hausdorff mesuré) de telles variétés riemanniennes, on montre que l'estimation s'étend à ces espaces singuliers, et on en déduit un théorème de compacité pour l'espace de modules de théories de champs sur graphes associées à des variétés riemanniennes compactes à courbure de Ricci uniformément minorée
This thesis deals with a Riemannian geometric question which is motivated by the problem of compactifying the moduli space of Conformal Field Theories (CFT). M. Kontsevich associates to a degenerating sequence of CFT's a limiting object which contains a Riemannian manifold M with nonnegative Ricci curvature, and its graph field theory. This amounts to a family of operators on tensor powers of the Hilbert space L^2(M), indexed by metric graphs. For instance, the operator attached to the graph with two vertices and one edge of length t is the heat semigroup P_t. The main result in the thesis is an a priori estimate of the norm of the gradient of the logarithm of the heat kernel on a compact Riemannian manifold, for short times, depending on the lower bound on Ricci curvature and on diameter only. The proof, which uses stochastic calculus, extends to certain semigroups satisfying curvature-dimension inequalities, in the sense of D. Bakry and M. Emery. Using J. Cheeger and T. H. Colding's structure results on limit spaces of such Riemannian manifolds, it is shown that the a priori estimate extends to these singular limit spaces. A compactness theorem for graph field theories associated with compact Riemannian manifolds satisfying a uniform lower bound on Ricci curvature follows
34

Kamli, Mohammed el. "Quelques aspects de l'analyse probabiliste". Perpignan, 1996. http://www.theses.fr/1996PERP0233.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
1/ extension d'une forme modulaire croissante ordre-continue sur un o-treillis. 2/ esperance conditionnelle d'une integrante reelle ou vectorielle. 3/ algorithme de stabilisation extremale d'un jeu cooperatif
35

Romdhane, Rim. "Reconnaissance d'activités et connaissances incertaines dans les scènes vidéos appliquées à la surveillance de personnes âgées". Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00967943.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse aborde le problème de la reconnaissance d'activités. Elle est fortement motivée par la recherche dans le domaine de la reconnaissance des activités vidéo appliquée au domaine de la surveillance de personnes âgées. Dans ce travail, nous proposons deux contributions principales. La première contribution consiste en une approche pour la reconnaissance d'activité vidéo avec gestion de l'incertitude pour une détection précise d'événements. La deuxième contribution consiste à définir une ontologie et une base de connaissances pour la surveillance dans le domaine de la santé et en particulier la surveillance à l'hôpital de patients atteints de la maladie d'Alzheimer. L'approche de reconnaissance d'activité proposée combine une modélisation sémantique avec un raisonnement probabiliste pour faire face aux erreurs des détecteurs de bas niveau et pour gérer l'incertitude de la reconnaissance d'activité. La reconnaissance probabiliste des activités est basée sur la théorie des probabilités bayésienne qui fournit un cadre cohérent pour traiter les connaissances incertaines. L'approche proposée pour la vérification probabiliste des contraintes spatiale et temporelle des activités est basée sur le modèle de probabilité gaussienne. Nous avons travaillé en étroite collaboration avec les cliniciens pour définir une ontologie et une base de connaissances pour la surveillance à l'hôpital de patients atteints de la maladie d'Alzheimer. L'ontologie définie contient plusieurs concepts utiles dans le domaine de la santé. Nous avons également défini un certain nombre de critères qui peuvent être observés par les caméras pour permettre la détection des premiers symptômes de la maladie d'Alzheimer. Nous avons validé l'algorithme proposé sur des vidéos réelles. Les résultats expérimentaux montrent que l'algorithme de reconnaissance d'activité proposé a réussi à reconnaitre les activités avec un taux élevé de reconnaissance. Les résultats obtenus pour la surveillance de patients atteints de la maladie d'Alzheimer mettent en évidence les avantages de l'utilisation de l'approche proposée comme une plate-forme de soutien pour les cliniciens pour mesurer objectivement les performances des patients et obtenir une évaluation quantifiable des activités de la vie quotidienne.
36

Ould, Mohamed Mohamed Salem. "Contribution à la séparation aveugle de sources par utilisation des divergences entre densités de probabilité: application à l'analyse vibratoire". Reims, 2010. http://theses.univ-reims.fr/sciences/2010REIMS010.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous proposons un nouvel algorithme de séparation aveugle de sources, basé sur l'optimisation de l'information mutuelle sous contraintes. Le problème d'optimisation sous contraintes est résolu par passage au problème dual. L'estimateur proposé du gradient stochastique utilise l'estimation des densités par maximum de vraisemblance dans des modèles de lois exponentielles choisis par mi- nimisation du critère AIC. Ensuite, la méthode a été généralisée à l'ensemble des divergences entre densités de probabilité. Nous avons montré que l'algorithme uti- lisant la divergence particulière de Hellinger a de bonnes propriétés d'efficacité et robustesse en présence du bruit en comparaison avec l'information mutuelle. Dans le cadre de signaux cyclostationnaires, les méthodes précédentes de séparation ont été adaptées en utilisant des statistiques du second ordre. Nous illustrons les per- formances des algorithmes proposés pour des signaux simulés et pour des signaux réels issus de machines tournantes
In this thesis, we propose a new blind source separation algorithm based on the optimization of mutual information under constraints. The optimization problem is solved by using the dual problem. The estimator of stochastic gradient is based on the estimation of the densities by maximum likelihood method. The densities are chosen from exponential families using the AIC criterion. Then, we propose a new al- gorithm for blind source separation based on the minimization of divergences witch generalizes the Mutual Information (MI) approach. We show that the algorithm using Hellinger's divergence has better properties in terms of effciency-robustness, for noisy data. In the context of cyclostationary signals, the above methods of sepa- ration were adapted using second order statistics. We illustrate the performances of the proposed algorithms through simulations and on real rotating machine vibration signals
37

Grigorova, Miryana. "QUELQUES LIENS ENTRE LA THÉORIE DE L'INTÉGRATION NON-ADDITIVE ET LES DOMAINES DE LA FINANCE ET DE L'ASSURANCE". Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-00878599.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse de doctorat fait quelques liens entre la théorie de l'intégration non-additive et les notions d'ordre stochastique et de mesure du risque utilisées en finance et en assurance. Nous faisons un usage extensif des fonctions d'ensembles monotones normalisées, appelées également capacités, ou encore probabilités non-additives, ainsi que des intégrales qui leur sont associées, appelées intégrales de Choquet. Dans le premier chapitre, nous établissons une généralisation des inégalités de Hardy-Littlewood au cas d'une capacité. Nous y faisons également quelques compléments sur les fonctions quantiles par rapport à une capacité. Dans le deuxième chapitre, nous généralisons la notion de dominance stochastique croissante convexe au cas d'une capacité, et nous résolvons un problème d'optimisation dont la contrainte est donnée en termes de cette relation généralisée. Dans le troisième chapitre, nous nous intéressons à la généralisation de la notion de dominance stochastique croissante. Nous étudions également les classes de mesures du risque satisfaisant aux propriétés d'additivité comonotone et de consistance par rapport à l'une des relations de dominance stochastique "généralisées" précédemment considérées. Nous caractérisons ces mesures du risque en termes d'intégrales de Choquet par rapport à une "distorsion" de la capacité initiale. Le quatrième chapitre est consacré à des mesures du risque admettant une représentation "robuste" en termes de maxima (sur un ensemble de fonctions de distorsion) d'intégrales de Choquet par rapport à des capacités distordues.
38

Fricker, Christine. "File d'attente à serveur autonome et insensibilité en théorie des files d'attente". Paris 7, 1985. http://www.theses.fr/1985PA07F130.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objet de cette thèse est deux applications des probabilités à l'étude des files d'attente. La rédaction comprend deux parties indépendantes. La première partie consiste en un article intitulé Etude d'une file GI/GI/1 à service autonome (avec vacances du serveur). La deuxième partie est un travail original sur l'insensibilité en théorie des files d'attente. Ces deux parties seront introduites séparément.
39

Song, Yonghong. "Determination et evaluation de strategies performantes au jeu du blackjack". Paris 5, 1996. http://www.theses.fr/1996PA05S005.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le blackjack offre un terrain d'etude remarquable pour les methodologies de resolution de probemes complexes. C'est un jeu de cartes joue entre un dealer, qui represente le casino, et un ou plusieurs joueurs. Il impose au dealer des contraintes tout en lui accordant certains avantages en contrepartie et donne au joueur une grande liberte de choix de decisions. C'est dans cet espace ainsi delimite que peuvent etre developpees par le joueur des strategies eventuellement gagnantes. Cette these est une etude approfondie du blackjack. Elle analyse le jeu et developpe les deux grandes familles de strategies pour le joueur : strategies sans memoire et strategies avec memoire. Dans la premiere famille, les cartes jouees dans les parties precedentes n'interviennent pas dans la succession des decisions du joueur, alors que dans la deuxieme famille, les cartes jouees interviennent. Les methodes utilisees sont la simulation statistique et l'heuristique probabiliste. La premiere consiste a simuler un nombre important de parties du jeu entre le joueur et le dealer. Chaque partie simulee fournit des informations sur des variables definies a l'avance. La seconde consiste a calculer les probabilites necessaires par la voie arborescente en se basant sur des heuristiques. La premiere contribution de cette these est l'etude des caracteristiques statistiques du blackjack. L'avantage que procurent certaines regles du jeu au dealer est evalue, ainsi que l'avantage procure au joueur par chaque modalite optionnelle du jeu dont il peut faire usage. La seconde est la determination des strategies sans memoire pseudo-optimales adaptees aux differents ensembles de regles de jeu. Ces strategies mettent quasiment a egalite le joueur et le dealer. La troisieme est la determination de trois familles de strategies avec memoire basees sur les systemes de comptage de cartes. Ces strategies permettent au joueur de battre le dealer.
40

Duheille, Frédérique. "Etude probabiliste des morphismes harmoniques à valeurs dans un espace euclidien". Lyon 1, 1996. http://www.theses.fr/1996LYO10026.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette these, nous etudions de maniere probabiliste les morphismes harmoniques a valeurs dans un espace euclidien. Nous avons traite deux questions: 1) une approche probabiliste du theoreme de p. Baird et j. C. Wood caracterisant les morphismes harmoniques de r#3 dans r#2: tout morphisme harmonique de r#3 dans r#2 est la composee d'une projection orthogonale de r#3 sur un sous-espace de dimension deux et d'une fonction holomorphe ou antiholomorphe sur ce sous-espace. Nous avons ainsi pu redemontrer ce resultat par un simple argument de polarite du mouvement brownien. 2) la recherche d'informations sur l'image d'un morphisme harmonique a valeurs dans r#2 ou r#3. Nous avons demontre que, sous des conditions raisonnables, l'image d'un morphisme harmonique a valeurs dans r#3 ne peut eviter plus de deux demi-droites concourantes. Notre preuve exploite en particulier des proprietes d'entrelacement du mouvement brownien autour de demi-droites de r#3, ainsi que le caractere recurrent de certains ouverts associes au morphisme harmonique
41

Brouillette, Marc-Antoine. "Le processus d'évaluation des probabilités subjectives". Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26402.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ellsberg (1961) a été l’un des premier à démontrer que les prises de décision en ambiguïté sont mal comprises. Le manque d’informations sur les probabilités des résultats possibles affecte le comportement des individus. Dans ce genre d’environnement, certains individus ont recourt à des heuristiques afin d’évaluer les probabilités de manière subjective. Nous proposons donc un modèle empirique exprimant le processus d’évaluation et de mises à jours des croyances basé sur le théorème de Bayes. À l’aide de données expérimentales, nous avons pu estimer le modèle et ainsi dégager certains types de comportement. Nous avons, entre autre, découvert que le niveau d’ambiguïté liées aux probabilités avait un effet sur le processus d’évaluation des probabilités subjectives. Enfin, selon nos résultats, seulement 10 % des participants se sont comportés comme le prédirait la règle de Bayes, dont plusieurs autres études prennent pour acquis.
42

Kondah, Abdelaziz. "Les Endomorphismes dilatants de l'intervalle et leurs perturbations aléatoires". Dijon, 1991. http://www.theses.fr/1991DIJOS036.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le sujet de cette thèse est l'étude de la dynamique des endomorphismes dilatants de l'intervalle d'un point de vue ergodique. Dans la première partie utilisant les métriques projectives introduites par G. Birkhoff, dans le cadre des endomorphismes dilatants markoviens, nous exhibons une mesure de probabilité invariante absolument continue dont les propriétés métriques découlent de la construction (mesure de Gibbs exponentiellement mélangeante et vérifiant un principe variationnel). Dans le deuxième partie, nous étudions des perturbations aléatoires de ces mêmes endomorphismes. Sous des hypothèses de type dilatation en moyenne, nous montrons l'existence d'une mesure de probabilité invariante pour le processus stochastique associé. Si de plus, nous faisons l'hypothèse d'indépendance des perturbations, nous établissons des propriétés de grandes déviations de niveau 2 (therminologie thermodynamique) ; ces propriétés induisent en particulier des thèorèmes limites pour les lois de probabilité des temps d'entrée dans des ensembles rares. Enfin, dans la troisième partie, sous des hypothèses de distorsion borne, nous montrons que les endomorphismes de l'intervalle admettent des probabilités invariantes absolument continues et de densité essentiellement bornée relativement à la mesure de Lebesgue.
43

Kachigar, Ghazal. "Questions de localisabilité pour le calcul distribué". Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0339/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse suit un plan à deux parties. Le point de départ en est la notion de résistance à la localisation, qui est importante en calcul distribué quantique.Dans la première partie, qui est plutôt théorique, nous retraçons l’historique de certaines notions et résultats en information quantique et en calcul distribué, plus précisément le phénomène d’intrication et la condition non-signalling en information quantique et le modèle LOCAL et le problème de coloration en calcul distribué. Ensuite, nous évoquons le modèle φ-LOCAL, développé en 2009 comme adaptation de la condition non-signalling au modèle LOCAL dans le but d’étudier l’existence d’algorithmes distribués quantiques. Finalement, nous soulignons quelques limites du modèle φ-LOCAL à l’aide des notions de consistance globale et de consistance locale, et nous présentons une version plus adéquate de ce modèle.La deuxième partie comporte les principaux résultats techniques obtenus au cours de cette thèse dans le domaine de la théorie des probabilités. Nous introduisons la notion de k-localisabilité qui est une traduction probabiliste du modèle φ-LOCAL. Nous montrons en quoi cette notion est proche, mais plus faible, que la notion de k-dépendance, largement étudiée dans la littérature probabiliste. Nous évoquons des résultats récents autour de la coloration 1-dépendante du chemin qui permettent de conclure au sujet de la coloration 1-localisable du chemin : elle est possible dès qu’il y a plus de quatre couleurs. Dans la suite, nous traitons la question de la possibilité de la coloration 1-localisable du chemin à l’aide de trois couleurs : nous verrons qu’elle n’est pas possible. Pour répondre à cette question, nous avons eu recours à la programmation linéaire et à la combinatoire : en particulier, nous démontrons un théorème qui donne la solution explicite d’un programme linéaire ayant une forme particulière, ainsi qu’une formule pour les nombres de Catalan
This thesis is divided in two parts. Its starting point is the concept of resistance to localisation, an important concept in distributed quantum computing.In the first, theoretical part of this thesis, we go over the history of certain concepts and results in quantum information theory and distributed computing, such as the phenomenon of entanglement and the non-signalling condition in the first domain, and the LOCAL model and the colouring problem in the second domain. We then focus on the φ-LOCAL model, whose goal is to study the possibility of quantum distributed algorithms, and which was developedin 2009 by adapting the non-signalling condition to the LOCAL model. We introduce the concepts of global and local consistency in order to emphasise some shortcomings of this model. Finally, we present a more adequate version ofthe φ-LOCAL model.The second part of this thesis contains our major technical results in probability theory. We define the concept of k-localisability which is a probabilistic translation of the φ-LOCAL model. We show that this concept is close to but weaker than the concept of k-dependence which is well-studied in the probabilistic literature. We mention recent results concerning 1-dependent colouring of the path graph and the conclusion they allow us to reach with regards to 1-localisable colouring of the path graph : that it is possible with four or more colours. The rest of this part is dedicated to answering the question of the possibility of 1-localisable colouring of the path graph using three colours which we will show to be impossible. In answering this question we have made use of methods in linear programming and combinatorics. In particular, we prove a theorem on the explicit solution of a linear programming problem having a certain form, and a formula for the Catalan numbers
44

Saidi, Youssef. "Etude probabiliste et statistique de modèles conditionnellement hétéroscédastiques non linéaires". Lille 3, 2003. http://www.theses.fr/2003LIL30020.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous étudions une classe de modèles conditionnellement hétéroscédastiques (ARCH) non linéaires. La volatilité de la variable à la date t dépend de la position relative des variables passées. Nous montrons qu'une famille de tels modèles admet une représentation Markovienne permettant d'en étudier la stabilité. A partir de critères de Lyapounov, nous établissons des conditions d'existence des moments. Les propriétés asymptotiques (convergence forte et en loi) de trois types d'estimateurs des paramètres sont établies. Ces résultats sont illustrés à distance finie à partir de méthodes simulées et sur des séries réelles
45

Simatos, Florian. "Étude de modèles probabilistes de réseaux pair-à-pair et de réseaux avec mobilité". Phd thesis, Ecole Polytechnique X, 2009. http://pastel.archives-ouvertes.fr/pastel-00005681.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le but de cette thèse est de traiter quatre problèmes motivés par les réseaux de communication modernes ; les outils appropriés pour résoudre ces problèmes ap- partiennent à la théorie des probabilités. La résolution de ces problèmes améliore la compréhension des systèmes physiques initiaux, et contribue en même temps à la théorie puisque de nouveaux résultats théoriques, intéressants en soi, sont prouvés. Deux types de réseaux de communication sont considérés. Les réseaux mobiles sont ces réseaux où les clients se déplacent dans le réseau indépendamment du service qu'ils reçoivent ; contrairement aux réseaux de files d'attente classiques, les transitions des clients ne sont pas liées aux fins de service. Dans les réseaux pair- à-pair, la distinction entre client et serveur est abolie, puisque dans ces réseaux un serveur est un ancien client qui offre le fichier après l'avoir téléchargé. Ces derniers réseaux sont particulièrement efficaces pour disséminer des fichiers gros ou popu- laires. Dans les Chapitres I et II, le comportement stationnaire de tels réseaux est considéré. Dans chaque cas, le réseau est décrit par un processus de Markov à espace d'état discret et à temps continu, et l'on s'intéresse à son ergodicité ou au contraire à sa transience. Une spécificité de ces deux modèles est que les taux de transition des processus de Markov correspondants sont non bornés : dans le cas du réseau mobile du Chapitre I ceci est dû au fait que les clients bougent indépendamment les uns des autres, alors que pour le réseau pair-à-pair du Chapitre II, cela tient au fait que la capacité du système est proportionnelle au nombre de clients. Habituellement, l'analyse de la stabilité d'un réseau stochastique se fait par l'étude des limites d'une suite de processus de Markov correctement renormalisés, appelées limites fluides. Cette procédure est bien adaptée pour les processus “locale- ment additifs”, i.e., les processus qui se comportent localement comme des marches aléatoires ; cette propriété disparaît quand les taux de transition sont non bornés. Ces techniques sont néanmoins adaptées pour étudier la stabilité du réseau mobile du Chapitre I : utiliser des limites fluides pour étudier la stabilité de processus de Markov avec des taux de transition non bornés représente l'une des contributions de ce travail. Le réseau pair-à-pair du Chapitre II ne se prête quant à lui pas à ces tech- niques, et la stabilité découle alors de l'existence d'une fonction de Lyapounov. Un autre ingrédient clef est lié à une classe spéciale de processus de branchement. Ces nouveaux processus de branchement sont définis et étudiés dans le Chapitre II, et des estimations sur leur temps d'extinction permettent, avec des arguments de cou- plage, d'établir des résultats de stabilité du réseau stochastique. Outre le comportement stationnaire des réseaux pair-à-pair, leur comportement transient peut aussi être étudié : ce comportement est l'objet du modèle simple du Chapitre III. Ce modèle se concentre sur l'initialisation d'un réseau pair-à-pair dans un scénario d'arrivée en masse : au temps t = 0, un pair propose un nouveau fichier que N autres pairs veulent télécharger. Contrairement au modèle du Chapitre II, ici le flot d'arrivée de nouvelles requêtes n'est pas stationnaire, il est initialement très intense puis le devient de moins en moins. Bien que le système démarre avec un serveur et beaucoup de clients, le nombre de serveurs disponibles augmente avec le temps et l'on s'intéresse au temps nécessaire pour que le réseau se mette à niveau avec la grande demande initiale. Ce problème engendre un problème de boules et d'urnes intéressant en soi, qui est traité dans le Chapitre IV. Dans ce problème de boules et d'urnes, la distribution de probabilité qui décrit la manière dont les boules sont jetées est aléatoire : il s'agit donc d'un problème de boules et d'urnes en environnement aléatoire. De plus, les boules sont jetées dans un nombre infini d'urnes. Les problèmes de boules et d'urnes avec une infinité d'urnes sont bien étudiés, mais les résultats sur les problèmes de boules et d'urnes en environnement aléatoire sont peu nombreux. Quand il y a une infinité d'urnes, on peut s'intéresser à des quantités géométriques telle que l'emplacement de la première urne vide. De telles quantités ont parfois été étudiées dans des travaux antérieurs, en environnement déterministe : ici, grâce à l'utilisation de processus ponctuels, nous décrivons d'un coup tout le paysage des premières urnes vides, ce qui diffère des travaux précédents. En résumé, cette thèse contribue à la modélisation des réseaux mobiles et pair- à-pair ; d'un point de vue technique, des problèmes liés à la stabilité des processus de Markov, aux processus de branchement et aux problèmes de boules et d'urnes sont résolus.
46

El, Ouafdi Abdelhalim. "Analyse probabiliste des règles de vote : méthodes et résultats". Thesis, La Réunion, 2019. http://www.theses.fr/2019LARE0037.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La motivation principale de cette thèse est de contribuer à étendre l’analyse probabiliste des règles de vote d'une part aux cas où quatre candidats sont soumis à la décision collective et d'autre part à l'étude de l'efficacité majoritaire du vote par évaluation à 3 niveaux et de sa manipulabilité par une coalition de votants. Ces deux problématiques nous ont conduit à un même et unique problème technique : calculer la probabilité limite d’un événement de vote lorsqu’il y a 24 préférences individuelles possibles. Les réponses que nous avons essayé d’apporter à cette question méthodologique constituent, avec les nombreux résultats décrivant la fréquence théorique de différents événements électoraux, les deux principales contributions de notre travail de thèse à l’analyse probabiliste en théorie du vote
Our main purpose in this thesis is to contribute to extending the probabilistic analysis of voting rules to the consideration of four candidate elections, on the onehand, and to the study of the majority efficiency of Evaluative Voting with 3 levelsand its manipulability by coalitions of voters, on the other hand. These two issues lead to a unique technical problem, consisting in computing the limiting probability of an electoral event when 24 possible individual preferences have to be considered. The answers we have tried to bring to this methodological question constitute, together with the numerous results describing the theoretical likelihood of various electoral outcomes, the main contributions of our study to probabilistic analysis invoting theory
47

Piera, Martinez Miguel. "Modélisation des comportements extrêmes en ingénierie". Paris 11, 2008. http://www.theses.fr/2008PA112147.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La complexité d'un système et les approximations de modélisation qui en résultent, le caractère aléatoire des perturbations externes ainsi que la dispersion des paramètres de conception autour de leur valeur nominale sont autant de raisons qui amènent à remettre en cause les approches déterministes qui supposent une connaissance parfaite du système et de son environnement. La nécessité de concevoir des systèmes robustes nous conduit à élaborer des modèles statistiques qui permettent de gérer les incertitudes, et en particulier l'apparition de valeurs extrêmes à la sortie des systèmes. La modélisation des valeurs extrêmes et la protection d'un système vis-à-vis de ces évènements revêt un intérêt particulier, puisque ces valeurs extrêmes peuvent correspondre à des violations du cahier des charges, voire à des destructions du système. L'objectif de ce mémoire est de mettre en place des outils pour étudier les performances d'un dispositif lorsqu'il est sollicité à la limite du fonctionnement normalement prévu. L'observation d'une valeur extrême est en général un évènement rare qui nécessite a priori un grand nombre d'expériences. Cependant, de telles expériences, ou les simulations qui sont de plus en plus utilisées pour les remplacer, sont souvent fort coûteuses. Il est donc souhaitable de caractériser les valeurs extrêmes à partir d'un petit nombre d'expériences ou de simulations. Concrètement, nous étudions la modélisation des queues de probabilité, l'estimation d'une faible probabilité de défaillance et l'estimation du pire cas de fonctionnement d'un système
Uncertainty in a system may appear in a system due to external perturbations or a large dispersion of the design parameters. A deterministic approach assuming a perfect knowledge of the environment becomes thus doubtful. The need of reliable systems leads us to elaborate statistical models that are able to deal with this randomness. In this context extreme value modeling plays an important role because these values may correspond to abnormal or dangerous operating conditions. Our task is to model and analyze the apparition of these extreme events. A purely empirical analysis of extreme values requires many simulations of the system, which are often very expensive. It is thus desirable to analyze extreme events with as few system evaluations as possible. In particular a study about the way of estimating probability tails, failure probabilities and the worst operating case of a system has been performed
48

Gatta, Alessandro. "Diagrammes d'influence : Méthodologie et logiciel pour la résolution de graphes de décision". Paris 6, 1992. http://www.theses.fr/1992PA066720.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
49

Mammone, Rinaldi Angelo. "Équations philosophiques : la construction de la science mathématique de la politique par Condorcet dans l'«Essai sur la probabilité des décisions ». Un essai de philologie mathématique". Paris, EHESS, 2007. http://www.theses.fr/2007EHES0005.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'essai sur la probabilité des décisions de Condorcet est un paradoxe pour une histoire simplement mathématique des mathématiques : il montre que les mathématiciens ont jugé la même œuvre 1. Fondamentale (début XIXe siècle), puis 2. Erronée et trompeuse (XIXe - moitié XX siècle), et aujourd'hui 3. Encore fondamentale. Par les étapes de cette histoire - les oppositions qui partagent les mathématiciens, les combats pour sacraliser une façon de faire 'la science', et les combats pour transmettre ou pour changer les mémoires - la première partie de cette thèse cherche à faire une histoire non seulement interne, mais toutefois pertinente aux questions intellectuelles débattues. La seconde partie cherche à tracer des parcours parmi les textes qui, à côté et avant les équations de Condorcet, donnent un sens aux mots qu'il utilise ; on montre lors des liaisons intimes entre la recherche mathématique de la solution d'un problème et la recherche philosophique qui l'a précédée et accompagnée
The Condorcet's Essai sur la probabilité des décisions is a paradox for a mere mathematical history of mathematics : mathematicians judged this text 1. Very important (18th-early 19th century), 2. An error and a source of error (19th-half 20th century), 3. And today again very important. As a mathematical history focusing only on mathematics is insufficient, a history of mathematics must deal both with the calculations and their (philosophical, political, religious) senses. In the first part I show the history of this paradox, analysing the oppositions between the groups of mathematicians, the fight to sacralize some researches as 'science', and the fights to preserve or to change memories. In the second part I try to follow the sound and meaning of the words Condorcet uses, through the texts coeval and previous to his calculations. I show then the intimate relations between the mathematical quest of solutions to problems and the philosophical research that goes before and along it
50

Gao, Yingzhong. "Modèles probabilistes et possibilistes pour la prise en compte de l'incertain dans la sécurité des structures". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1996. http://pastel.archives-ouvertes.fr/pastel-00569129.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse a pour cadre général l'étude de la sécurité des structures, sous un double aspect - probabiliste et possibiliste - de la modélisation des variabilités et incertitudes des variables de calcul introduites dans les états limites. Après avoir rappelé les expressions classiques de la sécurité des structures (approches semi-probabiliste et probabiliste), l'attention est portée sur la définition de pré-mesures de confiance pour l'évaluation du risque de dépassement d'états limites. Divers concepts relatifs à l'expression et à la modélisation des incertitudes sont rappelés, en accentuant les particularités des mesures de possibilité et leur positionnement vis-à-vis des mesures de probabilité. Les notions essentielles de la théorie probabiliste de la fiabilité sont également rappelées. Une démarche analogue à la théorie probabiliste de la fiabilité est choisie pour développer une nouvelle théorie de la fiabilité. Nommée théorie possibiliste de la fiabilité, elle adopte une démarche possibiliste de la modélisation des variabilités et incertitudes liées aux variables de calcul ; deux définitions importantes sont d'ailleurs données dans cette étude - celle de la possibilité de défaillance et celle de l'indice possibiliste de la fiabilité. Les similitudes théoriques entre les deux théories de la fiabilité sont nombreuses et une comparaison entre les approches est présentée, en illustrant d'exemples numériques. Les formulations théoriques sont données pour des états limites linéaires et non linéaires, n'introduisant que des variables distinctes et non liées modélisées par des intervalles flous. Les développements théoriques mettent en évidence des simplifications de calcul remarquables, puisque la détermination de l'indice possibiliste de fiabilité et de la possibilité de défaillance se limite à la recherche d'un minimum scalaire. Ceci est réalisé grâce à la règle des signes, dont le principe est détaillé et illustré. Un exemple concret concernant le calcul de la durée de vie en fatigue d'assemblages soudés, est enfin proposé pour illustrer la démarche possibiliste de la fiabilité. Un soin particulier a été apporté à la modélisation des incertitudes, en utilisant le concept de la régression floue.

Vai alla bibliografia