Littérature scientifique sur le sujet « Théorie de la probabilité »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Théorie de la probabilité ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Théorie de la probabilité"

1

Daston, Lorraine. « L'interprétation classique du calcul des probabilités ». Annales. Histoire, Sciences Sociales 44, no 3 (juin 1989) : 715–31. http://dx.doi.org/10.3406/ahess.1989.283618.

Texte intégral
Résumé :
Que veut dire « l'interprétation classique » du calcul des probabilités ? Lorsqu'en 1933 Kolmogorov réussit à axiomatiser ce calcul, il a défini une théorie mathématique : son essence se trouve dans la validité formelle des axiomes, définitions et théorèmes qui permettent une foule d'interprétations. Ce système formel ne nous oblige en aucune manière à choisir telle ou telle interprétation de la probabilité : au point de vue de la théorie mathématique, on ne peut pas choisir entre probabilité comme fréquence et probabilité comme degré de certitude ou entre bien d'autres interprétations possibles. D'ailleurs, notre choix d'une interprétation ne dit rien sur la validité de la théorie mathématique purement formelle. Cependant, la distinction habituelle (et post-hilbertienne) entre la théorie formelle et ses interprétations — ou même celle du xixe siècle entre mathématiques pures et appliquées — aurait été étrangère aux probabilistes du XVIIIesiècle. Ils se seraient définis comme des praticiens des « mathématiques mixtes ».
Styles APA, Harvard, Vancouver, ISO, etc.
2

Muchlinski, Elke. « Épistémologie et probabilité chez Keynes ». Articles 79, no 1-2 (15 décembre 2004) : 57–70. http://dx.doi.org/10.7202/009674ar.

Texte intégral
Résumé :
Résumé Cet article propose une analyse épistémologique de la théorie des probabilités de Keynes. Il concerne plus particulièrement le lien entre la conception keynésienne des probabilités et la théorie économique élaborée par Keynes. Nous montrerons que Keynes s’oppose à l’esthétisme formel, aux lois rigides et à la théorie orthodoxe en raison de sa prétendue universalité spatio-temporelle. Nous verrons que Keynes substitue aux catégories traditionnelles, entre autres celles de rigueur et de connaissance complète, de nouvelles catégories comme celles d’incertitude, d’ignorance et d’anticipation. Étant donné que Keynes rejette d’entrée de jeu les calculs du type ce ceux que l’on retrouve dans les approches inspirées de Bentham, nous ferons voir que sa théorie économique prend en compte la fragilité et la précarité de la connaissance. Nous insisterons enfin pour dire que Keynes nous paraît également dépasser le constructivisme, car il rejette ouvertement le recours aux concepts vides, à savoir ceux qui ne sont pour lui qu’un squelette sans chair. Enfin, nous mettrons en évidence que, poussé par le besoin de se fonder sur des principes valides a priori, Keynes abandonne l’empirisme classique à son sort.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Bastianello, Lorenzo, et Vassili Vergopoulos. « About Subjective Probability ». Revue économique Vol. 74, no 1 (20 novembre 2023) : 601–12. http://dx.doi.org/10.3917/reco.744.0601.

Texte intégral
Résumé :
L’objectif principal de cette note est d’étudier la définition de la probabilité subjective d’Anscombe et Aumann [1963] et leurs contributions à la théorie de la décision. Nous mettons l’accent sur leurs idées principales et revisitons le cadre de travail qu’ils ont proposé et qui est devenu l’un des plus utilisés dans les axiomatiques de théorie de la décision. Nous proposons également un nouveau cadre pour la dérivation de la probabilité subjective basé sur le produit cartésien de deux ensembles. Nous montrons que deux axiomes simples permettent de définir une probabilité subjective sur un ensemble d’états de la nature d’intérêt principal à partir d’un ensemble auxiliaire équipé d’une probabilité objective.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Vernes, Jean-René. « Le principe de Pascal-Hume et la métaphysique ». Articles 22, no 2 (7 août 2007) : 237–46. http://dx.doi.org/10.7202/027330ar.

Texte intégral
Résumé :
RÉSUMÉ Le raisonnement par lequel Hume établit l'ori- gine empirique de Vidée de cause repose implicitement sur un principe de possibilité a priori et même de probabilité a priori, dont Hume n'a pas remarqué le caractère rationnel, tant il paraissait naturel. Ce principe est identique à celui sur lequel Pascal fonde le calcul des probabilités. Si l'on admet sa légitimité, il en résulte deux conséquences capita- les pour la théorie de la connaissance : 1 - La raison ne se limite pas aux seuls principes logiques en oeuvre dans la déduction mais doit reconnaître que ce qui est également pensable est également probable a priori. 2 - Ce principe de probabilité fournit une preuve de l'existence d'une réalité extérieure à la conscience, que l'on cherchait en vain dans le principe de causalité.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Bouaiss, Karima, et Carine Girard-Guerraud. « Capital humain du dirigeant-entrepreneur et faillite des entreprises financées par ECF ». Revue Française de Gestion 47, no 299 (août 2021) : 95–115. http://dx.doi.org/10.3166/rfg.2021.00556.

Texte intégral
Résumé :
Le dirigeant-entrepreneur est l’acteur central dans la trajectoire de financement de l’entreprise. À partir de la théorie du signal, les auteures supposent que le capital humain de celui-ci émet des signaux pouvant affecter la probabilité de faillite de l’entreprise. Par l’étude de données portant sur 277 dirigeants-entrepreneurs financés par equity crowdfunding en France entre 2010 et 2018, elles montrent que les entreprises dirigées par des docteurs ont une probabilité de faire faillite plus faible alors qu’elle est plus élevée pour celles dirigées par d’anciens dirigeants.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Monjardet, Bernard. « G.Th. Guilbaud et la théorie du choix collectif ». Économie appliquée 65, no 1 (2012) : 93–125. http://dx.doi.org/10.3406/ecoap.2012.3594.

Texte intégral
Résumé :
One year after the publication of Arrow’s 1951 book Social Choice and Individual Values, Guilbaud (1912-2006) published in Economie Appliquée a 50 page’s paper entitled Les théories de l’intérêt général et le problème logique de l ’ agrégation . In this paper - unfortunately too little known - Guilbaud dragged from a deep oblivion Condorcet’ s Essai sur l’application de l’analyse à la probabilité des décisions rendues à la pluralité des voix, and he brought significant contributions doing of him a precursor of several further developments of social choice theory. I present here these contributions and how they have been precursory.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Raîche, Gilles, et Jean-Guy Blais. « Étude de la distribution d’échantillonnage de l’estimateur du niveau d’habileté en testing adaptatif en fonction de deux règles d’arrêt dans le contexte de l’application du modèle de Rasch ». Mesure et évaluation en éducation 24, no 2-3 (3 août 2022) : 23–39. http://dx.doi.org/10.7202/1091168ar.

Texte intégral
Résumé :
Cet article s’intéresse à l’application des modélisations issues de la théorie de la réponse à l’item au testing adaptatif par ordinateur. Plus spécifiquement, il s’intéresse à l’impact de la variation des critères retenus pour la règle d’arrêt sur la distribution de probabilité de certaines statistiques associées à la distribution d’échantillonnage de l’estimateur du niveau d’habileté en testing adaptatif. Les règles d’arrêt considérées sont de deux types : selon l’erreur-type de l’estimateur du niveau d’habileté et selon le nombre d’items administrés.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Chanier, Paul. « Un exemple de critique philosophique appliquée à la théorie économique : Hume, Keynes et les Classiques ». Économie appliquée 45, no 2 (1992) : 65–85. http://dx.doi.org/10.3406/ecoap.1992.2291.

Texte intégral
Résumé :
La découverte d’un pamphlet oublié de Hume permet à Keynes de préciser un argument fondamental de ce philosophe (tout jugement de probabilité suppose une causalité sous-jacente) et d’en montrer, contrairement à une interprétation kantienne persistante, les conséquences décisives pour l’analyse économique. Les économistes doivent interpréter ou juger les doctrines philosophiques d’une manière économiquement pertinente.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Lang, M., P. Rasmussen, G. Oberlin et B. Bobée. « Échantillonnage par valeurs supérieures à un seuil : modélisation des occurrences par la méthode du renouvellement ». Revue des sciences de l'eau 10, no 3 (12 avril 2005) : 279–320. http://dx.doi.org/10.7202/705281ar.

Texte intégral
Résumé :
L'échantillonnage par valeurs supérieures à un seuil consiste à retenir tous les événements d'une chronique, définis par l'existence d'un maximum local supérieur à un seuil critique. L'étude probabiliste est alors menée par calage de deux lois de probabilité, une sur le processus d'occurrence de ces événements (date des événements), une autre sur la marque des événements (valeur du maximum local), puis par recomposition de ces deux lois pour obtenir la loi de probabilité associée au maximum annuel. La théorie du renouvellement permet d'étudier le processus d'occurrence d'événements. Les propriétés générales de la loi le plus souvent utilisée, la loi de Poisson (stationnaire ou non), sont présentées, ainsi que des éléments nouveaux concernant la loi Binomiale et la loi Binomiale négative. Ces propriétés sont relatives à la distribution du nombre d'événements sur un intervalle de temps donné, et à la distribution de la durée de retour, définie comme l'intervalle de temps séparant deux occurrences successives d'événements. Les relations existant entre la loi de probabilité d'une variable et la période de retour de l'événement associé sont ensuite détaillées. Il s'agit d'un rappel de résultats lorsque la variable étudiée est obtenue par sélection d'un ou de plusieurs maximums par an, ou dans le cas d'un processus marqué de Poisson; et d'éléments nouveaux dans le cas d'un processus représenté par une loi Binomiale ou une loi Binomiale négative. Pour finir, on trouvera les correspondances entre les deux types d'échantillonnage précédents (par maximum annuel ou par valeurs supérieures à un seuil), en terme de période de retour, de distribution et de variance d'échantillonnage.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Lifshits, Mikhail, et Michel Weber. « Régularisation spectrale en théorie ergodique et théorie des probabilités ». Comptes Rendus de l'Académie des Sciences - Series I - Mathematics 324, no 1 (janvier 1997) : 99–103. http://dx.doi.org/10.1016/s0764-4442(97)80111-5.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Théorie de la probabilité"

1

Godfroy-Genin, Anne-Sophie. « De la doctrine de la probabilité à la théorie des probabilités : Pascal, la "Logique de Port-Royal", Jacques Bernoulli ». Paris 4, 2004. http://www.theses.fr/2004PA040268.

Texte intégral
Résumé :
Entre 1657 et 1713, le concept moderne de probabilités emerge de trois courants jusque là distincts : le calcul des chances et ses applications aux droit et au commerce, les calculs sur un grand nombre de données des tables de mortalité, et le concept philosophique et théologique de probabilité hérité d'Aristote et Saint Thomas d'Aquin et repris par les casuistes jésuites. La solution standard au problème des parties découverte en 1654 par Pascal et Fermat ouvre la voie à l'idée de quantification de l'incertain, et après cinquante ans de tâtonnements conceptuels, permet de passer d'une doctrine théologique de a probabilité à une th́éorie mathématique des probabilités. D'abord instrument rationnel de décision en situation d'incertitude, et une nouvelle logique contre les progrès du scepticisme, ce qui éclaire les discussions contemporaines sur la nature de la probabilité
In the 1654-1713 period, modern probability emerged simoustaneously from the calculations on games of chances and their applications to business and law; as well as from the calculations and tables concerning large collections of data as in mortality tables; and from the philosophical and theological concept of qualitative probability, as herited from Aristotle and Aquinas and revised by the Jesuit casuists. The standard solution of the division problem discovered in 1654 by Pascal and Fermat allowed the idea of quantifying uncertainty, and after fifty years of difficulties in conceptualisation, shifted from a theological doctrine of probability to a mathematical theory of probabilities. At first an instrument to support a rational decision under uncertainty, it progressively became a tool of epistemic measurement of belief, an objective measure of uncertainty and a new logic against the progress of septicism. This enlightens modern discussions on the nature of probability
Styles APA, Harvard, Vancouver, ISO, etc.
2

Lanciani, Albino Attilio. « Analyse phénoménologique du concept de probabilité ». Lyon, Ecole normale supérieure, 2010. http://www.theses.fr/2010ENSL0087.

Texte intégral
Résumé :
Cette étude porte sur la notion de probabilité telle qu'elle a été élaborée en mathématiques à partir de l'axiomatisation d'A. N. Kolmogorov et en thermodynamique, dans la théorie cinétique des gaz de L. Boltzmann. L'analyse philosophique emprunte des outils à la phénoménologie telle qu'elle est exposée par son fondateur, E, Husserl, tout en prenant en compte certaines contributions postérieures, telles que celles de J. -T. Desanti et de G. -C. Rota. La probabilité représente le point de convergence entre plusieurs questionnements scientifiques. Il s'agit d'une notion feuilletée et stratifiée où s'entrecroisent des éléments d'une importance fondamentale pour une épistémologie rigoureuse et pertinente des dites « sciences dures ». La tâche de l'étude est précisément de frayer une voie possible vers une compréhension phénoménologique de cet horizon problématique. Cette compréhension ne cherche pas cependant à inscrire de force cet horizon dans une doctrine phénoménologique pré-définie. Bien plutôt, elle recourt à certains concepts phénoménologiques, tels que ceux de Fundierung ou d'ontologie formelle, qui se révèlent particulièrement opératoires pour l'analyse du sens de la notion de probabilité. Dans une perspective plus large, nous parvenons ainsi à une interprétation - que l'on pourrait qualifier d'« harmonique » - du mode d'enchaînement des savoirs scientifiques
The current study is based upon the notion of probability as it was formulated in Mathematics after A. N. Kolmogorov’s axiomatisation as well as in thermodynamics as part of the kinetic theory of gases put forward by L. Boltzmann. The philosophical analysis borrows its instruments from phenomenology as it was expounded by its founder, E. Husserl, though taking into account all the subsequent contributions by J. -T. Desanti and G. -C. Rota. Probability is the point of convergence of different scientific questionings. That is a multilayered notion where the fundamental elements are interlaced in view of a rigorous and relevant epistemology of the so called ‘hard sciences’. The task of this study is more precisely that of paving the way to a phenomenological understanding of this problematic horizon. However the aforementioned understanding does not try to force this horizon into a predetermined phenomenological doctrine. On the contrary it avails itself of certain phenomenological concepts, like that of Fundierung or formal ontology, that are extremely operative in the analysis of the meaning of the notion of probability. Viewed from a different angle we can thus get to an interpretation, which could be qualified as ‘harmonic’, of the way the bodies of knowledge are intertwined
Styles APA, Harvard, Vancouver, ISO, etc.
3

Osseiran, Ahmad-Chawki. « Contribution à la théorie des probabilités symboliques ». Paris 6, 1996. http://www.theses.fr/1996PA066650.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le domaine du traitement qualitatif de l'incertain. Pour parvenir à nos fins, nous nous sommes basés sur la théorie des multi-ensembles et la logique multivalente qui offrent un substrat à l'élaboration de la représentation symbolique de l'incertitude à l'aide échelle symbolique finie de degrés de certitude. Dans ce domaine, nous avons proposé un véritable calcul symbolique dans le cadre de la logique multivalente, des opérations usuelles d'addition, de soustraction, de multiplication et de division dans l'intervalle réel 0, 1. Les résultats obtenus nous ont permis l'extension de la théorie des probabilités symboliques en les appliquant aux probabilités conditionnelles, aux probabilités indépendantes et au théorème de Bayes. D'où l'aboutissement à une version purement symbolique du réseau bayésien se basant sur les opérations symboliques et les probabilités conditionnelles symboliques. Enfin, nous avons élaboré un algorithme général bayésien pour les arborescences et un logiciel d'application (SYBANES) illustrant la pertinence des outils proposés. A ce stade, il est donc possible de dire qu'à travers notre travail, nous avons pu contribuer d'une façon efficace à l'évolution de la théorie des probabilités symboliques.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Pieczynski, Wojciech. « Sur diverses applications de la décantation des lois de probabilité dans la théorie générale de l'estimation statistique ». Paris 6, 1986. http://www.theses.fr/1986PA066064.

Texte intégral
Résumé :
On cherche à construire des estimateurs convergents dans le cas des V. A. Non nécessairement indépendantes et équidistribuées. La méthode de la décantation est particulièrement adaptée car elle permet la construction explicite de tels estimateurs et donne des renseignements sur leur vitesse de convergence.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Nehme, Bilal. « Techniques non-additives d'estimation de la densité de probabilité ». Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00576957.

Texte intégral
Résumé :
Dans cette thèse, nous proposons une nouvelle méthode d'estimation non-paramétrique de la densité de probabilité. Cette méthode d'estimation imprécise combine la théorie de distribution de Schwartz et la théorie de possibilité. La méthode d'estimation que nous proposons est une extension de la méthode d'estimation à noyau. Cette extension est basée sur une nouvelle méthode de représentation de la notion de voisinage sur laquelle s'appuie l'estimation à noyau. Cette représentation porte le nom de noyau maxitif. L'estimation produite est de nature intervalliste. Elle est une enveloppe convexe d'un ensemble d'estimation de Parzen-Rosenblatt obtenus avec un ensemble de noyaux contenus dans une famille particulière. Nous étudions un certain nombre des propriétés théoriques liées à cette nouvelle méthode d'estimation. Parmi ces propriétés, nous montrons un certain type de convergence de cet estimateur. Nous montrons aussi une aptitude particulière de ce type d'estimation à quantifier l'erreur d'estimation liée à l'aspect aléatoire de la distribution des observations. Nous proposons un certain nombre d'algorithmes de faible complexité permettant de programmer facilement les mathodes que nous proposons.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Le, Maître François. « Sur les groupes pleins préservant une mesure de probabilité ». Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2014. http://tel.archives-ouvertes.fr/tel-00992656.

Texte intégral
Résumé :
Soit (X, μ) un espace de probabilité standard et Γ un groupe dénombrable agissant sur X de manière à préserver la mesure de probabilité (p.m.p.). La partition de l'espace X en orbites induite par l'action de Γ est entièrement encodée par le groupe plein de l'action, constitué de l'ensemble des bijections boréliennes de l'espace qui agissent par permutation sur chaque orbite. Plus précisément, le théorème de reconstruction de H. Dye stipule que deux actions p.m.p. sont orbitalement équivalentes (i.e. induisent la même partition à une bijection p.m.p. près) si et seulement si leurs groupes pleins sont isomorphes.Le sujet de cette thèse est grandement motivé par ce théorème de reconstruction, puisqu'il s'agit de voir comment des invariants d'équivalence orbitale, qui portent donc sur la partition de l'espace en orbites, se traduisent en des propriétés algébriques ou topologiques du groupe plein associé.Le résultat majeur porte sur le rang topologique des groupes pleins, c'est-à-dire le nombre minimum d'éléments nécessaires pour engendrer un sous-groupe dense. Il se trouve être fortement relié a un invariant fondamental d'équivalence orbitale : le coût. Plus précisément, nous avons montré que le rang topologique était, dans le cas ergodique, égal à la partie entière du coût de l'action plus un. Le cas non ergodique a également été étudié, et on a obtenu des résultats complémentaires sur la généricité de l'ensemble des générateurs topologiques.Enfin, on a caractérisé les actions dont toutes les orbites sont infinies : ce sont exac- tement celles dont le groupe plein n'admet aucun morphisme non trivial à valeurs dans Z/2Z.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Albenque, Marie. « Tresses, animaux, cartes : à l'interaction entre combinatoire et probabilité ». Paris 7, 2008. http://www.theses.fr/2008PA077178.

Texte intégral
Résumé :
Nous nous intéressons dans cette thèse à l'étude de certains objets situés à l'interface entre combinatoire et probabilités. Le premier thème abordé est l'énumération des tresses. Notre contribution principale consiste en une extension de la théorie des empilements de Viennot pour les monoïdes de traces à un cadre plus général incluant notamment les monoïdes de Garside, ce qui conduit entre autres à des résultats d'énumération nouveaux pour les monoïdes de tresses. Le second volet de cette thèse est consacré au lien entre l'énumération d'animaux dirigés et les modèles de gaz à particules dures. La définition de chaînes de Markov cycliques et l'établissement de leur convergence vers les chaînes de Markov ordinaires nous permet de donner une présentation unifiée des résultats d'énumération d'animaux sur de nombreux réseaux et d'accéder ainsi à une meilleure compréhension de la dépendance des résultats d'énumération en la forme de la source. La troisième et dernière partie traite des triangulations et quadrangulations en pile, et plus précisément de leurs comportements limites lorsque le nombre de sommets tend vers l'infini. Les contributions principales sont les convergences locales et de Gromov-Hausdorff ainsi que l'asymptotique de la loi des degrés pour les cartes sous la loi uniforme et la convergence comme espace métrique sous la loi historique. Ces résultats reposent sur des outils combinatoires et probabilistes variés : bijection entre arbres et cartes, convergence vers l'arbre continu d'Aldous, étude probabiliste fine du comportement asymptotique de certaines fonctionnelles d'arbres, processus de fragmentation, modèle d'urnes aléatoires,. .
We study in this work some objects lying on the boundary between combinatorics and probability. The first part deals with the enumeration of positive braids. Our most significant contribution here is an extension of Viennot's heaps of pieces theory to a wider frame which includes in particular Garside monoids, this leads to some new enumeration results for braid monoids. The second section is devoted to the link between enumeration of directed animals and hard particle gas models. The definition of cyclic Markov chains as well as some results about their convergence towards ordinary Markov chains enable us to give a unified presentation of enumeration of animals on various lattices and hence to provide a better understanding about the reliance between enumeration results and the form of the source. The third and last part deals with the stack triangulations and quadrangulations, and more precisely with their limiting behaviors when the number of vertices grows to infinity. The main contribution here are the local and Gromov-Hausdorff convergences and the asymptotic of the degree distribution for the maps under the uniform law and the convergence as metric space under the historical distribution. These results rely on numerous combinatorial and probabilistic tools: bijection between trees and maps, convergence towards Aldous' continuum random tree, subtle probabilistic study of some trees properties, fragmentation process, random urns model
Styles APA, Harvard, Vancouver, ISO, etc.
8

Philippe, Anne. « Contribution à la théorie des lois de référence et aux méthodes de Monte Carlo ». Rouen, 1997. http://www.theses.fr/1997ROUES005.

Texte intégral
Résumé :
Cette thèse est composée de deux parties distinctes : la première relève de la statistique bayésienne et la seconde des méthodes de Monte Carlo. Nous étudions, dans la première partie, l'apport des lois non informatives de référence. Nous obtenons, via ces lois et les régions de confiance bayésiennes, une solution au classique problème de Fieller-Creasy posé par le modèle de calibration. Un deuxième problème est l'estimation de fonctions quadratiques d'une moyenne normale. Il conduit à de surprenantes complications dans les inférences bayésiennes et fréquentistes. Nous évaluons les propriétés de ces lois et plus particulièrement leurs propriétés de couverture pour ce modèle. La seconde partie de cette thèse est consacrée à l'estimation des intégrales par les méthodes de Monte Carlo. Nous introduisons un estimateur de Monte Carlo basé sur les propriétés des sommes de Riemann. Nous montrons que cet estimateur possède des propriétés de convergence supérieures aux approches classiques. Nous montrons que la méthode d'échantillonnage pondéré se généralise à notre estimateur et produit un estimateur optimal en terme de réduction de la variance. Nous généralisons notre estimateur aux méthodes de Monte Carlo par chaines de Markov. De plus, nous établissons un critère de contrôle de convergence des chaines de Markov issues des algorithmes de Monte Carlo par chaines de Markov. L'étape de simulation des variables aléatoires, qui apparait dans les méthodes de Monte Carlo, est abordée dans notre étude des lois gamma tronquées. Nous déterminons des algorithmes d'acceptation-rejet dominant les approches classiques. Nous avons illustré les différents résultats obtenus par de nombreuses simulations.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Genitrini, Antoine. « Expressions booléennes aléatoires : probabilité, complexité et comparaison quantitative de logiques propositionnelles ». Versailles-St Quentin en Yvelines, 2009. http://www.theses.fr/2009VERS0010.

Texte intégral
Résumé :
A travers ma thèse, j'étudie des systèmes propositionnels d'un point de vue probabilité/complexité. Je commence par deux distributions de probabilité sur les fonctions Booléennes, induites par des expressions Booléennes construites avec le connecteur Implication. On donne la structure de la plupart des expressions représentant une fonction donnée, quand le nombre de variables tend vers l'infini. On obtient ainsi l'équivalent asymptotique de la probabilité de la fonction, dépendant de sa complexité. Via la fonction Vrai, on compare quantitativement les logiques classique et intuitionniste de l'implication. Cette comparaison met en évidence certaines propriétés d'une classe d'expressions, qui se retrouvent dans le système propositionnel complet : on compare alors les deux logiques dans ce système. Enfin on étudie les expressions équilibrées des deux systèmes, de l'implication et des deux connecteurs Et et Ou. Dans les deux cas, on exhibe la distribution de probabilité sur les fonctions
In this thesis, I am interested in propositional systems from a probability/complexity point of view. I begin with two probability distributions on Boolean functions, induced by the Boolean expressions built with the Implication connective. I obtain the structure of most of the expressions representing a given function, when the number of variables tends to infinity. This gives the asymptotic equivalent of the probability of the function, depending on its complexity. Via the function True, we compare quantitatively the intuitionistic and classical logics of implication. This comparison highlights some properties of a class of expressions, that are found also in the full propositional system, and we can compare the two logics in this system. Finally we study balanced expressions in the two systems built on implication, or on the two connectors And and Or. In both cases, we exhibit the probability distribution of the functions
Styles APA, Harvard, Vancouver, ISO, etc.
10

Hamon, Abdellatif. « Estimation d'une densité de probabilité multidimensionnelle par dualité ». Rouen, 2000. http://www.theses.fr/2000ROUES055.

Texte intégral
Résumé :
Nous étudions dans cette thèse l'estimation d'une fonction de densité d'une loi de probabilité multidimensionnelle à partir d'un certain nombre de moments issue de cette loi. Nous considérons ces moments comme une information sur la loi inconnue. Nous introduisons une nouvelle fonction d'information de type Kullback, afin d'utiliser la méthode du maximum d'entropie pour construire un estimateur convergent uniformément vers la loi inconnue lorsque le nombre de moments augmente. Nous utilisons les techniques de dualité de Fenchel-Young pour démontrer dans un premier temps la convergence uniforme de l'estimateur de maximum d'entropie vers la densité inconnue lorsque les fonctions deux densités sont uniformément bornées. Nous explicitons dans un deuxième temps la vitesse de convergence de l'estimateur du maximum d'entropie lorsque les fonctions de moments sont algébriques, trigonométriques définies sur un compact de IR n. Nous construisons une famille de splines à régularité modifiables, puis nous démontrons que lorsque les fonctions de moments proviennent de cette famille alors la convergence uniforme de l'estimateur du maximum d'entropie est assurée. Dans la dernière partie de cette thèse, nous proposons un algorithme de construction d'une loi inconnue à partir d'un certain nombre de ces moments.
Styles APA, Harvard, Vancouver, ISO, etc.

Livres sur le sujet "Théorie de la probabilité"

1

Ross, Sheldon M. Initiation aux probabilités. Lausanne : Presses polytechniques et universitaires romandes, 1990.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Jacod, Jean. L'essentiel en théorie des probabilités. Paris : Cassini, 2003.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Picard, P. Hasard et probabilités : Histoire, théorie et application des probabilités. Paris : Vuibert, 2007.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Lethielleux, Maurice. Probabilités, estimation statistique. 4e éd. Paris : Dunod, 2013.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Patel, Jagdish K. Handbook of statistical distributions. Ann Arbor, Mich : University Microfilms International, 1992.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Tenenbaum, Gerald. Introduction à la théorie analytique et probabiliste des nombres. 2e éd. Paris : Société Mathématique de France, 1995.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Boucheron, Stéphane. Théorie de l'apprentissage : De l'approche formelle aux enjeux cognitifs. Paris : Hermès, 1992.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Petit, R. L' Outil mathématique : Distributions, convolution, transformations de Fourier et de Laplace, fonctions d'une variable complexe, fonctions eulériennes. 2e éd. Paris : Masson, 1986.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Characterization problems associated with the exponential distribution. New York : Springer-Verlag, 1986.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Fundamentals of probability with stochastic processes. 3e éd. Upper Saddle River, N.J : Pearson/Prentice Hall, 2005.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Chapitres de livres sur le sujet "Théorie de la probabilité"

1

Cramér, Harald. « Sur un nouveau théorème-limite de la théorie des probabilités ». Dans Collected Works II, 895–913. Berlin, Heidelberg : Springer Berlin Heidelberg, 1994. http://dx.doi.org/10.1007/978-3-642-40607-2_8.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Marceau, Étienne. « Quelques notions de la théorie des probabilités ». Dans Modélisation et évaluation quantitative des risques en actuariat, 1–59. Paris : Springer Paris, 2013. http://dx.doi.org/10.1007/978-2-8178-0112-4_1.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Meyer, P. A. « Guide Détaillé de la Théorie «Générale» des Processus ». Dans Séminaire de probabilités 1967 - 1980, 49–74. Berlin, Heidelberg : Springer Berlin Heidelberg, 2002. http://dx.doi.org/10.1007/978-3-540-45530-1_4.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Rota, M. Gian-Carlo, et M. Joseph Kampé de Fériet. « Analyse Fonctionnelle. — Endomorphismes de Reynolds et théorie ergodique ». Dans Gian-Carlo Rota on Analysis and Probability, 122–24. Boston, MA : Birkhäuser Boston, 2003. http://dx.doi.org/10.1007/978-1-4612-2070-1_19.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Dellacherie, C. « Sur les Théorémes Fondamentaux de la Théorie Générale des Processus ». Dans Séminaire de probabilités 1967 - 1980, 75–84. Berlin, Heidelberg : Springer Berlin Heidelberg, 2002. http://dx.doi.org/10.1007/978-3-540-45530-1_5.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Rota, M. Gian-Carlo, et M. Joseph Kampé de Fériet. « Calcul des Probabilités. — Une théorie unifiée des martingales et des moyennes ergodiques ». Dans Gian-Carlo Rota on Analysis and Probability, 171–73. Boston, MA : Birkhäuser Boston, 2003. http://dx.doi.org/10.1007/978-1-4612-2070-1_26.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Rota, M. Gian-Carlo, et M. Joseph Kampé de Fériet. « Calcul Des Probabilités. — Une généгalisation de l’espérance mathématique conditionnelle qui se présente dans la théorie statistique de la turbulence ». Dans Gian-Carlo Rota on Analysis and Probability, 128–30. Boston, MA : Birkhäuser Boston, 2003. http://dx.doi.org/10.1007/978-1-4612-2070-1_21.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Schmid, Christian. « Théorie ». Dans La Suisse Portrait urbain, 164–224. Basel : Birkhäuser Basel, 2006. http://dx.doi.org/10.1007/978-3-7643-7802-8_6.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Schmid, Christian. « Théorie ». Dans La Suisse - portrait urbain, sous la direction de ETH Studio Basel - Institut pour la, 163–224. Berlin, Boston : DE GRUYTER, 2005. http://dx.doi.org/10.1515/9783764378028.163.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Schneider, Dominique, et Michel Weber. « Une remarque sur un théorème de Bourgain ». Dans Séminaire de Probabilités XXVII, 202–6. Berlin, Heidelberg : Springer Berlin Heidelberg, 1993. http://dx.doi.org/10.1007/bfb0087976.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Actes de conférences sur le sujet "Théorie de la probabilité"

1

Jadot, Hugo. « Etude Probabilité de Sûreté « Séisme » ». Dans Nucléaire : les avancées dans la maitrise du risque sismique. Les Ulis, France : EDP Sciences, 2017. http://dx.doi.org/10.1051/jtsfen/2017cle08.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Coste, Claude. « Théorie ou lecture ». Dans Actualité de Roland Barthes (2000). Fabula, 2022. http://dx.doi.org/10.58282/colloques.7608.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Marchal, Hugues. « Physiologie et théorie littéraire ». Dans Paul Valéry et l'idée de littérature. Fabula, 2011. http://dx.doi.org/10.58282/colloques.1416.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Moutoussamy, V., et R. Sueur. « Méthodes d’estimation de probabilité et de quantiles sous contraintes de monotonie ». Dans Congrès Lambda Mu 19 de Maîtrise des Risques et Sûreté de Fonctionnement, Dijon, 21-23 Octobre 2014. IMdR, 2015. http://dx.doi.org/10.4267/2042/56162.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Levillain, Jean-Pierre. « Théorie et méthode de détermination des affouillements ». Dans Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 1992. http://dx.doi.org/10.5150/jngcgc.1992.s04-l.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Quin, Marie-Charlotte. « Colette ou le travestissement de la théorie ». Dans Théorie littéraire féminine à la Belle Époque. Fabula, 2023. http://dx.doi.org/10.58282/colloques.11017.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Six, Edward Lee. « Pour une théorie de la contradiction littéraire ». Dans Pour une critique matérialiste des œuvres littéraires. Fabula, 2021. http://dx.doi.org/10.58282/colloques.7099.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Wulf (Rennes 2), Judith. « L’unité d’ensemble du drame : entre théorie et pratique ». Dans Victor Hugo, Hernani, Ruy Blas. Fabula, 2009. http://dx.doi.org/10.58282/colloques.1138.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Rivard, Alexandra. « Nietzschéenne de Daniel Lesueur, un discours théorique au service de la subversion ». Dans Théorie littéraire féminine à la Belle Époque. Fabula, 2023. http://dx.doi.org/10.58282/colloques.10983.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Albert, Nicole G. « Renée Vivien, un discours à/de la marge ». Dans Théorie littéraire féminine à la Belle Époque. Fabula, 2023. http://dx.doi.org/10.58282/colloques.11046.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Rapports d'organisations sur le sujet "Théorie de la probabilité"

1

Lopes, Helena. Une Conception de Moralité pour la Théorie Économique. DINÂMIA'CET-IUL, 2003. http://dx.doi.org/10.7749/dinamiacet-iul.wp.2003.29.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Bouchard St-Amant, Pier-André, Nicolas Bolduc, Judelin Michel Ducatel et Guillaume Dumais. Application de la théorie de la taxation optimale à l’impôt québécois. CIRANO, août 2022. http://dx.doi.org/10.54932/sdvj5720.

Texte intégral
Résumé :
Nous appliquons la théorie de la taxation optimale sur le revenu de James Mirlees (Mirrlees, 1971) sur les données fiscales québécoises. Cette théorie nous fournit un guide normatif pour suggérer des réformes quant à la structure des taux marginaux effectifs implicites. Notre recommandation la plus robuste est de réduire ces taux dans la plage de revenu entre 30 000$ et 55 000$. Nous montrons également qu’il pourrait être efficient d’augmenter les taux d’imposition chez les personnes à revenus plus élevés, selon que le gouvernement ait des préférences redistributives plus élevées, ou selon des paramètres comportementaux des travailleurs. Cette deuxième conclusion est moins robuste et requiert des travaux empiriques additionnels pour être qualifiée de définitive.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Belzil, Christian, Jorgen Hansen et Julie Pernaudet. Les déterminants cognitifs et non-cognitifs du choix de filière et leur impact sur la phase initiale du cycle professionnel. CIRANO, mai 2024. http://dx.doi.org/10.54932/zmct9599.

Texte intégral
Résumé :
Grâce à la collecte de données nous permettant de relier les trajectoires éducatives des individus à différentes mesures de compétences, nous étudions les déterminants des choix de filières au Québec et dans le reste du Canada et en particulier, le rôle des compétences cognitives et non-cognitives. Nous évaluons l’impact des études en Sciences, Technologie, Ingénierie, et Mathématiques (STIM) ainsi que l’effet des facteurs cognitifs et non-cognitifs sur un grand nombre de mesures de performance sur le marché du travail. Nos résultats indiquent que les performances individuelles dans le test EIACA (semblable au test PISA) n’ont pratiquement aucun pouvoir prédictif sur la probabilité de compléter un programme scientifique mais jouent un rôle déterminant sur les salaires à 30 ans. La fréquentation d’un programme STIM est principalement expliquée par la compétence académique en mathématiques mesurée par les notes obtenues à l'âge de 18 ans. Le second déterminant le plus important est de loin le facteur non-cognitif mesurant le degré de motivation pendant les études. Toutes choses égales par ailleurs (à compétences égales), les Ontariens ont une probabilité d’obtenir un diplôme STIM plus élevée que les Québécois.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Bibiane Ndjebet, Cécile, et Phil René Oyono. Bassin du Congo : La sécurisation des droits fonciers des femmes lue à travers la théorie des droits de propriété. Rights and Resources Initiative, décembre 2020. http://dx.doi.org/10.53892/qaxg4403.

Texte intégral
Résumé :
Longtemps exclues de la possession des terres par les régimes coutumiers et les régimes statutaires, il est temps que les femmes africaines détiennent et exercent des droits fonciers et forestiers sécurisés par des mécanismes formels et non formels à l’intérieur des microcosmes ruraux. D’un, ce serait une réponse énergique à l’injustice, à la violence juridique et à la violence symbolique. De deux, ce serait un levier pour l’endiguement de l’érosion de la biodiversité et des services écosystémiques. De trois, ce serait une arme de lutte contre les effets socio-écologiques des changements climatiques. De quatre, ce serait un outil de lutte contre la pauvreté.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Zhang, Wei, Hagar ElDidi, Kimberly A. Swallow, Ruth Suseela Meinzen-Dick, Claudia Ringler, Yuta Masuda et Allison Aldous. La gestion communautaire des ressources en eau douce : Un guide du practicien pour appliquer la théorie TNC de la Voix, du Choix et de l’Action. Washington, DC : International Food Policy Research Institute, 2020. http://dx.doi.org/10.2499/p15738coll2.133689.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Debevec, L., E. M. F. W. Compaore-Sawadogo, L. R. Somda-Kabore et A. D. Kando. Guide pratique. L’approche participative pour une gestion plus inclusive et durable des ressources en eau à travers les Comités Locaux de l’Eau, étape par étape : théorie, méthodologie et exemples. International Water Management Institute (IWMI), 2019. http://dx.doi.org/10.5337/2019.217.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Saulais, Laure, et Maurice Doyon. Impact du design de questions sur la perception des compensations proposées et les intentions de participation au pad : étude de préfaisabilité. CIRANO, août 2022. http://dx.doi.org/10.54932/ziga3839.

Texte intégral
Résumé :
Le Plan d’agriculture durable (PAD) du gouvernement du Québec offre aux entreprises agricoles un ensemble de possibilités pour accélérer l’adoption des meilleures pratiques agroenvironnementales d’ici 2030. Il est prévu que des rétributions soient offertes pour compenser les coûts encourus suite à la mise en œuvre de certaines pratiques. Cette étude s’appuie sur les principes de l’économie comportementale et les techniques de l’économie expérimentale pour mettre en évidence des leviers comportementaux de l’acceptation et de l’adhésion des entreprises agricoles à certaines pratiques proposées par le PAD. À partir de l’analyse de données fournies par le Centre d’études sur les coûts de production en agriculture (CECPA) recueillies auprès de 489 répondants, les auteurs concluent que : 1. La façon de présenter l’information aux agricultrices et agriculteurs a un impact sur leur perception du montant de rétribution qui leur est présenté. 2. Présenter l’information comme un incitatif ou un bénéfice est préférable à présenter l’information comme une compensation de coûts. 3. Ajouter un préambule à l’offre de rétribution qui reconnaît les efforts déjà faits par les entreprises agricoles québécoises et la hauteur des défis vers l'amélioration du bilan environnemental de leur entreprise crée une émotion négative, réduisant ainsi la probabilité que les personnes interrogées acceptent un niveau donné de rétribution.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Arbour, William, Guy Lacroix et Steeve Marchand. Libération conditionnelle, réinsertion sociale et récidive criminelle. CIRANO, décembre 2023. http://dx.doi.org/10.54932/likh8817.

Texte intégral
Résumé :
Cette étude se divise en deux parties distinctes. Dans la première, nous nous intéressons aux motifs pour lesquels plus de 50 % des détenus québécois choisissent de renoncer à leur droit de participer à une audience en vue d’une libération conditionnelle éventuelle. Cette décision est examinée à travers des régressions multivariées et des algorithmes d'apprentissage automatique, révélant que la renonciation est fortement influencée par les caractéristiques individuelles des détenus, leur profil criminogène et la nature du crime commis. L’analyse montre également que les détenus qui renoncent à une audience auraient probablement été soumis à des conditions plus strictes s'ils avaient été libérés sous condition, comparativement à ceux effectivement libérés. La seconde partie de l'étude se concentre sur la récidive criminelle des individus ayant bénéficié d'une libération conditionnelle « à la marge », c’est-à-dire pour lesquels l’octroi de la libération était surtout déterminé par l’historique des décisions des commissaires devant lesquels ils devaient se présenter. Pour ces individus, la libération conditionnelle diminue significativement le taux de récidive de plus de 8 points de pourcentage dans les cinq années suivant leur libération. La libération conditionnelle permet de réduire à la fois le temps d'incarcération actuel et futur de ces individus, tout en diminuant la probabilité de récidive.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Laroche, Hervé, et Véronique Steyer. L’apport des théories du sensemaking à la compréhension des risques et des crises. Fondation pour une culture de sécurité industrielle, octobre 2012. http://dx.doi.org/10.57071/208snv.

Texte intégral
Résumé :
Les théories du sensemaking, ou fabrication de sens, analysent la manière dont ceux qui participent à une action, et qui sont confrontés à une interruption, répondent à deux questions: Que se passe-t-il? Que faut-il faire maintenant? Les personnes plongées dans l’action ont souvent des difficultés à rester au contact du monde, et cette faillite de la fabrication du sens peut avoir des conséquences dramatiques. En s’appuyant sur de nombreuses études de cas, les auteurs présentent les fondements de la théorie du sensemaking — due au célèbre psychosociologue américain Karl Weick — et ses principaux apports. Le document s’intéresse aux différents facteurs et éléments influençant la capacité des participants à une action à rester en «contact» avec ce qu’il se passe dans «le monde». Notamment, il examine les difficultés à détecter des signes de dégradations de la sécurité, à signaler des anomalies, à adapter son action et à improviser de façon appropriée face à des situations imprévues. Il souligne notamment l’importance de la qualité des interactions entre membres d’un collectif de travail, à adapter les processus de décision pour que expertise et expérience priment sur hiérarchie (et permettre que les décisions à fort impact soient prises par les personnes disposant de la meilleure connaissance de la situation), ainsi que la manière dont le cadre et la culture organisationnels peuvent faciliter ou entraver la fabrication d’un sens menant à une action adaptée. Les facteurs pouvant influer sur le sensemaking sont analysés selon quatre axes: les facteurs individuels, les caractéristiques de la situation de travail, les facteurs liés au collectif de travail, et l’impact des processus d’organisation. En fin de document, cinq principes d’organisation visant à contrer les différents phénomènes négatifs liés à la perte de sens face à une situation risquée sont exposés.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Tea, Céline. REX et données subjectives : quel système d'information pour la gestion des risques ? Fondation pour une culture de sécurité industrielle, avril 2012. http://dx.doi.org/10.57071/170rex.

Texte intégral
Résumé :
Le retour d’expérience est conçu, dans une vision classique, comme une démarche de gestion mettant à disposition les informations nécessaires aux managers pour piloter les systèmes et gérer les risques. Malheureusement, la réalité est moins simple. Les systèmes à piloter sont des systèmes socio-techniques complexes. Le futur n’est pas déterminé par le passé. Il s’avère nécessaire de compléter le système d’information supportant la gestion des risques. Le travail présenté propose de passer d’un système fondé sur des informations extraites des expériences incidentelles du système à piloter, vers un système d’information qui intègre au mieux l’expérience des gens qui le font fonctionner. Les connaissances tacites de ces personnes expérimentées doivent alors être élicitées. Le présent travail a permis d’expérimenter au sein de la SNCF une technique d’aide à la décision issue du courant de l’analyse de la décision. Cette technique de MAUT a été appliquée à l’analyse d’un changement de réglementation concernant la conduite des trains en cas d’alerte radio. Les décisions sont traitées ici non sous un angle individuel, mais comme l’aboutissement d’un processus construit au sein d’une organisation, mettant en jeu plusieurs décideurs et plusieurs enjeux (pouvant être partiellement contradictoires). L’apport de cette technique par rapport aux méthodes classiques basées sur les arbres de défaillance est discuté. Un second niveau d’étude de l’impact de cet éventuel changement réglementaire a consisté à analyser en profondeur les raisonnements et les connaissances utilisés par les acteurs pour construire le sens de leur action en cas d’alerte radio. En modélisant les discussions entre les différents acteurs impliqués et en restituant leur point de vue en situation, il est possible d’identifier les divergences éventuelles entre les représentations de différents acteurs concernant une même situation, ainsi qu’un possible écart entre les croyances des concepteurs et les utilisateurs de la règle. Cette seconde analyse s’appuie sur une théorie de la conception dite C/K, qui met en relation les connaissances et les concepts utilisés en situation. L’auteur suggère que l’application de ces méthodes permet de voir l’analyse de risques comme un lieu d’élaboration de sens collectif sur la sécurité du système, plutôt que (dans une vision plus positiviste de la connaissance) comme une activité qui révèle et approche la vérité sur les risques, en s’appuyant sur des données factuelles et objectives. Elle propose de développer l’ingénierie du subjectif pour permettre la construction d’un système de management au sein duquel la vision d’ingénieur de la gestion des risques et la vision inspirée des courants des sciences humaines et sociales pourront cohabiter.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie