Добірка наукової літератури з теми "Probabilité d'événements rares"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Probabilité d'événements rares".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Probabilité d'événements rares":

1

Poda, Pasteur, Samir Saoudi, Thierry Chonavel, Frédéric GUILLOUD, and Théodore Tapsoba. "Non-parametric kernel-based bit error probability estimation in digital communication systems: An estimator for soft coded QAM BER computation." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 27 - 2017 - Special... (August 3, 2018). http://dx.doi.org/10.46298/arima.4348.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The standard Monte Carlo estimations of rare events probabilities suffer from too much computational time. To make estimations faster, kernel-based estimators proved to be more efficient for binary systems whilst appearing to be more suitable in situations where the probability density function of the samples is unknown. We propose a kernel-based Bit Error Probability (BEP) estimator for coded M-ary Quadrature Amplitude Modulation (QAM) systems. We defined soft real bits upon which an Epanechnikov kernel-based estimator is designed. Simulation results showed, compared to the standard Monte Carlo simulation technique, accurate, reliable and efficient BEP estimates for 4-QAM and 16-QAM symbols transmissions over the additive white Gaussian noise channel and over a frequency-selective Rayleigh fading channel. Les estimations de probabilités d'événements rares par la méthode de Monte Carlo classique souffrent de trop de temps de calculs. Des estimateurs à noyau se sont montrés plus efficaces sur des systèmes binaires en même temps qu'ils paraissent mieux adaptés aux situations où la fonction de densité de probabilité est inconnue. Nous proposons un estimateur de Probabilité d'Erreur Bit (PEB) à noyau pour les systèmes M-aires codés de Modulations d'Amplitude en Quadrature (MAQ). Nous avons défini des bits souples à valeurs réelles à partir desquels un estimateur à noyau d'Epanechnikov est conçu. Les simulations ont montré, par rapport à la méthode Monte Carlo, des estimées de PEB précises, fiables et efficaces pour des transmissions MAQ-4 et MAQ-16 sur canaux à bruit additif blanc Gaussien et à évanouïssements de Rayleigh sélectif en fréquence.

Дисертації з теми "Probabilité d'événements rares":

1

Estecahandy, Maïder. "Méthodes accélérées de Monte-Carlo pour la simulation d'événements rares. Applications aux Réseaux de Petri." Thesis, Pau, 2016. http://www.theses.fr/2016PAUU3008/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les études de Sûreté de Fonctionnement (SdF) sur les barrières instrumentées de sécurité représentent un enjeu important dans de nombreux domaines industriels. Afin de pouvoir réaliser ce type d'études, TOTAL développe depuis les années 80 le logiciel GRIF. Pour prendre en compte la complexité croissante du contexte opératoire de ses équipements de sécurité, TOTAL est de plus en plus fréquemment amené à utiliser le moteur de calcul MOCA-RP du package Simulation. MOCA-RP permet d'analyser grâce à la simulation de Monte-Carlo (MC) les performances d'équipements complexes modélisés à l'aide de Réseaux de Petri (RP). Néanmoins, obtenir des estimateurs précis avec MC sur des équipements très fiables, tels que l'indisponibilité, revient à faire de la simulation d'événements rares, ce qui peut s'avérer être coûteux en temps de calcul. Les méthodes standard d'accélération de la simulation de Monte-Carlo, initialement développées pour répondre à cette problématique, ne semblent pas adaptées à notre contexte. La majorité d'entre elles ont été définies pour améliorer l'estimation de la défiabilité et/ou pour les processus de Markov. Par conséquent, le travail accompli dans cette thèse se rapporte au développement de méthodes d'accélération de MC adaptées à la problématique des études de sécurité se modélisant en RP et estimant notamment l'indisponibilité. D'une part, nous proposons l'Extension de la Méthode de Conditionnement Temporel visant à accélérer la défaillance individuelle des composants. D'autre part, la méthode de Dissociation ainsi que la méthode de ``Truncated Fixed Effort'' ont été introduites pour accroitre l'occurrence de leurs défaillances simultanées. Ensuite, nous combinons la première technique avec les deux autres, et nous les associons à la méthode de Quasi-Monte-Carlo randomisée. Au travers de diverses études de sensibilité et expériences numériques, nous évaluons leur performance, et observons une amélioration significative des résultats par rapport à MC. Par ailleurs, nous discutons d'un sujet peu familier à la SdF, à savoir le choix de la méthode à utiliser pour déterminer les intervalles de confiance dans le cas de la simulation d'événements rares. Enfin, nous illustrons la faisabilité et le potentiel de nos méthodes sur la base d'une application à un cas industriel
The dependability analysis of safety instrumented systems is an important industrial concern. To be able to carry out such safety studies, TOTAL develops since the eighties the dependability software GRIF. To take into account the increasing complexity of the operating context of its safety equipment, TOTAL is more frequently led to use the engine MOCA-RP of the GRIF Simulation package. Indeed, MOCA-RP allows to estimate quantities associated with complex aging systems modeled in Petri nets thanks to the standard Monte Carlo (MC) simulation. Nevertheless, deriving accurate estimators, such as the system unavailability, on very reliable systems involves rare event simulation, which requires very long computing times with MC. In order to address this issue, the common fast Monte Carlo methods do not seem to be appropriate. Many of them are originally defined to improve only the estimate of the unreliability and/or well-suited for Markovian processes. Therefore, the work accomplished in this thesis pertains to the development of acceleration methods adapted to the problematic of performing safety studies modeled in Petri nets and estimating in particular the unavailability. More specifically, we propose the Extension of the "Méthode de Conditionnement Temporel" to accelerate the individual failure of the components, and we introduce the Dissociation Method as well as the Truncated Fixed Effort Method to increase the occurrence of their simultaneous failures. Then, we combine the first technique with the two other ones, and we also associate them with the Randomized Quasi-Monte Carlo method. Through different sensitivities studies and benchmark experiments, we assess the performance of the acceleration methods and observe a significant improvement of the results compared with MC. Furthermore, we discuss the choice of the confidence interval method to be used when considering rare event simulation, which is an unfamiliar topic in the field of dependability. Last, an application to an industrial case permits the illustration of the potential of our solution methodology
2

Krauth, Timothé. "Modèle génératif profond pour l'estimation de probabilité de collision en vol." Electronic Thesis or Diss., Toulouse, ISAE, 2024. http://www.theses.fr/2024ESAE0018.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Il est essentiel de calculer la probabilité de collisions aériennes pour optimiser le trafic aérien tout en maintenant de hauts standards de sécurité. Cette nécessité s'est accentuée dans les années 1960 avec l'augmentation du trafic aérien commercial transatlantique. Initialement, les modèles analytiques tels que ceux de Reich et Anderson-Hsu étaient les références pour évaluer les risques de collision en vol, mais s’avèrent peu adaptés aux espaces aériens complexes autour des aéroports.Les méthodes basées sur les données, et en particulier les simulations de Monte-Carlo, sont devenues une alternative prometteuse pour l'évaluation du risque de collision. Elles offrent une grande flexibilité grâce à des hypothèses simplifiées, les rendant adaptables à divers contextes. Toutefois, les simulations de Monte-Carlo classiques se révèlent peu efficaces pour estimer les probabilités d'événements rares, nécessitant un grand nombre de trajectoires d'avions et des ressources computationnelles importantes. Cette thèse propose un modèle de risque de collision basé sur les simulations de Monte-Carlo, utilisant un modèle de génération de trajectoires pour pallier ces limitations dues aux événements rares. Ces méthodes génératives reproduisent fidèlement les distributions de trajectoires observées tout en intégrant les incertitudes dues à des facteurs externes. Trois axes de recherche principaux sont définis : (i) le développement d'une méthode de génération de trajectoires, (ii) la construction d'un modèle de risque de collision basé sur les méthodes de Monte-Carlo utilisant des trajectoires synthétiques, et (iii) l'amélioration de l'interprétabilité des estimations du risque de collision.La génération d'échantillons synthétiques nécessite l'estimation de la distribution des données observées pour garantir une distribution identique des nouveaux échantillons. C'est particulièrement important pour les trajectoires aériennes, où le modèle doit refléter les incertitudes causant des écarts par rapport aux trajectoires nominales. Nous avons d’abord utilisé des méthodes d'apprentissage statistique traditionnelles pour estimer des trajectoires aériennes complexes en deux dimensions. Malgré la réduction de la dimensionnalité du problème, les méthodes conventionnelles peinent à estimer les distributions en grande dimension. Nous avons alors exploré l’utilisation des autoencodeurs variationnels pour une estimation plus fine de la densité de probabilité. Convenablement adaptés aux applications de séries temporelles multivariées, les autoencodeurs variationnels se révèlent efficaces pour estimer la distribution de trajectoires aériennes complexes.En utilisant la méthode de génération développée, nous estimons alors le risque de perte de séparation induit par les procédures de décollage et d'atterrissage de l'aéroport de Paris-Orly à l'aide de simulations de Monte-Carlo. L'emploi d'une méthode de génération de trajectoires se révèle prometteur, permettant de créer l'équivalent de 20 ans de trajectoires aériennes à partir de seulement deux mois d'observations. Toutefois, les contraintes inhérentes aux méthodes classiques de Monte-Carlo ne sont pas réellement surmontées mais simplement différées par la production d'un ensemble de trajectoires de taille arbitrairement grande.Le travail final de cette thèse unifie les cadres de l'autoencodeur variationnel et de la quantification de l'incertitude. Il démontre comment les autoencodeurs variationnels peuvent construire des distributions d'entrée adaptées pour les algorithmes de quantification de l'incertitude, améliorant la fiabilité des simulations de Monte-Carlo grâce au subset simulation et l'explicabilité de l'estimation de la probabilité de collision en vol par l'analyse de sensibilité. Plus généralement, nous avons montré que l’autoencodeur variationel représente un outil prometteur à associer aux problèmes de quantification d’incertitudes
It is essential to calculate the probability of aircraft collisions to optimise air traffic while maintaining high safety standards. This need became more pronounced in the 1960s with the increase in transatlantic commercial air traffic. Initially, analytical models such as those of Reich and Anderson-Hsu were benchmarks for assessing in-flight collision risks, but they proved to be less suited for the complex airspace around airports.Data-driven methods, especially Monte Carlo simulations, have become a promising alternative for collision risk assessment. They offer significant flexibility through simplified assumptions, making them adaptable to various contexts. However, traditional Monte Carlo simulations are inefficient for estimating rare event probabilities, requiring a large number of aircraft trajectories and substantial computational resources. This thesis proposes a collision risk model based on Monte Carlo simulations, using a trajectory generation model to overcome these limitations associated with rare events. These generative methods faithfully reproduce observed trajectory distributions while incorporating uncertainties from external factors. Three main research areas are defined: (i) developing a trajectory generation method, (ii) constructing a Monte Carlo-based collision risk model using synthetic trajectories, and (iii) improving the interpretability of collision risk estimates.Generating synthetic samples involves estimating the distribution of observed data to ensure identical distribution in new samples. This is particularly important for aircraft trajectories, where the model must reflect uncertainty sources causing deviations from standard trajectories. We initially use traditional statistical learning methods to estimate complex two-dimensional aircraft trajectories. Despite reducing the problem's dimensionality, conventional methods struggle with high-dimensional distribution estimation. We then explore the use of variational autoencoders for more refined probability density estimation. Suitably adapted for multivariate time-series applications, variational autoencoders prove effective for estimating the distribution of complex aircraft trajectories.Using the developed generation method, we estimate the risk of loss of separation induced by the departure and approach procedures of Paris-Orly Airport using Monte Carlo simulations. The use of a trajectory generation method proves promising, allowing the creation of the equivalent of 20 years of air traffic trajectories from only two months of observations. However, this direct method has limitations for estimating extremely low collision probabilities, requiring the use of one variational autoencoder per flight procedure considered in the studied scenario. The processes of trajectory generation and collision risk evaluation are distinctly separated. Consequently, the inherent constraints of classical Monte Carlo methods are not truly overcome but merely postponed by the production of a set of arbitrarily large trajectories.The thesis's final work unifies the frameworks of variational autoencoders and uncertainty quantification. It demonstrates how variational autoencoders can build suitable input distributions for uncertainty quantification algorithms, enhancing the reliability of Monte Carlo simulations through subset simulation and the explainability of mid-air collision probability estimation through sensitivity analysis. More broadly, we show that the variational autoencoder represents a promising tool to be associated with uncertainty quantification problems
3

Shao, Jun. "Calcul de probabilités d'événements rares liés aux maxima en horizon fini de processus stochastiques." Thesis, Clermont-Ferrand 2, 2016. http://www.theses.fr/2016CLF22771/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Initiée dans le cadre d’un projet ANR (le projet MODNAT) ciblé sur la modélisation stochastique de phénomènes naturels et la quantification probabiliste de leurs effets dynamiques sur des systèmes mécaniques et structuraux, cette thèse a pour objet le calcul de probabilités d’événements rares liés aux maxima en horizon fini de processus stochastiques, avec prise en compte des quatre contraintes imposées suivantes : (1) l’ensemble des processus considérés doit contenir les quatre grandes catégories de processus rencontrés en dynamique aléatoire, à savoir les gaussiens stationnaires, les gaussiens non stationnaires, les non gaussiens stationnaires et les non gaussiens non stationnaires ; (2) ces processus doivent pouvoir être, soit décrits par leurs lois, soit fonctions de processus décrits par leurs lois, soit solutions d’équations différentielles stochastiques, soit même solutions d’inclusions différentielles stochastiques ; (3) les événements en question sont des dépassements de seuils très élevés par les maxima en horizon fini des processus considérés et ces événements sont de très faible occurrence, donc de très faible probabilité (de l’ordre de 10 −4 à 10 −8 ), du fait de la valeur élevée des seuils ; et enfin (4) le recours à une approche Monte-Carlo pour effectuer ce type de calcul doit être banni, car trop chronophage compte tenu des contraintes précédentes. Pour résoudre un tel problème, dont le domaine d’intérêt s’étend bien au delà de la mécanique probabiliste et de la fiabilité structurale (on le rencontre notamment dans tous les secteurs scientifiques en connexion avec la statistique des valeurs extrêmes, comme par exemple les mathématiques financières ou les sciences économiques) une méthode innovante est proposée, dont l’idée maîtresse est née de l’analyse des résultats d’une étude statistique de grande ampleur menée dans le cadre du projet MODNAT. Cette étude, qui porte sur l’analyse du comportement des valeurs extrêmes des éléments d’un vaste ensemble de processus, a en effet mis en évidence deux fonctions germes dépendant explicitement de la probabilité cible (la première en dépendant directement, la seconde indirectement via une probabilité conditionnelle auxiliaire elle-même fonction de la probabilité cible) et possédant des propriétés de régularité remarquables et récurrentes pour tous les processus de la base de données, et c’est sur l’exploitation conjointe de ces propriétés et d’un principe d’approximation bas niveau-extrapolation haut niveau que s’appuie la construction de la méthode. Deux versions de celle-ci en sont d’abord proposées, se distinguant par le choix de la fonction germe et dans chacune desquelles cette fonction est approximée par un polynôme. Une troisième version est également développée, basée sur le formalisme de la deuxième version mais utilisant pour la fonction germe une approximation de type "fonction de survie de Pareto". Les nombreux résultats numériques présentés attestent de la remarquable efficacité des deux premières versions. Ils montrent également que celles-ci sont de précision comparable. La troisième version, légèrement moins performante que les deux premières, présente quant à elle l’intérêt d’établir un lien direct avec la théorie des valeurs extrêmes. Dans chacune de ses trois versions, la méthode proposée constitue à l’évidence un progrès par rapport aux méthodes actuelles dédiées à ce type de problème. De par sa structure, elle offre en outre l’avantage de rester opérationnelle en contexte industriel
Initiated within the framework of an ANR project (the MODNAT project) targeted on the stochastic modeling of natural hazards and the probabilistic quantification of their dynamic effects on mechanical and structural systems, this thesis aims at the calculation of probabilities of rare events related to the maxima of stochastic processes over a finite time interval, taking into account the following four constraints : (1) the set of considered processes must contain the four main categories of processes encountered in random dynamics, namely stationary Gaussian, non-stationary Gaussian, stationary non-Gaussian and non-stationary non-Gaussian ones ; (2) these processes can be either described by their distributions, or functions of processes described by their distributions, or solutions of stochastic differential equations, or solutions of stochastic differential inclusions ; (3) the events in question are crossings of high thresholds by the maxima of the considered processes over finite time intervals and these events are of very weak occurrence, hence of very small probability, due to the high size of thresholds ; and finally (4) the use of a Monte Carlo approach to perform this type of calculation must be proscribed because it is too time-consuming given the above constraints. To solve such a problem, whose field of interest extends well beyond probabilistic mechanics and structural reliability (it is found in all scientific domains in connection with the extreme values theory, such as financial mathematics or economical sciences), an innovative method is proposed, whose main idea emerged from the analysis of the results of a large-scale statistical study carried out within the MODNAT project. This study, which focuses on analyzing the behavior of the extreme values of elements of a large set of processes, has indeed revealed two germ functions explicitly related to the target probability (the first directly related, the second indirectly via a conditional auxiliary probability which itself depend on the target probability) which possess remarkable and recurring regularity properties for all the processes of the database, and the method is based on the joint exploitation of these properties and a "low level approximation-high level extrapolation" principle. Two versions of this method are first proposed, which are distinguished by the choice of the germ function and in each of which the latter is approximated by a polynomial. A third version has also been developed. It is based on the formalism of the second version but which uses as germ function an approximation of "Pareto survival function" type. The numerous presented numerical results attest to the remarkable effectiveness of the first two versions. They also show that they are of comparable precision. The third version, slightly less efficient than the first two, presents the interest of establishing a direct link with the extreme values theory. In each of its three versions, the proposed method is clearly an improvement compared to current methods dedicated to this type of problem. Thanks to its structure, it also offers the advantage of remaining operational in industrial context
4

Mattrand, Cécile. "Approche probabiliste de la tolérance aux dommages." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00738947.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En raison de la gravité des accidents liés au phénomène de fatigue-propagation de fissure, les préoccupations de l'industrie aéronautique à assurer l'intégrité des structures soumises à ce mode de sollicitation revêtent un caractère tout à fait essentiel. Les travaux de thèse présentés dans ce mémoire visent à appréhender le problème de sûreté des structures aéronautiques dimensionnées en tolérance aux dommages sous l'angle probabiliste. La formulation et l'application d'une approche fiabiliste menant à des processus de conception et de maintenance fiables des structures aéronautiques en contexte industriel nécessitent cependant de lever un nombre important de verrous scientifiques. Les efforts ont été concentrés au niveau de trois domaines dans ce travail. Une méthodologie a tout d'abord été développée afin de capturer et de retranscrire fidèlement l'aléa du chargement de fatigue à partir de séquences de chargement observées sur des structures en service et monitorées, ce qui constitue une réelle avancée scientifique. Un deuxième axe de recherche a porté sur la sélection d'un modèle mécanique apte à prédire l'évolution de fissure sous chargement d'amplitude variable à coût de calcul modéré. Les travaux se sont ainsi appuyés sur le modèle PREFFAS pour lequel des évolutions ont également été proposées afin de lever l'hypothèse restrictive de périodicité de chargement. Enfin, les analyses probabilistes, produits du couplage entre le modèle mécanique et les modélisations stochastiques préalablement établies, ont entre autre permis de conclure que le chargement est un paramètre qui influe notablement sur la dispersion du phénomène de propagation de fissure. Le dernier objectif de ces travaux a ainsi porté sur la formulation et la résolution du problème de fiabilité en tolérance aux dommages à partir des modèles stochastiques retenus pour le chargement, constituant un réel enjeu scientifique. Une méthode de résolution spécifique du problème de fiabilité a été mise en place afin de répondre aux objectifs fixés et appliquée à des structures jugées représentatives de problèmes réels.

До бібліографії