Дисертації з теми "Densité de probabilités"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Densité de probabilités.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Densité de probabilités".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Yode, Armel Fabrice Evrard. "Estimation de la densité de probabilité multidimensionnelle : risques minimax avec normalisation aléatoire et test d'indépendance." Aix-Marseille 1, 2004. http://www.theses.fr/2004AIX11002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre de la théorie minimax, une nouvelle approche permettant d'améliorer la qualité des procédures d'estimation à et proposée par Lepski (1999). Cette approche qui est une combinaison de l'estimation adaptative et du test d'hypothèses introduit le concept de risques avec normalisation aléatoire. Elle conduit à la construction d'un estimateur atteignant une vitesse dépendant de l'observation et qui peut ^etre adaptatif. La vitesse obtenue est meilleure que celle fournie par l'estimation minimax. Dans cette présente thèse, nous appliquons cette théorie au problème de l'estimation de la densité de probabilité multidimensionnelle sous l'hypothèse d'indépendance. Notre travail se divise en deux grandes parties: - Test d'indépendance. Nous proposons un nouveau test d'indépendance non-paramétrique via l'approche minimax. Les alternatives sont décrites par la norme L2. Nous nous intéressons aux tests dont l'erreur de première espèce décroi^t vers 0 quand le nombre d'observations cro^it. - Risques minimax avec normalisation aléatoire. A l'issue du test, nous construisons un estimateur qui atteint une vitesse qui dépend de l'observation. Sous l'hypothèse d'indépendance, cet estima-teur est adpatatif
In the context of minimax theory, a new approach allowing one to improve the accuracy of estimation has been proposed by Lepski (1999). This approach which is a combination of adaptive estimation and hypothesis testing introduces a new kind of risks normalized by random variable depending on the observation. It implies construction of estimator attaining rate depending on observation. This estimator can be adaptive and the rate is better than minimax rate of convergence. In this thesis, we apply this theory to the problem of estimation of multidi-mensionnal probability density under independence hypothesis. Our work consists of two parts:- Independence test. We propose a new nonparametric independence test via minimax approach. The alternatives sets are described by L2-norm. We are interested in the study for tests for which the error of the first type can decrease to 0 as the number of observations increases. - Minimax risks with random normalizing factors. We construct estimator attaining random rate which is better than mini-max rate of convergence. Under independence hypothesis, this estimator can be adaptive
2

Hamon, Abdellatif. "Estimation d'une densité de probabilité multidimensionnelle par dualité." Rouen, 2000. http://www.theses.fr/2000ROUES055.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous étudions dans cette thèse l'estimation d'une fonction de densité d'une loi de probabilité multidimensionnelle à partir d'un certain nombre de moments issue de cette loi. Nous considérons ces moments comme une information sur la loi inconnue. Nous introduisons une nouvelle fonction d'information de type Kullback, afin d'utiliser la méthode du maximum d'entropie pour construire un estimateur convergent uniformément vers la loi inconnue lorsque le nombre de moments augmente. Nous utilisons les techniques de dualité de Fenchel-Young pour démontrer dans un premier temps la convergence uniforme de l'estimateur de maximum d'entropie vers la densité inconnue lorsque les fonctions deux densités sont uniformément bornées. Nous explicitons dans un deuxième temps la vitesse de convergence de l'estimateur du maximum d'entropie lorsque les fonctions de moments sont algébriques, trigonométriques définies sur un compact de IR n. Nous construisons une famille de splines à régularité modifiables, puis nous démontrons que lorsque les fonctions de moments proviennent de cette famille alors la convergence uniforme de l'estimateur du maximum d'entropie est assurée. Dans la dernière partie de cette thèse, nous proposons un algorithme de construction d'une loi inconnue à partir d'un certain nombre de ces moments.
3

Rosa, Vargas José Ismäel de la. "Estimation de la densité de probabilité d'une mesure dans un cadre non-linéaire, non-gaussien." Paris 11, 2002. http://www.theses.fr/2002PA112201.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Mettre en oeuvre une procédure de mesure passe par la modélisation préalable du phénomène observé. Modéliser devient alors un objectif à part entière même s'il ne faut pas le décorréler de l'objectif de mesure. Au-delà de la construction et du choix de modèle, persiste le problème, à la fois théorique et pratique, de l'évaluation de la densité de probabilité (DDP) des paramètres du modèle retenu. Une fois cette DDP estimée, il faut pouvoir propager cette information statistique jusqu'à la grandeur d'intérêt appelée mesure. Cette mesure étant une fonction non-linéaire des paramètres du modèle. Ainsi, notre travail de recherche porte sur l'estimation de la DDP de la mesure. Pour ce faire, nous proposons une première approche fondée sur les méthodes de type bootstrap. Ces méthodes de simulation comme les méthodes traditionnelles de type Monte-Carlo, requièrent un temps de calcul significatif, cependant elles aboutissent à une très bonne précision sur la caractérisation statistique des systèmes de mesure. Par ailleurs, nous avons pu vérifier que la convergence de ce type de méthodes est plus rapide que celle de la méthode de Monte-Carlo Primitive (MCP). Un avantage certain du bootstrap est sa capacité à déterminer la nature des erreurs agissant sur le système de mesure, grâce à l'estimée de la DDP empirique des erreurs. En outre, l'optimisation de la convergence peut se atteindre en utilisant des schémas de pondération sur les erreurs ou bien, un schéma modifié du bootstrap itéré. Nous proposons aussi l'utilisation d'un schéma d'estimation robuste au cas des données aberrantes. Une deuxième approche est fondée sur l'échantillonnage par les méthodes de Monte-Carlo par chaînes de Markov (MCMC), la caractérisation statistique selon ce point permet d'utiliser toute l'information a priori connue sur le système de mesure, en effectuant une reformulation du problème selon la règle de Bayes. L'échantillonnage de Gibbs et les algorithmes de Metropolis-Hastings ont été exploités dans ce travail. En ce qui concerne l'optimisation de la convergence du MCMC, on a adapté des algorithmes tels que le rééchantillonnage pondéré et le couplage de chaînes dans le temps rétrograde. En particulier, nous avons proposé un échantillonneur de Gibbs par simulation parfaite et un algorithme hybride par simulation parfaite. Une dernière approche au problème d'estimation de la mesure est construite à l'aide des méthodes d'estimation par noyaux. L'idée principale est fondée sur la caractérisation non-paramétrique de la DDP des erreurs, sachant qu'elle est inconnue. .
The characterization and modeling of an indirect measurement procedure is led by a set of previously observed data. The modeling task is it self a complex procedure which is correlated with the measurement objective. Far from model building and model selection, a theoretical and practical problem persists: What is the correct probability density function (PDF) of a parametric model? Once this PDF is approximated, the next step is to establish a mechanism to propagate this statistical information until the quantity of interest. In fact, such a quantity is a measurement estimate and it is a nonlinear function of the parametric model. The present work proposes some different methods to make statistical inferences about the measurement estimate. We propose a first approach based on bootstrap methods. Such methods are classical in statistical simulation together with Monte Carlo methods, and they require a significative time of calcul. However, the precision over the measurement PDF estimated by these methods is very good. On the other hand, we have verified that the bootstrap methods convergence is faster than the Primitive Monte Carlo's one. Another advantage of bootstrap is its capacity to determine the statistical nature of errors which perturb the measurement system. This is doing thanks to the empirical estimation of the errors PDF. The bootstrap convergence optimization could be achieved by smoothing the residuals or by using a modified iterated bootstrap scheme. More over, we propose to use robust estimation when outliers are present. The second approach is based on other sampling techniques called Markov Chain Monte Carlo (MCMC), the statistical inference obtained when using these methods is very interesting, since we can use all a priori information about the measurement system. We can reformulate the problem solution by using the Bayes rule. The Gibbs sampling and the Metropolis-Hastings algorithms were exploited in this work. We overcome to the MCMC convergence optimization problem by using a weighted resampling and coupling from the past (CFTP) schemes, moreover, we adapt such techniques to the measurement PDF approximation. The last proposed approach is based on the use of kernel methods. The main idea is founded on the nonparametric estimation of the errors PDF, since it is supposed unknown. Then, we optimize a criterion function based on the entropy of the errors' PDF, thus we obtain a minimum entropy estimator (MEE). The simulation of this estimation process by means of Monte Carlo, MCMC, or weighted bootstrap could led to us to construct a statistical approximation of the measurement population. .
4

Nehme, Bilal. "Techniques non-additives d'estimation de la densité de probabilité." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00576957.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons une nouvelle méthode d'estimation non-paramétrique de la densité de probabilité. Cette méthode d'estimation imprécise combine la théorie de distribution de Schwartz et la théorie de possibilité. La méthode d'estimation que nous proposons est une extension de la méthode d'estimation à noyau. Cette extension est basée sur une nouvelle méthode de représentation de la notion de voisinage sur laquelle s'appuie l'estimation à noyau. Cette représentation porte le nom de noyau maxitif. L'estimation produite est de nature intervalliste. Elle est une enveloppe convexe d'un ensemble d'estimation de Parzen-Rosenblatt obtenus avec un ensemble de noyaux contenus dans une famille particulière. Nous étudions un certain nombre des propriétés théoriques liées à cette nouvelle méthode d'estimation. Parmi ces propriétés, nous montrons un certain type de convergence de cet estimateur. Nous montrons aussi une aptitude particulière de ce type d'estimation à quantifier l'erreur d'estimation liée à l'aspect aléatoire de la distribution des observations. Nous proposons un certain nombre d'algorithmes de faible complexité permettant de programmer facilement les mathodes que nous proposons.
5

Derouet, Charlotte. "La fonction de densité au carrefour entre probabilités et analyse en terminale S : Etude de la conception et de la mise en oeuvre de tâches d'introduction articulant lois à densité et calcul intégral." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC126/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur les articulations entre les probabilités et l’analyse en classe de terminale scientifique. Nous avons exploré comment se créent et sont exploités les liens entre les sous-domaines mathématiques des probabilités des lois à densité et du calcul intégral, à travers une recherche centrée sur la notion de fonction de densité. En adoptant le modèle des Espaces de Travail Mathématique et des éléments de la théorie de l’activité, nous nous sommes demandé quelles tâches permettent d’introduire cette notion et de construire la relation sémiotique reliant probabilité et intégrale. Pour aborder cette question, nous avons commencé parfaire une étude épistémologique et historique de la naissance de la notion de lois à densité, qui nous a notamment permis de dégager la place importante de la statistique dans cette genèse. Puis, nous avons effectué une analyse des documents institutionnels et des manuels. Cette analyse a montré que l’articulation entre probabilités à densité et calcul intégral est imposée aux élèves et peu exploitée dans les différentes tâches qui leur sont proposées. Enfin, nous avons étudié la conception et la mise en place de tâches d’introduction originales grâce à une méthodologie de recherche que nous qualifions d’ingénierie didactique collaborative. Ces tâches ont pour objectif de faire construire, par le « collectif » classe, la notion de fonction de densité et d’amener le besoin du calcul d’aire sous une courbe. Nous avons mis en évidence les activités de ce collectif classe, dans la construction de cette notion, en analysant les circulations entre trois sous-domaines : les probabilités à densité, la statistique descriptive et le calcul intégral
This thesis focuses on the connections between probability and analysis (calculus) in the scientific track of Grade 12 (French baccalaureate program). We explored the ways in which links between the mathematics subfields of continuous probability and integral calculus are created and explored, through a research focused on the concept of density function. Using the Mathematical Working Space model and some elements of Activity Theory, we sought to identify tasks that would allow introducing this concept and building the semiotic relationship between probability and integral. In order to address this issue, we began with an epistemological and historical study of the birth of the concept of density function, which enabled us to identify the important role of statistics in this genesis. Then, an analysis of institutional documents and textbooks showed that the link between continuous probability and integral calculus is imposed on students and rarely exploited in the different tasks given to them. Finally, we studied the design and implementation of original introductory tasks through a research methodology that we call “collaborative didactic engineering”. The goal of these tasks is to get the class “collective” to construct the concept of density function and trigger the need for calculating areas under a curve. We highlighted the activities of the class “collective” in the construction of this notion by analyzing articulations between the three subfields: continuous probability, descriptive statistics and integral calculus
6

Akil, Nicolas. "Etude des incertitudes des modèles neuronaux sur la prévision hydrogéologique. Application à des bassins versants de typologies différentes." Electronic Thesis or Diss., IMT Mines Alès, 2021. http://www.theses.fr/2021EMAL0005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les crues et les sécheresses sont deux des risques majeurs en France et nécessitent une attention particulière. Dans ces conditions où le changement climatique engendre des phénomènes extrêmes de plus en plus fréquents, la modélisation de ces risques est désormais un élément incontournable pour la gestion de la ressource en eau.Actuellement, les débits ou hauteurs d’eau sont principalement anticipés à partir de modèles à base physique ou conceptuelle. Bien qu’efficaces et nécessaires, la calibration et la mise en œuvre de ces modèles nécessitent la réalisation d’études longues et coûteuses.Dans ce contexte, cette thèse, soutenue par l’IMT Mines Alès et conjointement financée par la société aQuasys et l’ANRT, a pour objectif de développer des modèles issus du paradigme systémique. Ceux-ci nécessitent uniquement des connaissances a priori basiques sur la caractérisation physique du bassin étudié, et qui peuvent être calibrés à partir des seules informations d’entrées et de sorties (pluies et débits/hauteurs).Les modèles les plus utilisés dans le monde environnemental sont les réseaux neuronaux, qui sont utilisés sur ce projet. Cette thèse cherche à répondre à trois objectifs principaux :1. Élaboration d’une méthode de conception de modèle adaptée aux différentes variables (débits/hauteur des eaux de surface) et à des bassins de types très différents : bassins versants ou bassins hydrogéologiques (hauteur des eaux souterraines)2. Évaluation des incertitudes liées à ces modèles en fonction des types de bassins visés3. Réduction de ces incertitudesPlusieurs bassins sont utilisés pour répondre à ces problématiques : la nappe du bassin du Blavet en Bretagne et le bassin de la nappe de la Craie de Champagne sud et Centre
Floods and droughts are the two main risks in France and require a special attention. In these conditions, where climate change generates increasingly frequent extreme phenomena, modeling these risks is an essential element for water resource management.Currently, discharges and water heights are mainly predicted from physical or conceptual based models. Although efficient and necessary, the calibration and implementation of these models require long and costly studies.Hydrogeological forecasting models often use data from incomplete or poorly dimensioned measurement networks. Moreover, the behavior of the study basins is in most cases difficult to understand. This difficulty is thus noted to estimate the uncertainties associated with hydrogeological modeling.In this context, this thesis, supported by IMT Mines Alès and financed by the company aQuasys and ANRT, aims at developing models based on the systemic paradigm. These models require only basic knowledge on the physical characterization of the studied basin, and can be calibrated from only input and output information (rainfall and discharge/height).The most widely used models in the environmental world are neural networks, which are used in this project. This thesis seeks to address three main goals:1. Development of a model design method adapted to different variables (surface water flows/height) and to very different types of basins: watersheds or hydrogeological basins (groundwater height)2. Evaluation of the uncertainties associated with these models in relation to the types of targeted basins3. Reducing of these uncertaintiesSeveral basins are used to address these issues: the Blavet basin in Brittany and the basin of the Southern and Central Champagne Chalk groundwater table
7

Lerasle, Matthieu. "Rééchantillonnage et sélection de modèles optimale pour l'estimation de la densité." Toulouse, INSA, 2009. http://eprint.insa-toulouse.fr/archive/00000290/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le principal objectif de cette thèse est d’étudier deux méthodes de calibration automatique de la pénalité pour la sélection de modèle. L’avantage de ces méthodes est double, d’une part, elles sont toujours implémentables, elles ont mˆeme souvent été utilisées dans des problèmes pratiques avec succès, d’autre part, elles sont optimales puisqu’elles permettent de sélectionner asymptotiquement le meilleur modèle. Il existe d’autres méthodes de pénalisation calculables en pratique, quand les données sont indépendantes. Néanmoins, en dehors des collections de modèles très réguliers, ces pénalités sont très pessimistes, voire dépendent de constantes inconnues comme la norme sup de la densité. De plus, quand on veut utiliser les preuves classiques pour des données mélangeantes, les pénalités que l’on obtient dépendent toujours de constantes inconnues de l’utilisateur (voir le chapitre 3). Le chapitre 2 étudie l’heuristique de pente et les pénalités par rééchantillonnage dans le cas de données indépendantes. On donne une condition suffisante pour que l’heuristique de la pente soit optimale, en utilisant l’inégalité de concentration de Talagrand pour le supremum du processus empirique. On étudie aussi l’approximation du processus empirique par sa version rééchantillonnée et on en déduit que la même condition suffit à garantir l’optimalité des méthodes par rééchantillonnage. Le chapitre 3 est consacré à l’étude de pénalités classiques quand les observations sont mélangeantes. On montre des inégalités oracles et l’adaptativité de l’estimateur sélectionné à la régularité de la densité. La pénalité dépend des coefficients de mélange qui peuvent parfois être évalués. Le chapitre 4 étend les résultats du chapitre 2 au cas de données mélangeantes. On montre ainsi que les méthodes de la pente et bootstrap sont également optimales dans ce cas, sous le même type de conditions. Ces nouvelles pénalités sont toujours calculables en pratique et le modèle sélectionné est asymptotiquement un oracle, ce qui améliore beaucoup les résultats du chapitre 3. Le chapitre 5 traite du problème des régions de confiance adaptatives. Contrairement au cas de l’estimation, cette adaptation n’est que très rarement possible. Quand elle l’est, nous construisons des régions adaptatives. En particulier, on améliore quelques résultats de concentration du chapitre 2 lorsque les données sont à valeurs réelles, notamment ceux des U-statistiques.
8

Pastel, Rudy. "Estimation de probabilités d'évènements rares et de quantiles extrêmes : applications dans le domaine aérospatial." Phd thesis, Université Européenne de Bretagne, 2012. http://tel.archives-ouvertes.fr/tel-00728108.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les techniques dédiées aux évènements rares sont d'un grand intérêt pour l'industrie aérospatiale en raison des larges sommes qui peuvent être perdues à cause des risques associés à des probabilités infimes. Cette thèse se concentre la recherche d'outils probabilistes capables d'estimer les probabilités d'évènements rares et les quantiles extrêmes associés à un système boîte noire dont les entrées sont des variables aléatoires. Cette étude est faite au travers de deux cas issus de l'industrie. Le premier est l'estimation de la probabilité de collision entre les satellites Iridium et Cosmos. La Cross-Entropy (CE), le Non-parametric Adaptive Importance Sampling (NAIS) et une technique de type Adaptive Splitting (AST) sont comparés. Au cours de la comparaison, une version améliorée de NAIS est conçue. Au contraire du NAIS qui doit être initialisé avec une variable aléatoire qui génère d'emblée des événements rares, le NAIS adaptatif (ANAIS) peut être initialisé avec la variable aléatoire d'origine du système et n'exige donc pas de connaissance a priori. Le second cas d'étude est l'estimation de la zone de sécurité vis-à-vis de la chute d'un booster de fusée. Bien que les quantiles extrêmes puissent être estimés par le bais de ANAIS ou AST, ils apparaissent comme inadaptés à une distribution spatiale. A cette fin, le Minimum Volume Set (MVS) est choisi dans la littérature. L'estimateur Monte Carlo (MC) de MVS n'étant pas adapté à l'estimation d'un MVS de niveau extrême, des estimateurs dédiés sont conçus à partir d'ANAIS et d'AST. Ces deux derniers surpassent l'estimateur de type MC.
9

Quiroz, Martínez Benjamín. "Étude de la variabilité temporelle et spatiale des peuplements des annélides polychètes de l'Atlantique nord-est européen, dynamique des peuplements en Manche et patrons de distribution sur le plateau continental." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10106/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes environnementaux présentent une grande variabilité spatio-temporelle. En raison des influences extérieures et de la stochasticité introduite par le processus de reproduction, la dynamique des populations est également caractérisée par une grande variabilité. La recherche de lois universelles en écologie implique souvent une distribution de la forme loi de puissance, ces distributions peuvent survenir dans la dynamique des populations ou dans les patrons spatiaux de distribution d'abondance et de richesse spécifique. En prenant les polychètes, groupe colonisant un grand nombre d'habitats des sédiments meubles et durs et considérés comme indicateurs des principales conditions qui contrôlent la structure et le fonctionnement des communautés macrobenthiques, nous essayons d’identifier les changements spatio-temporels de la biodiversité de ce groupe. A partir de séries biologiques à long terme de trois communautés de fonds meubles, nous étudions la dynamique des populations des polychètes, nous caractérisons des événements extrêmes pour des données d’abondance et nous introduisons des méthodes de quantification pour des séries biologiques très intermittentes. Ensuite, nous abordons la distribution spatiale des espèces de polychètes ayant comme objectifs d'identifier les patrons latitudinaux, longitudinaux et bathymétriques du plateau continental de l’Atlantique nord-est européen; et de tester l’existence de patrons généraux, voir même universels, caractérisant la biodiversité (i.e. l'augmentation de la diversité avec l’aire échantillonnée, sa décroissance de l’équateur vers les pôles et l'augmentation de la richesse en espèces avec l’abondance totale d’individus)
One of the key features of environmental field studies is their high variability at many different time and space scales. Because of these external influences and of the stochasticity introduced by the reproduction, population dynamics are also characterised by high variability over time and space. The search for universal scaling laws in ecology often involves considering a form of power-law distribution, power laws can emerge in population dynamics or in patterns of abundance, distribution, and richness. Using the polychaetes, group that colonises a large range of soft and hard marine sediment habitats, from intertidal to hadal zones, and are considered to be good surrogates to identify the main environmental conditions that control the structure and functioning of benthic communities, we try to identify the spatiotemporal changes in biodiversity for this characteristic benthic group. First, we discuss the dynamics of polychaete populations. Based on long-term series of three soft-bottom communities, we study the dynamics of polychaete populations using different statistical techniques; we characterise extreme events in abundance data and we show how to apply some quantification methods to highly erratic and intermittent biological series. Then, we discuss the spatial distribution of polychaete species aiming to: identify latitudinal, longitudinal and bathymetric patterns on the European northeast Atlantic continental shelf; and test the existence of general, perhaps universal, patterns for characterising biodiversity i.e. increasing diversity with sampled area, its decay from the equator to the poles and the increase in richness with the total abundance of individuals
10

Bordet, Nicolas. "Modélisation 0D/1D de la combustion diesel : du mode conventionnel au mode homogène." Phd thesis, Université d'Orléans, 2011. http://tel.archives-ouvertes.fr/tel-00717396.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la modélisation 0D/1D de la combustion Diesel dans les moteurs récents. L'objectif est d'augmenter la précision des modèles tout en limitant les temps de calcul associés afin d'utiliser la simulation comme un outil dédié à la mise au point. Dans une première partie, le développement d'un modèle 0D orienté simulation système est présenté. La prise en compte de l'ensemble des phénomènes physico-chimiques se déroulant dans la chambre de combustion confère au modèle un niveau de prédictivité conséquent. Un nouveau modèle de combustion de prémélange est proposé, permettant une modélisation détaillée des combustions fortement diluées et des combustions relatives aux injections précoces. Une approche innovante permettant de quantifier les interactions entre les jets pour la multi injection est également proposée. Après calibration sur un nombre restreint d'essais moteur, les résultats du modèle global sont comparés à des mesures expérimentales pour toute la plage de fonctionnement du moteur. La seconde partie de ce travail porte sur la modélisation 1D de la combustion Diesel. Un modèle de jet Diesel est d'abord développé et validé sur des mesures expérimentales. Ce modèle est ensuite étendu à des conditions réactionnelles à l'aide d'un couplage avec un modèle de combustion. Ce dernier s'appuie sur une tabulation des mécanismes de cinétique chimique, ainsi que sur une approche Eddy Break-Up permettant de modéliser le taux de réaction lié au micro mélange. Ce modèle est ensuite intégré à un modèle de chambre de combustion et une première validation du modèle sur des essais moteur réels est entreprise.
11

Kassem, Morad. "Champs de densité d'énergie pour la vibroacoustique basse et moyenne fréquence des structures complexes utilisant un modèle numérique stochastique : application à la partition structurale des automobiles." Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00539048.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de recherche s'inscrit dans le cadre de l'analyse vibroacoustique des structures complexes. Il propose une nouvelle approche énergétique utilisant le champ de densité d'énergie afin de simplifier une telle analyse. Cette approche est basée sur un modèle numérique stochastique construit à l'aide de l'approche probabiliste non paramétrique des incertitudes de modélisation et de paramètres. L'approche énergétique stochastique développée correspond à une nouvelle représentation du système vibroacoustique en terme des grandeurs énergétiques aléatoires. Un modèle vibroacoustique énergétique moyen est alors construit en prenant la moyenne statistique des grandeurs énergétiques. On dispose alors d'un modèle énergétique moyen pour analyser la vibroacoustique des systèmes complexes dans la bande des basses et des moyennes fréquences alors que la méthode SEA ne permet pas d'analyser cette bande de fréquence. L'analyse des propriétés des grandeurs énergétiques moyennes utilisées pour la construction du modèle vibroacoustique énergétique permet de construire une version simplifiée conduisant à un modèle énergétique simplifié pour lequel une méthodologie de partition structurale par zone est établie. Une application de cette approche énergétique et de la méthodologie de partition structurale par zone est présentée pour une voiture constituée d'une structure automobile couplée avec sa cavité acoustique interne
12

Fischer, Stephan. "Modélisation de l'évolution de la taille des génomes et de leur densité en gènes par mutations locales et grands réarrangements chromosomiques." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00924831.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Bien que de nombreuses séquences génomiques soient maintenant connues, les mécanismes évolutifs qui déterminent la taille des génomes, et notamment leur part d'ADN non codant, sont encore débattus. Ainsi, alors que de nombreux mécanismes faisant grandir les génomes (prolifération d'éléments transposables, création de nouveaux gènes par duplication, ...) sont clairement identifiés, les mécanismes limitant la taille des génomes sont moins bien établis. La sélection darwinienne pourrait directement défavoriser les génomes les moins compacts, sous l'hypothèse qu'une grande quantité d'ADN à répliquer limite la vitesse de reproduction de l'organisme. Cette hypothèse étant cependant contredite par plusieurs jeux de données, d'autres mécanismes non sélectifs ont été proposés, comme la dérive génétique et/ou un biais mutationnel rendant les petites délétions d'ADN plus fréquentes que les petites insertions. Dans ce manuscrit, nous montrons à l'aide d'un modèle matriciel de population que la taille du génome peut aussi être limitée par la dynamique spontanée des duplications et des grandes délétions, qui tend à raccourcir les génomes même si les deux types de ré- arrangements se produisent à la même fréquence. En l'absence de sélection darwinienne, nous prouvons l'existence d'une distribution stationnaire pour la taille du génome même si les duplications sont deux fois plus fréquentes que les délétions. Pour tester si la sélection darwinienne peut contrecarrer cette dynamique spontanée, nous simulons numériquement le modèle en choisissant une fonction de fitness qui favorise directement les génomes conte- nant le plus de gènes, tout en conservant des duplications deux fois plus fréquentes que les délétions. Dans ce scénario où tout semblait pousser les génomes à grandir infiniment, la taille du génome reste pourtant bornée. Ainsi, notre étude révèle une nouvelle force susceptible de limiter la croissance des génomes. En mettant en évidence des comporte- ments contre-intuitifs dans un modèle pourtant minimaliste, cette étude souligne aussi les limites de la simple " expérience de pensée " pour penser l'évolution. Nous proposons un modèle mathématique de l'évolution structurelle des génomes en met- tant l'accent sur l'influence des différents mécanismes de mutation. Il s'agit d'un modèle matriciel de population, à temps discret, avec un nombre infini d'états génomiques pos- sibles. La taille de population est infinie, ce qui élimine le phénomène de dérive génétique. Les mutations prises en compte sont les mutations ponctuelles, les petites insertions et délétions, mais aussi les réarrangements chromosomiques induits par la recombinaison ectopique de l'ADN, comme les inversions, les translocations, les grandes délétions et les duplications. Nous supposons par commodité que la taille des segments réarrangés suit une loi uniforme, mais le principal résultat analytique est ensuite généralisé à d'autres dis- tributions. Les mutations étant susceptibles de changer le nombre de gènes et la quantité d'ADN intergénique, le génome est libre de varier en taille et en compacité, ce qui nous permet d'étudier l'influence des taux de mutation sur la structure génomique à l'équilibre. Dans la première partie de la thèse, nous proposons une analyse mathématique dans le cas où il n'y a pas de sélection, c'est-à-dire lorsque la probabilité de reproduction est identique quelle que soit la structure du génome. En utilisant le théorème de Doeblin, nous montrons qu'une distribution stationnaire existe pour la taille du génome si le taux de duplications par base et par génération n'excède pas 2.58 fois le taux de grandes délétions. En effet, sous les hypothèses du modèle, ces deux types de mutation déterminent la dynamique spontanée du génome, alors que les petites insertions et petites délétions n'ont que très peu d'impact. De plus, même si les tailles des duplications et des grandes délétions sont distribuées de façon parfaitement symétriques, leur effet conjoint n'est, lui, pas symétrique et les délétions l'emportent sur les duplications. Ainsi, si les tailles de délétions et de duplications sont distribuées uniformément, il faut, en moyenne, plus de 2.58 duplications pour compenser une grande délétion. Il faut donc que le taux de duplications soit quasiment trois fois supérieur au taux de délétions pour que la taille des génomes croisse à l'infini. L'impact des grandes délétions est tel que, sous les hypothèses du modèle, ce dernier résultat reste valide même en présence d'un mécanisme de sélection favorisant directement l'ajout de nouveaux gènes. Même si un tel mécanisme sélectif devrait intuitivement pousser les génomes à grandir infiniment, en réalité, l'influence des délétions va rapidement limiter leur accroissement. En résumé, l'étude analytique prédit que les grands réarrangements délimitent un ensemble de tailles stables dans lesquelles les génomes peuvent évoluer, la sélection influençant la taille précise à l'équilibre parmi cet ensemble de tailles stables. Dans la deuxième partie de la thèse, nous implémentons le modèle numériquement afin de pouvoir simuler l'évolution de la taille du génome en présence de sélection. En choisissant une fonction de fitness non bornée et strictement croissante avec le nombre de gènes dans le génome, nous testons le comportement du modèle dans des conditions extrêmes, poussant les génomes à croître indéfiniment. Pourtant, dans ces conditions, le modèle numérique confirme que la taille des génomes est essentiellement contrôlée par les taux de duplications et de grandes délétions. De plus, cette limite concerne la taille totale du génome et s'applique donc aussi bien au codant qu'au non codant. Nous retrouvons en particulier le seuil de 2.58 duplications pour une délétion en deçà duquel la taille des génomes reste finie, comme prévu analytiquement. Le modèle numérique montre même que, dans certaines conditions, la taille moyenne des génomes diminue lorsque le taux de duplications augmente, un phénomène surprenant lié à l'instabilité structurelle des grands génomes. De façon similaire, augmenter l'avantage sélectif des grands génomes peut paradoxalement faire rétrécir les génomes en moyenne. Enfin, nous montrons que si les petites insertions et délétions, les inversions et les translocations ont un effet limité sur la taille du génome, ils influencent très largement la proportion d'ADN non codant.
13

Daili, Noureddine. "Contribution à l'étude des densités." Université Louis Pasteur (Strasbourg) (1971-2008), 1991. http://www.theses.fr/1991STR13116.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'un des moyens de resoudre certains problemes poses en theorie des nombres est de recourir aux outils de la theorie probabiliste des nombres. Parmi ces outils, les densites. Dans cette these, nous considerons des mesures de probabilite sur l'ensemble des parties de l'ensemble des entiers naturels. Nous envisagerons deux approches: dans une premiere approche, nous definissons des mesures de probabilite sigma-additives indexees par les entiers n, puis nous passons a la limite sur n, lorsque n tend vers l'infini. En general, nous perdons la propriete de la sigma-additivite. Dans cette categorie, nous etudions les cas limites de la densite asymptotique plane, de la densite de holder, de la densite logarithmique, de la serie-logarithmique-densite. Densite asymptotique conditionnelle, logarithmique conditionnelle et la densite exponentielle. Dans une seconde approche, nous considerons des mesures sur l'ensemble des parties de l'ensemble des entiers naturels indexees par des parametres et nous prenons les limites en faisant tendre ces parametres vers certaines valeurs. Dans cette categorie, nous etudions les cas limites de la densite analytique de premiere et seconde espece. Densite analytique conditionnelle et la densite abelienne. Nous etablirons un schema principal, reliant toutes ces densites, pour des fonctions arithmetiques positives et bornees. Nous deduisons le meme schema, pour des parties e de l'ensemble des entiers naturels, sous forme e corollaires de schema precedent. Nous fournissons une theorie generale des densites dans le dernier chapitre
14

Pai, Madhusudan Gurpura. "Probability density function formalism for multiphase flows." [Ames, Iowa : Iowa State University], 2007.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Rosa, Francisco Eduardo Lopes Sousa. "Risk neutral probability density for currency options." Master's thesis, Instituto Superior de Economia e Gestão, 2019. http://hdl.handle.net/10400.5/20601.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Mestrado em Finanças
Este trabalho tem o objectivo de facilitar a previsão para investidores em mercados financeiros. Embora possa ser usado em acções e futuros de petróleo, o principal objectivo é o mercado cambial, mais especificamente, opções de moeda, extraindo com risco neutro a densidade de probabilidade da função através de uma abordagem paramétrica e não paramétrica. Consequentemente, tal foi aplicado a um caso muito recente, em 2019, entre o dólar Norte americano e a libra inglesa, tornando assim mais atractiva a leitura do comportamento da densidade, especialmente com a saída do Reino unido da União Europeia.
This work has the purpose of easing the forecast for financial market investors. Although it can be used on equities and oil futures, the main aim is the Foreign exchange. More so, it is specialized on currency options, extracting then the closer Risk Neutral Probability Density Function through a parametric approach and a nonparametric approach. Subsequently, this was applied to a very recent case, in 2019, between the United States of America dollar and United Kingdom pound, making it more attractive to assess the behaviour of the density, specially linked to the withdrawal of United Kingdom from the European Union.
info:eu-repo/semantics/publishedVersion
16

Germain, Stéphane. "Déconvolution non paramétrique d'une densité de probabilité et de ses dérivées." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp01/MQ38093.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Fall, Abdoulaye. "Contribution à l'étude du micromélange en écoulement turbulent au voisinage de sources pariétale et ponctuelle. Application au cas réactif." Rouen, 1997. http://www.theses.fr/1997ROUES037.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail effectué a été principalement consacré au problème de la modélisation du taux moyen de dissipation des fluctuations d'un scalaire, grandeur représentative du phénomène de micromélange. Après une analyse de différentes approches et modélisations permettant d'accéder à la dissipation des fluctuations d'un scalaire, une étude de modèles dans des configurations de source pariétale étendue et de source ponctuelle en milieu non-homogène a été entreprise. Par ailleurs, un nouveau modèle de dissipation des fluctuations d'un scalaire, tiré d'une équation de type Karman-Howarth, a été proposé. Ce modèle nous a permis d'interpréter des expériences de décroissance des fluctuations d'un scalaire en turbulence homogène et isotrope. La simulation d'un panache réactif à partir d'une source ponctuelle en couche limite turbulente, grâce à l'approche par P. D. F. Jointe des concentrations, prouve qu'il est indispensable que, dans les modèles, le temps de micromélange varie avec la distance à la source.
18

Goffard, Pierre-Olivier. "Approximations polynomiales de densités de probabilité et applications en assurance." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4026/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse a pour objet d'étude les méthodes numériques d'approximation de la densité de probabilité associée à des variables aléatoires admettant des distributions composées. Ces variables aléatoires sont couramment utilisées en actuariat pour modéliser le risque supporté par un portefeuille de contrats. En théorie de la ruine, la probabilité de ruine ultime dans le modèle de Poisson composé est égale à la fonction de survie d'une distribution géométrique composée. La méthode numérique proposée consiste en une projection orthogonale de la densité sur une base de polynômes orthogonaux. Ces polynômes sont orthogonaux par rapport à une mesure de probabilité de référence appartenant aux Familles Exponentielles Naturelles Quadratiques. La méthode d'approximation polynomiale est comparée à d'autres méthodes d'approximation de la densité basées sur les moments et la transformée de Laplace de la distribution. L'extension de la méthode en dimension supérieure à $1$ est présentée, ainsi que l'obtention d'un estimateur de la densité à partir de la formule d'approximation. Cette thèse comprend aussi la description d'une méthode d'agrégation adaptée aux portefeuilles de contrats d'assurance vie de type épargne individuelle. La procédure d'agrégation conduit à la construction de model points pour permettre l'évaluation des provisions best estimate dans des temps raisonnables et conformément à la directive européenne Solvabilité II
This PhD thesis studies numerical methods to approximate the probability density function of random variables governed by compound distributions. These random variables are useful in actuarial science to model the risk of a portfolio of contracts. In ruin theory, the probability of ultimate ruin within the compound Poisson ruin model is the survival function of a geometric compound distribution. The proposed method consists in a projection of the probability density function onto an orthogonal polynomial system. These polynomials are orthogonal with respect to a probability measure that belongs to Natural Exponential Families with Quadratic Variance Function. The polynomiam approximation is compared to other numerical methods that recover the probability density function from the knowledge of the moments or the Laplace transform of the distribution. The polynomial method is then extended in a multidimensional setting, along with the probability density estimator derived from the approximation formula. An aggregation procedure adapted to life insurance portfolios is also described. The method aims at building a portfolio of model points in order to compute the best estimate liabilities in a timely manner and in a way that is compliant with the European directive Solvency II
19

Louloudi, Sofia. "Transported probability density function : modelling of turbulent jet flames." Thesis, Imperial College London, 2003. http://hdl.handle.net/10044/1/8007.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Sardo, Lucia. "Model selection in probability density estimation using Gaussian mixtures." Thesis, University of Surrey, 1997. http://epubs.surrey.ac.uk/842833/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This thesis proposes Gaussian Mixtures as a flexible semiparametric tool for density estimation and addresses the problem of model selection for this class of density estimators. First, a brief introduction to various techniques for model selection proposed in literature is given. The most commonly used techniques are cross validation nad methods based on data reuse and they all are either computationally very intensive or extremely demanding in terms of training set size. Another class of methods known as information criteria allows model selection at a much lower computational cost and for any sample size. The main objective of this study is to develop a technique for model selection that is not too computationally demanding, while capable of delivering an acceptable performance on a range of problems of various dimensionality. Another important issue addressed is the effect of the sample size. Large data sets are often difficult and costly to obtain, hence keeping the sample size within reasonable limits is also very important. Nevertheless sample size is central to the problem of density estimation and one cannot expect good results with extremely limited samples. Information Criteria are the most suitable candidates for a model selection procedure fulfilling these requirements. The well-known criterion Schwarz's Bayesian Information Criterion (BIC) has been analysed and its deficiencies when used with data of large dimensionality data are noted. A modification that improves on BIC criterion is proposed and named Maximum Penalised Likelihood (MPL) criterion. This criterion has the advantage that it can adapted to the data and its satisfactory performance is demonstrated experimentally. Unfortunately all information criteria, including the proposed MPL, suffer from a major drawback: a strong assumption of simplicity of the density to be estimated. This can lead to badly underfitted estimates, especially for small sample size problems. As a solution to such deficiencies, a procedure for validating the different models, based on an assessment of the model predictive performance, is proposed. The optimality criterion for model selection can be formulated as follow; if a model is able to predict the observed data frequencies within the statistical error, it is an acceptable model, otherwise it is rejected. An attractive feature of such a measure of goodness is the fact that it is an absolute measure, rather than a relative one, which would only provide a ranking between candidated models.
21

Clark, Daniel Edward. "Multiple target tracking with the probability hypothesis density filter." Thesis, Heriot-Watt University, 2006. http://hdl.handle.net/10399/161.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Aguirre-Saldivar, Rina Guadalupe. "Two scalar probability density function models for turbulent flames." Thesis, Imperial College London, 1987. http://hdl.handle.net/10044/1/38213.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Joshi, Niranjan Bhaskar. "Non-parametric probability density function estimation for medical images." Thesis, University of Oxford, 2008. http://ora.ox.ac.uk/objects/uuid:ebc6af07-770b-4fee-9dc9-5ebbe452a0c1.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The estimation of probability density functions (PDF) of intensity values plays an important role in medical image analysis. Non-parametric PDF estimation methods have the advantage of generality in their application. The two most popular estimators in image analysis methods to perform the non-parametric PDF estimation task are the histogram and the kernel density estimator. But these popular estimators crucially need to be ‘tuned’ by setting a number of parameters and may be either computationally inefficient or need a large amount of training data. In this thesis, we critically analyse and further develop a recently proposed non-parametric PDF estimation method for signals, called the NP windows method. We propose three new algorithms to compute PDF estimates using the NP windows method. One of these algorithms, called the log-basis algorithm, provides an easier and faster way to compute the NP windows estimate, and allows us to compare the NP windows method with the two existing popular estimators. Results show that the NP windows method is fast and can estimate PDFs with a significantly smaller amount of training data. Moreover, it does not require any additional parameter settings. To demonstrate utility of the NP windows method in image analysis we consider its application to image segmentation. To do this, we first describe the distribution of intensity values in the image with a mixture of non-parametric distributions. We estimate these distributions using the NP windows method. We then use this novel mixture model to evolve curves with the well-known level set framework for image segmentation. We also take into account the partial volume effect that assumes importance in medical image analysis methods. In the final part of the thesis, we apply our non-parametric mixture model (NPMM) based level set segmentation framework to segment colorectal MR images. The segmentation of colorectal MR images is made challenging due to sparsity and ambiguity of features, presence of various artifacts, and complex anatomy of the region. We propose to use the monogenic signal (local energy, phase, and orientation) to overcome the first difficulty, and the NPMM to overcome the remaining two. Results are improved substantially on those that have been reported previously. We also present various ways to visualise clinically useful information obtained with our segmentations in a 3-dimensional manner.
24

Nilsson, Viktor. "Prediction of Dose Probability Distributions Using Mixture Density Networks." Thesis, KTH, Matematisk statistik, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-273610.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
In recent years, machine learning has become utilized in external radiation therapy treatment planning. This involves automatic generation of treatment plans based on CT-scans and other spatial information such as the location of tumors and organs. The utility lies in relieving clinical staff from the labor of manually or semi-manually creating such plans. Rather than predicting a deterministic plan, there is great value in modeling it stochastically, i.e. predicting a probability distribution of dose from CT-scans and delineated biological structures. The stochasticity inherent in the RT treatment problem stems from the fact that a range of different plans can be adequate for a patient. The particular distribution can be thought of as the prevalence in preferences among clinicians. Having more information about the range of possible plans represented in one model entails that there is more flexibility in forming a final plan. Additionally, the model will be able to reflect the potentially conflicting clinical trade-offs; these will occur as multimodal distributions of dose in areas where there is a high variance. At RaySearch, the current method for doing this uses probabilistic random forests, an augmentation of the classical random forest algorithm. A current direction of research is learning the probability distribution using deep learning. A novel parametric approach to this is letting a suitable deep neural network approximate the parameters of a Gaussian mixture model in each volume element. Such a neural network is known as a mixture density network. This thesis establishes theoretical results of artificial neural networks, mainly the universal approximation theorem, applied to the activation functions used in the thesis. It will then proceed to investigate the power of deep learning in predicting dose distributions, both deterministically and stochastically. The primary objective is to investigate the feasibility of mixture density networks for stochastic prediction. The research question is the following. U-nets and Mixture Density Networks will be combined to predict stochastic doses. Does there exist such a network, powerful enough to detect and model bimodality? The experiments and investigations performed in this thesis demonstrate that there is indeed such a network.
Under de senaste åren har maskininlärning börjat nyttjas i extern strålbehandlingsplanering. Detta involverar automatisk generering av behandlingsplaner baserade på datortomografibilder och annan rumslig information, såsom placering av tumörer och organ. Nyttan ligger i att avlasta klinisk personal från arbetet med manuellt eller halvmanuellt skapa sådana planer. I stället för att predicera en deterministisk plan finns det stort värde att modellera den stokastiskt, det vill säga predicera en sannolikhetsfördelning av dos utifrån datortomografibilder och konturerade biologiska strukturer. Stokasticiteten som förekommer i strålterapibehandlingsproblemet beror på att en rad olika planer kan vara adekvata för en patient. Den särskilda fördelningen kan betraktas som förekomsten av preferenser bland klinisk personal. Att ha mer information om utbudet av möjliga planer representerat i en modell innebär att det finns mer flexibilitet i utformningen av en slutlig plan. Dessutom kommer modellen att kunna återspegla de potentiellt motstridiga kliniska avvägningarna; dessa kommer påträffas som multimodala fördelningar av dosen i områden där det finns en hög varians. På RaySearch används en probabilistisk random forest för att skapa dessa fördelningar, denna metod är en utökning av den klassiska random forest-algoritmen. En aktuell forskningsriktning är att generera in sannolikhetsfördelningen med hjälp av djupinlärning. Ett oprövat parametriskt tillvägagångssätt för detta är att låta ett lämpligt djupt neuralt nätverk approximera parametrarna för en Gaussisk mixturmodell i varje volymelement. Ett sådant neuralt nätverk är känt som ett mixturdensitetsnätverk. Den här uppsatsen fastställer teoretiska resultat för artificiella neurala nätverk, främst det universella approximationsteoremet, tillämpat på de aktiveringsfunktioner som används i uppsatsen. Den fortsätter sedan att utforska styrkan av djupinlärning i att predicera dosfördelningar, både deterministiskt och stokastiskt. Det primära målet är att undersöka lämpligheten av mixturdensitetsnätverk för stokastisk prediktion. Forskningsfrågan är följande. U-nets och mixturdensitetsnätverk kommer att kombineras för att predicera stokastiska doser. Finns det ett sådant nätverk som är tillräckligt kraftfullt för att upptäcka och modellera bimodalitet? Experimenten och undersökningarna som utförts i denna uppsats visar att det faktiskt finns ett sådant nätverk.
25

Abdous, Belkacem. "Étude d'une classe d'estimateurs à noyau de la densité d'une loi de probabilité." Doctoral thesis, Université Laval, 1989. http://hdl.handle.net/20.500.11794/33251.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce travail nous donnons un aperçu des plus intéressantes approches visant à déterminer la fenêtre optimale en estimation de la densité d’une loi de probabilité par la méthode du noyau. Nous construisons ensuite une classe d’estimateurs à noyau de la densité pour lesquels nous avons établi des conditions suffisantes de convergence uniforme presque sûre et L¹ presque sûre vers la densité à estimer f [f incliné vers la droite]. Cette classe d’estimateurs à noyau étant assez générale, elle nous a permis d’appliquer ces résultats de convergence à des estimateurs à noyau classiques comme ceux de Deheuvels (1977-a), Shanmugam (1977), Bierens (1983), et Devroye et Wagner (1983). Elle nous a permis également, de construire une famille d’estimateurs à noyau de moyenne μn et de matrice de variance-covariance Vn, où fin est un estimateur non spécifié de la moyenne de / et Vn, à une constante multiplicative près, la matrice de variance-covariance empirique. Enfin, en simulant quelques modèles univariés connus, nous avons comparé les performances de l’estimateur à noyau de Parzen-Rosenblatt avec celles de l’estimateur à noyau de variance la variance empirique et de moyenne /xn, où a été choisi comme étant la moyenne empirique X n ou bien la médiane X n ou bien la moyenne empirique a-tronquée (a = 0.1) ou bien l’estimateur de Gastwirth (1966).
Québec Université Laval, Bibliothèque 2018
26

Buchman, Susan. "High-Dimensional Adaptive Basis Density Estimation." Research Showcase @ CMU, 2011. http://repository.cmu.edu/dissertations/169.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
In the realm of high-dimensional statistics, regression and classification have received much attention, while density estimation has lagged behind. Yet there are compelling scientific questions which can only be addressed via density estimation using high-dimensional data, such as the paths of North Atlantic tropical cyclones. If we cast each track as a single high-dimensional data point, density estimation allows us to answer such questions via integration or Monte Carlo methods. In this dissertation, I present three new methods for estimating densities and intensities for high-dimensional data, all of which rely on a technique called diffusion maps. This technique constructs a mapping for high-dimensional, complex data into a low-dimensional space, providing a new basis that can be used in conjunction with traditional density estimation methods. Furthermore, I propose a reordering of importance sampling in the high-dimensional setting. Traditional importance sampling estimates high-dimensional integrals with the aid of an instrumental distribution chosen specifically to minimize the variance of the estimator. In many applications, the integral of interest is with respect to an estimated density. I argue that in the high-dimensional realm, performance can be improved by reversing the procedure: instead of estimating a density and then selecting an appropriate instrumental distribution, begin with the instrumental distribution and estimate the density with respect to it directly. The variance reduction follows from the improved density estimate. Lastly, I present some initial results in using climatic predictors such as sea surface temperature as spatial covariates in point process estimation.
27

Becvar, Martin. "Estimating typical sediment concentration probability density functions for European rivers." Thesis, Cranfield University, 2005. http://hdl.handle.net/1826/1016.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Sediment in rivers is linked with qualitative and quantitative water problems throughout Europe. Sediment supply and transfer are part of a natural process of minimising gradients in the landscape. However, since human activities have started to affect the equilibrium, sediment supply is often out of balance with the river system. Cases of either low or high concentration often mean an instability which may cause severe problems. Therefore it is highly important to gain knowledge about sediment patterns in catchments as a part of catchment management. This study was undertaken in order to improve sediment modelling in the GREAT-ER point source pollution river modelling package which currently uses suspended sediment concentration of 15 mg.l-1 for all rivers in Europe, which is an obvious oversimplification. There are three aims for this thesis; one to investigate the range of suspended sediment yields from major European catchments (44 catchments investigated), two the verification of sediment delivery equations and three to develop a methodology to predict suspended sediment concentration from sediment yield in these rivers. Coarse sediment and bed load are not investigated in this study. Monitored river sediment concentration data were analysed and compared to sediment yields obtained using the well established sediment delivery ratio (SDR) approach. Several SDR equations were tested. Equations where the area of the catchment was used as the sole variable provide the best results. In addition, sediment yields were estimated based on the recent PESERA soil erosion map for Europe. Annual sediment yields were finally predicted using three relationships between observed yields and catchment characteristics. A method to predict sediment concentration at different flow exceedance rates was successfully developed and provides satisfactory results. The basic principle of the method is redistribution of annual sediment yield into annual water volume using flow characteristics at the point of interest. Further investigations with an emphasis on sediment data and refining the methodology were suggested in order to improve concentration modelling.
28

Hulek, Tomas. "Modelling of turbulent combustion using transported probability density function methods." Thesis, Imperial College London, 1996. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.339223.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Li, Tiancheng. "Efficient particle implementation of Bayesian and probability hypothesis density filtering." Thesis, London South Bank University, 2013. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.631738.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Using a set of samples that are associated with weights (namely the particle method) to represent the distribution of interest for filtering under very general hypotheses (often referred to as the sequential Monte Carlo, SMC approaches or particle filters) has gained high attention in the last two decades. However, the particle method suffers from problems such as sample depletion, huge computational time and challenges raised in multi-target tracking (MTT). Aiming to address these problems and challenges, this thesis investigates efficient particle filtering from two perspectives that deal with different number of objects of interest: single-object and multi-object. On one side, novel resampling schemes, fast implementations of particle filters are developed under the Bayesian framework. On the other side, improved particle implementations of the probability hypothesis density (PHD) filter, namely the particle PHD filters are presented to deal with MTT. Resampling is a critical step in the implementation of particle filters that is of practical and theoretical significance. Firstly, various resampling methods and new developments are compared and classified into different categories, providing a comprehensive overview of resampling methods. General discussions about statistical effects of resampling are given with emphasis on robustness and identical distribution testing. New deterministic, adaptive and fast resampling schemes are put forward separately. Further, to increase the computing speed of the particle filter, a fast likelihood computing method based on numerical fitting is proposed, where the likelihood of particles is numerically fitted by the likelihood probability density function (Li-PDF) instead of directly computing it based on measurements. This is the first attempt that applies numerical fitting to enable real-time particle filtering.
30

Rahikainen, I. (Ilkka). "Direct methodology for estimating the risk neutral probability density function." Master's thesis, University of Oulu, 2014. http://urn.fi/URN:NBN:fi:oulu-201404241289.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The target of the study is to find out if the direct methodology could provide same information about the parameters of the risk neutral probability density function (RND) than the reference RND methodologies. The direct methodology is based on for defining the parameters of the RND from underlying asset by using futures contracts and only few at-the-money (ATM) and/or close at-the-money (ATM) options on asset. Of course for enabling the analysis of the feasibility of the direct methodology the reference RNDs must be estimated from the option data. Finally the results of estimating the parameters by the direct methodology are compared to the results of estimating the parameters by the selected reference methodologies for understanding if the direct methodology can be used for understanding the key parameters of the RND. The study is based on S&P 500 index option data from year 2008 for estimating the reference RNDs and for defining the reference moments from the reference RNDs. The S&P 500 futures contract data is necessary for finding the expectation value estimation for the direct methodology. Only few ATM and/or close ATM options from the S&P 500 index option data are necessary for getting the standard deviation estimation for the direct methodology. Both parametric and non-parametric methods were implemented for defining reference RNDs. The reference RND estimation results are presented so that the reference RND estimation methodologies can be compared to each other. The moments of the reference RNDs were calculated from the RND estimation results so that the moments of the direct methodology can be compared to the moments of the reference methodologies. The futures contracts are used in the direct methodology for getting the expectation value estimation of the RND. Only few ATM and/or close ATM options are used in the direct methodology for getting the standard deviation estimation of the RND. The implied volatility is calculated from option prices using ATM and/or close ATM options only. Based on implied volatility the standard deviation can be calculated directly using time scaling equations. Skewness and kurtosis can be calculated from the estimated expectation value and the estimated standard deviation by using the assumption of the lognormal distribution. Based on the results the direct methodology is acceptable for getting the expectation value estimation using the futures contract value directly instead of the expectation value, which is calculated from the RND of full option data, if and only if the time to maturity is relative short. The standard deviation estimation can be calculated from few ATM and/or at close ATM options instead of calculating the RND from full option data only if the time to maturity is relative short. Skewness and kurtosis were calculated from the expectation value estimation and the standard deviation estimation by using the assumption of the lognormal distribution. Skewness and kurtosis could not be estimated by using the assumption of the lognormal distribution because the lognormal distribution is not correct generic assumption for the RND distributions.
31

Elmo, Marc. "Etude du mélange en turbulence isotrope par fonctions densité de probabilité et interprétation géométrique." Ecully, Ecole centrale de Lyon, 2000. http://www.theses.fr/2000ECDL0024.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le mélange turbulent joue un rôle important dans de nombreuses applications pratiques telles que la dispersion d'un polluant, la chimie et la combustion. La description des processus réactifs en milieu turbulent par les fonctions densité de probabilité (p. D. F. ) présente un intérêt majeur du fait qu'elle autorise une prise en compte fermée des termes de réaction. Le problème de fermeture est alors lié à la présence d'un terme de mélange qui apparaît sous la forme d'une dissipation conditionnelle. Cette quantité doit être modélisée avant toute utilisation pratique de l'équation régissant l'évolution de la p. D. F. L'objectif de cette thèse est d'analyser les mécanismes du mélange turbulent d'un scalaire passif non réactif dans le cas "simple" d'une turbulence isotrope. L'étude est conduite par des simulations numériques directes (D. N. S. ) et des simulations des grandes échelles (S. G. E. Ou L. E. S. ). Une technique originale d'injection de fluctuations de scalaire a été développée. Cette technique permet de considérer des situations statistiquement stationnaires dans lesquelles le mélange reste néanmoins partiel. Elle offre de plus une possibilité de contrôle sur l'échelle de longueur intégrale du champ scalaire. Une grande partie de l'étude est consacrée à l'analyse du comportement de la p. D. F. Du scalaire et de la dissipation conditionnelle dans des situations de mélange obtenues par cette technique d'injection. Une analyse spectrale, indispensable à la connaissance des échelles en présence est aussi conduite en complément de l'étude probabiliste. Une interprétation géométrique des mécanismes de mélange est réalisée en analysant le comportement de surfaces iso-scalaire. Dans un premier temps, l'influence respective du taux d'injection et du rapport des échelles intégrales de longueur du champ scalaire et du champ de vitesse, sont étudiées. Des conclusions concernant l'influence du nombre de Reynolds et du nombre de Schmidt sur le mélange ont également pu être obtenues. L'aspect de la modélisation de sous maille propre aux simulations L. E. S. Est abordé dans la dernière partie de cette thèse. En particulier, la prise en compte de la contribution des petites échelles du scalaire à sa statistique complète est étudiée
Understanding of turbulent mixing is of large interest for the description of many practical problems such as dispersion of a passive scalar or turbulent reactive flows. The probabilistic description of a scalar mixed in a turbulent flow is well suited to account for a chemical reaction. Indeed the probability density function (p. D. F. ) approach allows to account for a chemical reaction term in a closed form. Unfortunately the equation governing the p. D. F. Remains unclosed since the effect of turbulent mixing appears through the conditional scalar dissipation which is unknown and needs to be modelled. The aim of this study is to investigate the behavior of a passive scalar in isotropic turbulence. Direct Numerical Simulations (D. N. S. ) and Large Eddy Simulations (L. E. S. ) are performed. A new technique of injection of scalar fluctuations is developed. This method of injection allows to obtain statistically stationary states associated with different levels of mixing. Moreover this technique gives the control of the integral scalar length scale. The situations of mixing obtained with this forcing technique are essentially analyzed in terms of p. D. F. And conditional scalar dissipation which are the key quantifies of this study. Analysis of the spectra indicates the role played by the different scales involved in the mixing process. A geometrical interpretation of the mechanisms of mixing is proposed by an investigation of the behavior of iso-scalar surfaces. The influence of the rate of injection and of the ratio of the integral length scale of the scalar and of the integral length scale of the velocity is studied. Some conclusions have also been reached about the influence of the Reynolds number and of the Schmidt number. The last part of the study is devoted to the subgrid modeling. The issue of the contribution of the small scales to the statistics of the scalar has been investigated
32

Reveillon, Julien. "Simulation dynamique des grandes structures appliquée aux flammes turbulentes non-prémélangées." Rouen, 1996. http://www.theses.fr/1996ROUES071.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse a été consacré à la simulation des grandes structures appliquée aux flammes turbulentes non-prémélangées. Après une étude bibliographique générale, le choix d'un modèle de sous-maille dynamique dont les paramètres s'ajustent automatiquement aux contraintes locales de l'écoulement a été effectue. La méthode de détermination des coefficients dynamiques a fait l'objet d'une attention particulière une formulation statistique, introduisant l'approche fonction densité de probabilité de sous-maille (SGPDF) a été proposée pour la modélisation de la combustion. Dans un premier temps, les SGPDF ont été présumées de manière analytique, ensuite, l'équation de transport des SGPDF a été formulée. Un modèle dynamique pour le terme de mélange aux petites échelles a été propose et testé. Les résultats sont très encourageants et, par ailleurs, ce modèle de mélange permet aussi de déterminer le temps de mélange turbulent de l'espèce chimique considérée. Ce temps étant en général le point clef de tout modèle de combustion.
33

Couto-Barba, Laurent. "Contribution à la simulation du mélange turbulent par la schématisation de fonctions densité de probabilité." Pau, 2005. http://www.theses.fr/2005PAUU3014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif est de proposer un modèle schématisant le mélange en fonction des échelles de longueur et de temps caractéristiques de la turbulence en se limitant au cas de la turbulence homogène et isotrope. Le modèle introduit la notion de particule fluide élémentaire et ses différents voisinages (immédiat, proche et lointain). Pour chaque niveau de voisinage, un modèle spécifique de mélange existant dans la littérature est appliqué. L'approche prend en compte, des petites aux grandes échelles, la diffusion moléculaire (loi de Fick), le mélange interne aux particules fluides (modèle de Kerstein, 1988), le mélange externe aux particules fluides (inspiré du modèle LMSE de Dopazo 1974, ou du modèle C/R de Curl, 1963) et le macromélange (calcul des déplacements lagrangiens). Une horloge interne exécute de manière séquentielle les différents modèles en les appliquant instantanément à des intervalles de temps définis. Deux configurations ont été étudiées. La première est le cas académique du mélange d'un scalaire inerte réparti initialement de manière bimodale. Les évolutions temporelles des fonctions densité de probabilité (PDF), de la variance et des coefficients de symétrie et d'aplatissement ont été comparées à celles issues des simulations numériques directes de Eswaran & Pope (1988). Une étude paramétrique sur la synchronisation et la prépondérance des phénomènes modélisés a été effectuée. La deuxième configuration est celle de couches de mélange thermique issues d'un ou de deux fils chauds introduits dans un écoulement de turbulence de grille à vitesse moyenne uniforme. Nos résultats numériques sont en accord qualitatif avec les résultats expérimentaux de Warhaf (1984)
This thesis considers a method which simplifies the mixing at different levels, depending on turbulence length and time scales. The analysis is here restricted to the case of homogeneous and isotropic turbulent flows. The model is based on elementary fluid particles considered in their different levels of neighborhoods. For each vicinity level, a specific mixing model is applied. The approach takes into account - from small to high length scales - laminar diffusion (Fick diffusion process), internal mixing into fluid particle (Kerstein model, 1988), external mixing between fluid particles contained into a same eulerian volume (inspired from the LMSE model developpef by Dopazo, 1974, or from the Curl model,1963) and turbulent dispersion (where lagrangian moves are computed). An internal clock organizes the sequence of applications of the different models. Each one is applied instantaneously at different periodic times. Two different cases have been studied. The first case is the time evolution of mixing between two components initially introduced in two different areas. The numerical results have been compared to those of Direct Numerical Simulations by Eswaran & Pope (1988). The time evolution of Probability Density Functions, and the evolutions of variance, symetry coefficient and flatness coefficient have been compared. A parametrical study of the parameter governing the sequence of application of the different models has been performed. The second case considers thermal mixing layers emitted from one or two hot films placed inside a grid turbulence with uniform mean flow. Numerical results are in qualitative agreement with the experimental results by Warhaft (1984)
34

Thauvoye, Christophe. "Simulation numérique d'écoulements turbulents réactifs par une méthode hybride à fonction densité de probabilité transportée." Poitiers, 2005. http://www.theses.fr/2005POIT2276.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail s'inscrit dans le cadre des études sur la simulation numérique des écoulements turbulents réactifs. Il a pour objet l'étude d'une méthode hybride basée sur l'utilisation conjointe d'une méthode lagrangienne à Fonction Densité de Probabilité (PDF) transportée et d'une méthode eulérienne de résolution des équations moyennées (RANS). La première partie est consacrée à la description des méthodes RANS et de l'approche à PDF transportée. Cette dernière est particulièrement détaillée : cela permet de mettre en avant les avantages et les inconvénients de cette approche. Dans ce contexte, on insiste sur les aspects liés à la modélisation et à la résolution de l'équation de transport de la PDF. Sa résolution s'appuie couramment sur des simulations numériques de type Monte-Carlo. On montre également comment la nature statistique des méthodes de Monte-Carlo induit des difficultés numériques qui ont conduit à l'élaboration de méthodes hybrides associant méthode RANS et approche à PDF transportée. Dans la seconde partie de cette étude, les aspects théoriques et numériques des méthodes hybrides sont alors détaillés en particulier le modèle PEUL+ développé à l'ONERA. Une nouvelle procédure de couplage de type instationnaire est proposée. Elle améliore la stabilité et la précision du modèle par rapport à la procédure de couplage stationnaire. Elle est ensuite testée et validée sur deux configurations : tout d'abord sur une flamme non prémélangée méthane-air stabilisée par une flamme pilote puis sur une flamme de prémélange dans un élargissement brusque symétrique
This work concerns the field of numerical simulation of turbulent reactive flows. The aim of this work is to study a hybrid method based on the use of a lagrangian transported Probability Density Function (PDF) method coupled with a eulerian method which solves the Reynolds Averaged Navier-Stokes equations (R. A. N. S). The first part is devoted to the description of the RANS and the transported PDF methods. The latter is more precisely detailed : it allows to highlight both advantages and drawbacks of the two approaches. In this context, we will develop all the aspects related to the modelling and resolution of the transported joint PDF equation. Its resolution generally uses a Monte-Carlo numerical simulation. We also show how the statistical nature of Monte-Carlo methods induces numerical difficulties, which led to the development of hybrid methods associating RANS method with a transported PDF approach. In the second part of this study, theoretical and numerical aspects of the hybrid methods are detailed, and more precisely the PEUL+ model developed at ONERA. A new – instationary – way of coupling is proposed. It improves the stability and precision of the model in comparison with the stationary way of coupling. It is then tested and validated on two configurations : a methane-air nonpremixed flame stabilised by a piloted flame ; and a premixed flame in a sudden symmetric plane expansion
35

Lee, Chee Sing. "Simultaneous localization and mapping using single cluster probability hypothesis density filters." Doctoral thesis, Universitat de Girona, 2015. http://hdl.handle.net/10803/323637.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The majority of research in feature-based SLAM builds on the legacy of foundational work using the EKF, a single-object estimation technique. Because feature-based SLAM is an inherently multi-object problem, this has led to a number of suboptimalities in popular solutions. We develop an algorithm using the SC-PHD filter, a multi-object estimator modeled on cluster processes. This algorithm hosts capabilities not typically seen with feature-base SLAM solutions such as principled handling of clutter measurements and missed detections, and navigation with a mixture of stationary and moving landmarks. We present experiments with the SC-PHD SLAM algorithm on both synthetic and real datasets using an autonomous underwater vehicle. We compare our method to the RB-PHD SLAM, showing that it requires fewer approximations in its derivation and thus achieves superior performance.
En aquesta tesis es desenvolupa aquest algoritme a partir d’un filtre PHD amb un únic grup (SC-PHD), una tècnica d’estimació multi-objecte basat en processos d’agrupació. Aquest algoritme té unes capacitats que normalment no es veuen en els algoritmes de SLAM basats en característiques, ja que és capaç de tractar falses característiques, així com característiques no detectades pels sensors del vehicle, a més de navegar en un entorn amb la presència de característiques estàtiques i característiques en moviment de forma simultània. Es presenten els resultats experimentals de l’algoritme SC-PHD en entorns reals i simulats utilitzant un vehicle autònom submarí. Els resultats són comparats amb l’algoritme de SLAM Rao-Blackwellized PHD (RB-PHD), demostrant que es requereixen menys aproximacions en la seva derivació i en conseqüència s’obté un rendiment superior.
36

Kakhi, M. "The transported probability density function approach for predicting turbulent combusting flows." Thesis, Imperial College London, 1994. http://hdl.handle.net/10044/1/8729.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Sadeghi, Mohammad T. "Automatic architecture selection for probability density function estimation in computer vision." Thesis, University of Surrey, 2002. http://epubs.surrey.ac.uk/843248/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
In this thesis, the problem of probability density function estimation using finite mixture models is considered. Gaussian mixture modelling is used to provide a semi-parametric density estimate for a given data set. The fundamental problem with this approach is that the number of mixtures required to adequately describe the data is not known in advance. In this work, a predictive validation technique [91] is studied and developed as a useful, operational tool that automatically selects the number of components for Gaussian mixture models. The predictive validation test approves a candidate model if, for the set of events they try to predict, the predicted frequencies derived from the model match the empirical ones derived from the data set. A model selection algorithm, based on the validation test, is developed which prevents both problems of over-fitting and under-fitting. We investigate the influence of the various parameters in the model selection method in order to develop it into a robust operational tool. The capability of the proposed method in real world applications is examined on the problem of face image segmentation for automatic initialisation of lip tracking systems. A segmentation approach is proposed which is based on Gaussian mixture modelling of the pixels RGB values using the predictive validation technique. The lip region segmentation is based on the estimated model. First a grouping of the model components is performed using a novel approach. The resulting groups are then the basis of a Bayesian decision making system which labels the pixels in the mouth area as lip or non-lip. The experimental results demonstrate the superiority of the method over the conventional clustering approaches. In order to improve the method computationally an image sampling technique is applied which is based on Sobol sequences. Also, the image modelling process is strengthened by incorporating spatial contextual information using two different methods, a Neigh-bourhood Expectation Maximisation technique and a spatial clustering method based on a Gibbs/Markov random field modelling approach. Both methods are developed within the proposed modelling framework. The results obtained on the lip segmentation application suggest that spatial context is beneficial.
38

Santos, André Duarte dos. "Implied probability density functions: Estimation using hypergeometric, spline and lognormal functions." Master's thesis, Instituto Superior de Economia e Gestão, 2011. http://hdl.handle.net/10400.5/3372.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Master of Science in Finance
This thesis examines the stability and accuracy of three different methods to estimate Risk-Neutral Density functions (RNDs) using European options. These methods are the Double-Lognormal Function (DLN), the Smoothed Implied Volatility Smile (SML) and the Density Functional Based on Confluent Hypergeometric function (DFCH). These methodologies were used to obtain the RNDs from the option prices with the underlying USDBRL (price of US dollars in terms of Brazilian reals) for different maturities (1, 3 and 6 months), and then tested in order to analyze which method best fits a simulated "true" world as estimated through the Heston model (accuracy measure) and which model has a better performance in terms of stability. We observed that in the majority of the cases the SML outperformed the DLN and DFCH in capturing the "true" implied skewness. The DFCH and DLN methods were better than the SML model at estimating the "true" Kurtosis. However, due to the higher sensitivity of the skewness and kurtosis measures to the tails of the distribution (all the information outside the available strike prices is extrapolated and the probability masses outside this range can have ininite forms) we also compared the tested models using the root mean integrated squared error (RMISE) which is less sensitive to the tails of the distribution. We observed that using the RMISE criteria, the DFCH outperformed the other methods as a better estimator of the "true" RND. Besides testing which model best captured the "true" world's expectations, we an¬alyzed the historical summary statistics of the RNDs obtained from the FX options on the USDBRL for the period between June 2006 (before the start of the subprime crisis) and February 2010 (seven months before the Brazilian general election).
39

Swain, Anthony Jack. "Group and extended target tracking with the Probability Hypothesis Density filter." Thesis, Heriot-Watt University, 2013. http://hdl.handle.net/10399/2839.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Multiple target tracking concerns the estimation of an unknown and time-varying number of objects (targets) as they dynamically evolve over time from a sequence of measurements obtained from sensors at discrete time intervals. In the Bayesian filtering framework the estimation problem incorporates natural phenomena such as false measurements and target birth/death. Though theoretically optimal, the generally intractable Bayesian filter requires suitable approximations. This thesis is particularly motivated by a first-order moment approximation known as the Probability Hypothesis Density (PHD) filter. The emphasis in this thesis is on the further development of the PHD filter for handling more advanced target tracking problems, principally involving multiple group and extended targets. A group target is regarded as a collection of targets that share a common motion or characteristic, while an extended target is regarded as a target that potentially generates multiple measurements. The main contributions are the derivations of the PHD filter for multiple group and extended target tracking problems and their subsequent closed-form solutions. The proposed algorithms are applied in simulated scenarios and their estimate results demonstrate that accurate tracking performance is attainable for certain group/extended target tracking problems. The performance is further analysed with the use of suitable metrics.
40

Weerasinghe, Weerasinghe Mudalige Sujith Rohitha. "Application of Lagrangian probability density function approach to turbulent reacting flows." Thesis, Imperial College London, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.392476.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Hao, Wei-Da. "Waveform Estimation with Jitter Noise by Pseudo Symmetrical Probability Density Function." PDXScholar, 1993. https://pdxscholar.library.pdx.edu/open_access_etds/4587.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
A new method for solving jitter noise in estimating high frequency waveform is proposed. It reduces the bias of the estimation in those points where all the other methods fail to achieve. It provides preliminary models for estimating percentiles in Normal, Exponential probability density function. Based on the model for Normal probability density function, a model for any probability density function is derived. The resulting percentiles, in turn, are used as estimates for the amplitude of the waveform. Simulation results show us with satisfactory accuracy.
42

Nechita, Ion. "États aléatoires, théorie quantique de l'information et probabilités libres." Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00371592.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse se trouve à l'intersection de la théorie des matrices aléatoires, des probabilités libres et de la théorie de l'information quantique. La plus grande partie des travaux présentés se concentrent sur les aspects probabilistes de l'information quantique et, en particulier, sur l'usage des matrices aléatoires dans différents modèles en théorie quantique. Une autre partie de cette thèse est dédiée à la théorie des probabilités libres et à ses liens avec les matrices aléatoires et l'information quantique. En théorie quantique de l'information, il existe différents modèles de matrices densités aléatoires. On s'intéresse, dans l'esprit de la théorie des matrices aléatoires, au comportement asymptotique des matrices densités, dans la limite où la taille du système converge vers l'infini. Le point de vue pris dans cette thèse est celui des systèmes quantiques ouverts, où l'espace qui nous intéresse est couplé avec l'environnement et le système composé se trouve dans un état pur uniforme. En prenant la trace partielle sur l'environnement, on obtient des matrices densités aléatoires que l'on étudie dans deux régimes asymptotiques. En exploitant des liens avec l'ensemble des matrices aléatoires dites de Wishart, on obtient les densités spectrales limites et les fluctuations des valeurs propres extrémales. En collaboration avec Clément Pellegrini, on étudie des interactions répétées entre un système quantique et une chaîne de systèmes auxiliaires. Nous avons introduit des éléments aléatoires dans ce modèle, soit en considérant que les états de la chaîne sont des variables indépendantes et identiquement distribuées, soit en choisissant, à chaque interaction, une matrice unitaire d'interaction aléatoire uniforme. On s'intéresse aux propriétés asymptotiques des matrices, après un grand nombre d'interactions. Au passage, on introduit un nouveau modèle de matrices densités aléatoires que l'on compare avec les modèles existants dans la littérature. Un problème qui occupe une place centrale dans cette thèse est la conjecture de Nielsen sur la catalyse en théorie quantique de l'information. En collaboration avec Guillaume Aubrun, nous avons progressé vers la preuve de cette conjecture et nous l'avons par la suite généralisée dans différentes directions. L'outil principal utilisé dans ces travaux nous vient de la théorie des probabilités : la théorie des grandes déviations nous permet de comparer stochastiquement des puissances de convolution des mesures de probabilités. Les techniques introduites et le lien avec la théorie des grandes déviations nous ont permis de voir ce problème sous un autre angle et de donner aux théoriciens de l'information quantique un outil de travail puissant. Enfin, toujours en lien avec les matrices aléatoires, cette thèse a donné lieu à deux travaux en probabilités libres. Les ensembles de matrices aléatoires sont des exemples importants et simples où l'on peut observer l'indépendance libre; il est donc naturel de se demander s'il est possible d'obtenir la notion de liberté avec des matrices déterministes. Une telle construction a été proposée par Philippe Biane, en utilisant des sommes de transpositions dans l'algèbre du groupe symétrique. Avec Florent Benaych-Georges, on a pu généraliser les résultats de P. Biane à des cycles quelconques. Notre approche est combinatoire ce qui nous a permis d'aboutir à des formules explicites pour les moments et les cumulants libres des variables à la limite. Grâce à cette même approche nous avons élaboré un modèle analogue en probabilités classiques en remplaçant le groupe symétrique par le groupe abélien des parties d'un ensemble fini, muni de l'opération de différence symétrique. En collaboration avec Stéphane Attal, nous avons construit une approximation de l'espace de Fock libre (qui joue un rôle central en théorie des probabilités non-commutatives) par un produit libre dénombrable d'espaces discrets. Cette idée généralise au cas libre une construction similaire pour l'espace de Fock symétrique, introduite et étudié par S. Attal. En même temps nous avons obtenu une approximation des opérateurs fondamentaux de création, d'annihilation et de jauge par des opérateurs construits à partir des matrices de taille 2. En utilisant ces constructions sont ensuite utilisées pour retrouver quelques approximations connues du mouvement brownien libre et du processus de Poisson libre. Tous ces résultats se généralisent au cas des espaces de Fock de multiplicité supérieure, qui permettent d'approcher des processus multidimensionnels. En conclusion, l'ensemble des travaux scientifiques présentés dans cette thèse se situe à l'intersection de trois grandes directions: les matrices aléatoires, les probabilités libres et la théorie quantique de l'information, l'accent étant mis sur les interactions et sur les liens entre ces domaines.
43

Hijazi, Abbas. "Simulations numériques de densités de probabilité de macromolécules en solution sous écoulement laminaire." Le Mans, 2000. http://cyberdoc.univ-lemans.fr/theses/2000/2000LEMA1023.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail porte sur l’étude théorique et par simulation numérique de distributions statistiques (PDF) de macromolécules browniennes modélisées sous forme des bâtons rigides en solution diluée sous écoulement hydrodynamique laminaire à 2D. Nous avons résolu d’une manière générale pour la première fois, l’équation différentielle de Boëder (BED), permettant d’obtenir les distributions PDF d’orientations de bâtons dans le volume loin d’une surface, pour des flux hydrodynamiques et diffusions Browniens arbitraires. Nous avons également développé un modèle avancé de calcul par simulation numérique des PDF d’orientations et de positions, en volume, au voisinage d’une surface solide dans la couche de déplétion, ainsi que dans un canal étroit. Nos résultats obtenus par simulation numérique en volume concordent parfaitement avec nos solutions analytiques de l’équation BED. Le problème du choc entre une macromolécule et une surface solide qui n’est pas traité dans la littérature, a été traité dans la thèse à l’aide de notions de restitution brownienne et hydrodynamique. Un algorithme incorporant deux coefficients paramétrant ces restitutions nous a permis de calculer les PDF d’orientations et de positions de centre de masse des particules. Nous avons montré alors que les PDF de positions dans la couche de déplétion, obéissent au principe d’exclusion de ces bâtons par la surface solide, les résultats sont aussi qualitativement en accord avec des résultats expérimentaux antérieurs. Nous estimons que notre modèle de simulation est le meilleur actuellement pour expliquer le déficit des macromolécules dans la couche de déplétion avec un flux croissant. Utilisant la technique expérimentale de rhéomètre optique, nous avons mis en évidence pour des particules polymères non-browniennes de taille microscopique en solution en écoulement, le comportement à la suite d’un choc avec une surface solide, qualitativement en accord avec nos hypothèses de restitution
This work is a theoretical and numerical simulation study, of the behaviour of the Probability Distribution Functions (PDF) of Brownian rod like macromolecular particles present in dilute solutions under laminar flow in 2D. We solved initially in a very general manner for the first time, the Boëder differential equation (BDE). This perihits one to calculate these PDF as a function of macromolecular orientations in the bulk solution away from surface boundaries, for arbitrary hydrodynamic flux conditions and particle Brownian rotational diffusion. We also developed a model for numerical simulations to obtain the PDF statistics in the regions of the bulk, the depletion layer near solid surface boundaries, and in narrow canals, as a function of the orientations and centre of mass positions of the rod like particles. Our simulation results in the bulk are in excellent agreement with the analytical solutions of the BDE. The problem of collisions between the rod like macromolecules and solid surface boundaries, previously untreated in the literature, is studied in depth in this thesis with the help of the idea of Brownian and hydrodynamic restitution. An algorithm that we developed, incorporating two such restitution parameters, permits one to calculate the PDF statistics under a wide variety of flux conditions and particle Brownian diffusion. The simulated depletion layer PDF obey the particle exclusion principle imposed by the solid surface, they also agree qualitatively with previous experimental results. Our simulation model is seemingly the best available at present to explain the decrease of the macromolecular PDF in the depletion layer with increasing hydrodynamic flux. Using optical experimental techniques we have been able to show for nonBrownian microscopic rod like particles present in flowing dilute solutions, their behaviour when colliding with solid surface boundaries. This is in qualitative agreement with our simulation model
44

Wall, Martinez Hiram Alejandro. "Evaluation probabiliste du risque lié à l'exposition à des aflatoxines et des fumonisines dû à la consommation de tortillas de maïs à la ville de Veracruz." Thesis, Brest, 2016. http://www.theses.fr/2016BRES0068/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un des dangers chimiques les plus importants relevés par l'OMS concerne la contamination des céréales par les mycotoxines et notamment les aflatoxines et les fumonisines. La réglementation recommande des contaminations maximales d'aflatoxines dans les céréales inférieures à 20 mg/kg ; cependant on relève couramment des taux supérieurs à 200 mg/kg dans le maïs au Mexique. Bien qu'il ait été évalué que le processus de nixtamalisation détruit plus de 90 % des fumonisines et de 80 à 95 % des aflatoxines, le taux résiduel peut encore être élevé : certaines publications rapportent des concentrations jusqu'à 100 mg/kg dans les tortillas, ce qui représente un risque avéré vue la grande consommation de tortillas au Mexique (325g/j). Le JECFA (2001) a établi une dose maximale acceptable de 2μg/kg pc/j pour la fumonisine et recommande de réduire l'exposition aux aflatoxines au plus faible niveau possible en considérant que le seuil de 1 ng/kg pc/j ne devrait pas être atteint. Au cours de cette thèse 3 enquêtes aléatoires et représentatives ont été menées dans 40 tortillerias de la ville de Veracruz. La consommation de maïs de la population a été évaluée à partir d'un questionnaire de consommation. L'analyse des mycotoxines a été réalisée par HPLC-FD par utilisation de colonnes à immunoaffinité selon la réglementation européenne (CIRAD-Montpellier). L'analyse des données obtenues a été effectuée selon une méthode probabiliste permettant de construire une fonction de distribution de probabilités à partir de la méthode de Monte Carlo (UBO). La représentativité de la population a été validée à partir d'évaluation de quotas de population après échantillonnage aléatoire initial. La contamination des tortillas a été mesurée à 0.54-1.96 mg/kg pour les aflatoxines et à 65-136 mg/kg pour les fumonisines. La consommation moyenne de tortillas a été mesurée à 148 g de maïs par jour. L'exposition de la population aux aflatoxines apparaît alors comprise entre 0,94 et 3,14 ng/kg pc/j et celle aux fumonisines entre 146 et 315 ng/kg pc/j. Les échantillons les plus contaminés proviennent des tortillerias réalisant elles-mêmes leur procédure de nixtamalisation. L'analyse des résultats montre que 60 % de la population de Veracruz serait à risque selon les préconisations du JECFA. L'exposition aux fumonisines atteint 5 % de la dose maximale acceptable, du fait d'une relativement faible contamination du maïs à cette mycotoxine. Les résultats montrent donc un risque sanitaire pour la population de la ville de Veracruz. Une extension de ce travail à la totalité de l’Etat de Veracruz, incluant la population rurale, devrait être menée du fait du risque probablement accru de cette dernière catégorie de population en lien avec sa plus forte consommation de maïs
One of the chemical hazards that WHO has reported more frequently is cereals contamination with mycotoxins, mainly aflatoxins and fumonisins. NOM-188-SSA1-2002 establishes that aflatoxin concentration in grain should not exceed 20 mg kg-1 ; however, there are reported concentrations > 200 mg kg-1 in maize. Although it has been documented that nixtamalizacion removes more than 90% of fumonisins and between 80 and 95% of aflatoxins, the residual amount could be important, finding reports concentrations higher than 100 mg kg-1 of aflatoxin in tortilla, representing a risk due to the high consumption of tortillas in Mexico (325 g d-1). The JECFA (2001) establishes a maximum intake of 2 mg kg-1 pc d-1 for fumonisin and aflatoxin recommends reducing “as low as reasonably achievable” levels. 3 random and representative sampling in Veracruz city, each in 40 tortillerias, were made. Corn intake and weight of the population were estimated using a consumption questionnaire. Mycotoxins analysis were performed by HPLC-FD using immunoaffinity columns according to European standard UNE-EN ISO 14123 : 2008 for aflatoxins and UNE-EN 13585 : 2002 for fumonisin in the CIRAD (Montpellier, France). Statistical analysis were performed under a probabilistic approach in collaboration with the University of Bretagne Occidentale (Brest, France), building probability density function (PDF) and using the Monte Carlo method. PDF parameters of the weight of the population was 74.15kg for men (which coincides with reported by CANAIVE) and 65.83kg for women ; the pollution aflatoxin tortilla was 0.54 – 1.96mg kg-1 and fumonisin from 65.46 – 136.00mg kg-1 ; the tortilla consumption was 148.3g of corn per person per day ; the daily intake of aflatoxins was 0.94 – 3.14ng kg-1 bw d-1 and fumonisin of 146.24 – 314.99ng kg-1 bw d-1. Samples with higher aflatoxin contamination came from tortillerias that make the nixtamalization in situ. In assessing exposure it was found that up to 60% of the population could be consuming more than the recommended by JECFA (2001) for aflatoxin dose (1ng kg-1 bw d-1). Exposure to fumonisins intake was < 5% due to low contamination by these mycotoxins. The results suggest that the population of the city of Veracruz could be in food risk by eating contaminated corn tortillas AFT. It is advisable to extend this study in rural communities, where risk factors could increase
45

Heinemann, Christian [Verfasser]. "Estimation and regularization of probability density functions in image processing / Christian Heinemann." Aachen : Hochschulbibliothek der Rheinisch-Westfälischen Technischen Hochschule Aachen, 2014. http://d-nb.info/1058851497/34.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Li, Yadong. "Probability density distributions of stock returns, market regimes, and financial risk measures." Thesis, University of Bath, 2018. https://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.767561.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The probability density distribution of stock returns is crucial in financial modelling and the estimation of financial risk measures. Numerous papers have been devoted to finding the best-fit distributional specifications of stock returns but no consensus has been reached in answering the question of whether there is a unique distributional family that fits all markets and market conditions. Similarly, numerous papers have been devoted to modelling tail risk but no consensus has been reached with regard to which methods provide the most accurate and reliable estimates. This research brings these two strands of the literature together by investigating how distributional specifications differ between the bull and bear markets, and between the developed and the emerging stock exchanges. It also contributes to our understanding of how the knowledge of distributional specifications informs the discussion on the best method of the VaR and ES estimation. In its empirical part, this research investigates the probability density distributions of daily equity returns for 19 developed stock exchanges and 19 emerging stock exchanges. It considers the period of 01 January 2000 to 31 December 2016 and then separately for the bull and bear sub-periods. The results show that there are considerable differences in the probability density distributions for the developed and the emerging stock exchanges. Moreover, the probability density distributions of stock market returns change as the markets switch between the bull and the bear market regimes. These changes in the probability density distribution specifications impact on the values of VaR and ES. This research sheds light on the shortcomings of commonly used VaR and ES estimation methods such as Historical Simulation and Extreme Value Theory.
47

Phillips, Kimberly Ann. "Probability Density Function Estimation Applied to Minimum Bit Error Rate Adaptive Filtering." Thesis, Virginia Tech, 1999. http://hdl.handle.net/10919/33280.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
It is known that a matched filter is optimal for a signal corrupted by Gaussian noise. In a wireless environment, the received signal may be corrupted by Gaussian noise and a variety of other channel disturbances: cochannel interference, multiple access interference, large and small-scale fading, etc. Adaptive filtering is the usual approach to mitigating this channel distortion. Existing adaptive filtering techniques usually attempt to minimize the mean square error (MSE) of some aspect of the received signal, with respect to the desired aspect of that signal. Adaptive minimization of MSE does not always guarantee minimization of bit error rate (BER). The main focus of this research involves estimation of the probability density function (PDF) of the received signal; this PDF estimate is used to adaptively determine a solution that minimizes BER. To this end, a new adaptive procedure called the Minimum BER Estimation (MBE) algorithm has been developed. MBE shows improvement over the Least Mean Squares (LMS) algorithm for most simulations involving interference and in some multipath situations. Furthermore, the new algorithm is more robust than LMS to changes in algorithm parameters such as stepsize and window width.
Master of Science
48

Tejeda, Abiezer. "Correcting Errors Due to Species Correlations in the Marginal Probability Density Evolution." DigitalCommons@USU, 2013. https://digitalcommons.usu.edu/etd/1472.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Synthetic biology is an emerging field that integrates and applies engineering design methods to biological systems. Its aim is to make biology an "engineerable" science. Over the years, biologists and engineers alike have abstracted biological systems into functional models that behave similarly to electric circuits, thus the creation of the subfield of genetic circuits. Mathematical models have been devised to simulate the behavior of genetic circuits in silico. Most models can be classified into deterministic and stochastic models. The work in this dissertation is for stochastic models. Although ordinary differential equation (ODE) models are generally amenable to simu- late genetic circuits, they wrongly assume that a system's chemical species vary continuously and deterministically, thus making erroneous predictions when applied to highly stochastic systems. Stochastic methods have been created to take into account the variability, un- predictability, and discrete nature of molecular populations. The most popular stochastic method is the stochastic simulation algorithm (SSA). These methods provide a single path of the overall pool of possible system's behavior. A common practice is to take several inde- pendent SSA simulations and take the average of the aggregate. This approach can perform iv well in low noise systems. However, it produces incorrect results when applied to networks that can take multiple modes or that are highly stochastic. Incremental SSA or iSSA is a set of algorithms that have been created to obtain ag- gregate information from multiple SSA runs. The marginal probability density evolution (MPDE) algorithm is a subset of iSSA which seeks to reveal the most likely "qualitative" behavior of a genetic circuit by providing a marginal probability function or statistical enve- lope for every species in the system, under the appropriate conditions. MPDE assumes that species are statistically independent given the rest of the system. This assumption is satisfied by some systems. However, most of the interesting biological systems, both synthetic and in nature, have correlated species forming conservation laws. Species correlation imposes con- straints in the system that are broken by MPDE. This work seeks to devise a mathematical method and algorithm to correct conservation constraints errors in MPDE. Furthermore, it aims to identify these constraints a priori and efficiently deliver a trustworthy result faithful to the true behavior of the system.
49

Boutin, Guillaume. "Mélange et micro-mélange dans un réacteur à multiples jets cisaillés." Phd thesis, Rouen, 2010. http://www.theses.fr/2010ROUES033.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail vise la description fine du micro-mélange. Pour décrire cette quantité, les réactions chimiques se sont révélées être l’outil le plus ingénieux (Dimotakis, 2005). Pourtant, très peu d’études expérimentales y ont été consacrées. Dans cette étude, nous nous intéressons au cas d’un écoulement dont le motif de base est un jet cisaillé entouré de 4 jets à contre courant pour deux géométries distinctes : une à fort taux de confinement et une seconde pour laquelle le taux de confinement reste faible. Ces deux configurations sont étudiées en faisant varier le nombre de Reynolds des jets. La mesure de concentration est faite grâce à une méthode de Fluorescence Induite par Plan Laser, et la vitesse de l’écoulement est estimée par Vélocimétrie par Image de Particules. La difficulté principale est la mesure du micro-mélange, quantifiée expérimentalement par une méthode de mesure dite "Dual Tracer", qui compare le signal de fluorescence d’une molécule traçant les zones de fluides pur à celui du fluide dans sa globalité. L’objectif est d’utiliser cette base de données afin d’étudier l’influence du nombre de Reynolds et du taux de confinement sur la qualité du mélange et l’efficacité du micro-mélange en terme de statistiques. Il est montré que l’efficacité du micro-mélange augmente lorsque le nombre de Reynolds augmente, et lorsque le taux de confinement diminue.
50

Hrycyshyn, Gabrielle Elaine. "Survival probabilities and density of four sympatric species of freshwater turtles in Florida." [Gainesville, Fla.] : University of Florida, 2007. http://purl.fcla.edu/fcla/etd/UFE0021036.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

До бібліографії