Добірка наукової літератури з теми "Densité de probabilités"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Densité de probabilités".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Densité de probabilités":

1

Riopel, Martin, Jean Bégin, and Jean-Claude Ruel. "Probabilités de pertes des tiges individuelles, cinq ans après des coupes avec protection des petites tiges marchandes, dans des forêts résineuses du Québec." Canadian Journal of Forest Research 40, no. 7 (July 2010): 1458–72. http://dx.doi.org/10.1139/x10-059.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La coupe avec protection des petites tiges marchandes est un type de coupe partielle qui consiste généralement à récolter toutes les tiges d’un diamètre à hauteur de poitrine (dhp) supérieur à 15,0 cm, tout en conservant les tiges de plus petites dimensions. Le succès du traitement, appliqué à des forêts résineuses mûres dominées par le sapin baumier ( Abies balsamea (L.) Mill.) ou l’épinette noire ( Picea mariana (Mill.) Britton, Sterns & Poggenb.), repose en partie sur la capacité des tiges protégées à survivre. Un modèle logistique mixte a été calibré à partir de 27 blocs expérimentaux établis au Québec. Ce modèle identifie les variables qui conditionnent les probabilités de pertes des tiges individuelles protégées de 5,1 cm et plus de dhp, par mortalité sur pied ou par chablis, 5 ans après des coupes avec protection des petites tiges marchandes. Les résultats indiquent que les probabilités de pertes après traitement sont largement tributaires des caractéristiques du peuplement avant coupe (surface terrière marchande, densité de gaules, proportion de pin gris ( Pinus banksiana Lamb.)), de la qualité des opérations (procédé de récolte, taux de protection des petites tiges marchandes) et des caractéristiques des tiges protégées au moment de la coupe (inclinaison, dhp, essence). Les variables associées à l’exposition aux vents et à l’écologie des stations n’ont pas permis d’améliorer le modèle. Afin d’éviter des pertes trop élevées, il importe de bien cibler les peuplements à traiter et de réaliser un suivi rigoureux des opérations de récolte.
2

Ouimet, Marc, and Pierre Tremblay. "Trajets urbains et risques de victimisation : les sites de transit et le cas du métro de Montréal." Criminologie 34, no. 1 (October 2, 2002): 157–76. http://dx.doi.org/10.7202/004759ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé Les acteurs urbains sont généralement en mouvement et cessent de l'être seulement lorsque leurs activités exigent d'eux qu'ils demeurent stationnaires pour un intervalle de temps limité. Leurs parcours, composé de sommets (destinations) reliés entre eux par des chemins, forme un circuit, chaque trajectoire ramenant le plus souvent la personne qui se déplace à son point d'origine. Nous analysons la distribution des probabilités individuelles de victimisation personnelle associées aux diverses destinations qui définissent ce parcours (lieux de magasinage, de loisir, de vie domestique et de travail) et ses lieux intercalaires de transit (« la rue », le métro et les autobus). Cette analyse, basée sur les délits rapportés à la police à Montréal en 1995, prend en considération la distribution de la densité, variable selon les sites urbains, des occasions de contacts interpersonnels et propose une évaluation des risques individuels de victimisation auxquels sont exposés les usagers du métro.
3

Assis, Janilson Pinheiro, Roberto Pequeno de Sousa, Bem Deivid de Oliveira Batista, and Paulo César Ferreira Linhares. "Probabilidade de chuva em Piracicaba, SP, através da distribuição densidade de probabilidade Gama." Revista Brasileira de Geografia Física 11, no. 2 (2018): 814–25. http://dx.doi.org/10.26848/rbgf.v10.6.p814-825.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Assis, Janilson Pinheiro, Roberto Pequeno de Sousa, Bem Deivid de Oliveira Batista, and Paulo César Ferreira Linhares. "Probabilidade de chuva em Piracicaba, SP, através da distribuição densidade de probabilidade Gama." Revista Brasileira de Geografia Física 11, no. 3 (2018): 814–25. http://dx.doi.org/10.26848/rbgf.v11.3.p814-825.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Farmer, Jenny, Eve Allen, and Donald J. Jacobs. "Quasar Identification Using Multivariate Probability Density Estimated from Nonparametric Conditional Probabilities." Mathematics 11, no. 1 (December 28, 2022): 155. http://dx.doi.org/10.3390/math11010155.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nonparametric estimation for a probability density function that describes multivariate data has typically been addressed by kernel density estimation (KDE). A novel density estimator recently developed by Farmer and Jacobs offers an alternative high-throughput automated approach to univariate nonparametric density estimation based on maximum entropy and order statistics, improving accuracy over univariate KDE. This article presents an extension of the single variable case to multiple variables. The univariate estimator is used to recursively calculate a product array of one-dimensional conditional probabilities. In combination with interpolation methods, a complete joint probability density estimate is generated for multiple variables. Good accuracy and speed performance in synthetic data are demonstrated by a numerical study using known distributions over a range of sample sizes from 100 to 106 for two to six variables. Performance in terms of speed and accuracy is compared to KDE. The multivariate density estimate developed here tends to perform better as the number of samples and/or variables increases. As an example application, measurements are analyzed over five filters of photometric data from the Sloan Digital Sky Survey Data Release 17. The multivariate estimation is used to form the basis for a binary classifier that distinguishes quasars from galaxies and stars with up to 94% accuracy.
6

Bian Chenshu, 边宸舒, 刘元坤 Liu Yuankun та 于馨 Yu Xin. "基于概率密度函数的彩色相位测量轮廓术校正". Acta Optica Sinica 42, № 7 (2022): 0712002. http://dx.doi.org/10.3788/aos202242.0712002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Jones, M. C., and F. Daly. "Density probability plots." Communications in Statistics - Simulation and Computation 24, no. 4 (January 1995): 911–27. http://dx.doi.org/10.1080/03610919508813284.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Xiao, Yongshun. "THE MARGINAL PROBABILITY DENSITY FUNCTIONS OF WISHART PROBABILITY DENSITY FUNCTION." Far East Journal of Theoretical Statistics 54, no. 3 (May 1, 2018): 239–326. http://dx.doi.org/10.17654/ts054030239.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Lin, Yi-Shin, Andrew Heathcote, and William R. Holmes. "Parallel probability density approximation." Behavior Research Methods 51, no. 6 (August 30, 2019): 2777–99. http://dx.doi.org/10.3758/s13428-018-1153-1.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Amonmidé, Isidore, Germain D. Fayalo, and Gustave D. Dagbenonbakin. "Effet de la période et densité de semis sur la croissance et le rendement du cotonnier au Bénin." Journal of Applied Biosciences 152 (August 31, 2020): 15676–97. http://dx.doi.org/10.35759/jabs.152.7.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Objectif : L’objectif de l’étude était d’identifier les meilleures périodes et densités de semis dans les différentes zones agro-écologiques cotonnières du Bénin dans un contexte de changement climatique. Méthodologie et résultats : Les expérimentations ont été conduites pendant deux ans (2017 et 2018) en station au Bénin dans un dispositif expérimental en split-plot à deux facteurs, la période (facteur principal) et la densité de semis (facteur secondaire) respectivement à quatre et cinq variantes avec quatre répétitions. Les données collectées ont été soumises à une analyse de variance sous le logiciel R.3.6.1 au seuil de 5% de probabilité d’erreur. Les résultats ont montré au cours des deux années d’expérimentation que les semis tardifs ont enregistré les plus faibles rendements en coton graine dans la zone centre-nord tandis que toutes les dates de semis ont donné des rendements équivalents dans la zone nord. La densité de semis à 62500 plants/ha a donné le meilleur rendement. Conclusion et applications des résultats : Le semis du cotonnier peut s’étendre sur quatre décades (20 mai au 30 juin) dans la zone nord contrairement au centre-nord où la période optimale de semis s’étend seulement sur les deux dernières décades de juin (10-30 juin). La densité à 62500 plants/ha (0,20m x 0,80m à 1 plant/poquet) pourrait être recommandée pour l’amélioration des rendements en culture cotonnière au Bénin. L’adoption de cette densité de semis offre aux producteurs l’opportunité de mécaniser les opérations de semis et de fertilisation, compte tenu de la faible distance inter-poquets par rapport aux densités en vulgarisation. Mots clés : Période de semis, densité de semis, rendement coton graine, zones cotonnières, Bénin. Effect of sowing time and plant density on growth, development and yield in Benin ABSTRACT Objective: This study aimed at identifying the best sowing date and plant densities in the different cotton agro-ecological zones of Benin in a context of climate change. Methodology and results: On-station trials were conducted during two years (2017 and 2018) in Benin in a split-plot experimental design with two factors, the sowing date (main factor) and the plant density (secondary factor) with four and five levels, respectively with four replications. Collected data were submitted to an analysis of variance under R.3.6.1 software at 5% probability threshold error. Results showed other the two Amonmidé et al., J. Appl. Biosci. 2020 Effet de la période et densité de semis sur la croissance et le rendement du cotonnier au Bénin 15677 years of trial that late sowings recorded the lowest cotton seed yields in the northern central zone while all sowing date gave similar yields in the northern zone. Planting density of 62500 plants/ha gave the best yields. Conclusion and applications of the results: Cotton sowing could be extended over four decades (20 May to 30 June) in the northern zone contrarily to the northern central zone where the optimal sowing time covers only the last two decades of June (10-30 June). Plant density of 62500 plants/ha (0.20 m x 0.80 m at 1 plant/pot) could be recommended to improve cotton seed yields in Benin. The adoption of this new plant density offers producers the opportunity to mechanize sowing and fertilizer application, given low inter-plant space compared to the recommendation in Benin. Key words: Sowing date, plant density, cotton seed yield, cotton agro-ecological zones, Benin.

Дисертації з теми "Densité de probabilités":

1

Yode, Armel Fabrice Evrard. "Estimation de la densité de probabilité multidimensionnelle : risques minimax avec normalisation aléatoire et test d'indépendance." Aix-Marseille 1, 2004. http://www.theses.fr/2004AIX11002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre de la théorie minimax, une nouvelle approche permettant d'améliorer la qualité des procédures d'estimation à et proposée par Lepski (1999). Cette approche qui est une combinaison de l'estimation adaptative et du test d'hypothèses introduit le concept de risques avec normalisation aléatoire. Elle conduit à la construction d'un estimateur atteignant une vitesse dépendant de l'observation et qui peut ^etre adaptatif. La vitesse obtenue est meilleure que celle fournie par l'estimation minimax. Dans cette présente thèse, nous appliquons cette théorie au problème de l'estimation de la densité de probabilité multidimensionnelle sous l'hypothèse d'indépendance. Notre travail se divise en deux grandes parties: - Test d'indépendance. Nous proposons un nouveau test d'indépendance non-paramétrique via l'approche minimax. Les alternatives sont décrites par la norme L2. Nous nous intéressons aux tests dont l'erreur de première espèce décroi^t vers 0 quand le nombre d'observations cro^it. - Risques minimax avec normalisation aléatoire. A l'issue du test, nous construisons un estimateur qui atteint une vitesse qui dépend de l'observation. Sous l'hypothèse d'indépendance, cet estima-teur est adpatatif
In the context of minimax theory, a new approach allowing one to improve the accuracy of estimation has been proposed by Lepski (1999). This approach which is a combination of adaptive estimation and hypothesis testing introduces a new kind of risks normalized by random variable depending on the observation. It implies construction of estimator attaining rate depending on observation. This estimator can be adaptive and the rate is better than minimax rate of convergence. In this thesis, we apply this theory to the problem of estimation of multidi-mensionnal probability density under independence hypothesis. Our work consists of two parts:- Independence test. We propose a new nonparametric independence test via minimax approach. The alternatives sets are described by L2-norm. We are interested in the study for tests for which the error of the first type can decrease to 0 as the number of observations increases. - Minimax risks with random normalizing factors. We construct estimator attaining random rate which is better than mini-max rate of convergence. Under independence hypothesis, this estimator can be adaptive
2

Hamon, Abdellatif. "Estimation d'une densité de probabilité multidimensionnelle par dualité." Rouen, 2000. http://www.theses.fr/2000ROUES055.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous étudions dans cette thèse l'estimation d'une fonction de densité d'une loi de probabilité multidimensionnelle à partir d'un certain nombre de moments issue de cette loi. Nous considérons ces moments comme une information sur la loi inconnue. Nous introduisons une nouvelle fonction d'information de type Kullback, afin d'utiliser la méthode du maximum d'entropie pour construire un estimateur convergent uniformément vers la loi inconnue lorsque le nombre de moments augmente. Nous utilisons les techniques de dualité de Fenchel-Young pour démontrer dans un premier temps la convergence uniforme de l'estimateur de maximum d'entropie vers la densité inconnue lorsque les fonctions deux densités sont uniformément bornées. Nous explicitons dans un deuxième temps la vitesse de convergence de l'estimateur du maximum d'entropie lorsque les fonctions de moments sont algébriques, trigonométriques définies sur un compact de IR n. Nous construisons une famille de splines à régularité modifiables, puis nous démontrons que lorsque les fonctions de moments proviennent de cette famille alors la convergence uniforme de l'estimateur du maximum d'entropie est assurée. Dans la dernière partie de cette thèse, nous proposons un algorithme de construction d'une loi inconnue à partir d'un certain nombre de ces moments.
3

Rosa, Vargas José Ismäel de la. "Estimation de la densité de probabilité d'une mesure dans un cadre non-linéaire, non-gaussien." Paris 11, 2002. http://www.theses.fr/2002PA112201.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Mettre en oeuvre une procédure de mesure passe par la modélisation préalable du phénomène observé. Modéliser devient alors un objectif à part entière même s'il ne faut pas le décorréler de l'objectif de mesure. Au-delà de la construction et du choix de modèle, persiste le problème, à la fois théorique et pratique, de l'évaluation de la densité de probabilité (DDP) des paramètres du modèle retenu. Une fois cette DDP estimée, il faut pouvoir propager cette information statistique jusqu'à la grandeur d'intérêt appelée mesure. Cette mesure étant une fonction non-linéaire des paramètres du modèle. Ainsi, notre travail de recherche porte sur l'estimation de la DDP de la mesure. Pour ce faire, nous proposons une première approche fondée sur les méthodes de type bootstrap. Ces méthodes de simulation comme les méthodes traditionnelles de type Monte-Carlo, requièrent un temps de calcul significatif, cependant elles aboutissent à une très bonne précision sur la caractérisation statistique des systèmes de mesure. Par ailleurs, nous avons pu vérifier que la convergence de ce type de méthodes est plus rapide que celle de la méthode de Monte-Carlo Primitive (MCP). Un avantage certain du bootstrap est sa capacité à déterminer la nature des erreurs agissant sur le système de mesure, grâce à l'estimée de la DDP empirique des erreurs. En outre, l'optimisation de la convergence peut se atteindre en utilisant des schémas de pondération sur les erreurs ou bien, un schéma modifié du bootstrap itéré. Nous proposons aussi l'utilisation d'un schéma d'estimation robuste au cas des données aberrantes. Une deuxième approche est fondée sur l'échantillonnage par les méthodes de Monte-Carlo par chaînes de Markov (MCMC), la caractérisation statistique selon ce point permet d'utiliser toute l'information a priori connue sur le système de mesure, en effectuant une reformulation du problème selon la règle de Bayes. L'échantillonnage de Gibbs et les algorithmes de Metropolis-Hastings ont été exploités dans ce travail. En ce qui concerne l'optimisation de la convergence du MCMC, on a adapté des algorithmes tels que le rééchantillonnage pondéré et le couplage de chaînes dans le temps rétrograde. En particulier, nous avons proposé un échantillonneur de Gibbs par simulation parfaite et un algorithme hybride par simulation parfaite. Une dernière approche au problème d'estimation de la mesure est construite à l'aide des méthodes d'estimation par noyaux. L'idée principale est fondée sur la caractérisation non-paramétrique de la DDP des erreurs, sachant qu'elle est inconnue. .
The characterization and modeling of an indirect measurement procedure is led by a set of previously observed data. The modeling task is it self a complex procedure which is correlated with the measurement objective. Far from model building and model selection, a theoretical and practical problem persists: What is the correct probability density function (PDF) of a parametric model? Once this PDF is approximated, the next step is to establish a mechanism to propagate this statistical information until the quantity of interest. In fact, such a quantity is a measurement estimate and it is a nonlinear function of the parametric model. The present work proposes some different methods to make statistical inferences about the measurement estimate. We propose a first approach based on bootstrap methods. Such methods are classical in statistical simulation together with Monte Carlo methods, and they require a significative time of calcul. However, the precision over the measurement PDF estimated by these methods is very good. On the other hand, we have verified that the bootstrap methods convergence is faster than the Primitive Monte Carlo's one. Another advantage of bootstrap is its capacity to determine the statistical nature of errors which perturb the measurement system. This is doing thanks to the empirical estimation of the errors PDF. The bootstrap convergence optimization could be achieved by smoothing the residuals or by using a modified iterated bootstrap scheme. More over, we propose to use robust estimation when outliers are present. The second approach is based on other sampling techniques called Markov Chain Monte Carlo (MCMC), the statistical inference obtained when using these methods is very interesting, since we can use all a priori information about the measurement system. We can reformulate the problem solution by using the Bayes rule. The Gibbs sampling and the Metropolis-Hastings algorithms were exploited in this work. We overcome to the MCMC convergence optimization problem by using a weighted resampling and coupling from the past (CFTP) schemes, moreover, we adapt such techniques to the measurement PDF approximation. The last proposed approach is based on the use of kernel methods. The main idea is founded on the nonparametric estimation of the errors PDF, since it is supposed unknown. Then, we optimize a criterion function based on the entropy of the errors' PDF, thus we obtain a minimum entropy estimator (MEE). The simulation of this estimation process by means of Monte Carlo, MCMC, or weighted bootstrap could led to us to construct a statistical approximation of the measurement population. .
4

Nehme, Bilal. "Techniques non-additives d'estimation de la densité de probabilité." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00576957.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons une nouvelle méthode d'estimation non-paramétrique de la densité de probabilité. Cette méthode d'estimation imprécise combine la théorie de distribution de Schwartz et la théorie de possibilité. La méthode d'estimation que nous proposons est une extension de la méthode d'estimation à noyau. Cette extension est basée sur une nouvelle méthode de représentation de la notion de voisinage sur laquelle s'appuie l'estimation à noyau. Cette représentation porte le nom de noyau maxitif. L'estimation produite est de nature intervalliste. Elle est une enveloppe convexe d'un ensemble d'estimation de Parzen-Rosenblatt obtenus avec un ensemble de noyaux contenus dans une famille particulière. Nous étudions un certain nombre des propriétés théoriques liées à cette nouvelle méthode d'estimation. Parmi ces propriétés, nous montrons un certain type de convergence de cet estimateur. Nous montrons aussi une aptitude particulière de ce type d'estimation à quantifier l'erreur d'estimation liée à l'aspect aléatoire de la distribution des observations. Nous proposons un certain nombre d'algorithmes de faible complexité permettant de programmer facilement les mathodes que nous proposons.
5

Derouet, Charlotte. "La fonction de densité au carrefour entre probabilités et analyse en terminale S : Etude de la conception et de la mise en oeuvre de tâches d'introduction articulant lois à densité et calcul intégral." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC126/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur les articulations entre les probabilités et l’analyse en classe de terminale scientifique. Nous avons exploré comment se créent et sont exploités les liens entre les sous-domaines mathématiques des probabilités des lois à densité et du calcul intégral, à travers une recherche centrée sur la notion de fonction de densité. En adoptant le modèle des Espaces de Travail Mathématique et des éléments de la théorie de l’activité, nous nous sommes demandé quelles tâches permettent d’introduire cette notion et de construire la relation sémiotique reliant probabilité et intégrale. Pour aborder cette question, nous avons commencé parfaire une étude épistémologique et historique de la naissance de la notion de lois à densité, qui nous a notamment permis de dégager la place importante de la statistique dans cette genèse. Puis, nous avons effectué une analyse des documents institutionnels et des manuels. Cette analyse a montré que l’articulation entre probabilités à densité et calcul intégral est imposée aux élèves et peu exploitée dans les différentes tâches qui leur sont proposées. Enfin, nous avons étudié la conception et la mise en place de tâches d’introduction originales grâce à une méthodologie de recherche que nous qualifions d’ingénierie didactique collaborative. Ces tâches ont pour objectif de faire construire, par le « collectif » classe, la notion de fonction de densité et d’amener le besoin du calcul d’aire sous une courbe. Nous avons mis en évidence les activités de ce collectif classe, dans la construction de cette notion, en analysant les circulations entre trois sous-domaines : les probabilités à densité, la statistique descriptive et le calcul intégral
This thesis focuses on the connections between probability and analysis (calculus) in the scientific track of Grade 12 (French baccalaureate program). We explored the ways in which links between the mathematics subfields of continuous probability and integral calculus are created and explored, through a research focused on the concept of density function. Using the Mathematical Working Space model and some elements of Activity Theory, we sought to identify tasks that would allow introducing this concept and building the semiotic relationship between probability and integral. In order to address this issue, we began with an epistemological and historical study of the birth of the concept of density function, which enabled us to identify the important role of statistics in this genesis. Then, an analysis of institutional documents and textbooks showed that the link between continuous probability and integral calculus is imposed on students and rarely exploited in the different tasks given to them. Finally, we studied the design and implementation of original introductory tasks through a research methodology that we call “collaborative didactic engineering”. The goal of these tasks is to get the class “collective” to construct the concept of density function and trigger the need for calculating areas under a curve. We highlighted the activities of the class “collective” in the construction of this notion by analyzing articulations between the three subfields: continuous probability, descriptive statistics and integral calculus
6

Akil, Nicolas. "Etude des incertitudes des modèles neuronaux sur la prévision hydrogéologique. Application à des bassins versants de typologies différentes." Electronic Thesis or Diss., IMT Mines Alès, 2021. http://www.theses.fr/2021EMAL0005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les crues et les sécheresses sont deux des risques majeurs en France et nécessitent une attention particulière. Dans ces conditions où le changement climatique engendre des phénomènes extrêmes de plus en plus fréquents, la modélisation de ces risques est désormais un élément incontournable pour la gestion de la ressource en eau.Actuellement, les débits ou hauteurs d’eau sont principalement anticipés à partir de modèles à base physique ou conceptuelle. Bien qu’efficaces et nécessaires, la calibration et la mise en œuvre de ces modèles nécessitent la réalisation d’études longues et coûteuses.Dans ce contexte, cette thèse, soutenue par l’IMT Mines Alès et conjointement financée par la société aQuasys et l’ANRT, a pour objectif de développer des modèles issus du paradigme systémique. Ceux-ci nécessitent uniquement des connaissances a priori basiques sur la caractérisation physique du bassin étudié, et qui peuvent être calibrés à partir des seules informations d’entrées et de sorties (pluies et débits/hauteurs).Les modèles les plus utilisés dans le monde environnemental sont les réseaux neuronaux, qui sont utilisés sur ce projet. Cette thèse cherche à répondre à trois objectifs principaux :1. Élaboration d’une méthode de conception de modèle adaptée aux différentes variables (débits/hauteur des eaux de surface) et à des bassins de types très différents : bassins versants ou bassins hydrogéologiques (hauteur des eaux souterraines)2. Évaluation des incertitudes liées à ces modèles en fonction des types de bassins visés3. Réduction de ces incertitudesPlusieurs bassins sont utilisés pour répondre à ces problématiques : la nappe du bassin du Blavet en Bretagne et le bassin de la nappe de la Craie de Champagne sud et Centre
Floods and droughts are the two main risks in France and require a special attention. In these conditions, where climate change generates increasingly frequent extreme phenomena, modeling these risks is an essential element for water resource management.Currently, discharges and water heights are mainly predicted from physical or conceptual based models. Although efficient and necessary, the calibration and implementation of these models require long and costly studies.Hydrogeological forecasting models often use data from incomplete or poorly dimensioned measurement networks. Moreover, the behavior of the study basins is in most cases difficult to understand. This difficulty is thus noted to estimate the uncertainties associated with hydrogeological modeling.In this context, this thesis, supported by IMT Mines Alès and financed by the company aQuasys and ANRT, aims at developing models based on the systemic paradigm. These models require only basic knowledge on the physical characterization of the studied basin, and can be calibrated from only input and output information (rainfall and discharge/height).The most widely used models in the environmental world are neural networks, which are used in this project. This thesis seeks to address three main goals:1. Development of a model design method adapted to different variables (surface water flows/height) and to very different types of basins: watersheds or hydrogeological basins (groundwater height)2. Evaluation of the uncertainties associated with these models in relation to the types of targeted basins3. Reducing of these uncertaintiesSeveral basins are used to address these issues: the Blavet basin in Brittany and the basin of the Southern and Central Champagne Chalk groundwater table
7

Lerasle, Matthieu. "Rééchantillonnage et sélection de modèles optimale pour l'estimation de la densité." Toulouse, INSA, 2009. http://eprint.insa-toulouse.fr/archive/00000290/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le principal objectif de cette thèse est d’étudier deux méthodes de calibration automatique de la pénalité pour la sélection de modèle. L’avantage de ces méthodes est double, d’une part, elles sont toujours implémentables, elles ont mˆeme souvent été utilisées dans des problèmes pratiques avec succès, d’autre part, elles sont optimales puisqu’elles permettent de sélectionner asymptotiquement le meilleur modèle. Il existe d’autres méthodes de pénalisation calculables en pratique, quand les données sont indépendantes. Néanmoins, en dehors des collections de modèles très réguliers, ces pénalités sont très pessimistes, voire dépendent de constantes inconnues comme la norme sup de la densité. De plus, quand on veut utiliser les preuves classiques pour des données mélangeantes, les pénalités que l’on obtient dépendent toujours de constantes inconnues de l’utilisateur (voir le chapitre 3). Le chapitre 2 étudie l’heuristique de pente et les pénalités par rééchantillonnage dans le cas de données indépendantes. On donne une condition suffisante pour que l’heuristique de la pente soit optimale, en utilisant l’inégalité de concentration de Talagrand pour le supremum du processus empirique. On étudie aussi l’approximation du processus empirique par sa version rééchantillonnée et on en déduit que la même condition suffit à garantir l’optimalité des méthodes par rééchantillonnage. Le chapitre 3 est consacré à l’étude de pénalités classiques quand les observations sont mélangeantes. On montre des inégalités oracles et l’adaptativité de l’estimateur sélectionné à la régularité de la densité. La pénalité dépend des coefficients de mélange qui peuvent parfois être évalués. Le chapitre 4 étend les résultats du chapitre 2 au cas de données mélangeantes. On montre ainsi que les méthodes de la pente et bootstrap sont également optimales dans ce cas, sous le même type de conditions. Ces nouvelles pénalités sont toujours calculables en pratique et le modèle sélectionné est asymptotiquement un oracle, ce qui améliore beaucoup les résultats du chapitre 3. Le chapitre 5 traite du problème des régions de confiance adaptatives. Contrairement au cas de l’estimation, cette adaptation n’est que très rarement possible. Quand elle l’est, nous construisons des régions adaptatives. En particulier, on améliore quelques résultats de concentration du chapitre 2 lorsque les données sont à valeurs réelles, notamment ceux des U-statistiques.
8

Pastel, Rudy. "Estimation de probabilités d'évènements rares et de quantiles extrêmes : applications dans le domaine aérospatial." Phd thesis, Université Européenne de Bretagne, 2012. http://tel.archives-ouvertes.fr/tel-00728108.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les techniques dédiées aux évènements rares sont d'un grand intérêt pour l'industrie aérospatiale en raison des larges sommes qui peuvent être perdues à cause des risques associés à des probabilités infimes. Cette thèse se concentre la recherche d'outils probabilistes capables d'estimer les probabilités d'évènements rares et les quantiles extrêmes associés à un système boîte noire dont les entrées sont des variables aléatoires. Cette étude est faite au travers de deux cas issus de l'industrie. Le premier est l'estimation de la probabilité de collision entre les satellites Iridium et Cosmos. La Cross-Entropy (CE), le Non-parametric Adaptive Importance Sampling (NAIS) et une technique de type Adaptive Splitting (AST) sont comparés. Au cours de la comparaison, une version améliorée de NAIS est conçue. Au contraire du NAIS qui doit être initialisé avec une variable aléatoire qui génère d'emblée des événements rares, le NAIS adaptatif (ANAIS) peut être initialisé avec la variable aléatoire d'origine du système et n'exige donc pas de connaissance a priori. Le second cas d'étude est l'estimation de la zone de sécurité vis-à-vis de la chute d'un booster de fusée. Bien que les quantiles extrêmes puissent être estimés par le bais de ANAIS ou AST, ils apparaissent comme inadaptés à une distribution spatiale. A cette fin, le Minimum Volume Set (MVS) est choisi dans la littérature. L'estimateur Monte Carlo (MC) de MVS n'étant pas adapté à l'estimation d'un MVS de niveau extrême, des estimateurs dédiés sont conçus à partir d'ANAIS et d'AST. Ces deux derniers surpassent l'estimateur de type MC.
9

Quiroz, Martínez Benjamín. "Étude de la variabilité temporelle et spatiale des peuplements des annélides polychètes de l'Atlantique nord-est européen, dynamique des peuplements en Manche et patrons de distribution sur le plateau continental." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10106/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes environnementaux présentent une grande variabilité spatio-temporelle. En raison des influences extérieures et de la stochasticité introduite par le processus de reproduction, la dynamique des populations est également caractérisée par une grande variabilité. La recherche de lois universelles en écologie implique souvent une distribution de la forme loi de puissance, ces distributions peuvent survenir dans la dynamique des populations ou dans les patrons spatiaux de distribution d'abondance et de richesse spécifique. En prenant les polychètes, groupe colonisant un grand nombre d'habitats des sédiments meubles et durs et considérés comme indicateurs des principales conditions qui contrôlent la structure et le fonctionnement des communautés macrobenthiques, nous essayons d’identifier les changements spatio-temporels de la biodiversité de ce groupe. A partir de séries biologiques à long terme de trois communautés de fonds meubles, nous étudions la dynamique des populations des polychètes, nous caractérisons des événements extrêmes pour des données d’abondance et nous introduisons des méthodes de quantification pour des séries biologiques très intermittentes. Ensuite, nous abordons la distribution spatiale des espèces de polychètes ayant comme objectifs d'identifier les patrons latitudinaux, longitudinaux et bathymétriques du plateau continental de l’Atlantique nord-est européen; et de tester l’existence de patrons généraux, voir même universels, caractérisant la biodiversité (i.e. l'augmentation de la diversité avec l’aire échantillonnée, sa décroissance de l’équateur vers les pôles et l'augmentation de la richesse en espèces avec l’abondance totale d’individus)
One of the key features of environmental field studies is their high variability at many different time and space scales. Because of these external influences and of the stochasticity introduced by the reproduction, population dynamics are also characterised by high variability over time and space. The search for universal scaling laws in ecology often involves considering a form of power-law distribution, power laws can emerge in population dynamics or in patterns of abundance, distribution, and richness. Using the polychaetes, group that colonises a large range of soft and hard marine sediment habitats, from intertidal to hadal zones, and are considered to be good surrogates to identify the main environmental conditions that control the structure and functioning of benthic communities, we try to identify the spatiotemporal changes in biodiversity for this characteristic benthic group. First, we discuss the dynamics of polychaete populations. Based on long-term series of three soft-bottom communities, we study the dynamics of polychaete populations using different statistical techniques; we characterise extreme events in abundance data and we show how to apply some quantification methods to highly erratic and intermittent biological series. Then, we discuss the spatial distribution of polychaete species aiming to: identify latitudinal, longitudinal and bathymetric patterns on the European northeast Atlantic continental shelf; and test the existence of general, perhaps universal, patterns for characterising biodiversity i.e. increasing diversity with sampled area, its decay from the equator to the poles and the increase in richness with the total abundance of individuals
10

Bordet, Nicolas. "Modélisation 0D/1D de la combustion diesel : du mode conventionnel au mode homogène." Phd thesis, Université d'Orléans, 2011. http://tel.archives-ouvertes.fr/tel-00717396.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la modélisation 0D/1D de la combustion Diesel dans les moteurs récents. L'objectif est d'augmenter la précision des modèles tout en limitant les temps de calcul associés afin d'utiliser la simulation comme un outil dédié à la mise au point. Dans une première partie, le développement d'un modèle 0D orienté simulation système est présenté. La prise en compte de l'ensemble des phénomènes physico-chimiques se déroulant dans la chambre de combustion confère au modèle un niveau de prédictivité conséquent. Un nouveau modèle de combustion de prémélange est proposé, permettant une modélisation détaillée des combustions fortement diluées et des combustions relatives aux injections précoces. Une approche innovante permettant de quantifier les interactions entre les jets pour la multi injection est également proposée. Après calibration sur un nombre restreint d'essais moteur, les résultats du modèle global sont comparés à des mesures expérimentales pour toute la plage de fonctionnement du moteur. La seconde partie de ce travail porte sur la modélisation 1D de la combustion Diesel. Un modèle de jet Diesel est d'abord développé et validé sur des mesures expérimentales. Ce modèle est ensuite étendu à des conditions réactionnelles à l'aide d'un couplage avec un modèle de combustion. Ce dernier s'appuie sur une tabulation des mécanismes de cinétique chimique, ainsi que sur une approche Eddy Break-Up permettant de modéliser le taux de réaction lié au micro mélange. Ce modèle est ensuite intégré à un modèle de chambre de combustion et une première validation du modèle sur des essais moteur réels est entreprise.

Книги з теми "Densité de probabilités":

1

Burris, Stanley. Number theoretic density and logical limit laws. Providence, RI: American Mathematical Society, 2001.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

United States. National Aeronautics and Space Administration. Scientific and Technical Information Program., ed. Probability density functions in turbulent channel flow. [Washington, DC]: National Aeronautics and Space Administration, Office of Management, Scientific and Technical Information Program, 1992.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

United States. National Aeronautics and Space Administration. Scientific and Technical Information Program., ed. Probability density functions in turbulent channel flow. [Washington, DC]: National Aeronautics and Space Administration, Office of Management, Scientific and Technical Information Program, 1992.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Byrne, Erin. Post-fragmentation probability density for bacterial aggregates. [Place of publication not identified]: Proquest, Umi Dissertatio, 2012.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Paštéka, Milan. On four approaches to density. Frankfurt am Main: Peter Lang, 2013.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Ronald, Johnson L., Smith P. L, and United States. National Aeronautics and Space Administration., eds. Probability density functions of observed rainfall in Montana. [Washington, DC: National Aeronautics and Space Administration, 1995.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Ronald, Johnson L., Smith P. L, and United States. National Aeronautics and Space Administration., eds. Probability density functions of observed rainfall in Montana. [Washington, DC: National Aeronautics and Space Administration, 1995.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Churnside, James H. Probability density function of optical scintillations (scintillation distribution). Boulder, Colo: U.S. Dept. of Commerce, National Oceanic and Atmospheric Administration, Environmental Research Laboratories, 1989.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

J, Lataitis R., and Wave Propagation Laboratory, eds. Probability density function of optical scintillations (scintillation distribution). Boulder, Colo: U.S. Dept. of Commerce, National Oceanic and Atmospheric Administration, Environmental Research Laboratories, Wave Propagation Laboratory, 1989.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Devroye, Luc. Nonparametric density estimation: The L₁ view. New York: Wiley, 1985.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Частини книг з теми "Densité de probabilités":

1

Gu, Chong. "Probability Density Estimation." In Smoothing Spline ANOVA Models, 177–210. New York, NY: Springer New York, 2002. http://dx.doi.org/10.1007/978-1-4757-3683-0_6.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Gooch, Jan W. "Probability Density Function." In Encyclopedic Dictionary of Polymers, 992. New York, NY: Springer New York, 2011. http://dx.doi.org/10.1007/978-1-4419-6247-8_15330.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Gooch, Jan W. "Probability Density, ψ2." In Encyclopedic Dictionary of Polymers, 590. New York, NY: Springer New York, 2011. http://dx.doi.org/10.1007/978-1-4419-6247-8_9465.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Gooch, Jan W. "Probability Density Function." In Encyclopedic Dictionary of Polymers, 590. New York, NY: Springer New York, 2011. http://dx.doi.org/10.1007/978-1-4419-6247-8_9466.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Castaing, B. "Probability Density Functions." In Turbulence, 81–85. Boston, MA: Springer US, 1995. http://dx.doi.org/10.1007/978-1-4615-2586-8_13.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Rizzo, Maria L. "Probability Density Estimation." In Statistical Computing with R, 337–74. Second edition. | Boca Raton : CRC Press, Taylor & Francis Group, 2019.: Chapman and Hall/CRC, 2019. http://dx.doi.org/10.1201/9780429192760-12.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Nascimento, Abraão D. C. "Probability Density Function." In Encyclopedia of Mathematical Geosciences, 1–5. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-26050-7_257-2.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Nascimento, Abraão D. C. "Probability Density Function." In Encyclopedia of Mathematical Geosciences, 1–5. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-26050-7_257-1.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Gu, Chong. "Probability Density Estimation." In Smoothing Spline ANOVA Models, 237–84. New York, NY: Springer New York, 2012. http://dx.doi.org/10.1007/978-1-4614-5369-7_7.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Nascimento, Abraão D. C. "Probability Density Function." In Encyclopedia of Mathematical Geosciences, 1112–16. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-030-85040-1_257.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Тези доповідей конференцій з теми "Densité de probabilités":

1

Oskolkov, K. I. "The Schrödinger density and the Talbot effect." In Approximation and Probability. Warsaw: Institute of Mathematics Polish Academy of Sciences, 2006. http://dx.doi.org/10.4064/bc72-0-13.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Sun, Yi-Chieh, and Inseok Hwang. "Gaussian Mixture Probability Hypothesis Density Filter with State-Dependent Probabilities." In 2021 European Control Conference (ECC). IEEE, 2021. http://dx.doi.org/10.23919/ecc54610.2021.9655137.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Leifer, M. S. "Conditional Density Operators and the Subjectivity of Quantum Operations." In FOUNDATIONS OF PROBABILITY AND PHYSICS - 4. AIP, 2007. http://dx.doi.org/10.1063/1.2713456.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Andreev, V. "The Reduction of Density Matrix and Measurement of Bell-CHSH Inequalities." In FOUNDATIONS OF PROBABILITY AND PHYSICS - 4. AIP, 2007. http://dx.doi.org/10.1063/1.2713465.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Wu, M., D. Zheng, J. Yuan, S. Zhang, A. Chen, and B. Cheng. "Probability hypothesis density filter with low detection probability." In IET International Radar Conference (IET IRC 2020). Institution of Engineering and Technology, 2021. http://dx.doi.org/10.1049/icp.2021.0664.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Garcia-Fernandez, Angel F., and Lennart Svensson. "Trajectory probability hypothesis density filter." In 2018 21st International Conference on Information Fusion (FUSION 2018). IEEE, 2018. http://dx.doi.org/10.23919/icif.2018.8455270.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Erdinc, Ozgur, Peter Willett, and Yaakov Bar-Shalom. "A physical-space approach for the probability hypothesis density and cardinalized probability hypothesis density filters." In Defense and Security Symposium, edited by Oliver E. Drummond. SPIE, 2006. http://dx.doi.org/10.1117/12.673194.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Sithiravel, Rajiv, Ratnasingham Tharmarasa, Mike McDonald, Michel Pelletier, and Thiagalingam Kirubarajan. "The spline probability hypothesis density filter." In SPIE Defense, Security, and Sensing. SPIE, 2012. http://dx.doi.org/10.1117/12.921022.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Meyers, Ronald E. "Quantum probability density function (QPDF) method." In Optics & Photonics 2005, edited by Ronald E. Meyers and Yanhua Shih. SPIE, 2005. http://dx.doi.org/10.1117/12.620152.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Xiaoyun, Teng, Yuan Jia, and Yu Hongyi. "Probability density estimation based on SVM." In 2009 Global Mobile Congress. IEEE, 2009. http://dx.doi.org/10.1109/gmc.2009.5295893.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Звіти організацій з теми "Densité de probabilités":

1

Gaglianone, Wagner Piazza, and Waldyr Dutra Areosa. Financial Conditions Indicator for Brazil. Inter-American Development Bank, August 2017. http://dx.doi.org/10.18235/0011805.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This paper proposes a methodology for constructing a Financial Conditions Indicator (FCI) based on factor analysis and the approaches of Brave and Butters (2011) and Aramonte et al. (2013). A selected set of variables is used and their information content aggregated into a single index that summarizes the overall financial conditions of the economy. The approach is further employed to forecast economic activity. An empirical exercise for Brazil is provided to illustrate the methodology, in which a reduced-form equation is employed to point forecast the growth rate of the Brazilian economy. In addition, a quantile regression technique is used to construct density forecasts and generate probability density functions of future economic activity. Finally, a risk analysis is conducted within this set-up in order to compute conditional probabilities of the growth rate of the economy to be above/below a given scenario, which might be useful for both academics and policymakers’ concerns.
2

Clark, G. Probability Density and CFAR Threshold Estimation for Hyperspectral Imaging. Office of Scientific and Technical Information (OSTI), September 2004. http://dx.doi.org/10.2172/15011636.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Kitsul, Yuriy, and Jonathan Wright. The Economics of Options-Implied Inflation Probability Density Functions. Cambridge, MA: National Bureau of Economic Research, June 2012. http://dx.doi.org/10.3386/w18195.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Kamrath, Matthew, D. Wilson, Carl Hart, Daniel Breton, and Caitlin Haedrich. Evaluating parametric probability density functions for urban acoustic noise. Engineer Research and Development Center (U.S.), September 2020. http://dx.doi.org/10.21079/11681/38006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Clark, Todd E., Gergely Ganics, and Elmar Mertens. What is the predictive value of SPF point and density forecasts? Federal Reserve Bank of Cleveland, November 2022. http://dx.doi.org/10.26509/frbc-wp-202237.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This paper presents a new approach to combining the information in point and density forecasts from the Survey of Professional Forecasters (SPF) and assesses the incremental value of the density forecasts. Our starting point is a model, developed in companion work, that constructs quarterly term structures of expectations and uncertainty from SPF point forecasts for quarterly fixed horizons and annual fixed events. We then employ entropic tilting to bring the density forecast information contained in the SPF’s probability bins to bear on the model estimates. In a novel application of entropic tilting, we let the resulting predictive densities exactly replicate the SPF’s probability bins. Our empirical analysis of SPF forecasts of GDP growth and inflation shows that tilting to the SPF’s probability bins can visibly affect our model-based predictive distributions. Yet in historical evaluations, tilting does not offer consistent benefits to forecast accuracy relative to the model-based densities that are centered on the SPF’s point forecasts and reflect the historical behavior of SPF forecast errors. That said, there can be periods in which tilting to the bin information helps forecast accuracy. Replication files are available at https://github.com/elmarmertens/ClarkGanicsMertensSPFfancharts
6

Jordan, P. D., C. M. Oldenburg, and J. P. Nicot. Measuring and Modeling Fault Density for Plume-Fault Encounter Probability Estimation. Office of Scientific and Technical Information (OSTI), May 2011. http://dx.doi.org/10.2172/1016011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Hao, Wei-Da. Waveform Estimation with Jitter Noise by Pseudo Symmetrical Probability Density Function. Portland State University Library, January 2000. http://dx.doi.org/10.15760/etd.6471.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

DESJARDIN, PAUL E., MELVIN R. BAER, RAYMOND L. BELL, and EUGENE S. HERTEL, JR. Towards Numerical Simulation of Shock Induced Combustion Using Probability Density Function Approaches. Office of Scientific and Technical Information (OSTI), July 2002. http://dx.doi.org/10.2172/801388.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Chow, Winston C. Analysis of the Probability Density Function of the Monopulse Ratio Radar Signal. Fort Belvoir, VA: Defense Technical Information Center, August 1996. http://dx.doi.org/10.21236/ada315600.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Poppeliers, Christian, and Leiph Preston. An efficient method to estimate the probability density of seismic Green's functions. Office of Scientific and Technical Information (OSTI), August 2021. http://dx.doi.org/10.2172/1813651.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

До бібліографії