Littérature scientifique sur le sujet « Kullback-leibler average »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Kullback-leibler average ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "Kullback-leibler average"
Luan, Yu, Hong Zuo Li et Ya Fei Wang. « Acoustic Features Selection of Speaker Verification Based on Average KL Distance ». Applied Mechanics and Materials 373-375 (août 2013) : 629–33. http://dx.doi.org/10.4028/www.scientific.net/amm.373-375.629.
Texte intégralLu, Wanbo, et Wenhui Shi. « Model Averaging Estimation Method by Kullback–Leibler Divergence for Multiplicative Error Model ». Complexity 2022 (27 avril 2022) : 1–13. http://dx.doi.org/10.1155/2022/7706992.
Texte intégralNielsen, Frank. « On the Jensen–Shannon Symmetrization of Distances Relying on Abstract Means ». Entropy 21, no 5 (11 mai 2019) : 485. http://dx.doi.org/10.3390/e21050485.
Texte intégralBattistelli, Giorgio, et Luigi Chisci. « Kullback–Leibler average, consensus on probability densities, and distributed state estimation with guaranteed stability ». Automatica 50, no 3 (mars 2014) : 707–18. http://dx.doi.org/10.1016/j.automatica.2013.11.042.
Texte intégralHsu, Chia-Ling, et Wen-Chung Wang. « Multidimensional Computerized Adaptive Testing Using Non-Compensatory Item Response Theory Models ». Applied Psychological Measurement 43, no 6 (26 octobre 2018) : 464–80. http://dx.doi.org/10.1177/0146621618800280.
Texte intégralMarsh, Patrick. « THE PROPERTIES OF KULLBACK–LEIBLER DIVERGENCE FOR THE UNIT ROOT HYPOTHESIS ». Econometric Theory 25, no 6 (décembre 2009) : 1662–81. http://dx.doi.org/10.1017/s0266466609990284.
Texte intégralYang, Ce, Dong Han, Weiqing Sun et Kunpeng Tian. « Distributionally Robust Model of Energy and Reserve Dispatch Based on Kullback–Leibler Divergence ». Electronics 8, no 12 (1 décembre 2019) : 1454. http://dx.doi.org/10.3390/electronics8121454.
Texte intégralMakalic, E., et D. F. Schmidt. « Fast Computation of the Kullback–Leibler Divergence and Exact Fisher Information for the First-Order Moving Average Model ». IEEE Signal Processing Letters 17, no 4 (avril 2010) : 391–93. http://dx.doi.org/10.1109/lsp.2009.2039659.
Texte intégralWeijs, Steven V., et Nick van de Giesen. « Accounting for Observational Uncertainty in Forecast Verification : An Information-Theoretical View on Forecasts, Observations, and Truth ». Monthly Weather Review 139, no 7 (1 juillet 2011) : 2156–62. http://dx.doi.org/10.1175/2011mwr3573.1.
Texte intégralGao, Zhang, Xiao et Li. « Kullback–Leibler Divergence Based Probabilistic Approach for Device-Free Localization Using Channel State Information ». Sensors 19, no 21 (3 novembre 2019) : 4783. http://dx.doi.org/10.3390/s19214783.
Texte intégralThèses sur le sujet "Kullback-leibler average"
FANTACCI, CLAUDIO. « Distributed multi-object tracking over sensor networks : a random finite set approach ». Doctoral thesis, 2015. http://hdl.handle.net/2158/1003256.
Texte intégralChapitres de livres sur le sujet "Kullback-leibler average"
« * for a replicate design account for VarD ; * for example here, set VarD=0 ; varD=0.0 ; s = sqrt(varD + sigmaW*sigmaW) ; It is worth noting here that REML modelling in replicate designs and the resulting ABE assessments are sensitive to the way in which the variance-covariance matrix is constructed (Patterson and Jones, 2002a). The recommended FDA procedure (FDA Guidance, 2001) provides bi-ased variance estimates (Patterson and Jones, 2002c) in certain situa-tions ; however, it also constrains the Type I error rate to be less than 5% for average bioequivalence due to the constraints placed on the variance-covariance parameter space, which is a desirable property for regulators reviewing such data. 7.7 Kullback–Leibler divergence Dragalin and Fedorov (1999) and Dragalin et al. (2002) pointed out some disadvantages of using the metrics for ABE, PBE and IBE, that we have described in the previous sections, and proposed a unified approach to equivalence testing based on the Kullback–Leibler divergence (KLD) (Kullback and Leibler, 1951). In this approach bioequivalence testing is regarded as evaluating the distance between two distributions of selected pharmacokinetic statistics or parameters for T and R. For example, the selected statistics might be log(AUC) or log(Cmax), as used in the previous sections. To demonstrate bioequivalence, the following hypotheses are tested : H : d(f ) > ; d vs. H , (7.15) where f are the appropriate density functions of the observa-tions from T and R, respectively, and d is a pre-defined boundary or goal-post. Equivalence is determined if the following null hypothesis is rejected. For convenience the upper bound of a 90% confidence interval, d . If d then bioequivalence is accepted ; otherwise it is rejected. Under the assumption that T and R have the same variance, i.e., σ , the KLD for ABE becomes (µ −µ ) d( fT , f σ2 which differs from the (unscaled) measure defined in Section 4.2. If the statistics (e.g., log(AUC)) for T and R are normally distributed with means µ , respectively, and variances σ ». Dans Design and Analysis of Cross-Over Trials, 371. Chapman and Hall/CRC, 2003. http://dx.doi.org/10.1201/9781420036091-26.
Texte intégralActes de conférences sur le sujet "Kullback-leibler average"
Lu, Kelin, Kuo-Chu Chang et Rui Zhou. « Weighted Kullback-Leibler average-based distributed filtering algorithm ». Dans SPIE Defense + Security, sous la direction de Ivan Kadar. SPIE, 2015. http://dx.doi.org/10.1117/12.2177493.
Texte intégralWang, Baobao, et Lianzhong Zhang. « Weight Kullback-Leibler Average Interactive multiple model Probabilistic Data Association Filter ». Dans 2020 5th International Conference on Mechanical, Control and Computer Engineering (ICMCCE). IEEE, 2020. http://dx.doi.org/10.1109/icmcce51767.2020.00269.
Texte intégralFan, Cody, Tsang-Kai Chang et Ankur Mehta. « Kullback-Leibler Average of von Mises Distributions in Multi-Agent Systems ». Dans 2020 59th IEEE Conference on Decision and Control (CDC). IEEE, 2020. http://dx.doi.org/10.1109/cdc42340.2020.9303876.
Texte intégralYuMing, Du. « Evaluation Criterion of Linear Model Order Selection Approaches Based Average Kullback-Leibler Divergence ». Dans 2009 WRI Global Congress on Intelligent Systems. IEEE, 2009. http://dx.doi.org/10.1109/gcis.2009.340.
Texte intégralKatariya, Sumeet, Branislav Kveton, Csaba Szepesvári, Claire Vernade et Zheng Wen. « Bernoulli Rank-1 Bandits for Click Feedback ». Dans Twenty-Sixth International Joint Conference on Artificial Intelligence. California : International Joint Conferences on Artificial Intelligence Organization, 2017. http://dx.doi.org/10.24963/ijcai.2017/278.
Texte intégral