Articles de revues sur le sujet « Bandit algorithm »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Bandit algorithm ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Ciucanu, Radu, Pascal Lafourcade, Gael Marcadet et Marta Soare. « SAMBA : A Generic Framework for Secure Federated Multi-Armed Bandits ». Journal of Artificial Intelligence Research 73 (23 février 2022) : 737–65. http://dx.doi.org/10.1613/jair.1.13163.
Texte intégralZhou, Huozhi, Lingda Wang, Lav Varshney et Ee-Peng Lim. « A Near-Optimal Change-Detection Based Algorithm for Piecewise-Stationary Combinatorial Semi-Bandits ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 6933–40. http://dx.doi.org/10.1609/aaai.v34i04.6176.
Texte intégralAzizi, Javad, Branislav Kveton, Mohammad Ghavamzadeh et Sumeet Katariya. « Meta-Learning for Simple Regret Minimization ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 6 (26 juin 2023) : 6709–17. http://dx.doi.org/10.1609/aaai.v37i6.25823.
Texte intégralKuroki, Yuko, Liyuan Xu, Atsushi Miyauchi, Junya Honda et Masashi Sugiyama. « Polynomial-Time Algorithms for Multiple-Arm Identification with Full-Bandit Feedback ». Neural Computation 32, no 9 (septembre 2020) : 1733–73. http://dx.doi.org/10.1162/neco_a_01299.
Texte intégralLi, Youxuan. « Improvement of the recommendation system based on the multi-armed bandit algorithm ». Applied and Computational Engineering 36, no 1 (22 janvier 2024) : 237–41. http://dx.doi.org/10.54254/2755-2721/36/20230453.
Texte intégralLiu, Zizhuo. « Investigation of progress and application related to Multi-Armed Bandit algorithms ». Applied and Computational Engineering 37, no 1 (22 janvier 2024) : 155–59. http://dx.doi.org/10.54254/2755-2721/37/20230496.
Texte intégralAgarwal, Mridul, Vaneet Aggarwal, Abhishek Kumar Umrawal et Chris Quinn. « DART : Adaptive Accept Reject Algorithm for Non-Linear Combinatorial Bandits ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 8 (18 mai 2021) : 6557–65. http://dx.doi.org/10.1609/aaai.v35i8.16812.
Texte intégralXue, Bo, Ji Cheng, Fei Liu, Yimu Wang et Qingfu Zhang. « Multiobjective Lipschitz Bandits under Lexicographic Ordering ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 15 (24 mars 2024) : 16238–46. http://dx.doi.org/10.1609/aaai.v38i15.29558.
Texte intégralSharaf, Amr, et Hal Daumé III. « Meta-Learning Effective Exploration Strategies for Contextual Bandits ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 11 (18 mai 2021) : 9541–48. http://dx.doi.org/10.1609/aaai.v35i11.17149.
Texte intégralNobari, Sadegh. « DBA : Dynamic Multi-Armed Bandit Algorithm ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 9869–70. http://dx.doi.org/10.1609/aaai.v33i01.33019869.
Texte intégralQu, Jiaming. « Survey of dynamic pricing based on Multi-Armed Bandit algorithms ». Applied and Computational Engineering 37, no 1 (22 janvier 2024) : 160–65. http://dx.doi.org/10.54254/2755-2721/37/20230497.
Texte intégralNiño-Mora, José. « A Fast-Pivoting Algorithm for Whittle’s Restless Bandit Index ». Mathematics 8, no 12 (15 décembre 2020) : 2226. http://dx.doi.org/10.3390/math8122226.
Texte intégralLamberton, Damien, et Gilles Pagès. « A penalized bandit algorithm ». Electronic Journal of Probability 13 (2008) : 341–73. http://dx.doi.org/10.1214/ejp.v13-489.
Texte intégralCheung, Wang Chi, David Simchi-Levi et Ruihao Zhu. « Hedging the Drift : Learning to Optimize Under Nonstationarity ». Management Science 68, no 3 (mars 2022) : 1696–713. http://dx.doi.org/10.1287/mnsc.2021.4024.
Texte intégralChen, Panyangjie. « Investigation of selection and application of Multi-Armed Bandit algorithms in recommendation system ». Applied and Computational Engineering 34, no 1 (22 janvier 2024) : 185–90. http://dx.doi.org/10.54254/2755-2721/34/20230323.
Texte intégralFourati, Fares, Christopher John Quinn, Mohamed-Slim Alouini et Vaneet Aggarwal. « Combinatorial Stochastic-Greedy Bandit ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 11 (24 mars 2024) : 12052–60. http://dx.doi.org/10.1609/aaai.v38i11.29093.
Texte intégralOswal, Urvashi, Aniruddha Bhargava et Robert Nowak. « Linear Bandits with Feature Feedback ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 5331–38. http://dx.doi.org/10.1609/aaai.v34i04.5980.
Texte intégralTang, Qiao, Hong Xie, Yunni Xia, Jia Lee et Qingsheng Zhu. « Robust Contextual Bandits via Bootstrapping ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 13 (18 mai 2021) : 12182–89. http://dx.doi.org/10.1609/aaai.v35i13.17446.
Texte intégralLi, Wenjie, Qifan Song, Jean Honorio et Guang Lin. « Federated X-armed Bandit ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 12 (24 mars 2024) : 13628–36. http://dx.doi.org/10.1609/aaai.v38i12.29267.
Texte intégralWang, Liangxu. « Investigation of frontier Multi-Armed Bandit algorithms and applications ». Applied and Computational Engineering 34, no 1 (22 janvier 2024) : 179–84. http://dx.doi.org/10.54254/2755-2721/34/20230322.
Texte intégralDu, Yihan, Siwei Wang et Longbo Huang. « A One-Size-Fits-All Solution to Conservative Bandit Problems ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 8 (18 mai 2021) : 7254–61. http://dx.doi.org/10.1609/aaai.v35i8.16891.
Texte intégralEsfandiari, Hossein, Amin Karbasi, Abbas Mehrabian et Vahab Mirrokni. « Regret Bounds for Batched Bandits ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 8 (18 mai 2021) : 7340–48. http://dx.doi.org/10.1609/aaai.v35i8.16901.
Texte intégralHan, Qi, Li Zhu et Fei Guo. « Forced Exploration in Bandit Problems ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 11 (24 mars 2024) : 12270–77. http://dx.doi.org/10.1609/aaai.v38i11.29117.
Texte intégralChen, Xijin, Kim May Lee, Sofia S. Villar et David S. Robertson. « Some performance considerations when using multi-armed bandit algorithms in the presence of missing data ». PLOS ONE 17, no 9 (12 septembre 2022) : e0274272. http://dx.doi.org/10.1371/journal.pone.0274272.
Texte intégralEne, Alina, Huy L. Nguyen et Adrian Vladu. « Projection-Free Bandit Optimization with Privacy Guarantees ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 8 (18 mai 2021) : 7322–30. http://dx.doi.org/10.1609/aaai.v35i8.16899.
Texte intégralChen, Tianfeng. « Empirical performances comparison for ETC algorithm ». Applied and Computational Engineering 13, no 1 (23 octobre 2023) : 29–36. http://dx.doi.org/10.54254/2755-2721/13/20230705.
Texte intégralZhu, Zhaowei, Jingxuan Zhu, Ji Liu et Yang Liu. « Federated Bandit ». Proceedings of the ACM on Measurement and Analysis of Computing Systems 5, no 1 (18 février 2021) : 1–29. http://dx.doi.org/10.1145/3447380.
Texte intégralRangi, Anshuka, Long Tran-Thanh, Haifeng Xu et Massimo Franceschetti. « Saving Stochastic Bandits from Poisoning Attacks via Limited Data Verification ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 7 (28 juin 2022) : 8054–61. http://dx.doi.org/10.1609/aaai.v36i7.20777.
Texte intégralAmani, Sanae, et Christos Thrampoulidis. « Decentralized Multi-Agent Linear Bandits with Safety Constraints ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 8 (18 mai 2021) : 6627–35. http://dx.doi.org/10.1609/aaai.v35i8.16820.
Texte intégralHuang, Wen, Lu Zhang et Xintao Wu. « Achieving Counterfactual Fairness for Causal Bandit ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 6 (28 juin 2022) : 6952–59. http://dx.doi.org/10.1609/aaai.v36i6.20653.
Texte intégralNarita, Yusuke, Shota Yasui et Kohei Yata. « Efficient Counterfactual Learning from Bandit Feedback ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 4634–41. http://dx.doi.org/10.1609/aaai.v33i01.33014634.
Texte intégralZhao, Shanshan, Wenhai Cui, Bei Jiang, Linglong Kong et Xiaodong Yan. « Responsible Bandit Learning via Privacy-Protected Mean-Volatility Utility ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 19 (24 mars 2024) : 21815–22. http://dx.doi.org/10.1609/aaai.v38i19.30182.
Texte intégralTolpin, David, et Solomon Shimony. « MCTS Based on Simple Rerget ». Proceedings of the International Symposium on Combinatorial Search 3, no 1 (20 août 2021) : 193–99. http://dx.doi.org/10.1609/socs.v3i1.18221.
Texte intégralLi, Litao. « Exploring Multi-Armed Bandit algorithms : Performance analysis in dynamic environments ». Applied and Computational Engineering 34, no 1 (22 janvier 2024) : 252–59. http://dx.doi.org/10.54254/2755-2721/34/20230338.
Texte intégralOh, Min-hwan, et Garud Iyengar. « Multinomial Logit Contextual Bandits : Provable Optimality and Practicality ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 10 (18 mai 2021) : 9205–13. http://dx.doi.org/10.1609/aaai.v35i10.17111.
Texte intégralVaratharajah, Yogatheesan, et Brent Berry. « A Contextual-Bandit-Based Approach for Informed Decision-Making in Clinical Trials ». Life 12, no 8 (21 août 2022) : 1277. http://dx.doi.org/10.3390/life12081277.
Texte intégralШиян, Дмитрий Николаевич, et Dmitry Shiyan. « One-armed bandit problem and the mirror descent algorithm ». Mathematical Game Theory and Applications 15, no 3 (2 février 2024) : 88–106. http://dx.doi.org/10.17076/mgta_2023_3_75.
Texte intégralYu, Junpu. « Thompson -Greedy Algorithm : An Improvement to the Regret of Thompson Sampling and -Greedy on Multi-Armed Bandit Problems ». Applied and Computational Engineering 8, no 1 (1 août 2023) : 525–34. http://dx.doi.org/10.54254/2755-2721/8/20230264.
Texte intégralGarcelon, Evrard, Mohammad Ghavamzadeh, Alessandro Lazaric et Matteo Pirotta. « Improved Algorithms for Conservative Exploration in Bandits ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 3962–69. http://dx.doi.org/10.1609/aaai.v34i04.5812.
Texte intégralKasy, Maximilian, et Anja Sautmann. « Adaptive Treatment Assignment in Experiments for Policy Choice ». Econometrica 89, no 1 (2021) : 113–32. http://dx.doi.org/10.3982/ecta17527.
Texte intégralOntanon, Santiago. « The Combinatorial Multi-Armed Bandit Problem and Its Application to Real-Time Strategy Games ». Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment 9, no 1 (30 juin 2021) : 58–64. http://dx.doi.org/10.1609/aiide.v9i1.12681.
Texte intégralPatil, Vishakha, Ganesh Ghalme, Vineet Nair et Y. Narahari. « Achieving Fairness in the Stochastic Multi-Armed Bandit Problem ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 5379–86. http://dx.doi.org/10.1609/aaai.v34i04.5986.
Texte intégralWang, Zhenlin, et Jonathan Scarlett. « Max-Min Grouped Bandits ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 8 (28 juin 2022) : 8603–11. http://dx.doi.org/10.1609/aaai.v36i8.20838.
Texte intégralSakakibara, Masaya, Akira Notsu, Seiki Ubukata et Katsuhiro Honda. « Designation of Candidate Solutions in Differential Evolution Based on Bandit Algorithm and its Evaluation ». Journal of Advanced Computational Intelligence and Intelligent Informatics 23, no 4 (20 juillet 2019) : 758–66. http://dx.doi.org/10.20965/jaciii.2019.p0758.
Texte intégralKim, Gi-Soo, Jane P. Kim et Hyun-Joon Yang. « Robust Tests in Online Decision-Making ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 9 (28 juin 2022) : 10016–24. http://dx.doi.org/10.1609/aaai.v36i9.21240.
Texte intégralMansour, Yishay, Aleksandrs Slivkins et Vasilis Syrgkanis. « Bayesian Incentive-Compatible Bandit Exploration ». Operations Research 68, no 4 (juillet 2020) : 1132–61. http://dx.doi.org/10.1287/opre.2019.1949.
Texte intégralDing, Wenkui, Tao Qin, Xu-Dong Zhang et Tie-Yan Liu. « Multi-Armed Bandit with Budget Constraint and Variable Costs ». Proceedings of the AAAI Conference on Artificial Intelligence 27, no 1 (30 juin 2013) : 232–38. http://dx.doi.org/10.1609/aaai.v27i1.8637.
Texte intégralLiu, Yizhi. « An investigation of progress related to stochastic stationary bandit algorithms ». Applied and Computational Engineering 34, no 1 (22 janvier 2024) : 197–201. http://dx.doi.org/10.54254/2755-2721/34/20230326.
Texte intégralKaibel, Chris, et Torsten Biemann. « Rethinking the Gold Standard With Multi-armed Bandits : Machine Learning Allocation Algorithms for Experiments ». Organizational Research Methods 24, no 1 (11 juin 2019) : 78–103. http://dx.doi.org/10.1177/1094428119854153.
Texte intégralLupu, Andrei, Audrey Durand et Doina Precup. « Leveraging Observations in Bandits : Between Risks and Benefits ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 6112–19. http://dx.doi.org/10.1609/aaai.v33i01.33016112.
Texte intégral