Articles de revues sur le sujet « Algorithme de bandit »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Algorithme de bandit ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Ciucanu, Radu, Pascal Lafourcade, Gael Marcadet et Marta Soare. « SAMBA : A Generic Framework for Secure Federated Multi-Armed Bandits ». Journal of Artificial Intelligence Research 73 (23 février 2022) : 737–65. http://dx.doi.org/10.1613/jair.1.13163.
Texte intégralAzizi, Javad, Branislav Kveton, Mohammad Ghavamzadeh et Sumeet Katariya. « Meta-Learning for Simple Regret Minimization ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 6 (26 juin 2023) : 6709–17. http://dx.doi.org/10.1609/aaai.v37i6.25823.
Texte intégralZhou, Huozhi, Lingda Wang, Lav Varshney et Ee-Peng Lim. « A Near-Optimal Change-Detection Based Algorithm for Piecewise-Stationary Combinatorial Semi-Bandits ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 6933–40. http://dx.doi.org/10.1609/aaai.v34i04.6176.
Texte intégralLi, Youxuan. « Improvement of the recommendation system based on the multi-armed bandit algorithm ». Applied and Computational Engineering 36, no 1 (22 janvier 2024) : 237–41. http://dx.doi.org/10.54254/2755-2721/36/20230453.
Texte intégralKuroki, Yuko, Liyuan Xu, Atsushi Miyauchi, Junya Honda et Masashi Sugiyama. « Polynomial-Time Algorithms for Multiple-Arm Identification with Full-Bandit Feedback ». Neural Computation 32, no 9 (septembre 2020) : 1733–73. http://dx.doi.org/10.1162/neco_a_01299.
Texte intégralNiño-Mora, José. « A Fast-Pivoting Algorithm for Whittle’s Restless Bandit Index ». Mathematics 8, no 12 (15 décembre 2020) : 2226. http://dx.doi.org/10.3390/math8122226.
Texte intégralOswal, Urvashi, Aniruddha Bhargava et Robert Nowak. « Linear Bandits with Feature Feedback ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 5331–38. http://dx.doi.org/10.1609/aaai.v34i04.5980.
Texte intégralAgarwal, Mridul, Vaneet Aggarwal, Abhishek Kumar Umrawal et Chris Quinn. « DART : Adaptive Accept Reject Algorithm for Non-Linear Combinatorial Bandits ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 8 (18 mai 2021) : 6557–65. http://dx.doi.org/10.1609/aaai.v35i8.16812.
Texte intégralQu, Jiaming. « Survey of dynamic pricing based on Multi-Armed Bandit algorithms ». Applied and Computational Engineering 37, no 1 (22 janvier 2024) : 160–65. http://dx.doi.org/10.54254/2755-2721/37/20230497.
Texte intégralWan, Zongqi, Zhijie Zhang, Tongyang Li, Jialin Zhang et Xiaoming Sun. « Quantum Multi-Armed Bandits and Stochastic Linear Bandits Enjoy Logarithmic Regrets ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 8 (26 juin 2023) : 10087–94. http://dx.doi.org/10.1609/aaai.v37i8.26202.
Texte intégralDu, Yihan, Siwei Wang et Longbo Huang. « A One-Size-Fits-All Solution to Conservative Bandit Problems ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 8 (18 mai 2021) : 7254–61. http://dx.doi.org/10.1609/aaai.v35i8.16891.
Texte intégralXue, Bo, Ji Cheng, Fei Liu, Yimu Wang et Qingfu Zhang. « Multiobjective Lipschitz Bandits under Lexicographic Ordering ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 15 (24 mars 2024) : 16238–46. http://dx.doi.org/10.1609/aaai.v38i15.29558.
Texte intégralLiu, Zizhuo. « Investigation of progress and application related to Multi-Armed Bandit algorithms ». Applied and Computational Engineering 37, no 1 (22 janvier 2024) : 155–59. http://dx.doi.org/10.54254/2755-2721/37/20230496.
Texte intégralSharaf, Amr, et Hal Daumé III. « Meta-Learning Effective Exploration Strategies for Contextual Bandits ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 11 (18 mai 2021) : 9541–48. http://dx.doi.org/10.1609/aaai.v35i11.17149.
Texte intégralDimakopoulou, Maria, Zhengyuan Zhou, Susan Athey et Guido Imbens. « Balanced Linear Contextual Bandits ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 3445–53. http://dx.doi.org/10.1609/aaai.v33i01.33013445.
Texte intégralTolpin, David, et Solomon Shimony. « MCTS Based on Simple Rerget ». Proceedings of the International Symposium on Combinatorial Search 3, no 1 (20 août 2021) : 193–99. http://dx.doi.org/10.1609/socs.v3i1.18221.
Texte intégralWang, Liangxu. « Investigation of frontier Multi-Armed Bandit algorithms and applications ». Applied and Computational Engineering 34, no 1 (22 janvier 2024) : 179–84. http://dx.doi.org/10.54254/2755-2721/34/20230322.
Texte intégralAmani, Sanae, et Christos Thrampoulidis. « Decentralized Multi-Agent Linear Bandits with Safety Constraints ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 8 (18 mai 2021) : 6627–35. http://dx.doi.org/10.1609/aaai.v35i8.16820.
Texte intégralWang, Zhiyong, Xutong Liu, Shuai Li et John C. S. Lui. « Efficient Explorative Key-Term Selection Strategies for Conversational Contextual Bandits ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 8 (26 juin 2023) : 10288–95. http://dx.doi.org/10.1609/aaai.v37i8.26225.
Texte intégralWang, Zhenlin, et Jonathan Scarlett. « Max-Min Grouped Bandits ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 8 (28 juin 2022) : 8603–11. http://dx.doi.org/10.1609/aaai.v36i8.20838.
Texte intégralLi, Litao. « Exploring Multi-Armed Bandit algorithms : Performance analysis in dynamic environments ». Applied and Computational Engineering 34, no 1 (22 janvier 2024) : 252–59. http://dx.doi.org/10.54254/2755-2721/34/20230338.
Texte intégralYang, Luting, Jianyi Yang et Shaolei Ren. « Contextual Bandits with Delayed Feedback and Semi-supervised Learning (Student Abstract) ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 18 (18 mai 2021) : 15943–44. http://dx.doi.org/10.1609/aaai.v35i18.17968.
Texte intégralYu, Baosheng, Meng Fang et Dacheng Tao. « Per-Round Knapsack-Constrained Linear Submodular Bandits ». Neural Computation 28, no 12 (décembre 2016) : 2757–89. http://dx.doi.org/10.1162/neco_a_00887.
Texte intégralRoy Chaudhuri, Arghya, et Shivaram Kalyanakrishnan. « Regret Minimisation in Multi-Armed Bandits Using Bounded Arm Memory ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 06 (3 avril 2020) : 10085–92. http://dx.doi.org/10.1609/aaai.v34i06.6566.
Texte intégralKaibel, Chris, et Torsten Biemann. « Rethinking the Gold Standard With Multi-armed Bandits : Machine Learning Allocation Algorithms for Experiments ». Organizational Research Methods 24, no 1 (11 juin 2019) : 78–103. http://dx.doi.org/10.1177/1094428119854153.
Texte intégralXi, Guangyu, Chao Tao et Yuan Zhou. « Near-Optimal MNL Bandits Under Risk Criteria ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 12 (18 mai 2021) : 10397–404. http://dx.doi.org/10.1609/aaai.v35i12.17245.
Texte intégralNiño-Mora, José. « Restless bandits, partial conservation laws and indexability ». Advances in Applied Probability 33, no 1 (mars 2001) : 76–98. http://dx.doi.org/10.1017/s0001867800010648.
Texte intégralCheung, Wang Chi, David Simchi-Levi et Ruihao Zhu. « Hedging the Drift : Learning to Optimize Under Nonstationarity ». Management Science 68, no 3 (mars 2022) : 1696–713. http://dx.doi.org/10.1287/mnsc.2021.4024.
Texte intégralVaratharajah, Yogatheesan, et Brent Berry. « A Contextual-Bandit-Based Approach for Informed Decision-Making in Clinical Trials ». Life 12, no 8 (21 août 2022) : 1277. http://dx.doi.org/10.3390/life12081277.
Texte intégralChen, Panyangjie. « Investigation of selection and application of Multi-Armed Bandit algorithms in recommendation system ». Applied and Computational Engineering 34, no 1 (22 janvier 2024) : 185–90. http://dx.doi.org/10.54254/2755-2721/34/20230323.
Texte intégralChen, Xijin, Kim May Lee, Sofia S. Villar et David S. Robertson. « Some performance considerations when using multi-armed bandit algorithms in the presence of missing data ». PLOS ONE 17, no 9 (12 septembre 2022) : e0274272. http://dx.doi.org/10.1371/journal.pone.0274272.
Texte intégralHuang, Wen, Lu Zhang et Xintao Wu. « Achieving Counterfactual Fairness for Causal Bandit ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 6 (28 juin 2022) : 6952–59. http://dx.doi.org/10.1609/aaai.v36i6.20653.
Texte intégralEsfandiari, Hossein, Amin Karbasi, Abbas Mehrabian et Vahab Mirrokni. « Regret Bounds for Batched Bandits ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 8 (18 mai 2021) : 7340–48. http://dx.doi.org/10.1609/aaai.v35i8.16901.
Texte intégralYan, Xue, Yali Du, Binxin Ru, Jun Wang, Haifeng Zhang et Xu Chen. « Learning to Identify Top Elo Ratings : A Dueling Bandits Approach ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 8 (28 juin 2022) : 8797–805. http://dx.doi.org/10.1609/aaai.v36i8.20860.
Texte intégralOntañón, Santiago. « Combinatorial Multi-armed Bandits for Real-Time Strategy Games ». Journal of Artificial Intelligence Research 58 (29 mars 2017) : 665–702. http://dx.doi.org/10.1613/jair.5398.
Texte intégralTang, Qiao, Hong Xie, Yunni Xia, Jia Lee et Qingsheng Zhu. « Robust Contextual Bandits via Bootstrapping ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 13 (18 mai 2021) : 12182–89. http://dx.doi.org/10.1609/aaai.v35i13.17446.
Texte intégralTornede, Alexander, Viktor Bengs et Eyke Hüllermeier. « Machine Learning for Online Algorithm Selection under Censored Feedback ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 9 (28 juin 2022) : 10370–80. http://dx.doi.org/10.1609/aaai.v36i9.21279.
Texte intégralFourati, Fares, Christopher John Quinn, Mohamed-Slim Alouini et Vaneet Aggarwal. « Combinatorial Stochastic-Greedy Bandit ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 11 (24 mars 2024) : 12052–60. http://dx.doi.org/10.1609/aaai.v38i11.29093.
Texte intégralBarman, Siddharth, Arindam Khan, Arnab Maiti et Ayush Sawarni. « Fairness and Welfare Quantification for Regret in Multi-Armed Bandits ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 6 (26 juin 2023) : 6762–69. http://dx.doi.org/10.1609/aaai.v37i6.25829.
Texte intégralLi, Wenjie, Qifan Song, Jean Honorio et Guang Lin. « Federated X-armed Bandit ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 12 (24 mars 2024) : 13628–36. http://dx.doi.org/10.1609/aaai.v38i12.29267.
Texte intégralTolpin, David, et Solomon Shimony. « MCTS Based on Simple Regret ». Proceedings of the AAAI Conference on Artificial Intelligence 26, no 1 (20 septembre 2021) : 570–76. http://dx.doi.org/10.1609/aaai.v26i1.8126.
Texte intégralEne, Alina, Huy L. Nguyen et Adrian Vladu. « Projection-Free Bandit Optimization with Privacy Guarantees ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 8 (18 mai 2021) : 7322–30. http://dx.doi.org/10.1609/aaai.v35i8.16899.
Texte intégralWu, Chenyue. « Comparative analysis of the KL-UCB and UCB algorithms : Delving into complexity and performance ». Applied and Computational Engineering 53, no 1 (28 mars 2024) : 39–47. http://dx.doi.org/10.54254/2755-2721/53/20241221.
Texte intégralHerlihy, Christine, et John P. Dickerson. « Networked Restless Bandits with Positive Externalities ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 10 (26 juin 2023) : 11997–2004. http://dx.doi.org/10.1609/aaai.v37i10.26415.
Texte intégralNobari, Sadegh. « DBA : Dynamic Multi-Armed Bandit Algorithm ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 9869–70. http://dx.doi.org/10.1609/aaai.v33i01.33019869.
Texte intégralMintz, Yonatan, Anil Aswani, Philip Kaminsky, Elena Flowers et Yoshimi Fukuoka. « Nonstationary Bandits with Habituation and Recovery Dynamics ». Operations Research 68, no 5 (septembre 2020) : 1493–516. http://dx.doi.org/10.1287/opre.2019.1918.
Texte intégralHan, Qi, Li Zhu et Fei Guo. « Forced Exploration in Bandit Problems ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 11 (24 mars 2024) : 12270–77. http://dx.doi.org/10.1609/aaai.v38i11.29117.
Texte intégralLupu, Andrei, Audrey Durand et Doina Precup. « Leveraging Observations in Bandits : Between Risks and Benefits ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 6112–19. http://dx.doi.org/10.1609/aaai.v33i01.33016112.
Texte intégralOntanon, Santiago. « The Combinatorial Multi-Armed Bandit Problem and Its Application to Real-Time Strategy Games ». Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment 9, no 1 (30 juin 2021) : 58–64. http://dx.doi.org/10.1609/aiide.v9i1.12681.
Texte intégralNarita, Yusuke, Shota Yasui et Kohei Yata. « Efficient Counterfactual Learning from Bandit Feedback ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 4634–41. http://dx.doi.org/10.1609/aaai.v33i01.33014634.
Texte intégral