Artykuły w czasopismach na temat „Multiarmed Bandits”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 50 najlepszych artykułów w czasopismach naukowych na temat „Multiarmed Bandits”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj artykuły w czasopismach z różnych dziedzin i twórz odpowiednie bibliografie.
Righter, Rhonda, i J. George Shanthikumar. "Independently Expiring Multiarmed Bandits". Probability in the Engineering and Informational Sciences 12, nr 4 (październik 1998): 453–68. http://dx.doi.org/10.1017/s0269964800005325.
Pełny tekst źródłaGao, Xiujuan, Hao Liang i Tong Wang. "A Common Value Experimentation with Multiarmed Bandits". Mathematical Problems in Engineering 2018 (30.07.2018): 1–8. http://dx.doi.org/10.1155/2018/4791590.
Pełny tekst źródłaKalathil, Dileep, Naumaan Nayyar i Rahul Jain. "Decentralized Learning for Multiplayer Multiarmed Bandits". IEEE Transactions on Information Theory 60, nr 4 (kwiecień 2014): 2331–45. http://dx.doi.org/10.1109/tit.2014.2302471.
Pełny tekst źródłaCesa-Bianchi, Nicolò. "MULTIARMED BANDITS IN THE WORST CASE". IFAC Proceedings Volumes 35, nr 1 (2002): 91–96. http://dx.doi.org/10.3182/20020721-6-es-1901.01001.
Pełny tekst źródłaBray, Robert L., Decio Coviello, Andrea Ichino i Nicola Persico. "Multitasking, Multiarmed Bandits, and the Italian Judiciary". Manufacturing & Service Operations Management 18, nr 4 (październik 2016): 545–58. http://dx.doi.org/10.1287/msom.2016.0586.
Pełny tekst źródłaDenardo, Eric V., Haechurl Park i Uriel G. Rothblum. "Risk-Sensitive and Risk-Neutral Multiarmed Bandits". Mathematics of Operations Research 32, nr 2 (maj 2007): 374–94. http://dx.doi.org/10.1287/moor.1060.0240.
Pełny tekst źródłaWeber, Richard. "On the Gittins Index for Multiarmed Bandits". Annals of Applied Probability 2, nr 4 (listopad 1992): 1024–33. http://dx.doi.org/10.1214/aoap/1177005588.
Pełny tekst źródłaDrugan, Madalina M. "Covariance Matrix Adaptation for Multiobjective Multiarmed Bandits". IEEE Transactions on Neural Networks and Learning Systems 30, nr 8 (sierpień 2019): 2493–502. http://dx.doi.org/10.1109/tnnls.2018.2885123.
Pełny tekst źródłaBurnetas, Apostolos N., i Michael N. Katehakis. "ASYMPTOTIC BAYES ANALYSIS FOR THE FINITE-HORIZON ONE-ARMED-BANDIT PROBLEM". Probability in the Engineering and Informational Sciences 17, nr 1 (styczeń 2003): 53–82. http://dx.doi.org/10.1017/s0269964803171045.
Pełny tekst źródłaNayyar, Naumaan, Dileep Kalathil i Rahul Jain. "On Regret-Optimal Learning in Decentralized Multiplayer Multiarmed Bandits". IEEE Transactions on Control of Network Systems 5, nr 1 (marzec 2018): 597–606. http://dx.doi.org/10.1109/tcns.2016.2635380.
Pełny tekst źródłaReverdy, Paul B., Vaibhav Srivastava i Naomi Ehrich Leonard. "Modeling Human Decision Making in Generalized Gaussian Multiarmed Bandits". Proceedings of the IEEE 102, nr 4 (kwiecień 2014): 544–71. http://dx.doi.org/10.1109/jproc.2014.2307024.
Pełny tekst źródłaKrishnamurthy, Vikram, i Bo Wahlberg. "Partially Observed Markov Decision Process Multiarmed Bandits—Structural Results". Mathematics of Operations Research 34, nr 2 (maj 2009): 287–302. http://dx.doi.org/10.1287/moor.1080.0371.
Pełny tekst źródłaCamerlenghi, Federico, Bianca Dumitrascu, Federico Ferrari, Barbara E. Engelhardt i Stefano Favaro. "Nonparametric Bayesian multiarmed bandits for single-cell experiment design". Annals of Applied Statistics 14, nr 4 (grudzień 2020): 2003–19. http://dx.doi.org/10.1214/20-aoas1370.
Pełny tekst źródłaMintz, Yonatan, Anil Aswani, Philip Kaminsky, Elena Flowers i Yoshimi Fukuoka. "Nonstationary Bandits with Habituation and Recovery Dynamics". Operations Research 68, nr 5 (wrzesień 2020): 1493–516. http://dx.doi.org/10.1287/opre.2019.1918.
Pełny tekst źródłaGlazebrook, K. D., D. Ruiz-Hernandez i C. Kirkbride. "Some indexable families of restless bandit problems". Advances in Applied Probability 38, nr 3 (wrzesień 2006): 643–72. http://dx.doi.org/10.1239/aap/1158684996.
Pełny tekst źródłaGlazebrook, K. D., D. Ruiz-Hernandez i C. Kirkbride. "Some indexable families of restless bandit problems". Advances in Applied Probability 38, nr 03 (wrzesień 2006): 643–72. http://dx.doi.org/10.1017/s000186780000121x.
Pełny tekst źródłaMeshram, Rahul, D. Manjunath i Aditya Gopalan. "On the Whittle Index for Restless Multiarmed Hidden Markov Bandits". IEEE Transactions on Automatic Control 63, nr 9 (wrzesień 2018): 3046–53. http://dx.doi.org/10.1109/tac.2018.2799521.
Pełny tekst źródłaCaro, Felipe, i Onesun Steve Yoo. "INDEXABILITY OF BANDIT PROBLEMS WITH RESPONSE DELAYS". Probability in the Engineering and Informational Sciences 24, nr 3 (23.04.2010): 349–74. http://dx.doi.org/10.1017/s0269964810000021.
Pełny tekst źródłaGlazebrook, K. D., i R. Minty. "A Generalized Gittins Index for a Class of Multiarmed Bandits with General Resource Requirements". Mathematics of Operations Research 34, nr 1 (luty 2009): 26–44. http://dx.doi.org/10.1287/moor.1080.0342.
Pełny tekst źródłaFarias, Vivek F., i Ritesh Madan. "The Irrevocable Multiarmed Bandit Problem". Operations Research 59, nr 2 (kwiecień 2011): 383–99. http://dx.doi.org/10.1287/opre.1100.0891.
Pełny tekst źródłaAuer, Peter, Nicolò Cesa-Bianchi, Yoav Freund i Robert E. Schapire. "The Nonstochastic Multiarmed Bandit Problem". SIAM Journal on Computing 32, nr 1 (styczeń 2002): 48–77. http://dx.doi.org/10.1137/s0097539701398375.
Pełny tekst źródłaPeköz, Erol A. "Some memoryless bandit policies". Journal of Applied Probability 40, nr 1 (marzec 2003): 250–56. http://dx.doi.org/10.1239/jap/1044476838.
Pełny tekst źródłaPeköz, Erol A. "Some memoryless bandit policies". Journal of Applied Probability 40, nr 01 (marzec 2003): 250–56. http://dx.doi.org/10.1017/s0021900200022373.
Pełny tekst źródłaDayanik, Savas, Warren Powell i Kazutoshi Yamazaki. "Index policies for discounted bandit problems with availability constraints". Advances in Applied Probability 40, nr 2 (czerwiec 2008): 377–400. http://dx.doi.org/10.1239/aap/1214950209.
Pełny tekst źródłaDayanik, Savas, Warren Powell i Kazutoshi Yamazaki. "Index policies for discounted bandit problems with availability constraints". Advances in Applied Probability 40, nr 02 (czerwiec 2008): 377–400. http://dx.doi.org/10.1017/s0001867800002573.
Pełny tekst źródłaTsitsiklis, J. "A lemma on the multiarmed bandit problem". IEEE Transactions on Automatic Control 31, nr 6 (czerwiec 1986): 576–77. http://dx.doi.org/10.1109/tac.1986.1104332.
Pełny tekst źródłaReverdy, Paul, Vaibhav Srivastava i Naomi Ehrich Leonard. "Corrections to “Satisficing in Multiarmed Bandit Problems”". IEEE Transactions on Automatic Control 66, nr 1 (styczeń 2021): 476–78. http://dx.doi.org/10.1109/tac.2020.2981433.
Pełny tekst źródłaFrostig, Esther, i Gideon Weiss. "Four proofs of Gittins’ multiarmed bandit theorem". Annals of Operations Research 241, nr 1-2 (7.01.2014): 127–65. http://dx.doi.org/10.1007/s10479-013-1523-0.
Pełny tekst źródłaIshikida, Takashi, i Yat-wah Wan. "Scheduling Jobs That Are Subject to Deterministic Due Dates and Have Deteriorating Expected Rewards". Probability in the Engineering and Informational Sciences 11, nr 1 (styczeń 1997): 65–78. http://dx.doi.org/10.1017/s026996480000468x.
Pełny tekst źródłaJiang, Weijin, Pingping Chen, Wanqing Zhang, Yongxia Sun, Chen Junpeng i Qing Wen. "User Recruitment Algorithm for Maximizing Quality under Limited Budget in Mobile Crowdsensing". Discrete Dynamics in Nature and Society 2022 (20.01.2022): 1–13. http://dx.doi.org/10.1155/2022/4804231.
Pełny tekst źródłaZeng, Fanzi, i Xinwang Shen. "Channel Selection Based on Trust and Multiarmed Bandit in Multiuser, Multichannel Cognitive Radio Networks". Scientific World Journal 2014 (2014): 1–6. http://dx.doi.org/10.1155/2014/916156.
Pełny tekst źródłaMersereau, A. J., P. Rusmevichientong i J. N. Tsitsiklis. "A Structured Multiarmed Bandit Problem and the Greedy Policy". IEEE Transactions on Automatic Control 54, nr 12 (grudzień 2009): 2787–802. http://dx.doi.org/10.1109/tac.2009.2031725.
Pełny tekst źródłaVaraiya, P., J. Walrand i C. Buyukkoc. "Extensions of the multiarmed bandit problem: The discounted case". IEEE Transactions on Automatic Control 30, nr 5 (maj 1985): 426–39. http://dx.doi.org/10.1109/tac.1985.1103989.
Pełny tekst źródłaMartin, David M., i Fred A. Johnson. "A Multiarmed Bandit Approach to Adaptive Water Quality Management". Integrated Environmental Assessment and Management 16, nr 6 (14.08.2020): 841–52. http://dx.doi.org/10.1002/ieam.4302.
Pełny tekst źródłaKang, Xiaohan, Hong Ri, Mohd Nor Akmal Khalid i Hiroyuki Iida. "Addictive Games: Case Study on Multi-Armed Bandit Game". Information 12, nr 12 (15.12.2021): 521. http://dx.doi.org/10.3390/info12120521.
Pełny tekst źródłaMeng, Hao, Wasswa Shafik, S. Mojtaba Matinkhah i Zubair Ahmad. "A 5G Beam Selection Machine Learning Algorithm for Unmanned Aerial Vehicle Applications". Wireless Communications and Mobile Computing 2020 (1.08.2020): 1–16. http://dx.doi.org/10.1155/2020/1428968.
Pełny tekst źródłaChang, Hyeong Soo, i Sanghee Choe. "Combining Multiple Strategies for Multiarmed Bandit Problems and Asymptotic Optimality". Journal of Control Science and Engineering 2015 (2015): 1–7. http://dx.doi.org/10.1155/2015/264953.
Pełny tekst źródłaYoshida, Y. "Optimal stopping problems for multiarmed bandit processes with arms' independence". Computers & Mathematics with Applications 26, nr 12 (grudzień 1993): 47–60. http://dx.doi.org/10.1016/0898-1221(93)90058-4.
Pełny tekst źródłaGokcesu, Kaan, i Suleyman Serdar Kozat. "An Online Minimax Optimal Algorithm for Adversarial Multiarmed Bandit Problem". IEEE Transactions on Neural Networks and Learning Systems 29, nr 11 (listopad 2018): 5565–80. http://dx.doi.org/10.1109/tnnls.2018.2806006.
Pełny tekst źródłaMisra, Kanishka, Eric M. Schwartz i Jacob Abernethy. "Dynamic Online Pricing with Incomplete Information Using Multiarmed Bandit Experiments". Marketing Science 38, nr 2 (marzec 2019): 226–52. http://dx.doi.org/10.1287/mksc.2018.1129.
Pełny tekst źródłaToelch, Ulf, Matthew J. Bruce, Marius T. H. Meeus i Simon M. Reader. "Humans copy rapidly increasing choices in a multiarmed bandit problem". Evolution and Human Behavior 31, nr 5 (wrzesień 2010): 326–33. http://dx.doi.org/10.1016/j.evolhumbehav.2010.03.002.
Pełny tekst źródłaMuqattash, Isa, i Jiaqiao Hu. "An ϵ-Greedy Multiarmed Bandit Approach to Markov Decision Processes". Stats 6, nr 1 (1.01.2023): 99–112. http://dx.doi.org/10.3390/stats6010006.
Pełny tekst źródłaMansour, Yishay, Aleksandrs Slivkins i Vasilis Syrgkanis. "Bayesian Incentive-Compatible Bandit Exploration". Operations Research 68, nr 4 (lipiec 2020): 1132–61. http://dx.doi.org/10.1287/opre.2019.1949.
Pełny tekst źródłaUriarte, Alberto, i Santiago Ontañón. "Improving Monte Carlo Tree Search Policies in StarCraft via Probabilistic Models Learned from Replay Data". Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment 12, nr 1 (25.06.2021): 100–106. http://dx.doi.org/10.1609/aiide.v12i1.12852.
Pełny tekst źródłaQu, Yuben, Chao Dong, Dawei Niu, Hai Wang i Chang Tian. "A Two-Dimensional Multiarmed Bandit Approach to Secondary Users with Network Coding in Cognitive Radio Networks". Mathematical Problems in Engineering 2015 (2015): 1–10. http://dx.doi.org/10.1155/2015/672837.
Pełny tekst źródłaBao, Wenqing, Xiaoqiang Cai i Xianyi Wu. "A General Theory of MultiArmed Bandit Processes with Constrained Arm Switches". SIAM Journal on Control and Optimization 59, nr 6 (styczeń 2021): 4666–88. http://dx.doi.org/10.1137/19m1282386.
Pełny tekst źródłaDrabik, Ewa. "On nearly selfoptimizing strategies for multiarmed bandit problems with controlled arms". Applicationes Mathematicae 23, nr 4 (1996): 449–73. http://dx.doi.org/10.4064/am-23-4-449-473.
Pełny tekst źródłaLiu, Haoyang, Keqin Liu i Qing Zhao. "Learning in a Changing World: Restless Multiarmed Bandit With Unknown Dynamics". IEEE Transactions on Information Theory 59, nr 3 (marzec 2013): 1902–16. http://dx.doi.org/10.1109/tit.2012.2230215.
Pełny tekst źródłaAgrawal, Himanshu, i Krishna Asawa. "Decentralized Learning for Opportunistic Spectrum Access: Multiuser Restless Multiarmed Bandit Formulation". IEEE Systems Journal 14, nr 2 (czerwiec 2020): 2485–96. http://dx.doi.org/10.1109/jsyst.2019.2943361.
Pełny tekst źródłaNakayama, Kazuaki, Ryuzo Nakamura, Masato Hisakado i Shintaro Mori. "Optimal learning dynamics of multiagent system in restless multiarmed bandit game". Physica A: Statistical Mechanics and its Applications 549 (lipiec 2020): 124314. http://dx.doi.org/10.1016/j.physa.2020.124314.
Pełny tekst źródła