Gotowa bibliografia na temat „Multiarmed Bandits”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Multiarmed Bandits”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Artykuły w czasopismach na temat "Multiarmed Bandits"
Righter, Rhonda, i J. George Shanthikumar. "Independently Expiring Multiarmed Bandits". Probability in the Engineering and Informational Sciences 12, nr 4 (październik 1998): 453–68. http://dx.doi.org/10.1017/s0269964800005325.
Pełny tekst źródłaGao, Xiujuan, Hao Liang i Tong Wang. "A Common Value Experimentation with Multiarmed Bandits". Mathematical Problems in Engineering 2018 (30.07.2018): 1–8. http://dx.doi.org/10.1155/2018/4791590.
Pełny tekst źródłaKalathil, Dileep, Naumaan Nayyar i Rahul Jain. "Decentralized Learning for Multiplayer Multiarmed Bandits". IEEE Transactions on Information Theory 60, nr 4 (kwiecień 2014): 2331–45. http://dx.doi.org/10.1109/tit.2014.2302471.
Pełny tekst źródłaCesa-Bianchi, Nicolò. "MULTIARMED BANDITS IN THE WORST CASE". IFAC Proceedings Volumes 35, nr 1 (2002): 91–96. http://dx.doi.org/10.3182/20020721-6-es-1901.01001.
Pełny tekst źródłaBray, Robert L., Decio Coviello, Andrea Ichino i Nicola Persico. "Multitasking, Multiarmed Bandits, and the Italian Judiciary". Manufacturing & Service Operations Management 18, nr 4 (październik 2016): 545–58. http://dx.doi.org/10.1287/msom.2016.0586.
Pełny tekst źródłaDenardo, Eric V., Haechurl Park i Uriel G. Rothblum. "Risk-Sensitive and Risk-Neutral Multiarmed Bandits". Mathematics of Operations Research 32, nr 2 (maj 2007): 374–94. http://dx.doi.org/10.1287/moor.1060.0240.
Pełny tekst źródłaWeber, Richard. "On the Gittins Index for Multiarmed Bandits". Annals of Applied Probability 2, nr 4 (listopad 1992): 1024–33. http://dx.doi.org/10.1214/aoap/1177005588.
Pełny tekst źródłaDrugan, Madalina M. "Covariance Matrix Adaptation for Multiobjective Multiarmed Bandits". IEEE Transactions on Neural Networks and Learning Systems 30, nr 8 (sierpień 2019): 2493–502. http://dx.doi.org/10.1109/tnnls.2018.2885123.
Pełny tekst źródłaBurnetas, Apostolos N., i Michael N. Katehakis. "ASYMPTOTIC BAYES ANALYSIS FOR THE FINITE-HORIZON ONE-ARMED-BANDIT PROBLEM". Probability in the Engineering and Informational Sciences 17, nr 1 (styczeń 2003): 53–82. http://dx.doi.org/10.1017/s0269964803171045.
Pełny tekst źródłaNayyar, Naumaan, Dileep Kalathil i Rahul Jain. "On Regret-Optimal Learning in Decentralized Multiplayer Multiarmed Bandits". IEEE Transactions on Control of Network Systems 5, nr 1 (marzec 2018): 597–606. http://dx.doi.org/10.1109/tcns.2016.2635380.
Pełny tekst źródłaRozprawy doktorskie na temat "Multiarmed Bandits"
Lin, Haixia 1977. "Multiple machine maintenance : applying a separable value function approximation to a variation of the multiarmed bandit". Thesis, Massachusetts Institute of Technology, 2002. http://hdl.handle.net/1721.1/87269.
Pełny tekst źródłaSaha, Aadirupa. "Battle of Bandits: Online Learning from Subsetwise Preferences and Other Structured Feedback". Thesis, 2020. https://etd.iisc.ac.in/handle/2005/5184.
Pełny tekst źródłaMann, Timothy 1984. "Scaling Up Reinforcement Learning without Sacrificing Optimality by Constraining Exploration". Thesis, 2012. http://hdl.handle.net/1969.1/148402.
Pełny tekst źródłaCzęści książek na temat "Multiarmed Bandits"
Lee, Chia-Jung, Yalei Yang, Sheng-Hui Meng i Tien-Wen Sung. "Adversarial Multiarmed Bandit Problems in Gradually Evolving Worlds". W Advances in Smart Vehicular Technology, Transportation, Communication and Applications, 305–11. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-70730-3_36.
Pełny tekst źródła"Multiarmed Bandits". W Mathematical Analysis of Machine Learning Algorithms, 326–44. Cambridge University Press, 2023. http://dx.doi.org/10.1017/9781009093057.017.
Pełny tekst źródłaAgrawal, Shipra. "Recent Advances in Multiarmed Bandits for Sequential Decision Making". W Operations Research & Management Science in the Age of Analytics, 167–88. INFORMS, 2019. http://dx.doi.org/10.1287/educ.2019.0204.
Pełny tekst źródłaStreszczenia konferencji na temat "Multiarmed Bandits"
Niño-Mora, José. "An Index Policy for Multiarmed Multimode Restless Bandits". W 3rd International ICST Conference on Performance Evaluation Methodologies and Tools. ICST, 2008. http://dx.doi.org/10.4108/icst.valuetools2008.4410.
Pełny tekst źródłaLandgren, Peter, Vaibhav Srivastava i Naomi Ehrich Leonard. "On distributed cooperative decision-making in multiarmed bandits". W 2016 European Control Conference (ECC). IEEE, 2016. http://dx.doi.org/10.1109/ecc.2016.7810293.
Pełny tekst źródłaNino-Mora, José. "Computing an Index Policy for Multiarmed Bandits with Deadlines". W 3rd International ICST Conference on Performance Evaluation Methodologies and Tools. ICST, 2008. http://dx.doi.org/10.4108/icst.valuetools2008.4406.
Pełny tekst źródłaSrivastava, Vaibhav, Paul Reverdy i Naomi E. Leonard. "Surveillance in an abruptly changing world via multiarmed bandits". W 2014 IEEE 53rd Annual Conference on Decision and Control (CDC). IEEE, 2014. http://dx.doi.org/10.1109/cdc.2014.7039462.
Pełny tekst źródłaLandgren, Peter, Vaibhav Srivastava i Naomi Ehrich Leonard. "Distributed cooperative decision-making in multiarmed bandits: Frequentist and Bayesian algorithms". W 2016 IEEE 55th Conference on Decision and Control (CDC). IEEE, 2016. http://dx.doi.org/10.1109/cdc.2016.7798264.
Pełny tekst źródłaLandgren, Peter, Vaibhav Srivastava i Naomi Ehrich Leonard. "Social Imitation in Cooperative Multiarmed Bandits: Partition-Based Algorithms with Strictly Local Information". W 2018 IEEE Conference on Decision and Control (CDC). IEEE, 2018. http://dx.doi.org/10.1109/cdc.2018.8619744.
Pełny tekst źródłaAnantharam, V., i P. Varaiya. "Asymptotically efficient rules in multiarmed Bandit problems". W 1986 25th IEEE Conference on Decision and Control. IEEE, 1986. http://dx.doi.org/10.1109/cdc.1986.267217.
Pełny tekst źródłaGummadi, Ramakrishna, Ramesh Johari i Jia Yuan Yu. "Mean field equilibria of multiarmed bandit games". W the 13th ACM Conference. New York, New York, USA: ACM Press, 2012. http://dx.doi.org/10.1145/2229012.2229060.
Pełny tekst źródłaMersereau, Adam J., Paat Rusmevichientong i John N. Tsitsiklis. "A structured multiarmed bandit problem and the greedy policy". W 2008 47th IEEE Conference on Decision and Control. IEEE, 2008. http://dx.doi.org/10.1109/cdc.2008.4738680.
Pełny tekst źródłaWei, Lai, i Vaibhav Srivatsva. "On Abruptly-Changing and Slowly-Varying Multiarmed Bandit Problems". W 2018 Annual American Control Conference (ACC). IEEE, 2018. http://dx.doi.org/10.23919/acc.2018.8431265.
Pełny tekst źródła