Artykuły w czasopismach na temat „Multi-armed bandit formulation”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 18 najlepszych artykułów w czasopismach naukowych na temat „Multi-armed bandit formulation”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj artykuły w czasopismach z różnych dziedzin i twórz odpowiednie bibliografie.
Dzhoha, A. S. "Sequential resource allocation in a stochastic environment: an overview and numerical experiments". Bulletin of Taras Shevchenko National University of Kyiv. Series: Physics and Mathematics, nr 3 (2021): 13–25. http://dx.doi.org/10.17721/1812-5409.2021/3.1.
Pełny tekst źródłaZayas-Cabán, Gabriel, Stefanus Jasin i Guihua Wang. "An asymptotically optimal heuristic for general nonstationary finite-horizon restless multi-armed, multi-action bandits". Advances in Applied Probability 51, nr 03 (wrzesień 2019): 745–72. http://dx.doi.org/10.1017/apr.2019.29.
Pełny tekst źródłaRoy Chaudhuri, Arghya, i Shivaram Kalyanakrishnan. "Regret Minimisation in Multi-Armed Bandits Using Bounded Arm Memory". Proceedings of the AAAI Conference on Artificial Intelligence 34, nr 06 (3.04.2020): 10085–92. http://dx.doi.org/10.1609/aaai.v34i06.6566.
Pełny tekst źródłaAi, Jing, i Alhussein A. Abouzeid. "Opportunistic spectrum access based on a constrained multi-armed bandit formulation". Journal of Communications and Networks 11, nr 2 (kwiecień 2009): 134–47. http://dx.doi.org/10.1109/jcn.2009.6391388.
Pełny tekst źródłaBagheri, Saeed, i Anna Scaglione. "The Restless Multi-Armed Bandit Formulation of the Cognitive Compressive Sensing Problem". IEEE Transactions on Signal Processing 63, nr 5 (marzec 2015): 1183–98. http://dx.doi.org/10.1109/tsp.2015.2389620.
Pełny tekst źródłaLi, Xinbin, Jiajia Liu, Lei Yan, Song Han i Xinping Guan. "Relay Selection for Underwater Acoustic Sensor Networks: A Multi-User Multi-Armed Bandit Formulation". IEEE Access 6 (2018): 7839–53. http://dx.doi.org/10.1109/access.2018.2801350.
Pełny tekst źródłaHo, Chien-Ju, Aleksandrs Slivkins i Jennifer Wortman Vaughan. "Adaptive Contract Design for Crowdsourcing Markets: Bandit Algorithms for Repeated Principal-Agent Problems". Journal of Artificial Intelligence Research 55 (3.02.2016): 317–59. http://dx.doi.org/10.1613/jair.4940.
Pełny tekst źródłaCavenaghi, Emanuele, Gabriele Sottocornola, Fabio Stella i Markus Zanker. "Non Stationary Multi-Armed Bandit: Empirical Evaluation of a New Concept Drift-Aware Algorithm". Entropy 23, nr 3 (23.03.2021): 380. http://dx.doi.org/10.3390/e23030380.
Pełny tekst źródłaLi, Xinbin, Xianglin Xu, Lei Yan, Haihong Zhao i Tongwei Zhang. "Energy-Efficient Data Collection Using Autonomous Underwater Glider: A Reinforcement Learning Formulation". Sensors 20, nr 13 (4.07.2020): 3758. http://dx.doi.org/10.3390/s20133758.
Pełny tekst źródłaMohamed, Ehab Mahmoud, Mohammad Alnakhli, Sherief Hashima i Mohamed Abdel-Nasser. "Distribution of Multi MmWave UAV Mounted RIS Using Budget Constraint Multi-Player MAB". Electronics 12, nr 1 (20.12.2022): 12. http://dx.doi.org/10.3390/electronics12010012.
Pełny tekst źródłaHuanca-Anquise, Candy A., Ana Lúcia Cetertich Bazzan i Anderson R. Tavares. "Multi-Objective, Multi-Armed Bandits: Algorithms for Repeated Games and Application to Route Choice". Revista de Informática Teórica e Aplicada 30, nr 1 (30.01.2023): 11–23. http://dx.doi.org/10.22456/2175-2745.122929.
Pełny tekst źródłaRodriguez Diaz, Paula, Jackson A. Killian, Lily Xu, Arun Sai Suggala, Aparna Taneja i Milind Tambe. "Flexible Budgets in Restless Bandits: A Primal-Dual Algorithm for Efficient Budget Allocation". Proceedings of the AAAI Conference on Artificial Intelligence 37, nr 10 (26.06.2023): 12103–11. http://dx.doi.org/10.1609/aaai.v37i10.26427.
Pełny tekst źródłaYang, Yibo, Antoine Blanchard, Themistoklis Sapsis i Paris Perdikaris. "Output-weighted sampling for multi-armed bandits with extreme payoffs". Proceedings of the Royal Society A: Mathematical, Physical and Engineering Sciences 478, nr 2260 (kwiecień 2022). http://dx.doi.org/10.1098/rspa.2021.0781.
Pełny tekst źródłaYang, Yibo, Antoine Blanchard, Themistoklis Sapsis i Paris Perdikaris. "Output-weighted sampling for multi-armed bandits with extreme payoffs". Proceedings of the Royal Society A: Mathematical, Physical and Engineering Sciences 478, nr 2260 (kwiecień 2022). http://dx.doi.org/10.1098/rspa.2021.0781.
Pełny tekst źródłaTaywade, Kshitija, Brent Harrison, Adib Bagh i Judy Goldsmith. "Modelling Cournot Games as Multi-agent Multi-armed Bandits". International FLAIRS Conference Proceedings 35 (4.05.2022). http://dx.doi.org/10.32473/flairs.v35i.130697.
Pełny tekst źródłaMandel, Travis, Yun-En Liu, Emma Brunskill i Zoran Popović. "The Queue Method: Handling Delay, Heuristics, Prior Data, and Evaluation in Bandits". Proceedings of the AAAI Conference on Artificial Intelligence 29, nr 1 (21.02.2015). http://dx.doi.org/10.1609/aaai.v29i1.9604.
Pełny tekst źródłaJagadeesan, Meena, Alexander Wei, Yixin Wang, Michael I. Jordan i Jacob Steinhardt. "Learning Equilibria in Matching Markets with Bandit Feedback". Journal of the ACM, 16.02.2023. http://dx.doi.org/10.1145/3583681.
Pełny tekst źródłaGullo, F., D. Mandaglio i A. Tagarelli. "A combinatorial multi-armed bandit approach to correlation clustering". Data Mining and Knowledge Discovery, 29.06.2023. http://dx.doi.org/10.1007/s10618-023-00937-5.
Pełny tekst źródła