Artículos de revistas sobre el tema "Multi-armed bandit formulation"
Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros
Consulte los 18 mejores artículos de revistas para su investigación sobre el tema "Multi-armed bandit formulation".
Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.
También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.
Explore artículos de revistas sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.
Dzhoha, A. S. "Sequential resource allocation in a stochastic environment: an overview and numerical experiments". Bulletin of Taras Shevchenko National University of Kyiv. Series: Physics and Mathematics, n.º 3 (2021): 13–25. http://dx.doi.org/10.17721/1812-5409.2021/3.1.
Texto completoZayas-Cabán, Gabriel, Stefanus Jasin y Guihua Wang. "An asymptotically optimal heuristic for general nonstationary finite-horizon restless multi-armed, multi-action bandits". Advances in Applied Probability 51, n.º 03 (septiembre de 2019): 745–72. http://dx.doi.org/10.1017/apr.2019.29.
Texto completoRoy Chaudhuri, Arghya y Shivaram Kalyanakrishnan. "Regret Minimisation in Multi-Armed Bandits Using Bounded Arm Memory". Proceedings of the AAAI Conference on Artificial Intelligence 34, n.º 06 (3 de abril de 2020): 10085–92. http://dx.doi.org/10.1609/aaai.v34i06.6566.
Texto completoAi, Jing y Alhussein A. Abouzeid. "Opportunistic spectrum access based on a constrained multi-armed bandit formulation". Journal of Communications and Networks 11, n.º 2 (abril de 2009): 134–47. http://dx.doi.org/10.1109/jcn.2009.6391388.
Texto completoBagheri, Saeed y Anna Scaglione. "The Restless Multi-Armed Bandit Formulation of the Cognitive Compressive Sensing Problem". IEEE Transactions on Signal Processing 63, n.º 5 (marzo de 2015): 1183–98. http://dx.doi.org/10.1109/tsp.2015.2389620.
Texto completoLi, Xinbin, Jiajia Liu, Lei Yan, Song Han y Xinping Guan. "Relay Selection for Underwater Acoustic Sensor Networks: A Multi-User Multi-Armed Bandit Formulation". IEEE Access 6 (2018): 7839–53. http://dx.doi.org/10.1109/access.2018.2801350.
Texto completoHo, Chien-Ju, Aleksandrs Slivkins y Jennifer Wortman Vaughan. "Adaptive Contract Design for Crowdsourcing Markets: Bandit Algorithms for Repeated Principal-Agent Problems". Journal of Artificial Intelligence Research 55 (3 de febrero de 2016): 317–59. http://dx.doi.org/10.1613/jair.4940.
Texto completoCavenaghi, Emanuele, Gabriele Sottocornola, Fabio Stella y Markus Zanker. "Non Stationary Multi-Armed Bandit: Empirical Evaluation of a New Concept Drift-Aware Algorithm". Entropy 23, n.º 3 (23 de marzo de 2021): 380. http://dx.doi.org/10.3390/e23030380.
Texto completoLi, Xinbin, Xianglin Xu, Lei Yan, Haihong Zhao y Tongwei Zhang. "Energy-Efficient Data Collection Using Autonomous Underwater Glider: A Reinforcement Learning Formulation". Sensors 20, n.º 13 (4 de julio de 2020): 3758. http://dx.doi.org/10.3390/s20133758.
Texto completoMohamed, Ehab Mahmoud, Mohammad Alnakhli, Sherief Hashima y Mohamed Abdel-Nasser. "Distribution of Multi MmWave UAV Mounted RIS Using Budget Constraint Multi-Player MAB". Electronics 12, n.º 1 (20 de diciembre de 2022): 12. http://dx.doi.org/10.3390/electronics12010012.
Texto completoHuanca-Anquise, Candy A., Ana Lúcia Cetertich Bazzan y Anderson R. Tavares. "Multi-Objective, Multi-Armed Bandits: Algorithms for Repeated Games and Application to Route Choice". Revista de Informática Teórica e Aplicada 30, n.º 1 (30 de enero de 2023): 11–23. http://dx.doi.org/10.22456/2175-2745.122929.
Texto completoRodriguez Diaz, Paula, Jackson A. Killian, Lily Xu, Arun Sai Suggala, Aparna Taneja y Milind Tambe. "Flexible Budgets in Restless Bandits: A Primal-Dual Algorithm for Efficient Budget Allocation". Proceedings of the AAAI Conference on Artificial Intelligence 37, n.º 10 (26 de junio de 2023): 12103–11. http://dx.doi.org/10.1609/aaai.v37i10.26427.
Texto completoYang, Yibo, Antoine Blanchard, Themistoklis Sapsis y Paris Perdikaris. "Output-weighted sampling for multi-armed bandits with extreme payoffs". Proceedings of the Royal Society A: Mathematical, Physical and Engineering Sciences 478, n.º 2260 (abril de 2022). http://dx.doi.org/10.1098/rspa.2021.0781.
Texto completoYang, Yibo, Antoine Blanchard, Themistoklis Sapsis y Paris Perdikaris. "Output-weighted sampling for multi-armed bandits with extreme payoffs". Proceedings of the Royal Society A: Mathematical, Physical and Engineering Sciences 478, n.º 2260 (abril de 2022). http://dx.doi.org/10.1098/rspa.2021.0781.
Texto completoTaywade, Kshitija, Brent Harrison, Adib Bagh y Judy Goldsmith. "Modelling Cournot Games as Multi-agent Multi-armed Bandits". International FLAIRS Conference Proceedings 35 (4 de mayo de 2022). http://dx.doi.org/10.32473/flairs.v35i.130697.
Texto completoMandel, Travis, Yun-En Liu, Emma Brunskill y Zoran Popović. "The Queue Method: Handling Delay, Heuristics, Prior Data, and Evaluation in Bandits". Proceedings of the AAAI Conference on Artificial Intelligence 29, n.º 1 (21 de febrero de 2015). http://dx.doi.org/10.1609/aaai.v29i1.9604.
Texto completoJagadeesan, Meena, Alexander Wei, Yixin Wang, Michael I. Jordan y Jacob Steinhardt. "Learning Equilibria in Matching Markets with Bandit Feedback". Journal of the ACM, 16 de febrero de 2023. http://dx.doi.org/10.1145/3583681.
Texto completoGullo, F., D. Mandaglio y A. Tagarelli. "A combinatorial multi-armed bandit approach to correlation clustering". Data Mining and Knowledge Discovery, 29 de junio de 2023. http://dx.doi.org/10.1007/s10618-023-00937-5.
Texto completo