Gotowa bibliografia na temat „Multi-armed bandit formulation”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Multi-armed bandit formulation”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Artykuły w czasopismach na temat "Multi-armed bandit formulation"
Dzhoha, A. S. "Sequential resource allocation in a stochastic environment: an overview and numerical experiments". Bulletin of Taras Shevchenko National University of Kyiv. Series: Physics and Mathematics, nr 3 (2021): 13–25. http://dx.doi.org/10.17721/1812-5409.2021/3.1.
Pełny tekst źródłaZayas-Cabán, Gabriel, Stefanus Jasin i Guihua Wang. "An asymptotically optimal heuristic for general nonstationary finite-horizon restless multi-armed, multi-action bandits". Advances in Applied Probability 51, nr 03 (wrzesień 2019): 745–72. http://dx.doi.org/10.1017/apr.2019.29.
Pełny tekst źródłaRoy Chaudhuri, Arghya, i Shivaram Kalyanakrishnan. "Regret Minimisation in Multi-Armed Bandits Using Bounded Arm Memory". Proceedings of the AAAI Conference on Artificial Intelligence 34, nr 06 (3.04.2020): 10085–92. http://dx.doi.org/10.1609/aaai.v34i06.6566.
Pełny tekst źródłaAi, Jing, i Alhussein A. Abouzeid. "Opportunistic spectrum access based on a constrained multi-armed bandit formulation". Journal of Communications and Networks 11, nr 2 (kwiecień 2009): 134–47. http://dx.doi.org/10.1109/jcn.2009.6391388.
Pełny tekst źródłaBagheri, Saeed, i Anna Scaglione. "The Restless Multi-Armed Bandit Formulation of the Cognitive Compressive Sensing Problem". IEEE Transactions on Signal Processing 63, nr 5 (marzec 2015): 1183–98. http://dx.doi.org/10.1109/tsp.2015.2389620.
Pełny tekst źródłaLi, Xinbin, Jiajia Liu, Lei Yan, Song Han i Xinping Guan. "Relay Selection for Underwater Acoustic Sensor Networks: A Multi-User Multi-Armed Bandit Formulation". IEEE Access 6 (2018): 7839–53. http://dx.doi.org/10.1109/access.2018.2801350.
Pełny tekst źródłaHo, Chien-Ju, Aleksandrs Slivkins i Jennifer Wortman Vaughan. "Adaptive Contract Design for Crowdsourcing Markets: Bandit Algorithms for Repeated Principal-Agent Problems". Journal of Artificial Intelligence Research 55 (3.02.2016): 317–59. http://dx.doi.org/10.1613/jair.4940.
Pełny tekst źródłaCavenaghi, Emanuele, Gabriele Sottocornola, Fabio Stella i Markus Zanker. "Non Stationary Multi-Armed Bandit: Empirical Evaluation of a New Concept Drift-Aware Algorithm". Entropy 23, nr 3 (23.03.2021): 380. http://dx.doi.org/10.3390/e23030380.
Pełny tekst źródłaLi, Xinbin, Xianglin Xu, Lei Yan, Haihong Zhao i Tongwei Zhang. "Energy-Efficient Data Collection Using Autonomous Underwater Glider: A Reinforcement Learning Formulation". Sensors 20, nr 13 (4.07.2020): 3758. http://dx.doi.org/10.3390/s20133758.
Pełny tekst źródłaMohamed, Ehab Mahmoud, Mohammad Alnakhli, Sherief Hashima i Mohamed Abdel-Nasser. "Distribution of Multi MmWave UAV Mounted RIS Using Budget Constraint Multi-Player MAB". Electronics 12, nr 1 (20.12.2022): 12. http://dx.doi.org/10.3390/electronics12010012.
Pełny tekst źródłaRozprawy doktorskie na temat "Multi-armed bandit formulation"
Ghalme, Ganesh Sambhaji. "Algorithms for Social Good in Online Platforms with Guarantees on Honest Participation and Fairness". Thesis, 2020. https://etd.iisc.ac.in/handle/2005/4573.
Pełny tekst źródłaCzęści książek na temat "Multi-armed bandit formulation"
Pini, Giovanni, Arne Brutschy, Gianpiero Francesca, Marco Dorigo i Mauro Birattari. "Multi-armed Bandit Formulation of the Task Partitioning Problem in Swarm Robotics". W Lecture Notes in Computer Science, 109–20. Berlin, Heidelberg: Springer Berlin Heidelberg, 2012. http://dx.doi.org/10.1007/978-3-642-32650-9_10.
Pełny tekst źródłaStreszczenia konferencji na temat "Multi-armed bandit formulation"
Bouneffouf, Djallel, Irina Rish, Guillermo Cecchi i Raphaël Féraud. "Context Attentive Bandits: Contextual Bandit with Restricted Context". W Twenty-Sixth International Joint Conference on Artificial Intelligence. California: International Joint Conferences on Artificial Intelligence Organization, 2017. http://dx.doi.org/10.24963/ijcai.2017/203.
Pełny tekst źródłaAvrachenkov, Konstantin, Laura Cottatellucci i Lorenzo Maggi. "Slow fading channel selection: A restless multi-armed bandit formulation". W 2012 9th International Symposium on Wireless Communication Systems (ISWCS 2012). IEEE, 2012. http://dx.doi.org/10.1109/iswcs.2012.6328535.
Pełny tekst źródłaCheung, Mei Yi, Joshua Leighton i Franz S. Hover. "Multi-armed bandit formulation for autonomous mobile acoustic relay adaptive positioning". W 2013 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2013. http://dx.doi.org/10.1109/icra.2013.6631165.
Pełny tekst źródłaFeki, Afef, i Veronique Capdevielle. "Autonomous resource allocation for dense LTE networks: A Multi Armed Bandit formulation". W 2011 IEEE 22nd International Symposium on Personal, Indoor and Mobile Radio Communications - (PIMRC 2011). IEEE, 2011. http://dx.doi.org/10.1109/pimrc.2011.6140047.
Pełny tekst źródłaBarbato, Antimo, Lin Chen, Fabio Martignon i Stefano Paris. "A multi-armed bandit formulation for distributed appliances scheduling in smart grids". W 2014 IEEE Online Conference on Green Communications (OnlineGreencomm). IEEE, 2014. http://dx.doi.org/10.1109/onlinegreencom.2014.7114418.
Pełny tekst źródłaGai, Yi, Bhaskar Krishnamachari i Rahul Jain. "Learning Multiuser Channel Allocations in Cognitive Radio Networks: A Combinatorial Multi-Armed Bandit Formulation". W 2010 IEEE International Symposium on New Frontiers in Dynamic Spectrum Access Networks (IEEE DySPAN). IEEE, 2010. http://dx.doi.org/10.1109/dyspan.2010.5457857.
Pełny tekst źródłaChen, Kun, Kechao Cai, Longbo Huang i John C. S. Lui. "Beyond the Click-Through Rate: Web Link Selection with Multi-level Feedback". W Twenty-Seventh International Joint Conference on Artificial Intelligence {IJCAI-18}. California: International Joint Conferences on Artificial Intelligence Organization, 2018. http://dx.doi.org/10.24963/ijcai.2018/459.
Pełny tekst źródłaElSayed, Karim A., Ilias Bilionis i Jitesh H. Panchal. "Evaluating Heuristics in Engineering Design: A Reinforcement Learning Approach". W ASME 2021 International Design Engineering Technical Conferences and Computers and Information in Engineering Conference. American Society of Mechanical Engineers, 2021. http://dx.doi.org/10.1115/detc2021-70425.
Pełny tekst źródła