Articles de revues sur le sujet « RL ALGORITHMS »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « RL ALGORITHMS ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Lahande, Prathamesh, Parag Kaveri et Jatinderkumar Saini. « Reinforcement Learning for Reducing the Interruptions and Increasing Fault Tolerance in the Cloud Environment ». Informatics 10, no 3 (2 août 2023) : 64. http://dx.doi.org/10.3390/informatics10030064.
Texte intégralTrella, Anna L., Kelly W. Zhang, Inbal Nahum-Shani, Vivek Shetty, Finale Doshi-Velez et Susan A. Murphy. « Designing Reinforcement Learning Algorithms for Digital Interventions : Pre-Implementation Guidelines ». Algorithms 15, no 8 (22 juillet 2022) : 255. http://dx.doi.org/10.3390/a15080255.
Texte intégralRodríguez Sánchez, Francisco, Ildeberto Santos-Ruiz, Joaquín Domínguez-Zenteno et Francisco Ronay López-Estrada. « Control Applications Using Reinforcement Learning : An Overview ». Memorias del Congreso Nacional de Control Automático 5, no 1 (17 octobre 2022) : 67–72. http://dx.doi.org/10.58571/cnca.amca.2022.019.
Texte intégralAbbass, Mahmoud Abdelkader Bashery, et Hyun-Soo Kang. « Drone Elevation Control Based on Python-Unity Integrated Framework for Reinforcement Learning Applications ». Drones 7, no 4 (24 mars 2023) : 225. http://dx.doi.org/10.3390/drones7040225.
Texte intégralMann, Timothy, et Yoonsuck Choe. « Scaling Up Reinforcement Learning through Targeted Exploration ». Proceedings of the AAAI Conference on Artificial Intelligence 25, no 1 (4 août 2011) : 435–40. http://dx.doi.org/10.1609/aaai.v25i1.7929.
Texte intégralCheng, Richard, Gábor Orosz, Richard M. Murray et Joel W. Burdick. « End-to-End Safe Reinforcement Learning through Barrier Functions for Safety-Critical Continuous Control Tasks ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 3387–95. http://dx.doi.org/10.1609/aaai.v33i01.33013387.
Texte intégralKirsch, Louis, Sebastian Flennerhag, Hado van Hasselt, Abram Friesen, Junhyuk Oh et Yutian Chen. « Introducing Symmetries to Black Box Meta Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 7 (28 juin 2022) : 7202–10. http://dx.doi.org/10.1609/aaai.v36i7.20681.
Texte intégralKim, Hyun-Su, et Uksun Kim. « Development of a Control Algorithm for a Semi-Active Mid-Story Isolation System Using Reinforcement Learning ». Applied Sciences 13, no 4 (4 février 2023) : 2053. http://dx.doi.org/10.3390/app13042053.
Texte intégralPrakash, Kritika, Fiza Husain, Praveen Paruchuri et Sujit Gujar. « How Private Is Your RL Policy ? An Inverse RL Based Analysis Framework ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 7 (28 juin 2022) : 8009–16. http://dx.doi.org/10.1609/aaai.v36i7.20772.
Texte intégralNiazi, Abdolkarim, Norizah Redzuan, Raja Ishak Raja Hamzah et Sara Esfandiari. « Improvement on Supporting Machine Learning Algorithm for Solving Problem in Immediate Decision Making ». Advanced Materials Research 566 (septembre 2012) : 572–79. http://dx.doi.org/10.4028/www.scientific.net/amr.566.572.
Texte intégralMu, Tong, Georgios Theocharous, David Arbour et Emma Brunskill. « Constraint Sampling Reinforcement Learning : Incorporating Expertise for Faster Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 7 (28 juin 2022) : 7841–49. http://dx.doi.org/10.1609/aaai.v36i7.20753.
Texte intégralKołota, Jakub, et Turhan Can Kargin. « Comparison of Various Reinforcement Learning Environments in the Context of Continuum Robot Control ». Applied Sciences 13, no 16 (11 août 2023) : 9153. http://dx.doi.org/10.3390/app13169153.
Texte intégralJang, Sun-Ho, Woo-Jin Ahn, Yu-Jin Kim, Hyung-Gil Hong, Dong-Sung Pae et Myo-Taeg Lim. « Stable and Efficient Reinforcement Learning Method for Avoidance Driving of Unmanned Vehicles ». Electronics 12, no 18 (6 septembre 2023) : 3773. http://dx.doi.org/10.3390/electronics12183773.
Texte intégralPeng, Zhiyong, Changlin Han, Yadong Liu et Zongtan Zhou. « Weighted Policy Constraints for Offline Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 8 (26 juin 2023) : 9435–43. http://dx.doi.org/10.1609/aaai.v37i8.26130.
Texte intégralTessler, Chen, Yuval Shpigelman, Gal Dalal, Amit Mandelbaum, Doron Haritan Kazakov, Benjamin Fuhrer, Gal Chechik et Shie Mannor. « Reinforcement Learning for Datacenter Congestion Control ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 11 (28 juin 2022) : 12615–21. http://dx.doi.org/10.1609/aaai.v36i11.21535.
Texte intégralJIANG, JU, MOHAMED S. KAMEL et LEI CHEN. « AGGREGATION OF MULTIPLE REINFORCEMENT LEARNING ALGORITHMS ». International Journal on Artificial Intelligence Tools 15, no 05 (octobre 2006) : 855–61. http://dx.doi.org/10.1142/s0218213006002990.
Texte intégralChen, Feng, Chenghe Wang, Fuxiang Zhang, Hao Ding, Qiaoyong Zhong, Shiliang Pu et Zongzhang Zhang. « Towards Deployment-Efficient and Collision-Free Multi-Agent Path Finding (Student Abstract) ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 13 (26 juin 2023) : 16182–83. http://dx.doi.org/10.1609/aaai.v37i13.26951.
Texte intégralGuo, Kun, et Qishan Zhang. « A Discrete Artificial Bee Colony Algorithm for the Reverse Logistics Location and Routing Problem ». International Journal of Information Technology & ; Decision Making 16, no 05 (septembre 2017) : 1339–57. http://dx.doi.org/10.1142/s0219622014500126.
Texte intégralPadakandla, Sindhu. « A Survey of Reinforcement Learning Algorithms for Dynamically Varying Environments ». ACM Computing Surveys 54, no 6 (juillet 2021) : 1–25. http://dx.doi.org/10.1145/3459991.
Texte intégralGaon, Maor, et Ronen Brafman. « Reinforcement Learning with Non-Markovian Rewards ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 3980–87. http://dx.doi.org/10.1609/aaai.v34i04.5814.
Texte intégralSun, Peiquan, Wengang Zhou et Houqiang Li. « Attentive Experience Replay ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 5900–5907. http://dx.doi.org/10.1609/aaai.v34i04.6049.
Texte intégralChen, Zaiwei. « A Unified Lyapunov Framework for Finite-Sample Analysis of Reinforcement Learning Algorithms ». ACM SIGMETRICS Performance Evaluation Review 50, no 3 (30 décembre 2022) : 12–15. http://dx.doi.org/10.1145/3579342.3579346.
Texte intégralYau, Kok-Lim Alvin, Geong-Sen Poh, Su Fong Chien et Hasan A. A. Al-Rawi. « Application of Reinforcement Learning in Cognitive Radio Networks : Models and Algorithms ». Scientific World Journal 2014 (2014) : 1–23. http://dx.doi.org/10.1155/2014/209810.
Texte intégralTessler, Chen, Yuval Shpigelman, Gal Dalal, Amit Mandelbaum, Doron Haritan Kazakov, Benjamin Fuhrer, Gal Chechik et Shie Mannor. « Reinforcement Learning for Datacenter Congestion Control ». ACM SIGMETRICS Performance Evaluation Review 49, no 2 (17 janvier 2022) : 43–46. http://dx.doi.org/10.1145/3512798.3512815.
Texte intégralJin, Zengwang, Menglu Ma, Shuting Zhang, Yanyan Hu, Yanning Zhang et Changyin Sun. « Secure State Estimation of Cyber-Physical System under Cyber Attacks : Q-Learning vs. SARSA ». Electronics 11, no 19 (1 octobre 2022) : 3161. http://dx.doi.org/10.3390/electronics11193161.
Texte intégralLi, Shaodong, Xiaogang Yuan et Jie Niu. « Robotic Peg-in-Hole Assembly Strategy Research Based on Reinforcement Learning Algorithm ». Applied Sciences 12, no 21 (3 novembre 2022) : 11149. http://dx.doi.org/10.3390/app122111149.
Texte intégralPan, Yaozong, Jian Zhang, Chunhui Yuan et Haitao Yang. « Supervised Reinforcement Learning via Value Function ». Symmetry 11, no 4 (24 avril 2019) : 590. http://dx.doi.org/10.3390/sym11040590.
Texte intégralKabanda, Professor Gabriel, Colletor Tendeukai Chipfumbu et Tinashe Chingoriwo. « A Reinforcement Learning Paradigm for Cybersecurity Education and Training ». Oriental journal of computer science and technology 16, no 01 (30 mai 2023) : 12–45. http://dx.doi.org/10.13005/ojcst16.01.02.
Texte intégralYousif, Ayman Basheer, Hassan Jaleel Hassan et Gaida Muttasher. « Applying reinforcement learning for random early detaction algorithm in adaptive queue management systems ». Indonesian Journal of Electrical Engineering and Computer Science 26, no 3 (1 juin 2022) : 1684. http://dx.doi.org/10.11591/ijeecs.v26.i3.pp1684-1691.
Texte intégralSzita, István, et András Lörincz. « Learning Tetris Using the Noisy Cross-Entropy Method ». Neural Computation 18, no 12 (décembre 2006) : 2936–41. http://dx.doi.org/10.1162/neco.2006.18.12.2936.
Texte intégralYe, Weicheng, et Dangxing Chen. « Analysis of Performance Measure in Q Learning with UCB Exploration ». Mathematics 10, no 4 (12 février 2022) : 575. http://dx.doi.org/10.3390/math10040575.
Texte intégralLin, Xingbin, Deyu Yuan et Xifei Li. « Reinforcement Learning with Dual Safety Policies for Energy Savings in Building Energy Systems ». Buildings 13, no 3 (21 février 2023) : 580. http://dx.doi.org/10.3390/buildings13030580.
Texte intégralLi, Luchen, et A. Aldo Faisal. « Bayesian Distributional Policy Gradients ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 10 (18 mai 2021) : 8429–37. http://dx.doi.org/10.1609/aaai.v35i10.17024.
Texte intégralGrewal, Yashvir S., Frits De Nijs et Sarah Goodwin. « Evaluating Meta-Reinforcement Learning through a HVAC Control Benchmark (Student Abstract) ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 18 (18 mai 2021) : 15785–86. http://dx.doi.org/10.1609/aaai.v35i18.17889.
Texte intégralVillalpando-Hernandez, Rafaela, Cesar Vargas-Rosales et David Munoz-Rodriguez. « Localization Algorithm for 3D Sensor Networks : A Recursive Data Fusion Approach ». Sensors 21, no 22 (17 novembre 2021) : 7626. http://dx.doi.org/10.3390/s21227626.
Texte intégralZhao, Richard, et Duane Szafron. « Learning Character Behaviors Using Agent Modeling in Games ». Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment 5, no 1 (16 octobre 2009) : 179–85. http://dx.doi.org/10.1609/aiide.v5i1.12369.
Texte intégralHu et Xu. « Fuzzy Reinforcement Learning and Curriculum Transfer Learning for Micromanagement in Multi-Robot Confrontation ». Information 10, no 11 (2 novembre 2019) : 341. http://dx.doi.org/10.3390/info10110341.
Texte intégralShen, Haocheng, Jason Yosinski, Petar Kormushev, Darwin G. Caldwell et Hod Lipson. « Learning Fast Quadruped Robot Gaits with the RL PoWER Spline Parameterization ». Cybernetics and Information Technologies 12, no 3 (1 septembre 2012) : 66–75. http://dx.doi.org/10.2478/cait-2012-0022.
Texte intégralShaposhnikova, Sofiia, et Dmytro Omelian. « TOWARDS EFFECTIVE STRATEGIES FOR MOBILE ROBOT USING REINFORCEMENT LEARNING AND GRAPH ALGORITHMS ». Automation of technological and business processes 15, no 2 (19 juin 2023) : 24–34. http://dx.doi.org/10.15673/atbp.v15i2.2522.
Texte intégralLiao, Hanlin. « Urban Intersection Simulation and Verification via Deep Reinforcement Learning Algorithms ». Journal of Physics : Conference Series 2435, no 1 (1 février 2023) : 012019. http://dx.doi.org/10.1088/1742-6596/2435/1/012019.
Texte intégralDing, Yuhao, Ming Jin et Javad Lavaei. « Non-stationary Risk-Sensitive Reinforcement Learning : Near-Optimal Dynamic Regret, Adaptive Detection, and Separation Design ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 6 (26 juin 2023) : 7405–13. http://dx.doi.org/10.1609/aaai.v37i6.25901.
Texte intégralSarkar, Soumyadip. « Quantitative Trading using Deep Q Learning ». International Journal for Research in Applied Science and Engineering Technology 11, no 4 (30 avril 2023) : 731–38. http://dx.doi.org/10.22214/ijraset.2023.50170.
Texte intégralZhang, Ningyan. « Analysis of reinforce learning in medical treatment ». Applied and Computational Engineering 5, no 1 (14 juin 2023) : 48–53. http://dx.doi.org/10.54254/2755-2721/5/20230527.
Texte intégralPuspitasari, Annisa Anggun, et Byung Moo Lee. « A Survey on Reinforcement Learning for Reconfigurable Intelligent Surfaces in Wireless Communications ». Sensors 23, no 5 (24 février 2023) : 2554. http://dx.doi.org/10.3390/s23052554.
Texte intégralDelipetrev, Blagoj, Andreja Jonoski et Dimitri P. Solomatine. « A novel nested stochastic dynamic programming (nSDP) and nested reinforcement learning (nRL) algorithm for multipurpose reservoir optimization ». Journal of Hydroinformatics 19, no 1 (17 septembre 2016) : 47–61. http://dx.doi.org/10.2166/hydro.2016.243.
Texte intégralWang, Mengmei. « Optimizing Multitask Assignment of Internet of Things Devices by Reinforcement Learning in Mobile Crowdsensing Scenes ». Security and Communication Networks 2022 (17 août 2022) : 1–10. http://dx.doi.org/10.1155/2022/6202237.
Texte intégralГайнетдинов, А. Ф. « NeRF IN REINFORCEMENT LEARNING FOR IMAGE RECOGNITION ». Южно-Сибирский научный вестник, no 2(48) (30 avril 2023) : 63–72. http://dx.doi.org/10.25699/sssb.2023.48.2.011.
Texte intégralNicola, Marcel, et Claudiu-Ionel Nicola. « Improvement of Linear and Nonlinear Control for PMSM Using Computational Intelligence and Reinforcement Learning ». Mathematics 10, no 24 (9 décembre 2022) : 4667. http://dx.doi.org/10.3390/math10244667.
Texte intégralYou, Haoyi, Beichen Yu, Haiming Jin, Zhaoxing Yang et Jiahui Sun. « User-Oriented Robust Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 12 (26 juin 2023) : 15269–77. http://dx.doi.org/10.1609/aaai.v37i12.26781.
Texte intégralYang, Bin, Muhammad Haseeb Arshad et Qing Zhao. « Packet-Level and Flow-Level Network Intrusion Detection Based on Reinforcement Learning and Adversarial Training ». Algorithms 15, no 12 (30 novembre 2022) : 453. http://dx.doi.org/10.3390/a15120453.
Texte intégral