Articles de revues sur le sujet « Actor-critic methods »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Actor-critic methods ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Parisi, Simone, Voot Tangkaratt, Jan Peters et Mohammad Emtiyaz Khan. « TD-regularized actor-critic methods ». Machine Learning 108, no 8-9 (21 février 2019) : 1467–501. http://dx.doi.org/10.1007/s10994-019-05788-0.
Texte intégralWang, Jing, Xuchu Ding, Morteza Lahijanian, Ioannis Ch Paschalidis et Calin A. Belta. « Temporal logic motion control using actor–critic methods ». International Journal of Robotics Research 34, no 10 (26 mai 2015) : 1329–44. http://dx.doi.org/10.1177/0278364915581505.
Texte intégralGrondman, I., M. Vaandrager, L. Busoniu, R. Babuska et E. Schuitema. « Efficient Model Learning Methods for Actor–Critic Control ». IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics) 42, no 3 (juin 2012) : 591–602. http://dx.doi.org/10.1109/tsmcb.2011.2170565.
Texte intégralWang, Mingyi, Jianhao Tang, Haoli Zhao, Zhenni Li et Shengli Xie. « Automatic Compression of Neural Network with Deep Reinforcement Learning Based on Proximal Gradient Method ». Mathematics 11, no 2 (9 janvier 2023) : 338. http://dx.doi.org/10.3390/math11020338.
Texte intégralSu, Jianyu, Stephen Adams et Peter Beling. « Value-Decomposition Multi-Agent Actor-Critics ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 13 (18 mai 2021) : 11352–60. http://dx.doi.org/10.1609/aaai.v35i13.17353.
Texte intégralSaglam, Baturay, Furkan B. Mutlu, Dogan C. Cicek et Suleyman S. Kozat. « Actor Prioritized Experience Replay ». Journal of Artificial Intelligence Research 78 (16 novembre 2023) : 639–72. http://dx.doi.org/10.1613/jair.1.14819.
Texte intégralSeo, Kanghyeon, et Jihoon Yang. « Differentially Private Actor and Its Eligibility Trace ». Electronics 9, no 9 (10 septembre 2020) : 1486. http://dx.doi.org/10.3390/electronics9091486.
Texte intégralSaglam, Baturay, Furkan Mutlu, Dogan Cicek et Suleyman Kozat. « Actor Prioritized Experience Replay (Abstract Reprint) ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 20 (24 mars 2024) : 22710. http://dx.doi.org/10.1609/aaai.v38i20.30610.
Texte intégralHafez, Muhammad Burhan, Cornelius Weber, Matthias Kerzel et Stefan Wermter. « Deep intrinsically motivated continuous actor-critic for efficient robotic visuomotor skill learning ». Paladyn, Journal of Behavioral Robotics 10, no 1 (1 janvier 2019) : 14–29. http://dx.doi.org/10.1515/pjbr-2019-0005.
Texte intégralKong, Minseok, et Jungmin So. « Empirical Analysis of Automated Stock Trading Using Deep Reinforcement Learning ». Applied Sciences 13, no 1 (3 janvier 2023) : 633. http://dx.doi.org/10.3390/app13010633.
Texte intégralHernandez-Leal, Pablo, Bilal Kartal et Matthew E. Taylor. « Agent Modeling as Auxiliary Task for Deep Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment 15, no 1 (8 octobre 2019) : 31–37. http://dx.doi.org/10.1609/aiide.v15i1.5221.
Texte intégralArvindhan, M., et D. Rajesh Kumar. « Adaptive Resource Allocation in Cloud Data Centers using Actor-Critical Deep Reinforcement Learning for Optimized Load Balancing ». International Journal on Recent and Innovation Trends in Computing and Communication 11, no 5s (18 mai 2023) : 310–18. http://dx.doi.org/10.17762/ijritcc.v11i5s.6671.
Texte intégralAws, Ahmad, Arkadij Yuschenko et Vladimir Soloviev. « End-to-end deep reinforcement learning for control of an autonomous underwater robot with an undulating propulsor ». Robotics and Technical Cybernetics 12, no 1 (mars 2024) : 36–45. http://dx.doi.org/10.31776/rtcj.12105.
Texte intégralZhang, Haifeng, Weizhe Chen, Zeren Huang, Minne Li, Yaodong Yang, Weinan Zhang et Jun Wang. « Bi-Level Actor-Critic for Multi-Agent Coordination ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 05 (3 avril 2020) : 7325–32. http://dx.doi.org/10.1609/aaai.v34i05.6226.
Texte intégralLuo, Ziwei, Jing Hu, Xin Wang, Shu Hu, Bin Kong, Youbing Yin, Qi Song, Xi Wu et Siwei Lyu. « Stochastic Planner-Actor-Critic for Unsupervised Deformable Image Registration ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 2 (28 juin 2022) : 1917–25. http://dx.doi.org/10.1609/aaai.v36i2.20086.
Texte intégralAslani, Mohammad, Mohammad Saadi Mesgari, Stefan Seipel et Marco Wiering. « Developing adaptive traffic signal control by actor–critic and direct exploration methods ». Proceedings of the Institution of Civil Engineers - Transport 172, no 5 (octobre 2019) : 289–98. http://dx.doi.org/10.1680/jtran.17.00085.
Texte intégralDoya, Kenji. « Reinforcement Learning in Continuous Time and Space ». Neural Computation 12, no 1 (1 janvier 2000) : 219–45. http://dx.doi.org/10.1162/089976600300015961.
Texte intégralZhu, Qingling, Xiaoqiang Wu, Qiuzhen Lin et Wei-Neng Chen. « Two-Stage Evolutionary Reinforcement Learning for Enhancing Exploration and Exploitation ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 18 (24 mars 2024) : 20892–900. http://dx.doi.org/10.1609/aaai.v38i18.30079.
Texte intégralJain, Arushi, Gandharv Patil, Ayush Jain, Khimya Khetarpal et Doina Precup. « Variance Penalized On-Policy and Off-Policy Actor-Critic ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 9 (18 mai 2021) : 7899–907. http://dx.doi.org/10.1609/aaai.v35i9.16964.
Texte intégralRyu, Heechang, Hayong Shin et Jinkyoo Park. « Multi-Agent Actor-Critic with Hierarchical Graph Attention Network ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 05 (3 avril 2020) : 7236–43. http://dx.doi.org/10.1609/aaai.v34i05.6214.
Texte intégralShi, Daming, Xudong Guo, Yi Liu et Wenhui Fan. « Optimal Policy of Multiplayer Poker via Actor-Critic Reinforcement Learning ». Entropy 24, no 6 (30 mai 2022) : 774. http://dx.doi.org/10.3390/e24060774.
Texte intégralWang, Hui, Peng Zhang et Quan Liu. « An Actor-critic Algorithm Using Cross Evaluation of Value Functions ». IAES International Journal of Robotics and Automation (IJRA) 7, no 1 (1 mars 2018) : 39. http://dx.doi.org/10.11591/ijra.v7i1.pp39-47.
Texte intégralZhang, Zuozhen, Junzhong Ji et Jinduo Liu. « MetaRLEC : Meta-Reinforcement Learning for Discovery of Brain Effective Connectivity ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 9 (24 mars 2024) : 10261–69. http://dx.doi.org/10.1609/aaai.v38i9.28892.
Texte intégralZhao, Nan, Zehua Liu, Yiqiang Cheng et Chao Tian. « Multi-Agent Actor Critic for Channel Allocation in Heterogeneous Networks ». International Journal of Mobile Computing and Multimedia Communications 11, no 1 (janvier 2020) : 23–41. http://dx.doi.org/10.4018/ijmcmc.2020010102.
Texte intégralChen, Haibo, Zhongwei Huang, Xiaorong Zhao, Xiao Liu, Youjun Jiang, Pinyong Geng, Guang Yang, Yewen Cao et Deqiang Wang. « Policy Optimization of the Power Allocation Algorithm Based on the Actor–Critic Framework in Small Cell Networks ». Mathematics 11, no 7 (2 avril 2023) : 1702. http://dx.doi.org/10.3390/math11071702.
Texte intégralYang, Qisong, Thiago D. Simão, Simon H. Tindemans et Matthijs T. J. Spaan. « WCSAC : Worst-Case Soft Actor Critic for Safety-Constrained Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 12 (18 mai 2021) : 10639–46. http://dx.doi.org/10.1609/aaai.v35i12.17272.
Texte intégralWang, Zhihai, Jie Wang, Qi Zhou, Bin Li et Houqiang Li. « Sample-Efficient Reinforcement Learning via Conservative Model-Based Actor-Critic ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 8 (28 juin 2022) : 8612–20. http://dx.doi.org/10.1609/aaai.v36i8.20839.
Texte intégralZhong, Shan, Quan Liu et QiMing Fu. « Efficient Actor-Critic Algorithm with Hierarchical Model Learning and Planning ». Computational Intelligence and Neuroscience 2016 (2016) : 1–15. http://dx.doi.org/10.1155/2016/4824072.
Texte intégralWu, Zhenning, Yiming Deng et Lixing Wang. « A Pinning Actor-Critic Structure-Based Algorithm for Sizing Complex-Shaped Depth Profiles in MFL Inspection with High Degree of Freedom ». Complexity 2021 (23 avril 2021) : 1–12. http://dx.doi.org/10.1155/2021/9995033.
Texte intégralLiang, Kun, Guoqiang Zhang, Jinhui Guo et Wentao Li. « An Actor-Critic Hierarchical Reinforcement Learning Model for Course Recommendation ». Electronics 12, no 24 (8 décembre 2023) : 4939. http://dx.doi.org/10.3390/electronics12244939.
Texte intégralKwon, Ki-Young, Keun-Woo Jung, Dong-Su Yang et Jooyoung Park. « Autonomous Vehicle Path Tracking Based on Natural Gradient Methods ». Journal of Advanced Computational Intelligence and Intelligent Informatics 16, no 7 (20 novembre 2012) : 888–93. http://dx.doi.org/10.20965/jaciii.2012.p0888.
Texte intégralLi, Yarong. « Sequence Alignment with Q-Learning Based on the Actor-Critic Model ». ACM Transactions on Asian and Low-Resource Language Information Processing 20, no 5 (2 juillet 2021) : 1–7. http://dx.doi.org/10.1145/3433540.
Texte intégralJiang, Liang, Ying Nan, Yu Zhang et Zhihan Li. « Anti-Interception Guidance for Hypersonic Glide Vehicle : A Deep Reinforcement Learning Approach ». Aerospace 9, no 8 (4 août 2022) : 424. http://dx.doi.org/10.3390/aerospace9080424.
Texte intégralLikmeta, Amarildo, Matteo Sacco, Alberto Maria Metelli et Marcello Restelli. « Wasserstein Actor-Critic : Directed Exploration via Optimism for Continuous-Actions Control ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 7 (26 juin 2023) : 8782–90. http://dx.doi.org/10.1609/aaai.v37i7.26056.
Texte intégralShi, Lei, Tian Li, Lin Wei, Yongcai Tao, Cuixia Li et Yufei Gao. « FASTune : Towards Fast and Stable Database Tuning System with Reinforcement Learning ». Electronics 12, no 10 (10 mai 2023) : 2168. http://dx.doi.org/10.3390/electronics12102168.
Texte intégralYu, Zhiwen, Wenjie Zheng, Kaiwen Zeng, Ruifeng Zhao, Yanxu Zhang et Mengdi Zeng. « Energy optimization management of microgrid using improved soft actor-critic algorithm ». International Journal of Renewable Energy Development 13, no 2 (20 février 2024) : 329–39. http://dx.doi.org/10.61435/ijred.2024.59988.
Texte intégralIsmail, Ahmed, et Mustafa Baysal. « Dynamic Pricing Based on Demand Response Using Actor–Critic Agent Reinforcement Learning ». Energies 16, no 14 (19 juillet 2023) : 5469. http://dx.doi.org/10.3390/en16145469.
Texte intégralDrechsler, M. Funk, T. A. Fiorentin et H. Göllinger. « Actor-Critic Traction Control Based on Reinforcement Learning with Open-Loop Training ». Modelling and Simulation in Engineering 2021 (7 décembre 2021) : 1–10. http://dx.doi.org/10.1155/2021/4641450.
Texte intégralWu, Jiying, Zhong Yang, Haoze Zhuo, Changliang Xu, Chi Zhang, Naifeng He, Luwei Liao et Zhiyong Wang. « A Supervised Reinforcement Learning Algorithm for Controlling Drone Hovering ». Drones 8, no 3 (20 février 2024) : 69. http://dx.doi.org/10.3390/drones8030069.
Texte intégralQian, Tiancheng, Xue Mei, Pengxiang Xu, Kangqi Ge et Zhelei Qiu. « Filtration network : A frame sampling strategy via deep reinforcement learning for video captioning ». Journal of Intelligent & ; Fuzzy Systems 40, no 6 (21 juin 2021) : 11085–97. http://dx.doi.org/10.3233/jifs-202249.
Texte intégralWang, Xinshui, Ke Meng, Xu Wang, Zhibin Liu et Yuefeng Ma. « Dynamic User Resource Allocation for Downlink Multicarrier NOMA with an Actor–Critic Method ». Energies 16, no 7 (24 mars 2023) : 2984. http://dx.doi.org/10.3390/en16072984.
Texte intégralMelo, Francisco. « Differential Eligibility Vectors for Advantage Updating and Gradient Methods ». Proceedings of the AAAI Conference on Artificial Intelligence 25, no 1 (4 août 2011) : 441–46. http://dx.doi.org/10.1609/aaai.v25i1.7938.
Texte intégralLyu, Xueguang, Andrea Baisero, Yuchen Xiao, Brett Daley et Christopher Amato. « On Centralized Critics in Multi-Agent Reinforcement Learning ». Journal of Artificial Intelligence Research 77 (31 mai 2023) : 295–354. http://dx.doi.org/10.1613/jair.1.14386.
Texte intégralZhao, Mingjun, Haijiang Wu, Di Niu et Xiaoli Wang. « Reinforced Curriculum Learning on Pre-Trained Neural Machine Translation Models ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 05 (3 avril 2020) : 9652–59. http://dx.doi.org/10.1609/aaai.v34i05.6513.
Texte intégralZhao, Jun, Qingliang Zeng et Bin Guo. « Adaptive Critic Learning-Based Robust Control of Systems with Uncertain Dynamics ». Computational Intelligence and Neuroscience 2021 (16 novembre 2021) : 1–8. http://dx.doi.org/10.1155/2021/2952115.
Texte intégralYue, Longfei, Rennong Yang, Jialiang Zuo, Mengda Yan, Xiaoru Zhao et Maolong Lv. « Factored Multi-Agent Soft Actor-Critic for Cooperative Multi-Target Tracking of UAV Swarms ». Drones 7, no 3 (22 février 2023) : 150. http://dx.doi.org/10.3390/drones7030150.
Texte intégralZhou, Kun, Wenyong Wang, Teng Hu et Kai Deng. « Application of Improved Asynchronous Advantage Actor Critic Reinforcement Learning Model on Anomaly Detection ». Entropy 23, no 3 (25 février 2021) : 274. http://dx.doi.org/10.3390/e23030274.
Texte intégralLu, Junqi, Xinning Wu, Su Cao, Xiangke Wang et Huangchao Yu. « An Implementation of Actor-Critic Algorithm on Spiking Neural Network Using Temporal Coding Method ». Applied Sciences 12, no 20 (16 octobre 2022) : 10430. http://dx.doi.org/10.3390/app122010430.
Texte intégralOh, Sang Ho, Jeongyoon Kim, Jae Hoon Nah et Jongyoul Park. « Employing Deep Reinforcement Learning to Cyber-Attack Simulation for Enhancing Cybersecurity ». Electronics 13, no 3 (30 janvier 2024) : 555. http://dx.doi.org/10.3390/electronics13030555.
Texte intégralSun, Zhiyao, et Guifen Chen. « Enhancing Heterogeneous Network Performance : Advanced Content Popularity Prediction and Efficient Caching ». Electronics 13, no 4 (18 février 2024) : 794. http://dx.doi.org/10.3390/electronics13040794.
Texte intégral