Zeitschriftenartikel zum Thema „Actor-critic methods“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Actor-critic methods" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Parisi, Simone, Voot Tangkaratt, Jan Peters und Mohammad Emtiyaz Khan. „TD-regularized actor-critic methods“. Machine Learning 108, Nr. 8-9 (21.02.2019): 1467–501. http://dx.doi.org/10.1007/s10994-019-05788-0.
Der volle Inhalt der QuelleWang, Jing, Xuchu Ding, Morteza Lahijanian, Ioannis Ch Paschalidis und Calin A. Belta. „Temporal logic motion control using actor–critic methods“. International Journal of Robotics Research 34, Nr. 10 (26.05.2015): 1329–44. http://dx.doi.org/10.1177/0278364915581505.
Der volle Inhalt der QuelleGrondman, I., M. Vaandrager, L. Busoniu, R. Babuska und E. Schuitema. „Efficient Model Learning Methods for Actor–Critic Control“. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics) 42, Nr. 3 (Juni 2012): 591–602. http://dx.doi.org/10.1109/tsmcb.2011.2170565.
Der volle Inhalt der QuelleWang, Mingyi, Jianhao Tang, Haoli Zhao, Zhenni Li und Shengli Xie. „Automatic Compression of Neural Network with Deep Reinforcement Learning Based on Proximal Gradient Method“. Mathematics 11, Nr. 2 (09.01.2023): 338. http://dx.doi.org/10.3390/math11020338.
Der volle Inhalt der QuelleSu, Jianyu, Stephen Adams und Peter Beling. „Value-Decomposition Multi-Agent Actor-Critics“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 13 (18.05.2021): 11352–60. http://dx.doi.org/10.1609/aaai.v35i13.17353.
Der volle Inhalt der QuelleSaglam, Baturay, Furkan B. Mutlu, Dogan C. Cicek und Suleyman S. Kozat. „Actor Prioritized Experience Replay“. Journal of Artificial Intelligence Research 78 (16.11.2023): 639–72. http://dx.doi.org/10.1613/jair.1.14819.
Der volle Inhalt der QuelleSeo, Kanghyeon, und Jihoon Yang. „Differentially Private Actor and Its Eligibility Trace“. Electronics 9, Nr. 9 (10.09.2020): 1486. http://dx.doi.org/10.3390/electronics9091486.
Der volle Inhalt der QuelleSaglam, Baturay, Furkan Mutlu, Dogan Cicek und Suleyman Kozat. „Actor Prioritized Experience Replay (Abstract Reprint)“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 20 (24.03.2024): 22710. http://dx.doi.org/10.1609/aaai.v38i20.30610.
Der volle Inhalt der QuelleHafez, Muhammad Burhan, Cornelius Weber, Matthias Kerzel und Stefan Wermter. „Deep intrinsically motivated continuous actor-critic for efficient robotic visuomotor skill learning“. Paladyn, Journal of Behavioral Robotics 10, Nr. 1 (01.01.2019): 14–29. http://dx.doi.org/10.1515/pjbr-2019-0005.
Der volle Inhalt der QuelleKong, Minseok, und Jungmin So. „Empirical Analysis of Automated Stock Trading Using Deep Reinforcement Learning“. Applied Sciences 13, Nr. 1 (03.01.2023): 633. http://dx.doi.org/10.3390/app13010633.
Der volle Inhalt der QuelleHernandez-Leal, Pablo, Bilal Kartal und Matthew E. Taylor. „Agent Modeling as Auxiliary Task for Deep Reinforcement Learning“. Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment 15, Nr. 1 (08.10.2019): 31–37. http://dx.doi.org/10.1609/aiide.v15i1.5221.
Der volle Inhalt der QuelleArvindhan, M., und D. Rajesh Kumar. „Adaptive Resource Allocation in Cloud Data Centers using Actor-Critical Deep Reinforcement Learning for Optimized Load Balancing“. International Journal on Recent and Innovation Trends in Computing and Communication 11, Nr. 5s (18.05.2023): 310–18. http://dx.doi.org/10.17762/ijritcc.v11i5s.6671.
Der volle Inhalt der QuelleAws, Ahmad, Arkadij Yuschenko und Vladimir Soloviev. „End-to-end deep reinforcement learning for control of an autonomous underwater robot with an undulating propulsor“. Robotics and Technical Cybernetics 12, Nr. 1 (März 2024): 36–45. http://dx.doi.org/10.31776/rtcj.12105.
Der volle Inhalt der QuelleZhang, Haifeng, Weizhe Chen, Zeren Huang, Minne Li, Yaodong Yang, Weinan Zhang und Jun Wang. „Bi-Level Actor-Critic for Multi-Agent Coordination“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 05 (03.04.2020): 7325–32. http://dx.doi.org/10.1609/aaai.v34i05.6226.
Der volle Inhalt der QuelleLuo, Ziwei, Jing Hu, Xin Wang, Shu Hu, Bin Kong, Youbing Yin, Qi Song, Xi Wu und Siwei Lyu. „Stochastic Planner-Actor-Critic for Unsupervised Deformable Image Registration“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 2 (28.06.2022): 1917–25. http://dx.doi.org/10.1609/aaai.v36i2.20086.
Der volle Inhalt der QuelleAslani, Mohammad, Mohammad Saadi Mesgari, Stefan Seipel und Marco Wiering. „Developing adaptive traffic signal control by actor–critic and direct exploration methods“. Proceedings of the Institution of Civil Engineers - Transport 172, Nr. 5 (Oktober 2019): 289–98. http://dx.doi.org/10.1680/jtran.17.00085.
Der volle Inhalt der QuelleDoya, Kenji. „Reinforcement Learning in Continuous Time and Space“. Neural Computation 12, Nr. 1 (01.01.2000): 219–45. http://dx.doi.org/10.1162/089976600300015961.
Der volle Inhalt der QuelleZhu, Qingling, Xiaoqiang Wu, Qiuzhen Lin und Wei-Neng Chen. „Two-Stage Evolutionary Reinforcement Learning for Enhancing Exploration and Exploitation“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 18 (24.03.2024): 20892–900. http://dx.doi.org/10.1609/aaai.v38i18.30079.
Der volle Inhalt der QuelleJain, Arushi, Gandharv Patil, Ayush Jain, Khimya Khetarpal und Doina Precup. „Variance Penalized On-Policy and Off-Policy Actor-Critic“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 9 (18.05.2021): 7899–907. http://dx.doi.org/10.1609/aaai.v35i9.16964.
Der volle Inhalt der QuelleRyu, Heechang, Hayong Shin und Jinkyoo Park. „Multi-Agent Actor-Critic with Hierarchical Graph Attention Network“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 05 (03.04.2020): 7236–43. http://dx.doi.org/10.1609/aaai.v34i05.6214.
Der volle Inhalt der QuelleShi, Daming, Xudong Guo, Yi Liu und Wenhui Fan. „Optimal Policy of Multiplayer Poker via Actor-Critic Reinforcement Learning“. Entropy 24, Nr. 6 (30.05.2022): 774. http://dx.doi.org/10.3390/e24060774.
Der volle Inhalt der QuelleWang, Hui, Peng Zhang und Quan Liu. „An Actor-critic Algorithm Using Cross Evaluation of Value Functions“. IAES International Journal of Robotics and Automation (IJRA) 7, Nr. 1 (01.03.2018): 39. http://dx.doi.org/10.11591/ijra.v7i1.pp39-47.
Der volle Inhalt der QuelleZhang, Zuozhen, Junzhong Ji und Jinduo Liu. „MetaRLEC: Meta-Reinforcement Learning for Discovery of Brain Effective Connectivity“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 9 (24.03.2024): 10261–69. http://dx.doi.org/10.1609/aaai.v38i9.28892.
Der volle Inhalt der QuelleZhao, Nan, Zehua Liu, Yiqiang Cheng und Chao Tian. „Multi-Agent Actor Critic for Channel Allocation in Heterogeneous Networks“. International Journal of Mobile Computing and Multimedia Communications 11, Nr. 1 (Januar 2020): 23–41. http://dx.doi.org/10.4018/ijmcmc.2020010102.
Der volle Inhalt der QuelleChen, Haibo, Zhongwei Huang, Xiaorong Zhao, Xiao Liu, Youjun Jiang, Pinyong Geng, Guang Yang, Yewen Cao und Deqiang Wang. „Policy Optimization of the Power Allocation Algorithm Based on the Actor–Critic Framework in Small Cell Networks“. Mathematics 11, Nr. 7 (02.04.2023): 1702. http://dx.doi.org/10.3390/math11071702.
Der volle Inhalt der QuelleYang, Qisong, Thiago D. Simão, Simon H. Tindemans und Matthijs T. J. Spaan. „WCSAC: Worst-Case Soft Actor Critic for Safety-Constrained Reinforcement Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 12 (18.05.2021): 10639–46. http://dx.doi.org/10.1609/aaai.v35i12.17272.
Der volle Inhalt der QuelleWang, Zhihai, Jie Wang, Qi Zhou, Bin Li und Houqiang Li. „Sample-Efficient Reinforcement Learning via Conservative Model-Based Actor-Critic“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 8 (28.06.2022): 8612–20. http://dx.doi.org/10.1609/aaai.v36i8.20839.
Der volle Inhalt der QuelleZhong, Shan, Quan Liu und QiMing Fu. „Efficient Actor-Critic Algorithm with Hierarchical Model Learning and Planning“. Computational Intelligence and Neuroscience 2016 (2016): 1–15. http://dx.doi.org/10.1155/2016/4824072.
Der volle Inhalt der QuelleWu, Zhenning, Yiming Deng und Lixing Wang. „A Pinning Actor-Critic Structure-Based Algorithm for Sizing Complex-Shaped Depth Profiles in MFL Inspection with High Degree of Freedom“. Complexity 2021 (23.04.2021): 1–12. http://dx.doi.org/10.1155/2021/9995033.
Der volle Inhalt der QuelleLiang, Kun, Guoqiang Zhang, Jinhui Guo und Wentao Li. „An Actor-Critic Hierarchical Reinforcement Learning Model for Course Recommendation“. Electronics 12, Nr. 24 (08.12.2023): 4939. http://dx.doi.org/10.3390/electronics12244939.
Der volle Inhalt der QuelleKwon, Ki-Young, Keun-Woo Jung, Dong-Su Yang und Jooyoung Park. „Autonomous Vehicle Path Tracking Based on Natural Gradient Methods“. Journal of Advanced Computational Intelligence and Intelligent Informatics 16, Nr. 7 (20.11.2012): 888–93. http://dx.doi.org/10.20965/jaciii.2012.p0888.
Der volle Inhalt der QuelleLi, Yarong. „Sequence Alignment with Q-Learning Based on the Actor-Critic Model“. ACM Transactions on Asian and Low-Resource Language Information Processing 20, Nr. 5 (02.07.2021): 1–7. http://dx.doi.org/10.1145/3433540.
Der volle Inhalt der QuelleJiang, Liang, Ying Nan, Yu Zhang und Zhihan Li. „Anti-Interception Guidance for Hypersonic Glide Vehicle: A Deep Reinforcement Learning Approach“. Aerospace 9, Nr. 8 (04.08.2022): 424. http://dx.doi.org/10.3390/aerospace9080424.
Der volle Inhalt der QuelleLikmeta, Amarildo, Matteo Sacco, Alberto Maria Metelli und Marcello Restelli. „Wasserstein Actor-Critic: Directed Exploration via Optimism for Continuous-Actions Control“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 7 (26.06.2023): 8782–90. http://dx.doi.org/10.1609/aaai.v37i7.26056.
Der volle Inhalt der QuelleShi, Lei, Tian Li, Lin Wei, Yongcai Tao, Cuixia Li und Yufei Gao. „FASTune: Towards Fast and Stable Database Tuning System with Reinforcement Learning“. Electronics 12, Nr. 10 (10.05.2023): 2168. http://dx.doi.org/10.3390/electronics12102168.
Der volle Inhalt der QuelleYu, Zhiwen, Wenjie Zheng, Kaiwen Zeng, Ruifeng Zhao, Yanxu Zhang und Mengdi Zeng. „Energy optimization management of microgrid using improved soft actor-critic algorithm“. International Journal of Renewable Energy Development 13, Nr. 2 (20.02.2024): 329–39. http://dx.doi.org/10.61435/ijred.2024.59988.
Der volle Inhalt der QuelleIsmail, Ahmed, und Mustafa Baysal. „Dynamic Pricing Based on Demand Response Using Actor–Critic Agent Reinforcement Learning“. Energies 16, Nr. 14 (19.07.2023): 5469. http://dx.doi.org/10.3390/en16145469.
Der volle Inhalt der QuelleDrechsler, M. Funk, T. A. Fiorentin und H. Göllinger. „Actor-Critic Traction Control Based on Reinforcement Learning with Open-Loop Training“. Modelling and Simulation in Engineering 2021 (07.12.2021): 1–10. http://dx.doi.org/10.1155/2021/4641450.
Der volle Inhalt der QuelleWu, Jiying, Zhong Yang, Haoze Zhuo, Changliang Xu, Chi Zhang, Naifeng He, Luwei Liao und Zhiyong Wang. „A Supervised Reinforcement Learning Algorithm for Controlling Drone Hovering“. Drones 8, Nr. 3 (20.02.2024): 69. http://dx.doi.org/10.3390/drones8030069.
Der volle Inhalt der QuelleQian, Tiancheng, Xue Mei, Pengxiang Xu, Kangqi Ge und Zhelei Qiu. „Filtration network: A frame sampling strategy via deep reinforcement learning for video captioning“. Journal of Intelligent & Fuzzy Systems 40, Nr. 6 (21.06.2021): 11085–97. http://dx.doi.org/10.3233/jifs-202249.
Der volle Inhalt der QuelleWang, Xinshui, Ke Meng, Xu Wang, Zhibin Liu und Yuefeng Ma. „Dynamic User Resource Allocation for Downlink Multicarrier NOMA with an Actor–Critic Method“. Energies 16, Nr. 7 (24.03.2023): 2984. http://dx.doi.org/10.3390/en16072984.
Der volle Inhalt der QuelleMelo, Francisco. „Differential Eligibility Vectors for Advantage Updating and Gradient Methods“. Proceedings of the AAAI Conference on Artificial Intelligence 25, Nr. 1 (04.08.2011): 441–46. http://dx.doi.org/10.1609/aaai.v25i1.7938.
Der volle Inhalt der QuelleLyu, Xueguang, Andrea Baisero, Yuchen Xiao, Brett Daley und Christopher Amato. „On Centralized Critics in Multi-Agent Reinforcement Learning“. Journal of Artificial Intelligence Research 77 (31.05.2023): 295–354. http://dx.doi.org/10.1613/jair.1.14386.
Der volle Inhalt der QuelleZhao, Mingjun, Haijiang Wu, Di Niu und Xiaoli Wang. „Reinforced Curriculum Learning on Pre-Trained Neural Machine Translation Models“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 05 (03.04.2020): 9652–59. http://dx.doi.org/10.1609/aaai.v34i05.6513.
Der volle Inhalt der QuelleZhao, Jun, Qingliang Zeng und Bin Guo. „Adaptive Critic Learning-Based Robust Control of Systems with Uncertain Dynamics“. Computational Intelligence and Neuroscience 2021 (16.11.2021): 1–8. http://dx.doi.org/10.1155/2021/2952115.
Der volle Inhalt der QuelleYue, Longfei, Rennong Yang, Jialiang Zuo, Mengda Yan, Xiaoru Zhao und Maolong Lv. „Factored Multi-Agent Soft Actor-Critic for Cooperative Multi-Target Tracking of UAV Swarms“. Drones 7, Nr. 3 (22.02.2023): 150. http://dx.doi.org/10.3390/drones7030150.
Der volle Inhalt der QuelleZhou, Kun, Wenyong Wang, Teng Hu und Kai Deng. „Application of Improved Asynchronous Advantage Actor Critic Reinforcement Learning Model on Anomaly Detection“. Entropy 23, Nr. 3 (25.02.2021): 274. http://dx.doi.org/10.3390/e23030274.
Der volle Inhalt der QuelleLu, Junqi, Xinning Wu, Su Cao, Xiangke Wang und Huangchao Yu. „An Implementation of Actor-Critic Algorithm on Spiking Neural Network Using Temporal Coding Method“. Applied Sciences 12, Nr. 20 (16.10.2022): 10430. http://dx.doi.org/10.3390/app122010430.
Der volle Inhalt der QuelleOh, Sang Ho, Jeongyoon Kim, Jae Hoon Nah und Jongyoul Park. „Employing Deep Reinforcement Learning to Cyber-Attack Simulation for Enhancing Cybersecurity“. Electronics 13, Nr. 3 (30.01.2024): 555. http://dx.doi.org/10.3390/electronics13030555.
Der volle Inhalt der QuelleSun, Zhiyao, und Guifen Chen. „Enhancing Heterogeneous Network Performance: Advanced Content Popularity Prediction and Efficient Caching“. Electronics 13, Nr. 4 (18.02.2024): 794. http://dx.doi.org/10.3390/electronics13040794.
Der volle Inhalt der Quelle