Zeitschriftenartikel zum Thema „Sparsely rewarded environments“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Sparsely rewarded environments" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Dubey, Rachit, Thomas L. Griffiths und Peter Dayan. „The pursuit of happiness: A reinforcement learning perspective on habituation and comparisons“. PLOS Computational Biology 18, Nr. 8 (04.08.2022): e1010316. http://dx.doi.org/10.1371/journal.pcbi.1010316.
Der volle Inhalt der QuelleShi, Xiaoping, Shiqi Zou, Shenmin Song und Rui Guo. „A multi-objective sparse evolutionary framework for large-scale weapon target assignment based on a reward strategy“. Journal of Intelligent & Fuzzy Systems 40, Nr. 5 (22.04.2021): 10043–61. http://dx.doi.org/10.3233/jifs-202679.
Der volle Inhalt der QuelleSakamoto, Yuma, und Kentarou Kurashige. „Self-Generating Evaluations for Robot’s Autonomy Based on Sensor Input“. Machines 11, Nr. 9 (06.09.2023): 892. http://dx.doi.org/10.3390/machines11090892.
Der volle Inhalt der QuelleParisi, Simone, Davide Tateo, Maximilian Hensel, Carlo D’Eramo, Jan Peters und Joni Pajarinen. „Long-Term Visitation Value for Deep Exploration in Sparse-Reward Reinforcement Learning“. Algorithms 15, Nr. 3 (28.02.2022): 81. http://dx.doi.org/10.3390/a15030081.
Der volle Inhalt der QuelleMguni, David, Taher Jafferjee, Jianhong Wang, Nicolas Perez-Nieves, Wenbin Song, Feifei Tong, Matthew Taylor et al. „Learning to Shape Rewards Using a Game of Two Partners“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 10 (26.06.2023): 11604–12. http://dx.doi.org/10.1609/aaai.v37i10.26371.
Der volle Inhalt der QuelleForbes, Grant C., und David L. Roberts. „Potential-Based Reward Shaping for Intrinsic Motivation (Student Abstract)“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 21 (24.03.2024): 23488–89. http://dx.doi.org/10.1609/aaai.v38i21.30441.
Der volle Inhalt der QuelleXu, Pei, Junge Zhang, Qiyue Yin, Chao Yu, Yaodong Yang und Kaiqi Huang. „Subspace-Aware Exploration for Sparse-Reward Multi-Agent Tasks“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 10 (26.06.2023): 11717–25. http://dx.doi.org/10.1609/aaai.v37i10.26384.
Der volle Inhalt der QuelleKubovčík, Martin, Iveta Dirgová Luptáková und Jiří Pospíchal. „Signal Novelty Detection as an Intrinsic Reward for Robotics“. Sensors 23, Nr. 8 (14.04.2023): 3985. http://dx.doi.org/10.3390/s23083985.
Der volle Inhalt der QuelleCatacora Ocana, Jim Martin, Roberto Capobianco und Daniele Nardi. „An Overview of Environmental Features that Impact Deep Reinforcement Learning in Sparse-Reward Domains“. Journal of Artificial Intelligence Research 76 (26.04.2023): 1181–218. http://dx.doi.org/10.1613/jair.1.14390.
Der volle Inhalt der QuelleZhou, Xiao, Song Zhou, Xingang Mou und Yi He. „Multirobot Collaborative Pursuit Target Robot by Improved MADDPG“. Computational Intelligence and Neuroscience 2022 (25.02.2022): 1–10. http://dx.doi.org/10.1155/2022/4757394.
Der volle Inhalt der QuelleVelasquez, Alvaro, Brett Bissey, Lior Barak, Andre Beckus, Ismail Alkhouri, Daniel Melcer und George Atia. „Dynamic Automaton-Guided Reward Shaping for Monte Carlo Tree Search“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 13 (18.05.2021): 12015–23. http://dx.doi.org/10.1609/aaai.v35i13.17427.
Der volle Inhalt der QuelleYan Kong, Yan Kong, Yefeng Rui Yan Kong und Chih-Hsien Hsia Yefeng Rui. „A Deep Reinforcement Learning-Based Approach in Porker Game“. 電腦學刊 34, Nr. 2 (April 2023): 041–51. http://dx.doi.org/10.53106/199115992023043402004.
Der volle Inhalt der QuelleBougie, Nicolas, und Ryutaro Ichise. „Skill-based curiosity for intrinsically motivated reinforcement learning“. Machine Learning 109, Nr. 3 (10.10.2019): 493–512. http://dx.doi.org/10.1007/s10994-019-05845-8.
Der volle Inhalt der QuelleJiang, Jiechuan, und Zongqing Lu. „Generative Exploration and Exploitation“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 04 (03.04.2020): 4337–44. http://dx.doi.org/10.1609/aaai.v34i04.5858.
Der volle Inhalt der QuelleHUANG, XIAO, und JUYANG WENG. „INHERENT VALUE SYSTEMS FOR AUTONOMOUS MENTAL DEVELOPMENT“. International Journal of Humanoid Robotics 04, Nr. 02 (Juni 2007): 407–33. http://dx.doi.org/10.1142/s0219843607001011.
Der volle Inhalt der QuelleLi, Yuangang, Tao Guo, Qinghua Li und Xinyue Liu. „Optimized Feature Extraction for Sample Efficient Deep Reinforcement Learning“. Electronics 12, Nr. 16 (18.08.2023): 3508. http://dx.doi.org/10.3390/electronics12163508.
Der volle Inhalt der QuelleTang, Wanxing, Chuang Cheng, Haiping Ai und Li Chen. „Dual-Arm Robot Trajectory Planning Based on Deep Reinforcement Learning under Complex Environment“. Micromachines 13, Nr. 4 (31.03.2022): 564. http://dx.doi.org/10.3390/mi13040564.
Der volle Inhalt der QuelleShah, Naman, und Siddharth Srivastava. „Hierarchical Planning and Learning for Robots in Stochastic Settings Using Zero-Shot Option Invention“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 9 (24.03.2024): 10358–67. http://dx.doi.org/10.1609/aaai.v38i9.28903.
Der volle Inhalt der QuelleLi, Huale, Rui Cao, Xuan Wang, Xiaohan Hou, Tao Qian, Fengwei Jia, Jiajia Zhang und Shuhan Qi. „AIBPO: Combine the Intrinsic Reward and Auxiliary Task for 3D Strategy Game“. Complexity 2021 (13.07.2021): 1–9. http://dx.doi.org/10.1155/2021/6698231.
Der volle Inhalt der QuelleDharmavaram, Akshay, Matthew Riemer und Shalabh Bhatnagar. „Hierarchical Average Reward Policy Gradient Algorithms (Student Abstract)“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 10 (03.04.2020): 13777–78. http://dx.doi.org/10.1609/aaai.v34i10.7160.
Der volle Inhalt der QuelleZhu, Chenyang, Yujie Cai, Jinyu Zhu, Can Hu und Jia Bi. „GR(1)-Guided Deep Reinforcement Learning for Multi-Task Motion Planning under a Stochastic Environment“. Electronics 11, Nr. 22 (13.11.2022): 3716. http://dx.doi.org/10.3390/electronics11223716.
Der volle Inhalt der QuelleRamakrishnan, Santhosh K., Dinesh Jayaraman und Kristen Grauman. „Emergence of exploratory look-around behaviors through active observation completion“. Science Robotics 4, Nr. 30 (15.05.2019): eaaw6326. http://dx.doi.org/10.1126/scirobotics.aaw6326.
Der volle Inhalt der QuelleHasanbeig, Mohammadhosein, Natasha Yogananda Jeppu, Alessandro Abate, Tom Melham und Daniel Kroening. „DeepSynth: Automata Synthesis for Automatic Task Segmentation in Deep Reinforcement Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 9 (18.05.2021): 7647–56. http://dx.doi.org/10.1609/aaai.v35i9.16935.
Der volle Inhalt der QuelleHan, Huiyan, Jiaqi Wang, Liqun Kuang, Xie Han und Hongxin Xue. „Improved Robot Path Planning Method Based on Deep Reinforcement Learning“. Sensors 23, Nr. 12 (15.06.2023): 5622. http://dx.doi.org/10.3390/s23125622.
Der volle Inhalt der QuelleZhang, Tengteng, und Hongwei Mo. „Research on Perception and Control Technology for Dexterous Robot Operation“. Electronics 12, Nr. 14 (13.07.2023): 3065. http://dx.doi.org/10.3390/electronics12143065.
Der volle Inhalt der QuelleNeider, Daniel, Jean-Raphael Gaglione, Ivan Gavran, Ufuk Topcu, Bo Wu und Zhe Xu. „Advice-Guided Reinforcement Learning in a non-Markovian Environment“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 10 (18.05.2021): 9073–80. http://dx.doi.org/10.1609/aaai.v35i10.17096.
Der volle Inhalt der QuelleZhang, Xiaoping, Yihao Liu, Li Wang, Dunli Hu und Lei Liu. „A Curiosity-Based Autonomous Navigation Algorithm for Maze Robot“. Journal of Advanced Computational Intelligence and Intelligent Informatics 26, Nr. 6 (20.11.2022): 893–904. http://dx.doi.org/10.20965/jaciii.2022.p0893.
Der volle Inhalt der QuelleHan, Ziyao, Fan Yi und Kazuhiro Ohkura. „Collective Transport Behavior in a Robotic Swarm with Hierarchical Imitation Learning“. Journal of Robotics and Mechatronics 36, Nr. 3 (20.06.2024): 538–45. http://dx.doi.org/10.20965/jrm.2024.p0538.
Der volle Inhalt der QuelleAbu Bakar, Mohamad Hafiz, Abu Ubaidah Shamsudin, Zubair Adil Soomro, Satoshi Tadokoro und C. J. Salaan. „FUSION SPARSE AND SHAPING REWARD FUNCTION IN SOFT ACTOR-CRITIC DEEP REINFORCEMENT LEARNING FOR MOBILE ROBOT NAVIGATION“. Jurnal Teknologi 86, Nr. 2 (15.01.2024): 37–49. http://dx.doi.org/10.11113/jurnalteknologi.v86.20147.
Der volle Inhalt der QuelleSharip, Zati, Mohd Hafiz Zulkifli, Mohd Nur Farhan Abd Wahab, Zubaidi Johar und Mohd Zaki Mat Amin. „ASSESSING TROPHIC STATE AND WATER QUALITY OF SMALL LAKES AND PONDS IN PERAK“. Jurnal Teknologi 86, Nr. 2 (15.01.2024): 51–59. http://dx.doi.org/10.11113/jurnalteknologi.v86.20566.
Der volle Inhalt der QuelleSu, Linfeng, Jinbo Wang und Hongbo Chen. „A Real-Time and Optimal Hypersonic Entry Guidance Method Using Inverse Reinforcement Learning“. Aerospace 10, Nr. 11 (07.11.2023): 948. http://dx.doi.org/10.3390/aerospace10110948.
Der volle Inhalt der QuelleWang, Yifan, und Meibao Yao. „Autonomous Robots Traverse Multi-Terrain Environments via Hierarchical Reinforcement Learning with Skill Discovery“. Journal of Physics: Conference Series 2762, Nr. 1 (01.05.2024): 012003. http://dx.doi.org/10.1088/1742-6596/2762/1/012003.
Der volle Inhalt der QuelleZhang, Yilin, Huimin Sun, Honglin Sun, Yuan Huang und Kenji Hashimoto. „Biped Robots Control in Gusty Environments with Adaptive Exploration Based DDPG“. Biomimetics 9, Nr. 6 (08.06.2024): 346. http://dx.doi.org/10.3390/biomimetics9060346.
Der volle Inhalt der QuelleSong, Qingpeng, Yuansheng Liu, Ming Lu, Jun Zhang, Han Qi, Ziyu Wang und Zijian Liu. „Autonomous Driving Decision Control Based on Improved Proximal Policy Optimization Algorithm“. Applied Sciences 13, Nr. 11 (24.05.2023): 6400. http://dx.doi.org/10.3390/app13116400.
Der volle Inhalt der QuelleKim, MyeongSeop, und Jung-Su Kim. „Policy-based Deep Reinforcement Learning for Sparse Reward Environment“. Transactions of The Korean Institute of Electrical Engineers 70, Nr. 3 (31.03.2021): 506–14. http://dx.doi.org/10.5370/kiee.2021.70.3.506.
Der volle Inhalt der QuellePotjans, Wiebke, Abigail Morrison und Markus Diesmann. „A Spiking Neural Network Model of an Actor-Critic Learning Agent“. Neural Computation 21, Nr. 2 (Februar 2009): 301–39. http://dx.doi.org/10.1162/neco.2008.08-07-593.
Der volle Inhalt der QuelleRauber, Paulo, Avinash Ummadisingu, Filipe Mutz und Jürgen Schmidhuber. „Reinforcement Learning in Sparse-Reward Environments With Hindsight Policy Gradients“. Neural Computation 33, Nr. 6 (13.05.2021): 1498–553. http://dx.doi.org/10.1162/neco_a_01387.
Der volle Inhalt der QuelleYu, Sheng, Wei Zhu und Yong Wang. „Research on Wargame Decision-Making Method Based on Multi-Agent Deep Deterministic Policy Gradient“. Applied Sciences 13, Nr. 7 (04.04.2023): 4569. http://dx.doi.org/10.3390/app13074569.
Der volle Inhalt der QuelleZhang, Danyang, Zhaolong Xuan, Yang Zhang, Jiangyi Yao, Xi Li und Xiongwei Li. „Path Planning of Unmanned Aerial Vehicle in Complex Environments Based on State-Detection Twin Delayed Deep Deterministic Policy Gradient“. Machines 11, Nr. 1 (13.01.2023): 108. http://dx.doi.org/10.3390/machines11010108.
Der volle Inhalt der QuelleYao, Jiangyi, Xiongwei Li, Yang Zhang, Jingyu Ji, Yanchao Wang und Yicen Liu. „Path Planning of Unmanned Helicopter in Complex Dynamic Environment Based on State-Coded Deep Q-Network“. Symmetry 14, Nr. 5 (21.04.2022): 856. http://dx.doi.org/10.3390/sym14050856.
Der volle Inhalt der QuelleLei, Xiaoyun, Zhian Zhang und Peifang Dong. „Dynamic Path Planning of Unknown Environment Based on Deep Reinforcement Learning“. Journal of Robotics 2018 (18.09.2018): 1–10. http://dx.doi.org/10.1155/2018/5781591.
Der volle Inhalt der QuelleZhang, Zhizhuo, und Change Zheng. „Simulation of Robotic Arm Grasping Control Based on Proximal Policy Optimization Algorithm“. Journal of Physics: Conference Series 2203, Nr. 1 (01.02.2022): 012065. http://dx.doi.org/10.1088/1742-6596/2203/1/012065.
Der volle Inhalt der QuelleLuu, Tung M., und Chang D. Yoo. „Hindsight Goal Ranking on Replay Buffer for Sparse Reward Environment“. IEEE Access 9 (2021): 51996–2007. http://dx.doi.org/10.1109/access.2021.3069975.
Der volle Inhalt der QuelleFeng, Shiying, Xiaofeng Li, Lu Ren und Shuiqing Xu. „Reinforcement learning with parameterized action space and sparse reward for UAV navigation“. Intelligence & Robotics 3, Nr. 2 (27.06.2023): 161–75. http://dx.doi.org/10.20517/ir.2023.10.
Der volle Inhalt der QuelleLiu, Zeyang, Lipeng Wan, Xinrui Yang, Zhuoran Chen, Xingyu Chen und Xuguang Lan. „Imagine, Initialize, and Explore: An Effective Exploration Method in Multi-Agent Reinforcement Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 16 (24.03.2024): 17487–95. http://dx.doi.org/10.1609/aaai.v38i16.29698.
Der volle Inhalt der QuelleJiang, Haobin, Ziluo Ding und Zongqing Lu. „Settling Decentralized Multi-Agent Coordinated Exploration by Novelty Sharing“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 16 (24.03.2024): 17444–52. http://dx.doi.org/10.1609/aaai.v38i16.29693.
Der volle Inhalt der QuelleXu, He A., Alireza Modirshanechi, Marco P. Lehmann, Wulfram Gerstner und Michael H. Herzog. „Novelty is not surprise: Human exploratory and adaptive behavior in sequential decision-making“. PLOS Computational Biology 17, Nr. 6 (03.06.2021): e1009070. http://dx.doi.org/10.1371/journal.pcbi.1009070.
Der volle Inhalt der QuelleZeng, Junjie, Rusheng Ju, Long Qin, Yue Hu, Quanjun Yin und Cong Hu. „Navigation in Unknown Dynamic Environments Based on Deep Reinforcement Learning“. Sensors 19, Nr. 18 (05.09.2019): 3837. http://dx.doi.org/10.3390/s19183837.
Der volle Inhalt der QuellePark, Minjae, Chaneun Park und Nam Kyu Kwon. „Autonomous Driving of Mobile Robots in Dynamic Environments Based on Deep Deterministic Policy Gradient: Reward Shaping and Hindsight Experience Replay“. Biomimetics 9, Nr. 1 (13.01.2024): 51. http://dx.doi.org/10.3390/biomimetics9010051.
Der volle Inhalt der QuelleMourad, Nafee, Ali Ezzeddine, Babak Nadjar Araabi und Majid Nili Ahmadabadi. „Learning from Demonstrations and Human Evaluative Feedbacks: Handling Sparsity and Imperfection Using Inverse Reinforcement Learning Approach“. Journal of Robotics 2020 (13.01.2020): 1–18. http://dx.doi.org/10.1155/2020/3849309.
Der volle Inhalt der Quelle