Articles de revues sur le sujet « Sparsely rewarded environments »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Sparsely rewarded environments ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Dubey, Rachit, Thomas L. Griffiths et Peter Dayan. « The pursuit of happiness : A reinforcement learning perspective on habituation and comparisons ». PLOS Computational Biology 18, no 8 (4 août 2022) : e1010316. http://dx.doi.org/10.1371/journal.pcbi.1010316.
Texte intégralShi, Xiaoping, Shiqi Zou, Shenmin Song et Rui Guo. « A multi-objective sparse evolutionary framework for large-scale weapon target assignment based on a reward strategy ». Journal of Intelligent & ; Fuzzy Systems 40, no 5 (22 avril 2021) : 10043–61. http://dx.doi.org/10.3233/jifs-202679.
Texte intégralSakamoto, Yuma, et Kentarou Kurashige. « Self-Generating Evaluations for Robot’s Autonomy Based on Sensor Input ». Machines 11, no 9 (6 septembre 2023) : 892. http://dx.doi.org/10.3390/machines11090892.
Texte intégralParisi, Simone, Davide Tateo, Maximilian Hensel, Carlo D’Eramo, Jan Peters et Joni Pajarinen. « Long-Term Visitation Value for Deep Exploration in Sparse-Reward Reinforcement Learning ». Algorithms 15, no 3 (28 février 2022) : 81. http://dx.doi.org/10.3390/a15030081.
Texte intégralMguni, David, Taher Jafferjee, Jianhong Wang, Nicolas Perez-Nieves, Wenbin Song, Feifei Tong, Matthew Taylor et al. « Learning to Shape Rewards Using a Game of Two Partners ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 10 (26 juin 2023) : 11604–12. http://dx.doi.org/10.1609/aaai.v37i10.26371.
Texte intégralForbes, Grant C., et David L. Roberts. « Potential-Based Reward Shaping for Intrinsic Motivation (Student Abstract) ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 21 (24 mars 2024) : 23488–89. http://dx.doi.org/10.1609/aaai.v38i21.30441.
Texte intégralXu, Pei, Junge Zhang, Qiyue Yin, Chao Yu, Yaodong Yang et Kaiqi Huang. « Subspace-Aware Exploration for Sparse-Reward Multi-Agent Tasks ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 10 (26 juin 2023) : 11717–25. http://dx.doi.org/10.1609/aaai.v37i10.26384.
Texte intégralKubovčík, Martin, Iveta Dirgová Luptáková et Jiří Pospíchal. « Signal Novelty Detection as an Intrinsic Reward for Robotics ». Sensors 23, no 8 (14 avril 2023) : 3985. http://dx.doi.org/10.3390/s23083985.
Texte intégralCatacora Ocana, Jim Martin, Roberto Capobianco et Daniele Nardi. « An Overview of Environmental Features that Impact Deep Reinforcement Learning in Sparse-Reward Domains ». Journal of Artificial Intelligence Research 76 (26 avril 2023) : 1181–218. http://dx.doi.org/10.1613/jair.1.14390.
Texte intégralZhou, Xiao, Song Zhou, Xingang Mou et Yi He. « Multirobot Collaborative Pursuit Target Robot by Improved MADDPG ». Computational Intelligence and Neuroscience 2022 (25 février 2022) : 1–10. http://dx.doi.org/10.1155/2022/4757394.
Texte intégralVelasquez, Alvaro, Brett Bissey, Lior Barak, Andre Beckus, Ismail Alkhouri, Daniel Melcer et George Atia. « Dynamic Automaton-Guided Reward Shaping for Monte Carlo Tree Search ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 13 (18 mai 2021) : 12015–23. http://dx.doi.org/10.1609/aaai.v35i13.17427.
Texte intégralYan Kong, Yan Kong, Yefeng Rui Yan Kong et Chih-Hsien Hsia Yefeng Rui. « A Deep Reinforcement Learning-Based Approach in Porker Game ». 電腦學刊 34, no 2 (avril 2023) : 041–51. http://dx.doi.org/10.53106/199115992023043402004.
Texte intégralBougie, Nicolas, et Ryutaro Ichise. « Skill-based curiosity for intrinsically motivated reinforcement learning ». Machine Learning 109, no 3 (10 octobre 2019) : 493–512. http://dx.doi.org/10.1007/s10994-019-05845-8.
Texte intégralJiang, Jiechuan, et Zongqing Lu. « Generative Exploration and Exploitation ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 4337–44. http://dx.doi.org/10.1609/aaai.v34i04.5858.
Texte intégralHUANG, XIAO, et JUYANG WENG. « INHERENT VALUE SYSTEMS FOR AUTONOMOUS MENTAL DEVELOPMENT ». International Journal of Humanoid Robotics 04, no 02 (juin 2007) : 407–33. http://dx.doi.org/10.1142/s0219843607001011.
Texte intégralLi, Yuangang, Tao Guo, Qinghua Li et Xinyue Liu. « Optimized Feature Extraction for Sample Efficient Deep Reinforcement Learning ». Electronics 12, no 16 (18 août 2023) : 3508. http://dx.doi.org/10.3390/electronics12163508.
Texte intégralTang, Wanxing, Chuang Cheng, Haiping Ai et Li Chen. « Dual-Arm Robot Trajectory Planning Based on Deep Reinforcement Learning under Complex Environment ». Micromachines 13, no 4 (31 mars 2022) : 564. http://dx.doi.org/10.3390/mi13040564.
Texte intégralShah, Naman, et Siddharth Srivastava. « Hierarchical Planning and Learning for Robots in Stochastic Settings Using Zero-Shot Option Invention ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 9 (24 mars 2024) : 10358–67. http://dx.doi.org/10.1609/aaai.v38i9.28903.
Texte intégralLi, Huale, Rui Cao, Xuan Wang, Xiaohan Hou, Tao Qian, Fengwei Jia, Jiajia Zhang et Shuhan Qi. « AIBPO : Combine the Intrinsic Reward and Auxiliary Task for 3D Strategy Game ». Complexity 2021 (13 juillet 2021) : 1–9. http://dx.doi.org/10.1155/2021/6698231.
Texte intégralDharmavaram, Akshay, Matthew Riemer et Shalabh Bhatnagar. « Hierarchical Average Reward Policy Gradient Algorithms (Student Abstract) ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 10 (3 avril 2020) : 13777–78. http://dx.doi.org/10.1609/aaai.v34i10.7160.
Texte intégralZhu, Chenyang, Yujie Cai, Jinyu Zhu, Can Hu et Jia Bi. « GR(1)-Guided Deep Reinforcement Learning for Multi-Task Motion Planning under a Stochastic Environment ». Electronics 11, no 22 (13 novembre 2022) : 3716. http://dx.doi.org/10.3390/electronics11223716.
Texte intégralRamakrishnan, Santhosh K., Dinesh Jayaraman et Kristen Grauman. « Emergence of exploratory look-around behaviors through active observation completion ». Science Robotics 4, no 30 (15 mai 2019) : eaaw6326. http://dx.doi.org/10.1126/scirobotics.aaw6326.
Texte intégralHasanbeig, Mohammadhosein, Natasha Yogananda Jeppu, Alessandro Abate, Tom Melham et Daniel Kroening. « DeepSynth : Automata Synthesis for Automatic Task Segmentation in Deep Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 9 (18 mai 2021) : 7647–56. http://dx.doi.org/10.1609/aaai.v35i9.16935.
Texte intégralHan, Huiyan, Jiaqi Wang, Liqun Kuang, Xie Han et Hongxin Xue. « Improved Robot Path Planning Method Based on Deep Reinforcement Learning ». Sensors 23, no 12 (15 juin 2023) : 5622. http://dx.doi.org/10.3390/s23125622.
Texte intégralZhang, Tengteng, et Hongwei Mo. « Research on Perception and Control Technology for Dexterous Robot Operation ». Electronics 12, no 14 (13 juillet 2023) : 3065. http://dx.doi.org/10.3390/electronics12143065.
Texte intégralNeider, Daniel, Jean-Raphael Gaglione, Ivan Gavran, Ufuk Topcu, Bo Wu et Zhe Xu. « Advice-Guided Reinforcement Learning in a non-Markovian Environment ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 10 (18 mai 2021) : 9073–80. http://dx.doi.org/10.1609/aaai.v35i10.17096.
Texte intégralZhang, Xiaoping, Yihao Liu, Li Wang, Dunli Hu et Lei Liu. « A Curiosity-Based Autonomous Navigation Algorithm for Maze Robot ». Journal of Advanced Computational Intelligence and Intelligent Informatics 26, no 6 (20 novembre 2022) : 893–904. http://dx.doi.org/10.20965/jaciii.2022.p0893.
Texte intégralHan, Ziyao, Fan Yi et Kazuhiro Ohkura. « Collective Transport Behavior in a Robotic Swarm with Hierarchical Imitation Learning ». Journal of Robotics and Mechatronics 36, no 3 (20 juin 2024) : 538–45. http://dx.doi.org/10.20965/jrm.2024.p0538.
Texte intégralAbu Bakar, Mohamad Hafiz, Abu Ubaidah Shamsudin, Zubair Adil Soomro, Satoshi Tadokoro et C. J. Salaan. « FUSION SPARSE AND SHAPING REWARD FUNCTION IN SOFT ACTOR-CRITIC DEEP REINFORCEMENT LEARNING FOR MOBILE ROBOT NAVIGATION ». Jurnal Teknologi 86, no 2 (15 janvier 2024) : 37–49. http://dx.doi.org/10.11113/jurnalteknologi.v86.20147.
Texte intégralSharip, Zati, Mohd Hafiz Zulkifli, Mohd Nur Farhan Abd Wahab, Zubaidi Johar et Mohd Zaki Mat Amin. « ASSESSING TROPHIC STATE AND WATER QUALITY OF SMALL LAKES AND PONDS IN PERAK ». Jurnal Teknologi 86, no 2 (15 janvier 2024) : 51–59. http://dx.doi.org/10.11113/jurnalteknologi.v86.20566.
Texte intégralSu, Linfeng, Jinbo Wang et Hongbo Chen. « A Real-Time and Optimal Hypersonic Entry Guidance Method Using Inverse Reinforcement Learning ». Aerospace 10, no 11 (7 novembre 2023) : 948. http://dx.doi.org/10.3390/aerospace10110948.
Texte intégralWang, Yifan, et Meibao Yao. « Autonomous Robots Traverse Multi-Terrain Environments via Hierarchical Reinforcement Learning with Skill Discovery ». Journal of Physics : Conference Series 2762, no 1 (1 mai 2024) : 012003. http://dx.doi.org/10.1088/1742-6596/2762/1/012003.
Texte intégralZhang, Yilin, Huimin Sun, Honglin Sun, Yuan Huang et Kenji Hashimoto. « Biped Robots Control in Gusty Environments with Adaptive Exploration Based DDPG ». Biomimetics 9, no 6 (8 juin 2024) : 346. http://dx.doi.org/10.3390/biomimetics9060346.
Texte intégralSong, Qingpeng, Yuansheng Liu, Ming Lu, Jun Zhang, Han Qi, Ziyu Wang et Zijian Liu. « Autonomous Driving Decision Control Based on Improved Proximal Policy Optimization Algorithm ». Applied Sciences 13, no 11 (24 mai 2023) : 6400. http://dx.doi.org/10.3390/app13116400.
Texte intégralKim, MyeongSeop, et Jung-Su Kim. « Policy-based Deep Reinforcement Learning for Sparse Reward Environment ». Transactions of The Korean Institute of Electrical Engineers 70, no 3 (31 mars 2021) : 506–14. http://dx.doi.org/10.5370/kiee.2021.70.3.506.
Texte intégralPotjans, Wiebke, Abigail Morrison et Markus Diesmann. « A Spiking Neural Network Model of an Actor-Critic Learning Agent ». Neural Computation 21, no 2 (février 2009) : 301–39. http://dx.doi.org/10.1162/neco.2008.08-07-593.
Texte intégralRauber, Paulo, Avinash Ummadisingu, Filipe Mutz et Jürgen Schmidhuber. « Reinforcement Learning in Sparse-Reward Environments With Hindsight Policy Gradients ». Neural Computation 33, no 6 (13 mai 2021) : 1498–553. http://dx.doi.org/10.1162/neco_a_01387.
Texte intégralYu, Sheng, Wei Zhu et Yong Wang. « Research on Wargame Decision-Making Method Based on Multi-Agent Deep Deterministic Policy Gradient ». Applied Sciences 13, no 7 (4 avril 2023) : 4569. http://dx.doi.org/10.3390/app13074569.
Texte intégralZhang, Danyang, Zhaolong Xuan, Yang Zhang, Jiangyi Yao, Xi Li et Xiongwei Li. « Path Planning of Unmanned Aerial Vehicle in Complex Environments Based on State-Detection Twin Delayed Deep Deterministic Policy Gradient ». Machines 11, no 1 (13 janvier 2023) : 108. http://dx.doi.org/10.3390/machines11010108.
Texte intégralYao, Jiangyi, Xiongwei Li, Yang Zhang, Jingyu Ji, Yanchao Wang et Yicen Liu. « Path Planning of Unmanned Helicopter in Complex Dynamic Environment Based on State-Coded Deep Q-Network ». Symmetry 14, no 5 (21 avril 2022) : 856. http://dx.doi.org/10.3390/sym14050856.
Texte intégralLei, Xiaoyun, Zhian Zhang et Peifang Dong. « Dynamic Path Planning of Unknown Environment Based on Deep Reinforcement Learning ». Journal of Robotics 2018 (18 septembre 2018) : 1–10. http://dx.doi.org/10.1155/2018/5781591.
Texte intégralZhang, Zhizhuo, et Change Zheng. « Simulation of Robotic Arm Grasping Control Based on Proximal Policy Optimization Algorithm ». Journal of Physics : Conference Series 2203, no 1 (1 février 2022) : 012065. http://dx.doi.org/10.1088/1742-6596/2203/1/012065.
Texte intégralLuu, Tung M., et Chang D. Yoo. « Hindsight Goal Ranking on Replay Buffer for Sparse Reward Environment ». IEEE Access 9 (2021) : 51996–2007. http://dx.doi.org/10.1109/access.2021.3069975.
Texte intégralFeng, Shiying, Xiaofeng Li, Lu Ren et Shuiqing Xu. « Reinforcement learning with parameterized action space and sparse reward for UAV navigation ». Intelligence & ; Robotics 3, no 2 (27 juin 2023) : 161–75. http://dx.doi.org/10.20517/ir.2023.10.
Texte intégralLiu, Zeyang, Lipeng Wan, Xinrui Yang, Zhuoran Chen, Xingyu Chen et Xuguang Lan. « Imagine, Initialize, and Explore : An Effective Exploration Method in Multi-Agent Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 16 (24 mars 2024) : 17487–95. http://dx.doi.org/10.1609/aaai.v38i16.29698.
Texte intégralJiang, Haobin, Ziluo Ding et Zongqing Lu. « Settling Decentralized Multi-Agent Coordinated Exploration by Novelty Sharing ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 16 (24 mars 2024) : 17444–52. http://dx.doi.org/10.1609/aaai.v38i16.29693.
Texte intégralXu, He A., Alireza Modirshanechi, Marco P. Lehmann, Wulfram Gerstner et Michael H. Herzog. « Novelty is not surprise : Human exploratory and adaptive behavior in sequential decision-making ». PLOS Computational Biology 17, no 6 (3 juin 2021) : e1009070. http://dx.doi.org/10.1371/journal.pcbi.1009070.
Texte intégralZeng, Junjie, Rusheng Ju, Long Qin, Yue Hu, Quanjun Yin et Cong Hu. « Navigation in Unknown Dynamic Environments Based on Deep Reinforcement Learning ». Sensors 19, no 18 (5 septembre 2019) : 3837. http://dx.doi.org/10.3390/s19183837.
Texte intégralPark, Minjae, Chaneun Park et Nam Kyu Kwon. « Autonomous Driving of Mobile Robots in Dynamic Environments Based on Deep Deterministic Policy Gradient : Reward Shaping and Hindsight Experience Replay ». Biomimetics 9, no 1 (13 janvier 2024) : 51. http://dx.doi.org/10.3390/biomimetics9010051.
Texte intégralMourad, Nafee, Ali Ezzeddine, Babak Nadjar Araabi et Majid Nili Ahmadabadi. « Learning from Demonstrations and Human Evaluative Feedbacks : Handling Sparsity and Imperfection Using Inverse Reinforcement Learning Approach ». Journal of Robotics 2020 (13 janvier 2020) : 1–18. http://dx.doi.org/10.1155/2020/3849309.
Texte intégral