Articles de revues sur le sujet « Factored reinforcement learning »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 45 meilleurs articles de revues pour votre recherche sur le sujet « Factored reinforcement learning ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Wu, Bo, Yan Peng Feng et Hong Yan Zheng. « A Model-Based Factored Bayesian Reinforcement Learning Approach ». Applied Mechanics and Materials 513-517 (février 2014) : 1092–95. http://dx.doi.org/10.4028/www.scientific.net/amm.513-517.1092.
Texte intégralLi, Chao, Yupeng Zhang, Jianqi Wang, Yujing Hu, Shaokang Dong, Wenbin Li, Tangjie Lv, Changjie Fan et Yang Gao. « Optimistic Value Instructors for Cooperative Multi-Agent Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 16 (24 mars 2024) : 17453–60. http://dx.doi.org/10.1609/aaai.v38i16.29694.
Texte intégralKveton, Branislav, et Georgios Theocharous. « Structured Kernel-Based Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 27, no 1 (30 juin 2013) : 569–75. http://dx.doi.org/10.1609/aaai.v27i1.8669.
Texte intégralSimão, Thiago D., et Matthijs T. J. Spaan. « Safe Policy Improvement with Baseline Bootstrapping in Factored Environments ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 4967–74. http://dx.doi.org/10.1609/aaai.v33i01.33014967.
Texte intégralTruong, Van Binh, et Long Bao Le. « Electric vehicle charging design : The factored action based reinforcement learning approach ». Applied Energy 359 (avril 2024) : 122737. http://dx.doi.org/10.1016/j.apenergy.2024.122737.
Texte intégralSIMM, Jaak, Masashi SUGIYAMA et Hirotaka HACHIYA. « Multi-Task Approach to Reinforcement Learning for Factored-State Markov Decision Problems ». IEICE Transactions on Information and Systems E95.D, no 10 (2012) : 2426–37. http://dx.doi.org/10.1587/transinf.e95.d.2426.
Texte intégralWang, Zizhao, Caroline Wang, Xuesu Xiao, Yuke Zhu et Peter Stone. « Building Minimal and Reusable Causal State Abstractions for Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 14 (24 mars 2024) : 15778–86. http://dx.doi.org/10.1609/aaai.v38i14.29507.
Texte intégralMohamad Hafiz Abu Bakar, Abu Ubaidah bin Shamsudin, Ruzairi Abdul Rahim, Zubair Adil Soomro et Andi Adrianshah. « Comparison Method Q-Learning and SARSA for Simulation of Drone Controller using Reinforcement Learning ». Journal of Advanced Research in Applied Sciences and Engineering Technology 30, no 3 (15 mai 2023) : 69–78. http://dx.doi.org/10.37934/araset.30.3.6978.
Texte intégralKong, Minseok, et Jungmin So. « Empirical Analysis of Automated Stock Trading Using Deep Reinforcement Learning ». Applied Sciences 13, no 1 (3 janvier 2023) : 633. http://dx.doi.org/10.3390/app13010633.
Texte intégralMutti, Mirco, Riccardo De Santi, Emanuele Rossi, Juan Felipe Calderon, Michael Bronstein et Marcello Restelli. « Provably Efficient Causal Model-Based Reinforcement Learning for Systematic Generalization ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 8 (26 juin 2023) : 9251–59. http://dx.doi.org/10.1609/aaai.v37i8.26109.
Texte intégralSui, Dong, Chenyu Ma et Chunjie Wei. « Tactical Conflict Solver Assisting Air Traffic Controllers Using Deep Reinforcement Learning ». Aerospace 10, no 2 (15 février 2023) : 182. http://dx.doi.org/10.3390/aerospace10020182.
Texte intégralHao, Zheng, Haowei Zhang et Yipu Zhang. « Stock Portfolio Management by Using Fuzzy Ensemble Deep Reinforcement Learning Algorithm ». Journal of Risk and Financial Management 16, no 3 (15 mars 2023) : 201. http://dx.doi.org/10.3390/jrfm16030201.
Texte intégralChu, Yunfei, Zhinong Wei, Guoqiang Sun, Haixiang Zang, Sheng Chen et Yizhou Zhou. « Optimal home energy management strategy : A reinforcement learning method with actor-critic using Kronecker-factored trust region ». Electric Power Systems Research 212 (novembre 2022) : 108617. http://dx.doi.org/10.1016/j.epsr.2022.108617.
Texte intégralAbdulhai, Marwa, Dong-Ki Kim, Matthew Riemer, Miao Liu, Gerald Tesauro et Jonathan P. How. « Context-Specific Representation Abstraction for Deep Option Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 6 (28 juin 2022) : 5959–67. http://dx.doi.org/10.1609/aaai.v36i6.20541.
Texte intégralLi, Hengjie, Jianghao Zhu, Yun Zhou, Qi Feng et Donghan Feng. « Charging Station Management Strategy for Returns Maximization via Improved TD3 Deep Reinforcement Learning ». International Transactions on Electrical Energy Systems 2022 (15 décembre 2022) : 1–14. http://dx.doi.org/10.1155/2022/6854620.
Texte intégralGavane, Vaibhav. « A Measure of Real-Time Intelligence ». Journal of Artificial General Intelligence 4, no 1 (1 mars 2013) : 31–48. http://dx.doi.org/10.2478/jagi-2013-0003.
Texte intégralYedukondalu, Gangolu, Yasmeen Yasmeen, G. Vinoda Reddy, Ravindra Changala, Mahesh Kotha, Adapa Gopi et Annapurna Gummadi. « Framework for Virtualized Network Functions (VNFs) in Cloud of Things Based on Network Traffic Services ». International Journal on Recent and Innovation Trends in Computing and Communication 11, no 11s (7 octobre 2023) : 38–48. http://dx.doi.org/10.17762/ijritcc.v11i11s.8068.
Texte intégralLi, Guangliang, Randy Gomez, Keisuke Nakamura et Bo He. « Human-Centered Reinforcement Learning : A Survey ». IEEE Transactions on Human-Machine Systems 49, no 4 (août 2019) : 337–49. http://dx.doi.org/10.1109/thms.2019.2912447.
Texte intégralLi, Zhuoran, Chao Zeng, Zhen Deng, Qinling Xu, Bingwei He et Jianwei Zhang. « Learning Variable Impedance Control for Robotic Massage With Deep Reinforcement Learning : A Novel Learning Framework ». IEEE Systems, Man, and Cybernetics Magazine 10, no 1 (janvier 2024) : 17–27. http://dx.doi.org/10.1109/msmc.2022.3231416.
Texte intégralWhite, Jack, Tatiana Kameneva et Chris McCarthy. « Vision Processing for Assistive Vision : A Deep Reinforcement Learning Approach ». IEEE Transactions on Human-Machine Systems 52, no 1 (février 2022) : 123–33. http://dx.doi.org/10.1109/thms.2021.3121661.
Texte intégralChihara, Takanori, et Jiro Sakamoto. « Generating deceleration behavior of automatic driving by reinforcement learning that reflects passenger discomfort ». International Journal of Industrial Ergonomics 91 (septembre 2022) : 103343. http://dx.doi.org/10.1016/j.ergon.2022.103343.
Texte intégralWang, Zhe, Helai Huang, Jinjun Tang, Xianwei Meng et Lipeng Hu. « Velocity control in car-following behavior with autonomous vehicles using reinforcement learning ». Accident Analysis & ; Prevention 174 (septembre 2022) : 106729. http://dx.doi.org/10.1016/j.aap.2022.106729.
Texte intégralSalehi, V., T. T. Tran, B. Veitch et D. Smith. « A reinforcement learning development of the FRAM for functional reward-based assessments of complex systems performance ». International Journal of Industrial Ergonomics 88 (mars 2022) : 103271. http://dx.doi.org/10.1016/j.ergon.2022.103271.
Texte intégralMatarese, Marco, Alessandra Sciutti, Francesco Rea et Silvia Rossi. « Toward Robots’ Behavioral Transparency of Temporal Difference Reinforcement Learning With a Human Teacher ». IEEE Transactions on Human-Machine Systems 51, no 6 (décembre 2021) : 578–89. http://dx.doi.org/10.1109/thms.2021.3116119.
Texte intégralRoy, Ananya, Moinul Hossain et Yasunori Muromachi. « A deep reinforcement learning-based intelligent intervention framework for real-time proactive road safety management ». Accident Analysis & ; Prevention 165 (février 2022) : 106512. http://dx.doi.org/10.1016/j.aap.2021.106512.
Texte intégralGong, Yaobang, Mohamed Abdel-Aty, Jinghui Yuan et Qing Cai. « Multi-Objective reinforcement learning approach for improving safety at intersections with adaptive traffic signal control ». Accident Analysis & ; Prevention 144 (septembre 2020) : 105655. http://dx.doi.org/10.1016/j.aap.2020.105655.
Texte intégralYang, Kui, Mohammed Quddus et Constantinos Antoniou. « Developing a new real-time traffic safety management framework for urban expressways utilizing reinforcement learning tree ». Accident Analysis & ; Prevention 178 (décembre 2022) : 106848. http://dx.doi.org/10.1016/j.aap.2022.106848.
Texte intégralQin, ShuJin, ZhiLiang Bi, Jiacun Wang, Shixin Liu, XiWang Guo, Ziyan Zhao et Liang Qi. « Value-Based Reinforcement Learning for Selective Disassembly Sequence Optimization Problems : Demonstrating and Comparing a Proposed Model ». IEEE Systems, Man, and Cybernetics Magazine 10, no 2 (avril 2024) : 24–31. http://dx.doi.org/10.1109/msmc.2023.3303615.
Texte intégralYan, Longhao, Ping Wang, Fan Qi, Zhuohang Xu, Ronghui Zhang et Yu Han. « A task-level emergency experience reuse method for freeway accidents onsite disposal with policy distilled reinforcement learning ». Accident Analysis & ; Prevention 190 (septembre 2023) : 107179. http://dx.doi.org/10.1016/j.aap.2023.107179.
Texte intégralNasernejad, Payam, Tarek Sayed et Rushdi Alsaleh. « Modeling pedestrian behavior in pedestrian-vehicle near misses : A continuous Gaussian Process Inverse Reinforcement Learning (GP-IRL) approach ». Accident Analysis & ; Prevention 161 (octobre 2021) : 106355. http://dx.doi.org/10.1016/j.aap.2021.106355.
Texte intégralGuo, Hongyu, Kun Xie et Mehdi Keyvan-Ekbatani. « Modeling driver’s evasive behavior during safety–critical lane changes : Two-dimensional time-to-collision and deep reinforcement learning ». Accident Analysis & ; Prevention 186 (juin 2023) : 107063. http://dx.doi.org/10.1016/j.aap.2023.107063.
Texte intégralJin, Jieling, Ye Li, Helai Huang, Yuxuan Dong et Pan Liu. « A variable speed limit control approach for freeway tunnels based on the model-based reinforcement learning framework with safety perception ». Accident Analysis & ; Prevention 201 (juin 2024) : 107570. http://dx.doi.org/10.1016/j.aap.2024.107570.
Texte intégralVandaele, Mathilde, et Sanna Stålhammar. « “Hope dies, action begins?” The role of hope for proactive sustainability engagement among university students ». International Journal of Sustainability in Higher Education 23, no 8 (25 août 2022) : 272–89. http://dx.doi.org/10.1108/ijshe-11-2021-0463.
Texte intégralZhang, Gongquan, Fangrong Chang, Jieling Jin, Fan Yang et Helai Huang. « Multi-objective deep reinforcement learning approach for adaptive traffic signal control system with concurrent optimization of safety, efficiency, and decarbonization at intersections ». Accident Analysis & ; Prevention 199 (mai 2024) : 107451. http://dx.doi.org/10.1016/j.aap.2023.107451.
Texte intégralHoffmann, Patrick, Kirill Gorelik et Valentin Ivanov. « Comparison of Reinforcement Learning and Model Predictive Control for Automated Generation of Optimal Control for Dynamic Systems within a Design Space Exploration Framework ». International Journal of Automotive Engineering 15, no 1 (2024) : 19–26. http://dx.doi.org/10.20485/jsaeijae.15.1_19.
Texte intégralWu, Bo, Yanpeng Feng et Hongyan Zheng. « Model-based Bayesian Reinforcement Learning in Factored Markov Decision Process ». Journal of Computers 9, no 4 (1 avril 2014). http://dx.doi.org/10.4304/jcp.9.4.845-850.
Texte intégralXu, Jianyu, Bin Liu, Xiujie Zhao et Xiao-Lin Wang. « Online reinforcement learning for condition-based group maintenance using factored Markov decision processes ». European Journal of Operational Research, novembre 2023. http://dx.doi.org/10.1016/j.ejor.2023.11.039.
Texte intégralAmato, Christopher, et Frans Oliehoek. « Scalable Planning and Learning for Multiagent POMDPs ». Proceedings of the AAAI Conference on Artificial Intelligence 29, no 1 (18 février 2015). http://dx.doi.org/10.1609/aaai.v29i1.9439.
Texte intégralStreet, Charlie, Masoumeh Mansouri et Bruno Lacerda. « Formal Modelling for Multi-Robot Systems Under Uncertainty ». Current Robotics Reports, 15 août 2023. http://dx.doi.org/10.1007/s43154-023-00104-0.
Texte intégralXie, Ziyang, Lu Lu, Hanwen Wang, Bingyi Su, Yunan Liu et Xu Xu. « Improving Workers’ Musculoskeletal Health During Human-Robot Collaboration Through Reinforcement Learning ». Human Factors : The Journal of the Human Factors and Ergonomics Society, 22 mai 2023, 001872082311775. http://dx.doi.org/10.1177/00187208231177574.
Texte intégralRigoli, Lillian, Gaurav Patil, Patrick Nalepka, Rachel W. Kallen, Simon Hosking, Christopher Best et Michael J. Richardson. « A Comparison of Dynamical Perceptual-Motor Primitives and Deep Reinforcement Learning for Human-Artificial Agent Training Systems ». Journal of Cognitive Engineering and Decision Making, 25 avril 2022, 155534342210929. http://dx.doi.org/10.1177/15553434221092930.
Texte intégralFragkos, Georgios, Jay Johnson et Eirini Eleni Tsiropoulou. « Dynamic Role-Based Access Control Policy for Smart Grid Applications : An Offline Deep Reinforcement Learning Approach ». IEEE Transactions on Human-Machine Systems, 2022, 1–13. http://dx.doi.org/10.1109/thms.2022.3163185.
Texte intégralSun, Yuxiang, Bo Yuan, Qi Xiang, Jiawei Zhou, Jiahui Yu, Di Dai et Xianzhong Zhou. « Intelligent Decision-Making and Human Language Communication Based on Deep Reinforcement Learning in a Wargame Environment ». IEEE Transactions on Human-Machine Systems, 2022, 1–14. http://dx.doi.org/10.1109/thms.2022.3225867.
Texte intégralJokinen, Jussi P. P., Tuomo Kujala et Antti Oulasvirta. « Multitasking in Driving as Optimal Adaptation Under Uncertainty ». Human Factors : The Journal of the Human Factors and Ergonomics Society, 30 juillet 2020, 001872082092768. http://dx.doi.org/10.1177/0018720820927687.
Texte intégralFerrão, Maria Eugénia, et Cristiano Fernandes. « O efeito-escola e a mudança - dá para mudar ? Evidências da investigação Brasileira ». REICE. Revista Iberoamericana sobre Calidad, Eficacia y Cambio en Educación 1, no 1 (2 juillet 2016). http://dx.doi.org/10.15366/reice2003.1.1.005.
Texte intégral