Articles de revues sur le sujet « Causal reinforcement learning »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Causal reinforcement learning ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Madumal, Prashan, Tim Miller, Liz Sonenberg et Frank Vetere. « Explainable Reinforcement Learning through a Causal Lens ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 03 (3 avril 2020) : 2493–500. http://dx.doi.org/10.1609/aaai.v34i03.5631.
Texte intégralLi, Dezhi, Yunjun Lu, Jianping Wu, Wenlu Zhou et Guangjun Zeng. « Causal Reinforcement Learning for Knowledge Graph Reasoning ». Applied Sciences 14, no 6 (15 mars 2024) : 2498. http://dx.doi.org/10.3390/app14062498.
Texte intégralYang, Dezhi, Guoxian Yu, Jun Wang, Zhengtian Wu et Maozu Guo. « Reinforcement Causal Structure Learning on Order Graph ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 9 (26 juin 2023) : 10737–44. http://dx.doi.org/10.1609/aaai.v37i9.26274.
Texte intégralMadumal, Prashan. « Explainable Agency in Reinforcement Learning Agents ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 10 (3 avril 2020) : 13724–25. http://dx.doi.org/10.1609/aaai.v34i10.7134.
Texte intégralHerlau, Tue, et Rasmus Larsen. « Reinforcement Learning of Causal Variables Using Mediation Analysis ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 6 (28 juin 2022) : 6910–17. http://dx.doi.org/10.1609/aaai.v36i6.20648.
Texte intégralDuong, Tri Dung, Qian Li et Guandong Xu. « Stochastic intervention for causal inference via reinforcement learning ». Neurocomputing 482 (avril 2022) : 40–49. http://dx.doi.org/10.1016/j.neucom.2022.01.086.
Texte intégralZhang, Wei, Xuesong Wang, Haoyu Wang et Yuhu Cheng. « Causal Meta-Reinforcement Learning for Multimodal Remote Sensing Data Classification ». Remote Sensing 16, no 6 (16 mars 2024) : 1055. http://dx.doi.org/10.3390/rs16061055.
Texte intégralVeselic, Sebastijan, Gerhard Jocham, Christian Gausterer, Bernhard Wagner, Miriam Ernhoefer-Reßler, Rupert Lanzenberger, Christoph Eisenegger, Claus Lamm et Annabel Losecaat Vermeer. « A causal role of estradiol in human reinforcement learning ». Hormones and Behavior 134 (août 2021) : 105022. http://dx.doi.org/10.1016/j.yhbeh.2021.105022.
Texte intégralZhou, Zhengyuan, Michael Bloem et Nicholas Bambos. « Infinite Time Horizon Maximum Causal Entropy Inverse Reinforcement Learning ». IEEE Transactions on Automatic Control 63, no 9 (septembre 2018) : 2787–802. http://dx.doi.org/10.1109/tac.2017.2775960.
Texte intégralWang, Zizhao, Caroline Wang, Xuesu Xiao, Yuke Zhu et Peter Stone. « Building Minimal and Reusable Causal State Abstractions for Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 14 (24 mars 2024) : 15778–86. http://dx.doi.org/10.1609/aaai.v38i14.29507.
Texte intégralDu, Xiao, Yutong Ye, Pengyu Zhang, Yaning Yang, Mingsong Chen et Ting Wang. « Situation-Dependent Causal Influence-Based Cooperative Multi-Agent Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 16 (24 mars 2024) : 17362–70. http://dx.doi.org/10.1609/aaai.v38i16.29684.
Texte intégralSkalse, Joar, et Alessandro Abate. « Misspecification in Inverse Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 12 (26 juin 2023) : 15136–43. http://dx.doi.org/10.1609/aaai.v37i12.26766.
Texte intégralBuehner, Marc J., et Jon May. « Abolishing the effect of reinforcement delay on human causal learning ». Quarterly Journal of Experimental Psychology Section B 57, no 2b (avril 2004) : 179–91. http://dx.doi.org/10.1080/02724990344000123.
Texte intégralYang, Shantian, Bo Yang, Zheng Zeng et Zhongfeng Kang. « Causal inference multi-agent reinforcement learning for traffic signal control ». Information Fusion 94 (juin 2023) : 243–56. http://dx.doi.org/10.1016/j.inffus.2023.02.009.
Texte intégralMutti, Mirco, Riccardo De Santi, Emanuele Rossi, Juan Felipe Calderon, Michael Bronstein et Marcello Restelli. « Provably Efficient Causal Model-Based Reinforcement Learning for Systematic Generalization ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 8 (26 juin 2023) : 9251–59. http://dx.doi.org/10.1609/aaai.v37i8.26109.
Texte intégralEka, Eka Madya, Yunyun Yudiana et Komarudin. « Effect of reinceforcement on physical learning on motivation learning ». Gladi : Jurnal Ilmu Keolahragaan 13, no 1 (31 mars 2022) : 41–46. http://dx.doi.org/10.21009/gjik.131.04.
Texte intégralMehta, Neville, Soumya Ray, Prasad Tadepalli et Thomas Dietterich. « Automatic Discovery and Transfer of Task Hierarchies in Reinforcement Learning ». AI Magazine 32, no 1 (16 mars 2011) : 35. http://dx.doi.org/10.1609/aimag.v32i1.2342.
Texte intégralValverde, Gabriel, David Quesada, Pedro Larrañaga et Concha Bielza. « Causal reinforcement learning based on Bayesian networks applied to industrial settings ». Engineering Applications of Artificial Intelligence 125 (octobre 2023) : 106657. http://dx.doi.org/10.1016/j.engappai.2023.106657.
Texte intégralSun, Yuewen, Erli Wang, Biwei Huang, Chaochao Lu, Lu Feng, Changyin Sun et Kun Zhang. « ACAMDA : Improving Data Efficiency in Reinforcement Learning through Guided Counterfactual Data Augmentation ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 14 (24 mars 2024) : 15193–201. http://dx.doi.org/10.1609/aaai.v38i14.29442.
Texte intégralLiefeng Zhu, Liefeng Zhu, et Yongbiao Luo Liefeng Zhu. « Application of Bayesian Networks and Reinforcement Learning in Intelligent Control Systems in Uncertain Environments ». 電腦學刊 35, no 2 (avril 2024) : 001–16. http://dx.doi.org/10.53106/199115992024043502001.
Texte intégralBuehner, Marc J., et Jon May. « Rethinking Temporal Contiguity and the Judgement of Causality : Effects of Prior Knowledge, Experience, and Reinforcement Procedure ». Quarterly Journal of Experimental Psychology Section A 56, no 5 (juillet 2003) : 865–90. http://dx.doi.org/10.1080/02724980244000675.
Texte intégralSanghvi, Navyata, Shinnosuke Usami, Mohit Sharma, Joachim Groeger et Kris Kitani. « Inverse Reinforcement Learning with Explicit Policy Estimates ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 11 (18 mai 2021) : 9472–80. http://dx.doi.org/10.1609/aaai.v35i11.17141.
Texte intégralAgarwal, Anish. « Causal Inference for Social and Engineering Systems ». ACM SIGMETRICS Performance Evaluation Review 50, no 3 (30 décembre 2022) : 7–11. http://dx.doi.org/10.1145/3579342.3579345.
Texte intégralGao, Haichuan, Tianren Zhang, Zhile Yang, Yuqing Guo, Jinsheng Ren, Shangqi Guo et Feng Chen. « Fast Counterfactual Inference for History-Based Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 6 (26 juin 2023) : 7613–23. http://dx.doi.org/10.1609/aaai.v37i6.25924.
Texte intégralMartinez-Gil, Francisco, Miguel Lozano, Ignacio García-Fernández, Pau Romero, Dolors Serra et Rafael Sebastián. « Using Inverse Reinforcement Learning with Real Trajectories to Get More Trustworthy Pedestrian Simulations ». Mathematics 8, no 9 (2 septembre 2020) : 1479. http://dx.doi.org/10.3390/math8091479.
Texte intégralLee, Kyungjae, Sungjoon Choi et Songhwai Oh. « Sparse Markov Decision Processes With Causal Sparse Tsallis Entropy Regularization for Reinforcement Learning ». IEEE Robotics and Automation Letters 3, no 3 (juillet 2018) : 1466–73. http://dx.doi.org/10.1109/lra.2018.2800085.
Texte intégralGhorbel, N., S.-A. Addouche et A. El Mhamedi. « Forward management of spare parts stock shortages via causal reasoning using reinforcement learning ». IFAC-PapersOnLine 48, no 3 (2015) : 1061–66. http://dx.doi.org/10.1016/j.ifacol.2015.06.224.
Texte intégralNadim, Karim, Mohamed-Salah Ouali, Hakim Ghezzaz et Ahmed Ragab. « Learn-to-supervise : Causal reinforcement learning for high-level control in industrial processes ». Engineering Applications of Artificial Intelligence 126 (novembre 2023) : 106853. http://dx.doi.org/10.1016/j.engappai.2023.106853.
Texte intégralZhu, Zheng-Mao, Shengyi Jiang, Yu-Ren Liu, Yang Yu et Kun Zhang. « Invariant Action Effect Model for Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 8 (28 juin 2022) : 9260–68. http://dx.doi.org/10.1609/aaai.v36i8.20913.
Texte intégralZhou, Haoran, Junliang Lu, Ziyu Li et Xinyi Zhang. « Study on whether marriage affects depression based on causal inference ». Applied and Computational Engineering 6, no 1 (14 juin 2023) : 1661–72. http://dx.doi.org/10.54254/2755-2721/6/20230827.
Texte intégralDjeumou, Franck, Murat Cubuktepe, Craig Lennon et Ufuk Topcu. « Task-Guided Inverse Reinforcement Learning under Partial Information ». Proceedings of the International Conference on Automated Planning and Scheduling 32 (13 juin 2022) : 53–61. http://dx.doi.org/10.1609/icaps.v32i1.19785.
Texte intégralEdmonds, Mark, Xiaojian Ma, Siyuan Qi, Yixin Zhu, Hongjing Lu et Song-Chun Zhu. « Theory-Based Causal Transfer:Integrating Instance-Level Induction and Abstract-Level Structure Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 02 (3 avril 2020) : 1283–91. http://dx.doi.org/10.1609/aaai.v34i02.5483.
Texte intégralWang, Yuchen, Mitsuhiro Hayashibe et Dai Owaki. « Data-Driven Policy Learning Methods from Biological Behavior : A Systematic Review ». Applied Sciences 14, no 10 (9 mai 2024) : 4038. http://dx.doi.org/10.3390/app14104038.
Texte intégralBarnby, Joseph M., Mitul A. Mehta et Michael Moutoussis. « The computational relationship between reinforcement learning, social inference, and paranoia ». PLOS Computational Biology 18, no 7 (25 juillet 2022) : e1010326. http://dx.doi.org/10.1371/journal.pcbi.1010326.
Texte intégralMokhtarian, Ehsan, Mohmmadsadegh Khorasani, Jalal Etesami et Negar Kiyavash. « Novel Ordering-Based Approaches for Causal Structure Learning in the Presence of Unobserved Variables ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 10 (26 juin 2023) : 12260–68. http://dx.doi.org/10.1609/aaai.v37i10.26445.
Texte intégralYang, Chao-Han Huck, I.-Te Danny Hung, Yi Ouyang et Pin-Yu Chen. « Training a Resilient Q-network against Observational Interference ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 8 (28 juin 2022) : 8814–22. http://dx.doi.org/10.1609/aaai.v36i8.20862.
Texte intégralHasanah, Uswatun, Luluk Salimah Oktavia et Putri Silaturrahmi. « INCREASING STUDENTS’ LEARNING INTEREST THROUGH BLENDED LEARNING IN THE EDUCATIONAL PSYCHOLOGY COURSE ». JURNAL PAJAR (Pendidikan dan Pengajaran) 7, no 1 (31 janvier 2023) : 181. http://dx.doi.org/10.33578/pjr.v7i1.9069.
Texte intégralWeissengruber, Sebastian, Sang Wan Lee, John P. O’Doherty et Christian C. Ruff. « Neurostimulation Reveals Context-Dependent Arbitration Between Model-Based and Model-Free Reinforcement Learning ». Cerebral Cortex 29, no 11 (19 mars 2019) : 4850–62. http://dx.doi.org/10.1093/cercor/bhz019.
Texte intégralZhang, Yuzhu, et Hao Xu. « Reconfigurable-Intelligent-Surface-Enhanced Dynamic Resource Allocation for the Social Internet of Electric Vehicle Charging Networks with Causal-Structure-Based Reinforcement Learning ». Future Internet 16, no 5 (11 mai 2024) : 165. http://dx.doi.org/10.3390/fi16050165.
Texte intégralElder, Jacob, Tyler Davis et Brent L. Hughes. « Learning About the Self : Motives for Coherence and Positivity Constrain Learning From Self-Relevant Social Feedback ». Psychological Science 33, no 4 (28 mars 2022) : 629–47. http://dx.doi.org/10.1177/09567976211045934.
Texte intégralNISHINA, Kyosuke, et Shigeru FUJITA. « A World Model Reinforcement Learning Method That Is Not Distracted by Background Information by Using Representation Learning via Invariant Causal Mechanisms for Non-Contrastive Learning ». Journal of Japan Society for Fuzzy Theory and Intelligent Informatics 36, no 1 (15 février 2024) : 571–81. http://dx.doi.org/10.3156/jsoft.36.1_571.
Texte intégralKawato, Mitsuo, et Aurelio Cortese. « From internal models toward metacognitive AI ». Biological Cybernetics 115, no 5 (octobre 2021) : 415–30. http://dx.doi.org/10.1007/s00422-021-00904-7.
Texte intégralLiu, Xiuwen, Xinghua Lei, Xin Li et Sirui Chen. « Self-Interested Coalitional Crowdsensing for Multi-Agent Interactive Environment Monitoring ». Sensors 24, no 2 (14 janvier 2024) : 509. http://dx.doi.org/10.3390/s24020509.
Texte intégralSyarah, Evi, Asdar Asdar et Mas'ud Muhamadiyah. « Pengaruh Pemberian Penguatan Terhadap Motivasi Belajar Siswa Pada Mata Pelajaran Bahasa Indonesia Kelas V SDN Se-Kecamatan Suppa Kabupaten Pinrang ». Bosowa Journal of Education 2, no 1 (24 décembre 2021) : 33–39. http://dx.doi.org/10.35965/bje.v2i1.1178.
Texte intégralWang, Zhicheng, Biwei Huang, Shikui Tu, Kun Zhang et Lei Xu. « DeepTrader : A Deep Reinforcement Learning Approach for Risk-Return Balanced Portfolio Management with Market Conditions Embedding ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 1 (18 mai 2021) : 643–50. http://dx.doi.org/10.1609/aaai.v35i1.16144.
Texte intégralZhang, Xianjie, Yu Liu, Wenjun Li et Chen Gong. « Pruning the Communication Bandwidth between Reinforcement Learning Agents through Causal Inference : An Innovative Approach to Designing a Smart Grid Power System ». Sensors 22, no 20 (13 octobre 2022) : 7785. http://dx.doi.org/10.3390/s22207785.
Texte intégralMcMilin, Emily. « Underspecification in Language Modeling Tasks : A Causality-Informed Study of Gendered Pronoun Resolution ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 17 (24 mars 2024) : 18778–88. http://dx.doi.org/10.1609/aaai.v38i17.29842.
Texte intégralPalacios Garay, Jessica Paola, Jorge Luis Escalante, Juan Carlos Chumacero Calle, Inocenta Marivel Cavarjal Bautista, Segundo Perez-Saavedra et Jose Nieto-Gamboa. « Impact of Emotional Style on Academic Goals in Pandemic Times ». International Journal of Higher Education 9, no 9 (2 novembre 2020) : 21. http://dx.doi.org/10.5430/ijhe.v9n9p21.
Texte intégralShen, Lingdong, Chunlei Huo, Nuo Xu, Chaowei Han et Zichen Wang. « Learn How to See : Collaborative Embodied Learning for Object Detection and Camera Adjusting ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 5 (24 mars 2024) : 4793–801. http://dx.doi.org/10.1609/aaai.v38i5.28281.
Texte intégralvan der Oord, Saskia, et Gail Tripp. « How to Improve Behavioral Parent and Teacher Training for Children with ADHD : Integrating Empirical Research on Learning and Motivation into Treatment ». Clinical Child and Family Psychology Review 23, no 4 (24 septembre 2020) : 577–604. http://dx.doi.org/10.1007/s10567-020-00327-z.
Texte intégral