Littérature scientifique sur le sujet « RL ALGORITHMS »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Sommaire
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « RL ALGORITHMS ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "RL ALGORITHMS"
Lahande, Prathamesh, Parag Kaveri et Jatinderkumar Saini. « Reinforcement Learning for Reducing the Interruptions and Increasing Fault Tolerance in the Cloud Environment ». Informatics 10, no 3 (2 août 2023) : 64. http://dx.doi.org/10.3390/informatics10030064.
Texte intégralTrella, Anna L., Kelly W. Zhang, Inbal Nahum-Shani, Vivek Shetty, Finale Doshi-Velez et Susan A. Murphy. « Designing Reinforcement Learning Algorithms for Digital Interventions : Pre-Implementation Guidelines ». Algorithms 15, no 8 (22 juillet 2022) : 255. http://dx.doi.org/10.3390/a15080255.
Texte intégralRodríguez Sánchez, Francisco, Ildeberto Santos-Ruiz, Joaquín Domínguez-Zenteno et Francisco Ronay López-Estrada. « Control Applications Using Reinforcement Learning : An Overview ». Memorias del Congreso Nacional de Control Automático 5, no 1 (17 octobre 2022) : 67–72. http://dx.doi.org/10.58571/cnca.amca.2022.019.
Texte intégralAbbass, Mahmoud Abdelkader Bashery, et Hyun-Soo Kang. « Drone Elevation Control Based on Python-Unity Integrated Framework for Reinforcement Learning Applications ». Drones 7, no 4 (24 mars 2023) : 225. http://dx.doi.org/10.3390/drones7040225.
Texte intégralMann, Timothy, et Yoonsuck Choe. « Scaling Up Reinforcement Learning through Targeted Exploration ». Proceedings of the AAAI Conference on Artificial Intelligence 25, no 1 (4 août 2011) : 435–40. http://dx.doi.org/10.1609/aaai.v25i1.7929.
Texte intégralCheng, Richard, Gábor Orosz, Richard M. Murray et Joel W. Burdick. « End-to-End Safe Reinforcement Learning through Barrier Functions for Safety-Critical Continuous Control Tasks ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 3387–95. http://dx.doi.org/10.1609/aaai.v33i01.33013387.
Texte intégralKirsch, Louis, Sebastian Flennerhag, Hado van Hasselt, Abram Friesen, Junhyuk Oh et Yutian Chen. « Introducing Symmetries to Black Box Meta Reinforcement Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 7 (28 juin 2022) : 7202–10. http://dx.doi.org/10.1609/aaai.v36i7.20681.
Texte intégralKim, Hyun-Su, et Uksun Kim. « Development of a Control Algorithm for a Semi-Active Mid-Story Isolation System Using Reinforcement Learning ». Applied Sciences 13, no 4 (4 février 2023) : 2053. http://dx.doi.org/10.3390/app13042053.
Texte intégralPrakash, Kritika, Fiza Husain, Praveen Paruchuri et Sujit Gujar. « How Private Is Your RL Policy ? An Inverse RL Based Analysis Framework ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 7 (28 juin 2022) : 8009–16. http://dx.doi.org/10.1609/aaai.v36i7.20772.
Texte intégralNiazi, Abdolkarim, Norizah Redzuan, Raja Ishak Raja Hamzah et Sara Esfandiari. « Improvement on Supporting Machine Learning Algorithm for Solving Problem in Immediate Decision Making ». Advanced Materials Research 566 (septembre 2012) : 572–79. http://dx.doi.org/10.4028/www.scientific.net/amr.566.572.
Texte intégralThèses sur le sujet "RL ALGORITHMS"
Marcus, Elwin. « Simulating market maker behaviour using Deep Reinforcement Learning to understand market microstructure ». Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-240682.
Texte intégralMarknadens mikrostruktur studerar hur utbytet av finansiella tillgångar sker enligt explicita regler. Algoritmisk och högfrekvenshandel har förändrat moderna finansmarknaders strukturer under de senaste 5 till 10 åren. Detta har även påverkat pålitligheten hos tidigare använda metoder från exempelvis ekonometri för att studera marknadens mikrostruktur. Maskininlärning och Reinforcement Learning har blivit mer populära, med många olika användningsområden både inom finans och andra fält. Inom finansfältet har dessa typer av metoder använts främst inom handel och optimal exekvering av ordrar. I denna uppsats kombineras både Reinforcement Learning och marknadens mikrostruktur, för att simulera en aktiemarknad baserad på NASDAQ i Norden. Där tränas market maker - agenter via Reinforcement Learning med målet att förstå marknadens mikrostruktur som uppstår via agenternas interaktioner. I denna uppsats utvärderas och testas agenterna på en dealer – marknad tillsammans med en limit - orderbok. Vilket särskiljer denna studie tillsammans med de två algoritmerna DQN och PPO från tidigare studier. Främst har stokastisk optimering använts för liknande problem i tidigare studier. Agenterna lyckas framgångsrikt med att återskapa egenskaper hos finansiella tidsserier som återgång till medelvärdet och avsaknad av linjär autokorrelation. Agenterna lyckas också med att vinna över slumpmässiga strategier, med maximal vinst på 200%. Slutgiltigen lyckas även agenterna med att visa annan handelsdynamik som förväntas ske på en verklig marknad. Huvudsakligen: kluster av spreads, optimal hantering av aktielager och en minskning av spreads under simuleringarna. Detta visar att Reinforcement Learning med PPO eller DQN är relevanta val vid modellering av marknadens mikrostruktur.
ALI, FAIZ MOHAMMAD. « CART POLE SYSTEM ANALYSIS AND CONTROL USING MACHINE LEARNING ALGORITHMS ». Thesis, 2022. http://dspace.dtu.ac.in:8080/jspui/handle/repository/19298.
Texte intégralChapitres de livres sur le sujet "RL ALGORITHMS"
Ahlawat, Samit. « Recent RL Algorithms ». Dans Reinforcement Learning for Finance, 349–402. Berkeley, CA : Apress, 2022. http://dx.doi.org/10.1007/978-1-4842-8835-1_6.
Texte intégralNandy, Abhishek, et Manisha Biswas. « RL Theory and Algorithms ». Dans Reinforcement Learning, 19–69. Berkeley, CA : Apress, 2017. http://dx.doi.org/10.1007/978-1-4842-3285-9_2.
Texte intégralHahn, Ernst Moritz, Mateo Perez, Sven Schewe, Fabio Somenzi, Ashutosh Trivedi et Dominik Wojtczak. « Mungojerrie : Linear-Time Objectives in Model-Free Reinforcement Learning ». Dans Tools and Algorithms for the Construction and Analysis of Systems, 527–45. Cham : Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-30823-9_27.
Texte intégralRamponi, Giorgia. « Learning in the Presence of Multiple Agents ». Dans Special Topics in Information Technology, 93–103. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-15374-7_8.
Texte intégralMetelli, Alberto Maria. « Configurable Environments in Reinforcement Learning : An Overview ». Dans Special Topics in Information Technology, 101–13. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-85918-3_9.
Texte intégralGros, Timo P., Holger Hermanns, Jörg Hoffmann, Michaela Klauck, Maximilian A. Köhl et Verena Wolf. « MoGym : Using Formal Models for Training and Verifying Decision-making Agents ». Dans Computer Aided Verification, 430–43. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-13188-2_21.
Texte intégralDu, Huaiyu, et Rafał Jóźwiak. « Representation of Observations in Reinforcement Learning for Playing Arcade Fighting Game ». Dans Digital Interaction and Machine Intelligence, 45–55. Cham : Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-37649-8_5.
Texte intégralBugaenko, Andrey A. « Replacing the Reinforcement Learning (RL) to the Auto Reinforcement Learning (AutoRL) Algorithms to Find the Optimal Structure of Business Processes in the Bank ». Dans Software Engineering Application in Informatics, 15–22. Cham : Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-90318-3_2.
Texte intégralWang, Dasong, et Roland Snooks. « Artificial Intuitions of Generative Design : An Approach Based on Reinforcement Learning ». Dans Proceedings of the 2020 DigitalFUTURES, 189–98. Singapore : Springer Singapore, 2021. http://dx.doi.org/10.1007/978-981-33-4400-6_18.
Texte intégralZhang, Sizhe, Haitao Wang, Jian Wen et Hejun Wu. « A Deep RL Algorithm for Location Optimization of Regional Express Distribution Center Using IoT Data ». Dans Lecture Notes in Electrical Engineering, 377–84. Singapore : Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-99-0416-7_38.
Texte intégralActes de conférences sur le sujet "RL ALGORITHMS"
Simão, Thiago D. « Safe and Sample-Efficient Reinforcement Learning Algorithms for Factored Environments ». Dans Twenty-Eighth International Joint Conference on Artificial Intelligence {IJCAI-19}. California : International Joint Conferences on Artificial Intelligence Organization, 2019. http://dx.doi.org/10.24963/ijcai.2019/919.
Texte intégralChrabąszcz, Patryk, Ilya Loshchilov et Frank Hutter. « Back to Basics : Benchmarking Canonical Evolution Strategies for Playing Atari ». Dans Twenty-Seventh International Joint Conference on Artificial Intelligence {IJCAI-18}. California : International Joint Conferences on Artificial Intelligence Organization, 2018. http://dx.doi.org/10.24963/ijcai.2018/197.
Texte intégralArusoaie, Andrei, David Nowak, Vlad Rusu et Dorel Lucanu. « A Certified Procedure for RL Verification ». Dans 2017 19th International Symposium on Symbolic and Numeric Algorithms for Scientific Computing (SYNASC). IEEE, 2017. http://dx.doi.org/10.1109/synasc.2017.00031.
Texte intégralGajane, Pratik, Peter Auer et Ronald Ortner. « Autonomous Exploration for Navigating in MDPs Using Blackbox RL Algorithms ». Dans Thirty-Second International Joint Conference on Artificial Intelligence {IJCAI-23}. California : International Joint Conferences on Artificial Intelligence Organization, 2023. http://dx.doi.org/10.24963/ijcai.2023/413.
Texte intégralLin, Zichuan, Tianqi Zhao, Guangwen Yang et Lintao Zhang. « Episodic Memory Deep Q-Networks ». Dans Twenty-Seventh International Joint Conference on Artificial Intelligence {IJCAI-18}. California : International Joint Conferences on Artificial Intelligence Organization, 2018. http://dx.doi.org/10.24963/ijcai.2018/337.
Texte intégralMartin, Jarryd, Suraj Narayanan S., Tom Everitt et Marcus Hutter. « Count-Based Exploration in Feature Space for Reinforcement Learning ». Dans Twenty-Sixth International Joint Conference on Artificial Intelligence. California : International Joint Conferences on Artificial Intelligence Organization, 2017. http://dx.doi.org/10.24963/ijcai.2017/344.
Texte intégralDa Silva, Felipe Leno, et Anna Helena Reali Costa. « Methods and Algorithms for Knowledge Reuse in Multiagent Reinforcement Learning ». Dans Concurso de Teses e Dissertações da SBC. Sociedade Brasileira de Computação - SBC, 2020. http://dx.doi.org/10.5753/ctd.2020.11360.
Texte intégralGao, Yang, Christian M. Meyer, Mohsen Mesgar et Iryna Gurevych. « Reward Learning for Efficient Reinforcement Learning in Extractive Document Summarisation ». Dans Twenty-Eighth International Joint Conference on Artificial Intelligence {IJCAI-19}. California : International Joint Conferences on Artificial Intelligence Organization, 2019. http://dx.doi.org/10.24963/ijcai.2019/326.
Texte intégralZhao, Enmin, Shihong Deng, Yifan Zang, Yongxin Kang, Kai Li et Junliang Xing. « Potential Driven Reinforcement Learning for Hard Exploration Tasks ». Dans Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California : International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/290.
Texte intégralSarafian, Elad, Aviv Tamar et Sarit Kraus. « Constrained Policy Improvement for Efficient Reinforcement Learning ». Dans Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California : International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/396.
Texte intégralRapports d'organisations sur le sujet "RL ALGORITHMS"
A Decision-Making Method for Connected Autonomous Driving Based on Reinforcement Learning. SAE International, décembre 2020. http://dx.doi.org/10.4271/2020-01-5154.
Texte intégral