Articles de revues sur le sujet « Partially Observable Markov Decision Processes (POMDPs) »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Partially Observable Markov Decision Processes (POMDPs) ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
NI, YAODONG, et ZHI-QIANG LIU. « BOUNDED-PARAMETER PARTIALLY OBSERVABLE MARKOV DECISION PROCESSES : FRAMEWORK AND ALGORITHM ». International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems 21, no 06 (décembre 2013) : 821–63. http://dx.doi.org/10.1142/s0218488513500396.
Texte intégralTennenholtz, Guy, Uri Shalit et Shie Mannor. « Off-Policy Evaluation in Partially Observable Environments ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 06 (3 avril 2020) : 10276–83. http://dx.doi.org/10.1609/aaai.v34i06.6590.
Texte intégralCarr, Steven, Nils Jansen et Ufuk Topcu. « Task-Aware Verifiable RNN-Based Policies for Partially Observable Markov Decision Processes ». Journal of Artificial Intelligence Research 72 (18 novembre 2021) : 819–47. http://dx.doi.org/10.1613/jair.1.12963.
Texte intégralKim, Sung-Kyun, Oren Salzman et Maxim Likhachev. « POMHDP : Search-Based Belief Space Planning Using Multiple Heuristics ». Proceedings of the International Conference on Automated Planning and Scheduling 29 (25 mai 2021) : 734–44. http://dx.doi.org/10.1609/icaps.v29i1.3542.
Texte intégralWang, Chenggang, et Roni Khardon. « Relational Partially Observable MDPs ». Proceedings of the AAAI Conference on Artificial Intelligence 24, no 1 (4 juillet 2010) : 1153–58. http://dx.doi.org/10.1609/aaai.v24i1.7742.
Texte intégralHauskrecht, M. « Value-Function Approximations for Partially Observable Markov Decision Processes ». Journal of Artificial Intelligence Research 13 (1 août 2000) : 33–94. http://dx.doi.org/10.1613/jair.678.
Texte intégralVictorio-Meza, Hermilo, Manuel Mejía-Lavalle, Alicia Martínez Rebollar, Andrés Blanco Ortega, Obdulia Pichardo Lagunas et Grigori Sidorov. « Searching for Cerebrovascular Disease Optimal Treatment Recommendations Applying Partially Observable Markov Decision Processes ». International Journal of Pattern Recognition and Artificial Intelligence 32, no 01 (9 octobre 2017) : 1860015. http://dx.doi.org/10.1142/s0218001418600157.
Texte intégralZhang, N. L., et W. Liu. « A Model Approximation Scheme for Planning in Partially Observable Stochastic Domains ». Journal of Artificial Intelligence Research 7 (1 novembre 1997) : 199–230. http://dx.doi.org/10.1613/jair.419.
Texte intégralOmidshafiei, Shayegan, Ali–Akbar Agha–Mohammadi, Christopher Amato, Shih–Yuan Liu, Jonathan P. How et John Vian. « Decentralized control of multi-robot partially observable Markov decision processes using belief space macro-actions ». International Journal of Robotics Research 36, no 2 (février 2017) : 231–58. http://dx.doi.org/10.1177/0278364917692864.
Texte intégralRozek, Brandon, Junkyu Lee, Harsha Kokel, Michael Katz et Shirin Sohrabi. « Partially Observable Hierarchical Reinforcement Learning with AI Planning (Student Abstract) ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 21 (24 mars 2024) : 23635–36. http://dx.doi.org/10.1609/aaai.v38i21.30504.
Texte intégralTheocharous, Georgios, et Sridhar Mahadevan. « Compressing POMDPs Using Locality Preserving Non-Negative Matrix Factorization ». Proceedings of the AAAI Conference on Artificial Intelligence 24, no 1 (4 juillet 2010) : 1147–52. http://dx.doi.org/10.1609/aaai.v24i1.7750.
Texte intégralWalraven, Erwin, et Matthijs T. J. Spaan. « Point-Based Value Iteration for Finite-Horizon POMDPs ». Journal of Artificial Intelligence Research 65 (11 juillet 2019) : 307–41. http://dx.doi.org/10.1613/jair.1.11324.
Texte intégralZhang, N. L., et W. Zhang. « Speeding Up the Convergence of Value Iteration in Partially Observable Markov Decision Processes ». Journal of Artificial Intelligence Research 14 (1 février 2001) : 29–51. http://dx.doi.org/10.1613/jair.761.
Texte intégralWang, Erli, Hanna Kurniawati et Dirk Kroese. « An On-Line Planner for POMDPs with Large Discrete Action Space : A Quantile-Based Approach ». Proceedings of the International Conference on Automated Planning and Scheduling 28 (15 juin 2018) : 273–77. http://dx.doi.org/10.1609/icaps.v28i1.13906.
Texte intégralZhang, Zongzhang, Michael Littman et Xiaoping Chen. « Covering Number as a Complexity Measure for POMDP Planning and Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 26, no 1 (20 septembre 2021) : 1853–59. http://dx.doi.org/10.1609/aaai.v26i1.8360.
Texte intégralRoss, S., J. Pineau, S. Paquet et B. Chaib-draa. « Online Planning Algorithms for POMDPs ». Journal of Artificial Intelligence Research 32 (29 juillet 2008) : 663–704. http://dx.doi.org/10.1613/jair.2567.
Texte intégralKo, Li Ling, David Hsu, Wee Sun Lee et Sylvie Ong. « Structured Parameter Elicitation ». Proceedings of the AAAI Conference on Artificial Intelligence 24, no 1 (4 juillet 2010) : 1102–7. http://dx.doi.org/10.1609/aaai.v24i1.7744.
Texte intégralXIANG, YANG, et FRANK HANSHAR. « MULTIAGENT EXPEDITION WITH GRAPHICAL MODELS ». International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems 19, no 06 (décembre 2011) : 939–76. http://dx.doi.org/10.1142/s0218488511007416.
Texte intégralSanner, Scott, et Kristian Kersting. « Symbolic Dynamic Programming for First-order POMDPs ». Proceedings of the AAAI Conference on Artificial Intelligence 24, no 1 (4 juillet 2010) : 1140–46. http://dx.doi.org/10.1609/aaai.v24i1.7747.
Texte intégralCapitan, Jesus, Matthijs Spaan, Luis Merino et Anibal Ollero. « Decentralized Multi-Robot Cooperation with Auctioned POMDPs ». Proceedings of the International Conference on Automated Planning and Scheduling 24 (11 mai 2014) : 515–18. http://dx.doi.org/10.1609/icaps.v24i1.13658.
Texte intégralLin, Yong, Xingjia Lu et Fillia Makedon. « Approximate Planning in POMDPs with Weighted Graph Models ». International Journal on Artificial Intelligence Tools 24, no 04 (août 2015) : 1550014. http://dx.doi.org/10.1142/s0218213015500141.
Texte intégralAras, R., et A. Dutech. « An Investigation into Mathematical Programming for Finite Horizon Decentralized POMDPs ». Journal of Artificial Intelligence Research 37 (26 mars 2010) : 329–96. http://dx.doi.org/10.1613/jair.2915.
Texte intégralWen, Xian, Haifeng Huo et Jinhua Cui. « The optimal probability of the risk for finite horizon partially observable Markov decision processes ». AIMS Mathematics 8, no 12 (2023) : 28435–49. http://dx.doi.org/10.3934/math.20231455.
Texte intégralItoh, Hideaki, Hisao Fukumoto, Hiroshi Wakuya et Tatsuya Furukawa. « Bottom-up learning of hierarchical models in a class of deterministic POMDP environments ». International Journal of Applied Mathematics and Computer Science 25, no 3 (1 septembre 2015) : 597–615. http://dx.doi.org/10.1515/amcs-2015-0044.
Texte intégralDressel, Louis, et Mykel Kochenderfer. « Efficient Decision-Theoretic Target Localization ». Proceedings of the International Conference on Automated Planning and Scheduling 27 (5 juin 2017) : 70–78. http://dx.doi.org/10.1609/icaps.v27i1.13832.
Texte intégralChatterjee, Krishnendu, Martin Chmelik et Ufuk Topcu. « Sensor Synthesis for POMDPs with Reachability Objectives ». Proceedings of the International Conference on Automated Planning and Scheduling 28 (15 juin 2018) : 47–55. http://dx.doi.org/10.1609/icaps.v28i1.13875.
Texte intégralPark, Jaeyoung, Kee-Eung Kim et Yoon-Kyu Song. « A POMDP-Based Optimal Control of P300-Based Brain-Computer Interfaces ». Proceedings of the AAAI Conference on Artificial Intelligence 25, no 1 (4 août 2011) : 1559–62. http://dx.doi.org/10.1609/aaai.v25i1.7956.
Texte intégralDoshi, P., et P. J. Gmytrasiewicz. « Monte Carlo Sampling Methods for Approximating Interactive POMDPs ». Journal of Artificial Intelligence Research 34 (24 mars 2009) : 297–337. http://dx.doi.org/10.1613/jair.2630.
Texte intégralShatkay, H., et L. P. Kaelbling. « Learning Geometrically-Constrained Hidden Markov Models for Robot Navigation : Bridging the Topological-Geometrical Gap ». Journal of Artificial Intelligence Research 16 (1 mars 2002) : 167–207. http://dx.doi.org/10.1613/jair.874.
Texte intégralLim, Michael H., Tyler J. Becker, Mykel J. Kochenderfer, Claire J. Tomlin et Zachary N. Sunberg. « Optimality Guarantees for Particle Belief Approximation of POMDPs ». Journal of Artificial Intelligence Research 77 (27 août 2023) : 1591–636. http://dx.doi.org/10.1613/jair.1.14525.
Texte intégralSpaan, M. T. J., et N. Vlassis. « Perseus : Randomized Point-based Value Iteration for POMDPs ». Journal of Artificial Intelligence Research 24 (1 août 2005) : 195–220. http://dx.doi.org/10.1613/jair.1659.
Texte intégralKraemer, Landon, et Bikramjit Banerjee. « Informed Initial Policies for Learning in Dec-POMDPs ». Proceedings of the AAAI Conference on Artificial Intelligence 26, no 1 (20 septembre 2021) : 2433–34. http://dx.doi.org/10.1609/aaai.v26i1.8426.
Texte intégralBanerjee, Bikramjit, Jeremy Lyle, Landon Kraemer et Rajesh Yellamraju. « Sample Bounded Distributed Reinforcement Learning for Decentralized POMDPs ». Proceedings of the AAAI Conference on Artificial Intelligence 26, no 1 (20 septembre 2021) : 1256–62. http://dx.doi.org/10.1609/aaai.v26i1.8260.
Texte intégralBernstein, D. S., C. Amato, E. A. Hansen et S. Zilberstein. « Policy Iteration for Decentralized Control of Markov Decision Processes ». Journal of Artificial Intelligence Research 34 (1 mars 2009) : 89–132. http://dx.doi.org/10.1613/jair.2667.
Texte intégralWu, Bo, Yan Peng Feng et Hong Yan Zheng. « Point-Based Monte Carto Online Planning in POMDPs ». Advanced Materials Research 846-847 (novembre 2013) : 1388–91. http://dx.doi.org/10.4028/www.scientific.net/amr.846-847.1388.
Texte intégralAjdarów, Michal, Šimon Brlej et Petr Novotný. « Shielding in Resource-Constrained Goal POMDPs ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 12 (26 juin 2023) : 14674–82. http://dx.doi.org/10.1609/aaai.v37i12.26715.
Texte intégralSimão, Thiago D., Marnix Suilen et Nils Jansen. « Safe Policy Improvement for POMDPs via Finite-State Controllers ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 12 (26 juin 2023) : 15109–17. http://dx.doi.org/10.1609/aaai.v37i12.26763.
Texte intégralZhang, Zongzhang, David Hsu, Wee Sun Lee, Zhan Wei Lim et Aijun Bai. « PLEASE : Palm Leaf Search for POMDPs with Large Observation Spaces ». Proceedings of the International Conference on Automated Planning and Scheduling 25 (8 avril 2015) : 249–57. http://dx.doi.org/10.1609/icaps.v25i1.13706.
Texte intégralBouton, Maxime, Jana Tumova et Mykel J. Kochenderfer. « Point-Based Methods for Model Checking in Partially Observable Markov Decision Processes ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 06 (3 avril 2020) : 10061–68. http://dx.doi.org/10.1609/aaai.v34i06.6563.
Texte intégralSonu, Ekhlas, Yingke Chen et Prashant Doshi. « Individual Planning in Agent Populations : Exploiting Anonymity and Frame-Action Hypergraphs ». Proceedings of the International Conference on Automated Planning and Scheduling 25 (8 avril 2015) : 202–10. http://dx.doi.org/10.1609/icaps.v25i1.13712.
Texte intégralPetrik, Marek, et Shlomo Zilberstein. « Linear Dynamic Programs for Resource Management ». Proceedings of the AAAI Conference on Artificial Intelligence 25, no 1 (4 août 2011) : 1377–83. http://dx.doi.org/10.1609/aaai.v25i1.7794.
Texte intégralDibangoye, Jilles Steeve, Christopher Amato, Olivier Buffet et François Charpillet. « Optimally Solving Dec-POMDPs as Continuous-State MDPs ». Journal of Artificial Intelligence Research 55 (24 février 2016) : 443–97. http://dx.doi.org/10.1613/jair.4623.
Texte intégralNg, Brenda, Carol Meyers, Kofi Boakye et John Nitao. « Towards Applying Interactive POMDPs to Real-World Adversary Modeling ». Proceedings of the AAAI Conference on Artificial Intelligence 24, no 2 (7 octobre 2021) : 1814–20. http://dx.doi.org/10.1609/aaai.v24i2.18818.
Texte intégralBoots, Byron, et Geoffrey Gordon. « An Online Spectral Learning Algorithm for Partially Observable Nonlinear Dynamical Systems ». Proceedings of the AAAI Conference on Artificial Intelligence 25, no 1 (4 août 2011) : 293–300. http://dx.doi.org/10.1609/aaai.v25i1.7924.
Texte intégralBanerjee, Bikramjit. « Pruning for Monte Carlo Distributed Reinforcement Learning in Decentralized POMDPs ». Proceedings of the AAAI Conference on Artificial Intelligence 27, no 1 (30 juin 2013) : 88–94. http://dx.doi.org/10.1609/aaai.v27i1.8670.
Texte intégralAmato, Christopher, George Konidaris, Leslie P. Kaelbling et Jonathan P. How. « Modeling and Planning with Macro-Actions in Decentralized POMDPs ». Journal of Artificial Intelligence Research 64 (25 mars 2019) : 817–59. http://dx.doi.org/10.1613/jair.1.11418.
Texte intégralWANG, YI, SHIQI ZHANG et JOOHYUNG LEE. « Bridging Commonsense Reasoning and Probabilistic Planning via a Probabilistic Action Language ». Theory and Practice of Logic Programming 19, no 5-6 (septembre 2019) : 1090–106. http://dx.doi.org/10.1017/s1471068419000371.
Texte intégralSarraute, Carlos, Olivier Buffet et Jörg Hoffmann. « POMDPs Make Better Hackers : Accounting for Uncertainty in Penetration Testing ». Proceedings of the AAAI Conference on Artificial Intelligence 26, no 1 (20 septembre 2021) : 1816–24. http://dx.doi.org/10.1609/aaai.v26i1.8363.
Texte intégralShi, Weihao, Shanhong Guo, Xiaoyu Cong, Weixing Sheng, Jing Yan et Jinkun Chen. « Frequency Agile Anti-Interference Technology Based on Reinforcement Learning Using Long Short-Term Memory and Multi-Layer Historical Information Observation ». Remote Sensing 15, no 23 (23 novembre 2023) : 5467. http://dx.doi.org/10.3390/rs15235467.
Texte intégralNababan, Maxtulus Junedy, Herman Mawengkang, Tulus Tulus et Sutarman Sutarman. « Hidden Markov Model to Optimize Coordination Relationship for Learning Behaviour ». International Journal of Religion 5, no 9 (27 mai 2024) : 459–69. http://dx.doi.org/10.61707/52exbt60.
Texte intégral