Zeitschriftenartikel zum Thema „Partially Observable Markov Decision Processes (POMDPs)“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Partially Observable Markov Decision Processes (POMDPs)" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
NI, YAODONG, und ZHI-QIANG LIU. „BOUNDED-PARAMETER PARTIALLY OBSERVABLE MARKOV DECISION PROCESSES: FRAMEWORK AND ALGORITHM“. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems 21, Nr. 06 (Dezember 2013): 821–63. http://dx.doi.org/10.1142/s0218488513500396.
Der volle Inhalt der QuelleTennenholtz, Guy, Uri Shalit und Shie Mannor. „Off-Policy Evaluation in Partially Observable Environments“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 06 (03.04.2020): 10276–83. http://dx.doi.org/10.1609/aaai.v34i06.6590.
Der volle Inhalt der QuelleCarr, Steven, Nils Jansen und Ufuk Topcu. „Task-Aware Verifiable RNN-Based Policies for Partially Observable Markov Decision Processes“. Journal of Artificial Intelligence Research 72 (18.11.2021): 819–47. http://dx.doi.org/10.1613/jair.1.12963.
Der volle Inhalt der QuelleKim, Sung-Kyun, Oren Salzman und Maxim Likhachev. „POMHDP: Search-Based Belief Space Planning Using Multiple Heuristics“. Proceedings of the International Conference on Automated Planning and Scheduling 29 (25.05.2021): 734–44. http://dx.doi.org/10.1609/icaps.v29i1.3542.
Der volle Inhalt der QuelleWang, Chenggang, und Roni Khardon. „Relational Partially Observable MDPs“. Proceedings of the AAAI Conference on Artificial Intelligence 24, Nr. 1 (04.07.2010): 1153–58. http://dx.doi.org/10.1609/aaai.v24i1.7742.
Der volle Inhalt der QuelleHauskrecht, M. „Value-Function Approximations for Partially Observable Markov Decision Processes“. Journal of Artificial Intelligence Research 13 (01.08.2000): 33–94. http://dx.doi.org/10.1613/jair.678.
Der volle Inhalt der QuelleVictorio-Meza, Hermilo, Manuel Mejía-Lavalle, Alicia Martínez Rebollar, Andrés Blanco Ortega, Obdulia Pichardo Lagunas und Grigori Sidorov. „Searching for Cerebrovascular Disease Optimal Treatment Recommendations Applying Partially Observable Markov Decision Processes“. International Journal of Pattern Recognition and Artificial Intelligence 32, Nr. 01 (09.10.2017): 1860015. http://dx.doi.org/10.1142/s0218001418600157.
Der volle Inhalt der QuelleZhang, N. L., und W. Liu. „A Model Approximation Scheme for Planning in Partially Observable Stochastic Domains“. Journal of Artificial Intelligence Research 7 (01.11.1997): 199–230. http://dx.doi.org/10.1613/jair.419.
Der volle Inhalt der QuelleOmidshafiei, Shayegan, Ali–Akbar Agha–Mohammadi, Christopher Amato, Shih–Yuan Liu, Jonathan P. How und John Vian. „Decentralized control of multi-robot partially observable Markov decision processes using belief space macro-actions“. International Journal of Robotics Research 36, Nr. 2 (Februar 2017): 231–58. http://dx.doi.org/10.1177/0278364917692864.
Der volle Inhalt der QuelleRozek, Brandon, Junkyu Lee, Harsha Kokel, Michael Katz und Shirin Sohrabi. „Partially Observable Hierarchical Reinforcement Learning with AI Planning (Student Abstract)“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 21 (24.03.2024): 23635–36. http://dx.doi.org/10.1609/aaai.v38i21.30504.
Der volle Inhalt der QuelleTheocharous, Georgios, und Sridhar Mahadevan. „Compressing POMDPs Using Locality Preserving Non-Negative Matrix Factorization“. Proceedings of the AAAI Conference on Artificial Intelligence 24, Nr. 1 (04.07.2010): 1147–52. http://dx.doi.org/10.1609/aaai.v24i1.7750.
Der volle Inhalt der QuelleWalraven, Erwin, und Matthijs T. J. Spaan. „Point-Based Value Iteration for Finite-Horizon POMDPs“. Journal of Artificial Intelligence Research 65 (11.07.2019): 307–41. http://dx.doi.org/10.1613/jair.1.11324.
Der volle Inhalt der QuelleZhang, N. L., und W. Zhang. „Speeding Up the Convergence of Value Iteration in Partially Observable Markov Decision Processes“. Journal of Artificial Intelligence Research 14 (01.02.2001): 29–51. http://dx.doi.org/10.1613/jair.761.
Der volle Inhalt der QuelleWang, Erli, Hanna Kurniawati und Dirk Kroese. „An On-Line Planner for POMDPs with Large Discrete Action Space: A Quantile-Based Approach“. Proceedings of the International Conference on Automated Planning and Scheduling 28 (15.06.2018): 273–77. http://dx.doi.org/10.1609/icaps.v28i1.13906.
Der volle Inhalt der QuelleZhang, Zongzhang, Michael Littman und Xiaoping Chen. „Covering Number as a Complexity Measure for POMDP Planning and Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 26, Nr. 1 (20.09.2021): 1853–59. http://dx.doi.org/10.1609/aaai.v26i1.8360.
Der volle Inhalt der QuelleRoss, S., J. Pineau, S. Paquet und B. Chaib-draa. „Online Planning Algorithms for POMDPs“. Journal of Artificial Intelligence Research 32 (29.07.2008): 663–704. http://dx.doi.org/10.1613/jair.2567.
Der volle Inhalt der QuelleKo, Li Ling, David Hsu, Wee Sun Lee und Sylvie Ong. „Structured Parameter Elicitation“. Proceedings of the AAAI Conference on Artificial Intelligence 24, Nr. 1 (04.07.2010): 1102–7. http://dx.doi.org/10.1609/aaai.v24i1.7744.
Der volle Inhalt der QuelleXIANG, YANG, und FRANK HANSHAR. „MULTIAGENT EXPEDITION WITH GRAPHICAL MODELS“. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems 19, Nr. 06 (Dezember 2011): 939–76. http://dx.doi.org/10.1142/s0218488511007416.
Der volle Inhalt der QuelleSanner, Scott, und Kristian Kersting. „Symbolic Dynamic Programming for First-order POMDPs“. Proceedings of the AAAI Conference on Artificial Intelligence 24, Nr. 1 (04.07.2010): 1140–46. http://dx.doi.org/10.1609/aaai.v24i1.7747.
Der volle Inhalt der QuelleCapitan, Jesus, Matthijs Spaan, Luis Merino und Anibal Ollero. „Decentralized Multi-Robot Cooperation with Auctioned POMDPs“. Proceedings of the International Conference on Automated Planning and Scheduling 24 (11.05.2014): 515–18. http://dx.doi.org/10.1609/icaps.v24i1.13658.
Der volle Inhalt der QuelleLin, Yong, Xingjia Lu und Fillia Makedon. „Approximate Planning in POMDPs with Weighted Graph Models“. International Journal on Artificial Intelligence Tools 24, Nr. 04 (August 2015): 1550014. http://dx.doi.org/10.1142/s0218213015500141.
Der volle Inhalt der QuelleAras, R., und A. Dutech. „An Investigation into Mathematical Programming for Finite Horizon Decentralized POMDPs“. Journal of Artificial Intelligence Research 37 (26.03.2010): 329–96. http://dx.doi.org/10.1613/jair.2915.
Der volle Inhalt der QuelleWen, Xian, Haifeng Huo und Jinhua Cui. „The optimal probability of the risk for finite horizon partially observable Markov decision processes“. AIMS Mathematics 8, Nr. 12 (2023): 28435–49. http://dx.doi.org/10.3934/math.20231455.
Der volle Inhalt der QuelleItoh, Hideaki, Hisao Fukumoto, Hiroshi Wakuya und Tatsuya Furukawa. „Bottom-up learning of hierarchical models in a class of deterministic POMDP environments“. International Journal of Applied Mathematics and Computer Science 25, Nr. 3 (01.09.2015): 597–615. http://dx.doi.org/10.1515/amcs-2015-0044.
Der volle Inhalt der QuelleDressel, Louis, und Mykel Kochenderfer. „Efficient Decision-Theoretic Target Localization“. Proceedings of the International Conference on Automated Planning and Scheduling 27 (05.06.2017): 70–78. http://dx.doi.org/10.1609/icaps.v27i1.13832.
Der volle Inhalt der QuelleChatterjee, Krishnendu, Martin Chmelik und Ufuk Topcu. „Sensor Synthesis for POMDPs with Reachability Objectives“. Proceedings of the International Conference on Automated Planning and Scheduling 28 (15.06.2018): 47–55. http://dx.doi.org/10.1609/icaps.v28i1.13875.
Der volle Inhalt der QuellePark, Jaeyoung, Kee-Eung Kim und Yoon-Kyu Song. „A POMDP-Based Optimal Control of P300-Based Brain-Computer Interfaces“. Proceedings of the AAAI Conference on Artificial Intelligence 25, Nr. 1 (04.08.2011): 1559–62. http://dx.doi.org/10.1609/aaai.v25i1.7956.
Der volle Inhalt der QuelleDoshi, P., und P. J. Gmytrasiewicz. „Monte Carlo Sampling Methods for Approximating Interactive POMDPs“. Journal of Artificial Intelligence Research 34 (24.03.2009): 297–337. http://dx.doi.org/10.1613/jair.2630.
Der volle Inhalt der QuelleShatkay, H., und L. P. Kaelbling. „Learning Geometrically-Constrained Hidden Markov Models for Robot Navigation: Bridging the Topological-Geometrical Gap“. Journal of Artificial Intelligence Research 16 (01.03.2002): 167–207. http://dx.doi.org/10.1613/jair.874.
Der volle Inhalt der QuelleLim, Michael H., Tyler J. Becker, Mykel J. Kochenderfer, Claire J. Tomlin und Zachary N. Sunberg. „Optimality Guarantees for Particle Belief Approximation of POMDPs“. Journal of Artificial Intelligence Research 77 (27.08.2023): 1591–636. http://dx.doi.org/10.1613/jair.1.14525.
Der volle Inhalt der QuelleSpaan, M. T. J., und N. Vlassis. „Perseus: Randomized Point-based Value Iteration for POMDPs“. Journal of Artificial Intelligence Research 24 (01.08.2005): 195–220. http://dx.doi.org/10.1613/jair.1659.
Der volle Inhalt der QuelleKraemer, Landon, und Bikramjit Banerjee. „Informed Initial Policies for Learning in Dec-POMDPs“. Proceedings of the AAAI Conference on Artificial Intelligence 26, Nr. 1 (20.09.2021): 2433–34. http://dx.doi.org/10.1609/aaai.v26i1.8426.
Der volle Inhalt der QuelleBanerjee, Bikramjit, Jeremy Lyle, Landon Kraemer und Rajesh Yellamraju. „Sample Bounded Distributed Reinforcement Learning for Decentralized POMDPs“. Proceedings of the AAAI Conference on Artificial Intelligence 26, Nr. 1 (20.09.2021): 1256–62. http://dx.doi.org/10.1609/aaai.v26i1.8260.
Der volle Inhalt der QuelleBernstein, D. S., C. Amato, E. A. Hansen und S. Zilberstein. „Policy Iteration for Decentralized Control of Markov Decision Processes“. Journal of Artificial Intelligence Research 34 (01.03.2009): 89–132. http://dx.doi.org/10.1613/jair.2667.
Der volle Inhalt der QuelleWu, Bo, Yan Peng Feng und Hong Yan Zheng. „Point-Based Monte Carto Online Planning in POMDPs“. Advanced Materials Research 846-847 (November 2013): 1388–91. http://dx.doi.org/10.4028/www.scientific.net/amr.846-847.1388.
Der volle Inhalt der QuelleAjdarów, Michal, Šimon Brlej und Petr Novotný. „Shielding in Resource-Constrained Goal POMDPs“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 12 (26.06.2023): 14674–82. http://dx.doi.org/10.1609/aaai.v37i12.26715.
Der volle Inhalt der QuelleSimão, Thiago D., Marnix Suilen und Nils Jansen. „Safe Policy Improvement for POMDPs via Finite-State Controllers“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 12 (26.06.2023): 15109–17. http://dx.doi.org/10.1609/aaai.v37i12.26763.
Der volle Inhalt der QuelleZhang, Zongzhang, David Hsu, Wee Sun Lee, Zhan Wei Lim und Aijun Bai. „PLEASE: Palm Leaf Search for POMDPs with Large Observation Spaces“. Proceedings of the International Conference on Automated Planning and Scheduling 25 (08.04.2015): 249–57. http://dx.doi.org/10.1609/icaps.v25i1.13706.
Der volle Inhalt der QuelleBouton, Maxime, Jana Tumova und Mykel J. Kochenderfer. „Point-Based Methods for Model Checking in Partially Observable Markov Decision Processes“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 06 (03.04.2020): 10061–68. http://dx.doi.org/10.1609/aaai.v34i06.6563.
Der volle Inhalt der QuelleSonu, Ekhlas, Yingke Chen und Prashant Doshi. „Individual Planning in Agent Populations: Exploiting Anonymity and Frame-Action Hypergraphs“. Proceedings of the International Conference on Automated Planning and Scheduling 25 (08.04.2015): 202–10. http://dx.doi.org/10.1609/icaps.v25i1.13712.
Der volle Inhalt der QuellePetrik, Marek, und Shlomo Zilberstein. „Linear Dynamic Programs for Resource Management“. Proceedings of the AAAI Conference on Artificial Intelligence 25, Nr. 1 (04.08.2011): 1377–83. http://dx.doi.org/10.1609/aaai.v25i1.7794.
Der volle Inhalt der QuelleDibangoye, Jilles Steeve, Christopher Amato, Olivier Buffet und François Charpillet. „Optimally Solving Dec-POMDPs as Continuous-State MDPs“. Journal of Artificial Intelligence Research 55 (24.02.2016): 443–97. http://dx.doi.org/10.1613/jair.4623.
Der volle Inhalt der QuelleNg, Brenda, Carol Meyers, Kofi Boakye und John Nitao. „Towards Applying Interactive POMDPs to Real-World Adversary Modeling“. Proceedings of the AAAI Conference on Artificial Intelligence 24, Nr. 2 (07.10.2021): 1814–20. http://dx.doi.org/10.1609/aaai.v24i2.18818.
Der volle Inhalt der QuelleBoots, Byron, und Geoffrey Gordon. „An Online Spectral Learning Algorithm for Partially Observable Nonlinear Dynamical Systems“. Proceedings of the AAAI Conference on Artificial Intelligence 25, Nr. 1 (04.08.2011): 293–300. http://dx.doi.org/10.1609/aaai.v25i1.7924.
Der volle Inhalt der QuelleBanerjee, Bikramjit. „Pruning for Monte Carlo Distributed Reinforcement Learning in Decentralized POMDPs“. Proceedings of the AAAI Conference on Artificial Intelligence 27, Nr. 1 (30.06.2013): 88–94. http://dx.doi.org/10.1609/aaai.v27i1.8670.
Der volle Inhalt der QuelleAmato, Christopher, George Konidaris, Leslie P. Kaelbling und Jonathan P. How. „Modeling and Planning with Macro-Actions in Decentralized POMDPs“. Journal of Artificial Intelligence Research 64 (25.03.2019): 817–59. http://dx.doi.org/10.1613/jair.1.11418.
Der volle Inhalt der QuelleWANG, YI, SHIQI ZHANG und JOOHYUNG LEE. „Bridging Commonsense Reasoning and Probabilistic Planning via a Probabilistic Action Language“. Theory and Practice of Logic Programming 19, Nr. 5-6 (September 2019): 1090–106. http://dx.doi.org/10.1017/s1471068419000371.
Der volle Inhalt der QuelleSarraute, Carlos, Olivier Buffet und Jörg Hoffmann. „POMDPs Make Better Hackers: Accounting for Uncertainty in Penetration Testing“. Proceedings of the AAAI Conference on Artificial Intelligence 26, Nr. 1 (20.09.2021): 1816–24. http://dx.doi.org/10.1609/aaai.v26i1.8363.
Der volle Inhalt der QuelleShi, Weihao, Shanhong Guo, Xiaoyu Cong, Weixing Sheng, Jing Yan und Jinkun Chen. „Frequency Agile Anti-Interference Technology Based on Reinforcement Learning Using Long Short-Term Memory and Multi-Layer Historical Information Observation“. Remote Sensing 15, Nr. 23 (23.11.2023): 5467. http://dx.doi.org/10.3390/rs15235467.
Der volle Inhalt der QuelleNababan, Maxtulus Junedy, Herman Mawengkang, Tulus Tulus und Sutarman Sutarman. „Hidden Markov Model to Optimize Coordination Relationship for Learning Behaviour“. International Journal of Religion 5, Nr. 9 (27.05.2024): 459–69. http://dx.doi.org/10.61707/52exbt60.
Der volle Inhalt der Quelle