Добірка наукової літератури з теми "Markov Decision Process Planning"
Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями
Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Markov Decision Process Planning".
Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.
Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.
Статті в журналах з теми "Markov Decision Process Planning"
Pinder, Jonathan P. "An Approximation of a Markov Decision Process for Resource Planning." Journal of the Operational Research Society 46, no. 7 (July 1995): 819. http://dx.doi.org/10.2307/2583966.
Повний текст джерелаPinder, Jonathan P. "An Approximation of a Markov Decision Process for Resource Planning." Journal of the Operational Research Society 46, no. 7 (July 1995): 819–30. http://dx.doi.org/10.1057/jors.1995.115.
Повний текст джерелаMouaddib, Abdel-Illah. "Vector-Value Markov Decision Process for multi-objective stochastic path planning." International Journal of Hybrid Intelligent Systems 9, no. 1 (March 13, 2012): 45–60. http://dx.doi.org/10.3233/his-2012-0146.
Повний текст джерелаNaguleswaran, Sanjeev, and Langford B. White. "Planning without state space explosion: Petri net to Markov decision process." International Transactions in Operational Research 16, no. 2 (March 2009): 243–55. http://dx.doi.org/10.1111/j.1475-3995.2009.00674.x.
Повний текст джерелаSchell, Greggory J., Wesley J. Marrero, Mariel S. Lavieri, Jeremy B. Sussman, and Rodney A. Hayward. "Data-Driven Markov Decision Process Approximations for Personalized Hypertension Treatment Planning." MDM Policy & Practice 1, no. 1 (July 2016): 238146831667421. http://dx.doi.org/10.1177/2381468316674214.
Повний текст джерелаNguyen, Truong-Huy, David Hsu, Wee-Sun Lee, Tze-Yun Leong, Leslie Kaelbling, Tomas Lozano-Perez, and Andrew Grant. "CAPIR: Collaborative Action Planning with Intention Recognition." Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment 7, no. 1 (October 9, 2011): 61–66. http://dx.doi.org/10.1609/aiide.v7i1.12425.
Повний текст джерелаHamasha, Mohammad M., and George Rumbe. "Determining optimal policy for emergency department using Markov decision process." World Journal of Engineering 14, no. 5 (October 2, 2017): 467–72. http://dx.doi.org/10.1108/wje-12-2016-0148.
Повний текст джерелаYordanova, Veronika, Hugh Griffiths, and Stephen Hailes. "Rendezvous planning for multiple autonomous underwater vehicles using a Markov decision process." IET Radar, Sonar & Navigation 11, no. 12 (December 2017): 1762–69. http://dx.doi.org/10.1049/iet-rsn.2017.0098.
Повний текст джерелаHai-Feng, Jiu, Chen Yu, Deng Wei, and Pang Shuo. "Underwater chemical plume tracing based on partially observable Markov decision process." International Journal of Advanced Robotic Systems 16, no. 2 (March 1, 2019): 172988141983187. http://dx.doi.org/10.1177/1729881419831874.
Повний текст джерелаLin, Yong, Xingjia Lu, and Fillia Makedon. "Approximate Planning in POMDPs with Weighted Graph Models." International Journal on Artificial Intelligence Tools 24, no. 04 (August 2015): 1550014. http://dx.doi.org/10.1142/s0218213015500141.
Повний текст джерелаДисертації з теми "Markov Decision Process Planning"
Geng, Na. "Combinatorial optimization and Markov decision process for planning MRI examinations." Phd thesis, Saint-Etienne, EMSE, 2010. http://tel.archives-ouvertes.fr/tel-00566257.
Повний текст джерелаDai, Peng. "FASTER DYNAMIC PROGRAMMING FOR MARKOV DECISION PROCESSES." UKnowledge, 2007. http://uknowledge.uky.edu/gradschool_theses/428.
Повний текст джерелаAlizadeh, Pegah. "Elicitation and planning in Markov decision processes with unknown rewards." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCD011/document.
Повний текст джерелаMarkov decision processes (MDPs) are models for solving sequential decision problemswhere a user interacts with the environment and adapts her policy by taking numericalreward signals into account. The solution of an MDP reduces to formulate the userbehavior in the environment with a policy function that specifies which action to choose ineach situation. In many real world decision problems, the users have various preferences,and therefore, the gain of actions on states are different and should be re-decoded foreach user. In this dissertation, we are interested in solving MDPs for users with differentpreferences.We use a model named Vector-valued MDP (VMDP) with vector rewards. We propose apropagation-search algorithm that allows to assign a vector-value function to each policyand identify each user with a preference vector on the existing set of preferences wherethe preference vector satisfies the user priorities. Since the user preference vector is notknown we present several methods for solving VMDPs while approximating the user’spreference vector.We introduce two algorithms that reduce the number of queries needed to find the optimalpolicy of a user: 1) A propagation-search algorithm, where we propagate a setof possible optimal policies for the given MDP without knowing the user’s preferences.2) An interactive value iteration algorithm (IVI) on VMDPs, namely Advantage-basedValue Iteration (ABVI) algorithm that uses clustering and regrouping advantages. Wealso demonstrate how ABVI algorithm works properly for two different types of users:confident and uncertain.We finally work on a minimax regret approximation method as a method for findingthe optimal policy w.r.t the limited information about user’s preferences. All possibleobjectives in the system are just bounded between two higher and lower bounds while thesystem is not aware of user’s preferences among them. We propose an heuristic minimaxregret approximation method for solving MDPs with unknown rewards that is faster andless complex than the existing methods in the literature
Ernsberger, Timothy S. "Integrating Deterministic Planning and Reinforcement Learning for Complex Sequential Decision Making." Case Western Reserve University School of Graduate Studies / OhioLINK, 2013. http://rave.ohiolink.edu/etdc/view?acc_num=case1354813154.
Повний текст джерелаAl, Sabban Wesam H. "Autonomous vehicle path planning for persistence monitoring under uncertainty using Gaussian based Markov decision process." Thesis, Queensland University of Technology, 2015. https://eprints.qut.edu.au/82297/1/Wesam%20H_Al%20Sabban_Thesis.pdf.
Повний текст джерелаPoulin, Nolan. "Proactive Planning through Active Policy Inference in Stochastic Environments." Digital WPI, 2018. https://digitalcommons.wpi.edu/etd-theses/1267.
Повний текст джерелаPokharel, Gaurab. "Increasing the Value of Information During Planning in Uncertain Environments." Oberlin College Honors Theses / OhioLINK, 2021. http://rave.ohiolink.edu/etdc/view?acc_num=oberlin1624976272271825.
Повний текст джерелаStárek, Ivo. "Plánování cesty robota pomocí dynamického programování." Master's thesis, Vysoké učení technické v Brně. Fakulta strojního inženýrství, 2009. http://www.nusl.cz/ntk/nusl-228655.
Повний текст джерелаPinheiro, Paulo Gurgel 1983. "Localização multirrobo cooperativa com planejamento." [s.n.], 2009. http://repositorio.unicamp.br/jspui/handle/REPOSIP/276155.
Повний текст джерелаDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação
Made available in DSpace on 2018-09-11T21:14:07Z (GMT). No. of bitstreams: 1 Pinheiro_PauloGurgel_M.pdf: 1259816 bytes, checksum: a4783df9aa3755becb68ee233ad43e3c (MD5) Previous issue date: 2009
Resumo: Em um problema de localização multirrobô cooperativa, um grupo de robôs encontra-se em um determinado ambiente, cuja localização exata de cada um dos robôs é desconhecida. Neste cenário, uma distribuição de probabilidades aponta as chances de um robô estar em um determinado estado. É necessário então, que os robôs se movimentem pelo ambiente e gerem novas observações que serão compartilhadas, para calcular novas estimativas. Nos últimos anos, muitos trabalhos têm focado no estudo de técnicas probabilísticas, modelos de comunicação e modelos de detecções, para resolver o problema de localização. No entanto, a movimentação dos robôs é, em geral, definida por ações aleatórias. Ações aleatórias geram observações que podem ser inúteis para a melhoria da estimativa. Este trabalho apresenta uma proposta de localização com suporte a planejamento de ações. O objetivo é apresentar um modelo cujas ações realizadas pelos robôs são definidas por políticas. Escolhendo a melhor ação a ser realizada, é possível receber informações mais úteis dos sensores internos e externos e estimar as posturas mais rapidamente. O modelo proposto, denominado Modelo de Localização Planejada - MLP, utiliza POMDPs para modelar os problemas de localização e algoritmos específicos de geração de políticas. Foi utilizada a localização de Markov como técnica probabilística de localização e implementadas versões de modelos de detecção e propagação de informação. Neste trabalho, um simulador de problemas de localização multirrobô foi desenvolvido, no qual foram realizados experimentos em que o modelo proposto foi comparado a um modelo que não faz uso de planejamento de ações. Os resultados obtidos apontam que o modelo proposto é capaz de estimar as posturas dos robôs com uma menor quantidade de passos, sendo significativamente mais e ciente do que o modelo comparado sem planejamento.
Abstract: In a cooperative multi-robot localization problem, a group of robots is in a certain environment, where the exact location of each robot is unknown. In this scenario, there is only a distribution of probabilities indicating the chance of a robot to be in a particular state. It is necessary for the robots to move in the environment generating new observations, which will be shared to calculate new estimates. Currently, many studies have focused on the study of probabilistic techniques, models of communication and models of detection to solve the localization problem. However, the movement of robots is generally defined by random actions. Random actions generate observations that can be useless for improving the estimate. This work describes a proposal for multi-robot localization with support planning of actions. The objective is to describe a model whose actions performed by robots are defined by policies. Choosing the best action to be performed, the robot gets more useful information from internal and external sensors and estimates the posture more quickly. The proposed model, called Model of Planned Localization - MPL, uses POMDPs to model the problems of location and specific algorithms to generate policies. The Markov localization was used as probabilistic technique of localization and implemented versions of detection models and information propagation model. In this work, a simulator to multi-robot localization problems was developed, in which experiments were performed. The proposed model was compared to a model that does not make use of planning actions. The results showed that the proposed model is able to estimate the positions of robots with lower number of steps, being more e-cient than model compared.
Mestrado
Inteligencia Artificial
Mestre em Ciência da Computação
Junyent, Barbany Miquel. "Width-Based Planning and Learning." Doctoral thesis, Universitat Pompeu Fabra, 2021. http://hdl.handle.net/10803/672779.
Повний текст джерелаLa presa seqüencial de decisions òptimes és un problema fonamental en diversos camps. En els últims anys, els mètodes d'aprenentatge per reforç (RL) han experimentat un èxit sense precedents, en gran part gràcies a l'ús de models d'aprenentatge profund, aconseguint un rendiment a nivell humà en diversos dominis, com els videojocs d'Atari o l'antic joc de Go. En contrast amb l'enfocament de RL, on l'agent aprèn una política a partir de mostres d'interacció amb l'entorn, ignorant l'estructura del problema, l'enfocament de planificació assumeix models coneguts per als objectius de l'agent i la dinàmica del domini, i es basa en determinar com ha de comportar-se l'agent per aconseguir els seus objectius. Els planificadors actuals són capaços de resoldre problemes que involucren grans espais d'estats precisament explotant l'estructura del problema, definida en el model estat-acció. En aquest treball combinem els dos enfocaments, aprofitant polítiques ràpides i compactes dels mètodes d'aprenentatge i la capacitat de fer cerques en problemes combinatoris dels mètodes de planificació. En particular, ens enfoquem en una família de planificadors basats en el width (ample), que han tingut molt èxit en els últims anys gràcies a que la seva escalabilitat és independent de la mida de l'espai d'estats. L'algorisme bàsic, Iterated Width (IW), es va proposar originalment per problemes de planificació clàssica, on el model de transicions d'estat i objectius ve completament determinat, representat per conjunts d'àtoms. No obstant, els planificadors basats en width no requereixen un model de l'entorn completament definit i es poden utilitzar amb simuladors. Per exemple, s'han aplicat recentment a dominis gràfics com els jocs d'Atari. Malgrat el seu èxit, IW és un algorisme purament exploratori i no aprofita la informació de recompenses anteriors. A més, requereix que l'estat estigui factoritzat en característiques, que han de predefinirse per a la tasca en concret. A més, executar l'algorisme amb un width superior a 1 sol ser computacionalment intractable a la pràctica, el que impedeix que IW resolgui problemes de width superior. Comencem aquesta tesi estudiant la complexitat dels mètodes basats en width quan l'espai d'estats està definit per característiques multivalor, com en els problemes de RL, en lloc d'àtoms booleans. Proporcionem un límit superior més precís en la quantitat de nodes expandits per IW, així com resultats generals de complexitat algorísmica. Per fer front a problemes més complexos (és a dir, aquells amb un width superior a 1), presentem un algorisme jeràrquic que planifica en dos nivells d'abstracció. El planificador d'alt nivell utilitza característiques abstractes que es van descobrint gradualment a partir de decisions de poda en l'arbre de baix nivell. Il·lustrem aquest algorisme en dominis PDDL de planificació clàssica, així com en dominis de simuladors gràfics. En planificació clàssica, mostrem com IW(1) en dos nivells d'abstracció pot resoldre problemes de width 2. Per aprofitar la informació de recompenses passades, incorporem una política explícita en el mecanisme de selecció d'accions. El nostre mètode, anomenat π-IW, intercala la planificació basada en width i l'aprenentatge de la política usant les accions visitades pel planificador. Representem la política amb una xarxa neuronal que, al seu torn, s'utilitza per guiar la planificació, reforçant així camins prometedors. A més, la representació apresa per la xarxa neuronal es pot utilitzar com a característiques per al planificador sense degradar el seu rendiment, eliminant així el requisit d'usar característiques predefinides. Comparem π-IW amb mètodes anteriors basats en width i amb AlphaZero, un mètode que també intercala planificació i aprenentatge, i mostrem que π-IW té un rendiment superior en entorns simples. També mostrem que l'algorisme π-IW supera altres mètodes basats en width en els jocs d'Atari. Finalment, mostrem que el mètode IW jeràrquic proposat pot integrar-se fàcilment amb el nostre esquema d'aprenentatge de la política, donant com a resultat un algorisme que supera els planificadors no jeràrquics basats en IW en els jocs d'Atari amb recompenses distants.
La toma secuencial de decisiones óptimas es un problema fundamental en diversos campos. En los últimos años, los métodos de aprendizaje por refuerzo (RL) han experimentado un éxito sin precedentes, en gran parte gracias al uso de modelos de aprendizaje profundo, alcanzando un rendimiento a nivel humano en varios dominios, como los videojuegos de Atari o el antiguo juego de Go. En contraste con el enfoque de RL, donde el agente aprende una política a partir de muestras de interacción con el entorno, ignorando la estructura del problema, el enfoque de planificación asume modelos conocidos para los objetivos del agente y la dinámica del dominio, y se basa en determinar cómo debe comportarse el agente para lograr sus objetivos. Los planificadores actuales son capaces de resolver problemas que involucran grandes espacios de estados precisamente explotando la estructura del problema, definida en el modelo estado-acción. En este trabajo combinamos los dos enfoques, aprovechando políticas rápidas y compactas de los métodos de aprendizaje y la capacidad de realizar búsquedas en problemas combinatorios de los métodos de planificación. En particular, nos enfocamos en una familia de planificadores basados en el width (ancho), que han demostrado un gran éxito en los últimos años debido a que su escalabilidad es independiente del tamaño del espacio de estados. El algoritmo básico, Iterated Width (IW), se propuso originalmente para problemas de planificación clásica, donde el modelo de transiciones de estado y objetivos viene completamente determinado, representado por conjuntos de átomos. Sin embargo, los planificadores basados en width no requieren un modelo del entorno completamente definido y se pueden utilizar con simuladores. Por ejemplo, se han aplicado recientemente en dominios gráficos como los juegos de Atari. A pesar de su éxito, IW es un algoritmo puramente exploratorio y no aprovecha la información de recompensas anteriores. Además, requiere que el estado esté factorizado en características, que deben predefinirse para la tarea en concreto. Además, ejecutar el algoritmo con un width superior a 1 suele ser computacionalmente intratable en la práctica, lo que impide que IW resuelva problemas de width superior. Empezamos esta tesis estudiando la complejidad de los métodos basados en width cuando el espacio de estados está definido por características multivalor, como en los problemas de RL, en lugar de átomos booleanos. Proporcionamos un límite superior más preciso en la cantidad de nodos expandidos por IW, así como resultados generales de complejidad algorítmica. Para hacer frente a problemas más complejos (es decir, aquellos con un width superior a 1), presentamos un algoritmo jerárquico que planifica en dos niveles de abstracción. El planificador de alto nivel utiliza características abstractas que se van descubriendo gradualmente a partir de decisiones de poda en el árbol de bajo nivel. Ilustramos este algoritmo en dominios PDDL de planificación clásica, así como en dominios de simuladores gráficos. En planificación clásica, mostramos cómo IW(1) en dos niveles de abstracción puede resolver problemas de width 2. Para aprovechar la información de recompensas pasadas, incorporamos una política explícita en el mecanismo de selección de acciones. Nuestro método, llamado π-IW, intercala la planificación basada en width y el aprendizaje de la política usando las acciones visitadas por el planificador. Representamos la política con una red neuronal que, a su vez, se utiliza para guiar la planificación, reforzando así caminos prometedores. Además, la representación aprendida por la red neuronal se puede utilizar como características para el planificador sin degradar su rendimiento, eliminando así el requisito de usar características predefinidas. Comparamos π-IW con métodos anteriores basados en width y con AlphaZero, un método que también intercala planificación y aprendizaje, y mostramos que π-IW tiene un rendimiento superior en entornos simples. También mostramos que el algoritmo π-IW supera otros métodos basados en width en los juegos de Atari. Finalmente, mostramos que el IW jerárquico propuesto puede integrarse fácilmente con nuestro esquema de aprendizaje de la política, dando como resultado un algoritmo que supera a los planificadores no jerárquicos basados en IW en los juegos de Atari con recompensas distantes.
Книги з теми "Markov Decision Process Planning"
Kolobov, Mausam, and Andrey Kolobov. Planning with Markov Decision Processes. Cham: Springer International Publishing, 2012. http://dx.doi.org/10.1007/978-3-031-01559-5.
Повний текст джерелаSection, Auckland Regional Council Resource Management Division Regional Planning Dept Strategic Planning. The Regional strategic decision-making process: [report. [Auckland]: Auckland Regional Council, 1990.
Знайти повний текст джерелаCorps, United States Marine. Marine Corps planning process. Washington, D.C: Headquarters, U.S. Marine Corps, 2010.
Знайти повний текст джерелаCorps, United States Marine, ed. Marine Corps planning process. Washington, D.C: Headquarters, U.S. Marine Corps, 2000.
Знайти повний текст джерелаCurriculum improvement: Decision making and process. 8th ed. Boston: Allyn and Bacon, 1992.
Знайти повний текст джерелаDoll, Ronald C. Curriculum improvement: Decision making and process. 9th ed. Boston: Allyn and Bacon, 1996.
Знайти повний текст джерелаCurriculum improvement: Decision making and process. 7th ed. Boston: Allyn and Bacon, 1989.
Знайти повний текст джерелаCurriculum improvement: Decision making and process. 6th ed. Boston: Allyn and Bacon, 1986.
Знайти повний текст джерелаSupply chain planning for the process industry. Wilmington, DE: Supply Chain Consultants, Inc., 2009.
Знайти повний текст джерелаThe analytic hierarchy process: Planning, priority setting, resource allocation. 2nd ed. Pittsburgh: RWS publications, 1990.
Знайти повний текст джерелаЧастини книг з теми "Markov Decision Process Planning"
Thiébaux, Sylvie, and Olivier Buffet. "Operations Planning." In Markov Decision Processes in Artificial Intelligence, 425–52. Hoboken, NJ USA: John Wiley & Sons, Inc., 2013. http://dx.doi.org/10.1002/9781118557426.ch15.
Повний текст джерелаKolobov, Mausam, and Andrey Kolobov. "Fundamental Algorithms." In Planning with Markov Decision Processes, 31–58. Cham: Springer International Publishing, 2012. http://dx.doi.org/10.1007/978-3-031-01559-5_3.
Повний текст джерелаKolobov, Mausam, and Andrey Kolobov. "MDPs." In Planning with Markov Decision Processes, 7–29. Cham: Springer International Publishing, 2012. http://dx.doi.org/10.1007/978-3-031-01559-5_2.
Повний текст джерелаKolobov, Mausam, and Andrey Kolobov. "Advanced Notes." In Planning with Markov Decision Processes, 143–62. Cham: Springer International Publishing, 2012. http://dx.doi.org/10.1007/978-3-031-01559-5_7.
Повний текст джерелаKolobov, Mausam, and Andrey Kolobov. "Symbolic Algorithms." In Planning with Markov Decision Processes, 83–95. Cham: Springer International Publishing, 2012. http://dx.doi.org/10.1007/978-3-031-01559-5_5.
Повний текст джерелаKolobov, Mausam, and Andrey Kolobov. "Heuristic Search Algorithms." In Planning with Markov Decision Processes, 59–82. Cham: Springer International Publishing, 2012. http://dx.doi.org/10.1007/978-3-031-01559-5_4.
Повний текст джерелаNaveed, Munir, Andrew Crampton, Diane Kitchin, and Lee McCluskey. "Real-Time Path Planning using a Simulation-Based Markov Decision Process." In Research and Development in Intelligent Systems XXVIII, 35–48. London: Springer London, 2011. http://dx.doi.org/10.1007/978-1-4471-2318-7_3.
Повний текст джерелаVeeramani, Satheeshkumar, Sreekumar Muthuswamy, Keerthi Sagar, and Matteo Zoppi. "Multi-Head Path Planning of SwarmItFIX Agents: A Markov Decision Process Approach." In Advances in Mechanism and Machine Science, 2237–47. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-20131-9_221.
Повний текст джерелаDawid, R., D. McMillan, and M. Revie. "Time series semi-Markov decision process with variable costs for maintenance planning." In Risk, Reliability and Safety: Innovating Theory and Practice, 1145–50. Taylor & Francis Group, 6000 Broken Sound Parkway NW, Suite 300, Boca Raton, FL 33487-2742: CRC Press, 2016. http://dx.doi.org/10.1201/9781315374987-172.
Повний текст джерелаSouidi, Mohammed El Habib, Toufik Messaoud Maarouk, and Abdeldjalil Ledmi. "Multi-agent Ludo Game Collaborative Path Planning based on Markov Decision Process." In Inventive Systems and Control, 37–51. Singapore: Springer Singapore, 2021. http://dx.doi.org/10.1007/978-981-16-1395-1_4.
Повний текст джерелаТези доповідей конференцій з теми "Markov Decision Process Planning"
Al Khafaf, Nameer, Mahdi Jalili, and Peter Sokolowski. "Demand Response Planning Tool using Markov Decision Process." In 2018 IEEE 16th International Conference on Industrial Informatics (INDIN). IEEE, 2018. http://dx.doi.org/10.1109/indin.2018.8472098.
Повний текст джерелаLeal Gomes Leite, Joao Marcelo, Edilson F. Arruda, Laura Bahiense, and Lino G. Marujo. "Mine-to-client planning with Markov Decision Process." In 2020 European Control Conference (ECC). IEEE, 2020. http://dx.doi.org/10.23919/ecc51009.2020.9143651.
Повний текст джерелаTing, Lei, Zhu Cheng, and Zhang Weiming. "Planning for target system striking based on Markov decision process." In 2013 IEEE International Conference on Service Operations and Logistics, and Informatics (SOLI). IEEE, 2013. http://dx.doi.org/10.1109/soli.2013.6611401.
Повний текст джерелаLane, Terran, and Leslie Pack Kaelbling. "Approaches to macro decompositions of large Markov decision process planning problems." In Intelligent Systems and Advanced Manufacturing, edited by Douglas W. Gage and Howie M. Choset. SPIE, 2002. http://dx.doi.org/10.1117/12.457435.
Повний текст джерелаShobeiry, Poorya, Ming Xin, Xiaolin Hu, and Haiyang Chao. "UAV Path Planning for Wildfire Tracking Using Partially Observable Markov Decision Process." In AIAA Scitech 2021 Forum. Reston, Virginia: American Institute of Aeronautics and Astronautics, 2021. http://dx.doi.org/10.2514/6.2021-1677.
Повний текст джерелаMouhagir, Hafida, Reine Talj, Veronique Cherfaoui, Franck Guillemard, and Francois Aioun. "A Markov Decision Process-based approach for trajectory planning with clothoid tentacles." In 2016 IEEE Intelligent Vehicles Symposium (IV). IEEE, 2016. http://dx.doi.org/10.1109/ivs.2016.7535551.
Повний текст джерелаYousefi, Shamim, Farnaz Derakhshan, and Ayub Bokani. "Mobile Agents for Route Planning in Internet of Things Using Markov Decision Process." In 2018 IEEE International Conference on Smart Energy Grid Engineering (SEGE). IEEE, 2018. http://dx.doi.org/10.1109/sege.2018.8499517.
Повний текст джерелаYang, Qingpeng, Pan Zhang, Yu'e Su, Yi Huang, Kai Zhong, and Zhongwei Li. "View planning for inspection of sheet metal parts based on Markov decision process." In International Conference on Optical and Photonic Engineering (icOPEN 2022), edited by Chao Zuo, Haixia Wang, Shijie Feng, and Qian Kemao. SPIE, 2023. http://dx.doi.org/10.1117/12.2667031.
Повний текст джерелаYang, Qiming, Jiandong Zhang, and Guoqing Shi. "Path planning for unmanned aerial vehicle passive detection under the framework of partially observable markov decision process." In 2018 Chinese Control And Decision Conference (CCDC). IEEE, 2018. http://dx.doi.org/10.1109/ccdc.2018.8407800.
Повний текст джерелаLiu, Chenyu, Zhijun Li, Chengyao Zhang, Yufei Yan, and Rui Zhang. "Gait Planning and Control for a Hexapod Robot on Uneven Terrain Based on Markov Decision Process." In 2019 14th IEEE Conference on Industrial Electronics and Applications (ICIEA). IEEE, 2019. http://dx.doi.org/10.1109/iciea.2019.8834181.
Повний текст джерелаЗвіти організацій з теми "Markov Decision Process Planning"
Davis, Charles N., and Jr. A Decision Support Process for Planning Air Operations. Fort Belvoir, VA: Defense Technical Information Center, February 1991. http://dx.doi.org/10.21236/ada236580.
Повний текст джерелаBigl, Matthew, Caitlin Callaghan, Brandon Booker, Kathryn Trubac, Jacqueline Willan, Paulina Lintsai, and Marissa Torres. Energy Atlas—mapping energy-related data for DoD lands in Alaska : Phase 2—data expansion and portal development. Engineer Research and Development Center (U.S.), January 2022. http://dx.doi.org/10.21079/11681/43062.
Повний текст джерелаMwamba, Isaiah C., Mohamadali Morshedi, Suyash Padhye, Amir Davatgari, Soojin Yoon, Samuel Labi, and Makarand Hastak. Synthesis Study of Best Practices for Mapping and Coordinating Detours for Maintenance of Traffic (MOT) and Risk Assessment for Duration of Traffic Control Activities. Purdue University, 2021. http://dx.doi.org/10.5703/1288284317344.
Повний текст джерелаDopfer, Jaqui. Öffentlichkeitsbeteiligung bei diskursiven Konfliktlösungsverfahren auf regionaler Ebene. Potentielle Ansätze zur Nutzung von Risikokommunikation im Rahmen von e-Government. Sonderforschungsgruppe Institutionenanalyse, 2003. http://dx.doi.org/10.46850/sofia.3933795605.
Повний текст джерелаVakaliuk, Tetiana, Valerii Kontsedailo, Dmytro Antoniuk, Olha Korotun, Serhiy Semerikov, and Iryna Mintii. Using Game Dev Tycoon to Create Professional Soft Competencies for Future Engineers-Programmers. [б. в.], November 2020. http://dx.doi.org/10.31812/123456789/4129.
Повний текст джерелаRusk, Todd, Ryan Siegel, Linda Larsen, Tim Lindsey, and Brian Deal. Technical and Financial Feasibility Study for Installation of Solar Panels at IDOT-owned Facilities. Illinois Center for Transportation, August 2021. http://dx.doi.org/10.36501/0197-9191/21-024.
Повний текст джерелаBALYSH, A., and O. CHIRICOVA. PROBLEMS OF PRODUCTION AND USE OF SHEALING SLEEVES IN THE USSR BEFORE AND DURING THE GREAT PATRIOTIC WAR. Science and Innovation Center Publishing House, 2021. http://dx.doi.org/10.12731/2077-1770-2021-13-4-2-24-33.
Повний текст джерелаLessons Learned from the Cambodia Enterprise Infirmary Guidelines development process. Population Council, 2018. http://dx.doi.org/10.31899/sbsr2018.1002.
Повний текст джерела