Gotowa bibliografia na temat „Constrained Reinforcement Learning”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Constrained Reinforcement Learning”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Artykuły w czasopismach na temat "Constrained Reinforcement Learning"
Pankayaraj, Pathmanathan, i Pradeep Varakantham. "Constrained Reinforcement Learning in Hard Exploration Problems". Proceedings of the AAAI Conference on Artificial Intelligence 37, nr 12 (26.06.2023): 15055–63. http://dx.doi.org/10.1609/aaai.v37i12.26757.
Pełny tekst źródłaHasanzadeZonuzy, Aria, Archana Bura, Dileep Kalathil i Srinivas Shakkottai. "Learning with Safety Constraints: Sample Complexity of Reinforcement Learning for Constrained MDPs". Proceedings of the AAAI Conference on Artificial Intelligence 35, nr 9 (18.05.2021): 7667–74. http://dx.doi.org/10.1609/aaai.v35i9.16937.
Pełny tekst źródłaDai, Juntao, Jiaming Ji, Long Yang, Qian Zheng i Gang Pan. "Augmented Proximal Policy Optimization for Safe Reinforcement Learning". Proceedings of the AAAI Conference on Artificial Intelligence 37, nr 6 (26.06.2023): 7288–95. http://dx.doi.org/10.1609/aaai.v37i6.25888.
Pełny tekst źródłaBhatia, Abhinav, Pradeep Varakantham i Akshat Kumar. "Resource Constrained Deep Reinforcement Learning". Proceedings of the International Conference on Automated Planning and Scheduling 29 (25.05.2021): 610–20. http://dx.doi.org/10.1609/icaps.v29i1.3528.
Pełny tekst źródłaYang, Qisong, Thiago D. Simão, Simon H. Tindemans i Matthijs T. J. Spaan. "WCSAC: Worst-Case Soft Actor Critic for Safety-Constrained Reinforcement Learning". Proceedings of the AAAI Conference on Artificial Intelligence 35, nr 12 (18.05.2021): 10639–46. http://dx.doi.org/10.1609/aaai.v35i12.17272.
Pełny tekst źródłaZhou, Zixian, Mengda Huang, Feiyang Pan, Jia He, Xiang Ao, Dandan Tu i Qing He. "Gradient-Adaptive Pareto Optimization for Constrained Reinforcement Learning". Proceedings of the AAAI Conference on Artificial Intelligence 37, nr 9 (26.06.2023): 11443–51. http://dx.doi.org/10.1609/aaai.v37i9.26353.
Pełny tekst źródłaHe, Tairan, Weiye Zhao i Changliu Liu. "AutoCost: Evolving Intrinsic Cost for Zero-Violation Reinforcement Learning". Proceedings of the AAAI Conference on Artificial Intelligence 37, nr 12 (26.06.2023): 14847–55. http://dx.doi.org/10.1609/aaai.v37i12.26734.
Pełny tekst źródłaYang, Zhaoxing, Haiming Jin, Rong Ding, Haoyi You, Guiyun Fan, Xinbing Wang i Chenghu Zhou. "DeCOM: Decomposed Policy for Constrained Cooperative Multi-Agent Reinforcement Learning". Proceedings of the AAAI Conference on Artificial Intelligence 37, nr 9 (26.06.2023): 10861–70. http://dx.doi.org/10.1609/aaai.v37i9.26288.
Pełny tekst źródłaMartins, Miguel S. E., Joaquim L. Viegas, Tiago Coito, Bernardo Marreiros Firme, João M. C. Sousa, João Figueiredo i Susana M. Vieira. "Reinforcement Learning for Dual-Resource Constrained Scheduling". IFAC-PapersOnLine 53, nr 2 (2020): 10810–15. http://dx.doi.org/10.1016/j.ifacol.2020.12.2866.
Pełny tekst źródłaGuenter, Florent, Micha Hersch, Sylvain Calinon i Aude Billard. "Reinforcement learning for imitating constrained reaching movements". Advanced Robotics 21, nr 13 (1.01.2007): 1521–44. http://dx.doi.org/10.1163/156855307782148550.
Pełny tekst źródłaRozprawy doktorskie na temat "Constrained Reinforcement Learning"
Chung, Jen Jen. "Learning to soar: exploration strategies in reinforcement learning for resource-constrained missions". Thesis, The University of Sydney, 2014. http://hdl.handle.net/2123/11733.
Pełny tekst źródłaAraújo, Anderson Viçoso de. "ERG-ARCH : a reinforcement learning architecture for propositionally constrained multi-agent state spaces". Instituto Tecnológico de Aeronáutica, 2014. http://www.bd.bibl.ita.br/tde_busca/arquivo.php?codArquivo=3096.
Pełny tekst źródłaPavesi, Alessandro. "Design and implementation of a Reinforcement Learning framework for iOS devices". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2022. http://amslaurea.unibo.it/25811/.
Pełny tekst źródłaWatanabe, Takashi. "Regret analysis of constrained irreducible MDPs with reset action". Kyoto University, 2020. http://hdl.handle.net/2433/253371.
Pełny tekst źródła0048
新制・課程博士
博士(人間・環境学)
甲第22535号
人博第938号
新制||人||223(附属図書館)
2019||人博||938(吉田南総合図書館)
京都大学大学院人間・環境学研究科共生人間学専攻
(主査)准教授 櫻川 貴司, 教授 立木 秀樹, 教授 日置 尋久
学位規則第4条第1項該当
Allmendinger, Richard. "Tuning evolutionary search for closed-loop optimization". Thesis, University of Manchester, 2012. https://www.research.manchester.ac.uk/portal/en/theses/tuning-evolutionary-search-for-closedloop-optimization(d54e63e2-7927-42aa-b974-c41e717298cb).html.
Pełny tekst źródłaIrani, Arya John. "Utilizing negative policy information to accelerate reinforcement learning". Diss., Georgia Institute of Technology, 2015. http://hdl.handle.net/1853/53481.
Pełny tekst źródłaAcevedo, Valle Juan Manuel. "Sensorimotor exploration: constraint awareness and social reinforcement in early vocal development". Doctoral thesis, Universitat Politècnica de Catalunya, 2018. http://hdl.handle.net/10803/667500.
Pełny tekst źródłaLa motivación principal de este trabajo es la magnitud que las contribuciones al conocimiento en relación al desarrollo infantil pueden aportar a diferentes campos de la ciencia. Particularmente, este trabajo se enfoca en el estudio de los comportamientos de autoexploración sensorimotora en un marco robótico e inspirado en el campo de la psicología del desarrollo. Nuestro objetivo principal es entender el papel que juegan las restricciones motoras y los reflejos imitativos durante la exploración espontánea observada en infantes. Así mismo, este trabajo hace especial énfasis en el desarrollo vocal-auditivo en infantes, que les provee con las herramientas que les permitirán producir sus primeras palabras. Trabajos anteriores han demostrado que los comportamientos de autoexploración sensorimotora en niños, la cual ocurre en gran medida por motivaciones intrínsecas, es un elemento importante para aprender a controlar su cuerpo con tal de alcanzar estados sensoriales específicos. Además, evidencia obtenida de estudios biológicos sugiere tajantemente que la adquisición de conocimiento es regulada por el ambiente en el cual un agente cognitivo se desenvuelve y por el cuerpo del agente per se. Incluso, los procesos de desarrollo que ocurren a nivel físico, cognitivo y social también regulan que es aprendido y cuando esto es aprendido. La primera parte de este trabajo provee al lector con la evidencia teórica y práctica que demuestran la relevancia de esta investigación. Recorriendo conceptos que van desde las ciencias cognitivas y del desarrollo, llegamos a la conclusión de que el lenguaje, y por tanto el habla, deben ser estudiados como fenómenos cognitivos que requieren un cuerpo físico y además un ambiente propicio para su existencia. En la actualidad los sistemas robóticos, reales y simulados, pueden ser considerados como elementos para el estudio de los fenómenos cognitivos naturales. En este trabajo consideramos un ejemplo simple para probar las arquitecturas cognitivas que proponemos, y posteriormente utilizamos dichas arquitecturas con un sintetizador de voz similar al mecanismo humano de producción del habla. Como primera contribución de este trabajo proponemos introducir un mecanismo para construir robots capaces de considerar sus propias restricciones motoras durante la etapa de autoexploración sensorimotora. Ciertos mecanismos de motivación intrínseca para exploración sensorimotora han sido estudiados como posibles conductores de las trayectorias de desarrollo observadas durante el desarrollo temprano del habla. Sin embargo, en previos estudios no se consideró o que este desarrollo está a delimitado por restricciones debido al ambiente, al cuerpo físico, y a las capacidades sensoriales, motoras y cognitivas. En nuestra arquitectura, asumimos que un agente artificial no cuenta con conocimiento de sus limitantes motoras, y por tanto debe descubrirlas durante la etapa de autoexploración. Para tal efecto, el agente es proveído de un sistema somatosensorial que le indica cuando una configuración motora viola las restricciones impuestas por el propio cuerpo. Finalmente, como segunda parte de nuestra contribución proponemos incluir un mecanismo para reforzar el aprendizaje durante la autoexploración. Estudios anteriores demostraron que el ambiente lingüístico en que se desarrolla un infante, o un agente artificial, condiciona sus producciones vocales durante la autoexploración o balbuceo. En este trabajo nos enfocamos en el estudio de episodios de imitación que ocurren durante el desarrollo temprano de un agente. Basados en estudios sobre la interacción entre madres e hijos durante la etapa pre lingüística, proponemos un mecanismo para reforzar el aprendizaje durante la autoexploración con unidades sensoriales relevantes. Entonces, a partir de la arquitectura con autoconocimiento de restricciones motores, construimos una arquitectura que incluye un instructor experto en control sensorimotor. Las interacciones entre el aprendiz y el experto ocurren cuando el aprendiz produce una unidad sensorial relevante para la comunicación durante la autoexploración. En este caso, el experto percibe esta similitud y responde reformulando la producción del aprendiz como la unidad relevante. Cuando el aprendiz percibe una acción del experto, inmediatamente intenta imitarlo. Los resultados presentados en este trabajo sugieren que, los sistemas somatosensoriales, y el reforzamiento social contribuyen a lograr mejores resultados durante la etapa de autoexploración sensorimotora motivada intrínsecamente. En este sentido, se logra una exploración menos redundante, los errores de exploración y evaluación disminuyen, y por último se obtiene una imagen más nítida de las transiciones entre etapas del desarrollo.
La motivació principal d'aquest treball és la magnitud que les contribucions al coneixement en relació al desenvolupament infantil poden aportar a diferents camps de la ciència. Particularment, aquest treball s'enfoca en l'estudi dels comportaments d’autoexploració sensorimotora en un marc robòtic i inspirat en el camp de la psicologia del desenvolupament. El nostre objectiu principal és entendre el paper que juguen les restriccions motores i els reflexos imitatius durant l’exploració espontània observada en infants. Així mateix, aquest treball fa especial èmfasi en el desenvolupament vocal-auditiu en infants, que els proveeix amb les eines que els permetran produir les seves primeres paraules. Treballs anteriors han demostrat que els comportaments d'autoexploració sensorimotora en nens, la qual ocorre en gran mesura per motivacions intrínseques, és un element important per aprendre a controlar el seu cos per tal d'assolir estats sensorials específics. A més, evidencies obtingudes d'estudis biològics suggereixen que l’adquisició de coneixement és regulada per l'ambient en el qual un agent cognitiu es desenvolupa i pel cos de l'agent per se. Fins i tot, els processos de desenvolupament que ocorren a nivell físic, cognitiu i social també regulen què és après i quan això ès après. La primera part d'aquest treball proveeix el lector amb les evidencies teòrica i pràctica que demostren la rellevància d'aquesta investigació. Recorrent conceptes que van des de les ciències cognitives i del desenvolupament, vam arribar a la conclusió que el llenguatge, i per tant la parla, han de ser estudiats com a fenòmens cognitius que requereixen un cos físic i a més un ambient propici per a la seva existència. En l'actualitat els sistemes robòtics, reals i simulats, poden ser considerats com a elements per a l'estudi dels fenòmens cognitius naturals. En aquest treball considerem un exemple simple per provar les arquitectures cognitives que proposem, i posteriorment utilitzem aquestes arquitectures amb un sintetitzador de veu similar al mecanisme humà de producció de la parla. Com a primera contribució d'aquest treball proposem introduir un mecanisme per construir robots capaços de considerar les seves pròpies restriccions motores durant l'etapa d'autoexploració sensorimotora. Certs mecanismes de motivació intrínseca per exploració sensorimotora han estat estudiats com a possibles conductors de les trajectòries de desenvolupament observades durant el desenvolupament primerenc de la parla. No obstant això, en previs estudis no es va considerar que aquest desenvolupament és delimitat per restriccions a causa de l'ambient, el cos físic, i les capacitats sensorials, motores i cognitives. A la nostra arquitectura, assumim que un agent artificial no compta amb coneixement dels seus limitants motors, i per tant ha de descobrir-los durant l'etapa d'autoexploració. Per a tal efecte, l'agent és proveït d'un sistema somatosensorial que li indica quan una configuració motora viola les restriccions imposades pel propi cos. Finalment, com a segona part de la nostra contribució proposem incloure un mecanisme per reforçar l'aprenentatge durant l'autoexploració. Estudis anteriors han demostrat que l'ambient lingüísticstic en què es desenvolupa un infant, o un agent artificial, condiciona les seves produccions vocals durant l'autoexploració o balboteig. En aquest treball ens enfoquem en l'estudi d'episodis d’imitació que ocorren durant el desenvolupament primerenc d'un agent. Basats en estudis sobre la interacció entre mares i fills durant l'etapa prelingüística, proposem un mecanisme per reforçar l'aprenentatge durant l'autoexploració amb unitats sensorials rellevants. Aleshores, a partir de l'arquitectura amb autoconeixement de restriccions motors, vam construir una arquitectura que inclou un instructor expert en control sensorimotor. Les interaccions entre l'aprenent i l'expert, ocorren quan una producció sensorial de l'aprenent durant l'autoexploració és similar a una unitat sensorial rellevant per a la comunicació. En aquest cas, l'expert percep aquesta similitud i respon reformulant la producció de l'aprenent com la unitat rellevant. Quan l'aprenent percep una acció de l'expert, immediatament intenta imitar-lo. Els resultats presentats en aquest treball suggereixen que els sistemes somatosensorials i el reforçament social contribueixen a aconseguir millors resultats durant l'etapa d'autoexploració sensorimotora motivada intrínsecament. En aquest sentit, s'aconsegueix una exploració menys redundant, els errors d’exploració i avaluació disminueixen, i finalment s’obté una imatge més nítida de les transicions entre etapes del desenvolupament
Racey, Deborah Elaine. "EFFECTS OF RESPONSE FREQUENCY CONSTRAINTS ON LEARNING IN A NON-STATIONARY MULTI-ARMED BANDIT TASK". OpenSIUC, 2009. https://opensiuc.lib.siu.edu/dissertations/86.
Pełny tekst źródłaCline, Tammy Lynn. "Effects of Training Accurate Component Strokes Using Response Constraint and Self-evaluation on Whole Letter Writing". Thesis, University of North Texas, 2006. https://digital.library.unt.edu/ark:/67531/metadc5472/.
Pełny tekst źródłaHester, Todd. "Texplore : temporal difference reinforcement learning for robots and time-constrained domains". Thesis, 2012. http://hdl.handle.net/2152/ETD-UT-2012-12-6763.
Pełny tekst źródłatext
Książki na temat "Constrained Reinforcement Learning"
Hester, Todd. TEXPLORE: Temporal Difference Reinforcement Learning for Robots and Time-Constrained Domains. Heidelberg: Springer International Publishing, 2013. http://dx.doi.org/10.1007/978-3-319-01168-4.
Pełny tekst źródłaHester, Todd. TEXPLORE: Temporal Difference Reinforcement Learning for Robots and Time-Constrained Domains. Heidelberg: Springer International Publishing, 2013.
Znajdź pełny tekst źródłaHester, Todd. TEXPLORE: Temporal Difference Reinforcement Learning for Robots and Time-Constrained Domains. Springer, 2013.
Znajdź pełny tekst źródłaHester, Todd. TEXPLORE: Temporal Difference Reinforcement Learning for Robots and Time-Constrained Domains. Springer, 2013.
Znajdź pełny tekst źródłaHester, Todd. TEXPLORE: Temporal Difference Reinforcement Learning for Robots and Time-Constrained Domains. Springer, 2016.
Znajdź pełny tekst źródłaCzęści książek na temat "Constrained Reinforcement Learning"
Junges, Sebastian, Nils Jansen, Christian Dehnert, Ufuk Topcu i Joost-Pieter Katoen. "Safety-Constrained Reinforcement Learning for MDPs". W Tools and Algorithms for the Construction and Analysis of Systems, 130–46. Berlin, Heidelberg: Springer Berlin Heidelberg, 2016. http://dx.doi.org/10.1007/978-3-662-49674-9_8.
Pełny tekst źródłaWang, Huiwei, Huaqing Li i Bo Zhou. "Reinforcement Learning for Constrained Games with Incomplete Information". W Distributed Optimization, Game and Learning Algorithms, 161–89. Singapore: Springer Singapore, 2021. http://dx.doi.org/10.1007/978-981-33-4528-7_8.
Pełny tekst źródłaLing, Jiajing, Arambam James Singh, Nguyen Duc Thien i Akshat Kumar. "Constrained Multiagent Reinforcement Learning for Large Agent Population". W Machine Learning and Knowledge Discovery in Databases, 183–99. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-26412-2_12.
Pełny tekst źródłaWinkel, David, Niklas Strauß, Matthias Schubert, Yunpu Ma i Thomas Seidl. "Constrained Portfolio Management Using Action Space Decomposition for Reinforcement Learning". W Advances in Knowledge Discovery and Data Mining, 373–85. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-33377-4_29.
Pełny tekst źródłaLi, Wei, i Waleed Meleis. "Adaptive Adjacency Kanerva Coding for Memory-Constrained Reinforcement Learning". W Machine Learning and Data Mining in Pattern Recognition, 187–201. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-96136-1_16.
Pełny tekst źródłaHasanbeig, Mohammadhosein, Daniel Kroening i Alessandro Abate. "LCRL: Certified Policy Synthesis via Logically-Constrained Reinforcement Learning". W Quantitative Evaluation of Systems, 217–31. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-16336-4_11.
Pełny tekst źródłaFerrari, Silvia, Keith Rudd i Gianluca Di Muro. "A Constrained Backpropagation Approach to Function Approximation and Approximate Dynamic Programming". W Reinforcement Learning and Approximate Dynamic Programming for Feedback Control, 162–81. Hoboken, NJ, USA: John Wiley & Sons, Inc., 2013. http://dx.doi.org/10.1002/9781118453988.ch8.
Pełny tekst źródłaSharif, Muddsair, Charitha Buddhika Heendeniya i Gero Lückemeyer. "ARaaS: Context-Aware Optimal Charging Distribution Using Deep Reinforcement Learning". W iCity. Transformative Research for the Livable, Intelligent, and Sustainable City, 199–209. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-92096-8_12.
Pełny tekst źródłaJędrzejowicz, Piotr, i Ewa Ratajczak-Ropel. "Reinforcement Learning Strategy for A-Team Solving the Resource-Constrained Project Scheduling Problem". W Computational Collective Intelligence. Technologies and Applications, 457–66. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-40495-5_46.
Pełny tekst źródłaDutta, Hrishikesh, Amit Kumar Bhuyan i Subir Biswas. "Reinforcement Learning for Protocol Synthesis in Resource-Constrained Wireless Sensor and IoT Networks". W Ubiquitous Networking, 183–99. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-29419-8_14.
Pełny tekst źródłaStreszczenia konferencji na temat "Constrained Reinforcement Learning"
Hu, Chengpeng, Jiyuan Pei, Jialin Liu i Xin Yao. "Evolving Constrained Reinforcement Learning Policy". W 2023 International Joint Conference on Neural Networks (IJCNN). IEEE, 2023. http://dx.doi.org/10.1109/ijcnn54540.2023.10191982.
Pełny tekst źródłaZhang, Linrui, Li Shen, Long Yang, Shixiang Chen, Xueqian Wang, Bo Yuan i Dacheng Tao. "Penalized Proximal Policy Optimization for Safe Reinforcement Learning". W Thirty-First International Joint Conference on Artificial Intelligence {IJCAI-22}. California: International Joint Conferences on Artificial Intelligence Organization, 2022. http://dx.doi.org/10.24963/ijcai.2022/520.
Pełny tekst źródłaHasanzadeZonuzy, Aria, Dileep Kalathil i Srinivas Shakkottai. "Model-Based Reinforcement Learning for Infinite-Horizon Discounted Constrained Markov Decision Processes". W Thirtieth International Joint Conference on Artificial Intelligence {IJCAI-21}. California: International Joint Conferences on Artificial Intelligence Organization, 2021. http://dx.doi.org/10.24963/ijcai.2021/347.
Pełny tekst źródłaSkalse, Joar, Lewis Hammond, Charlie Griffin i Alessandro Abate. "Lexicographic Multi-Objective Reinforcement Learning". W Thirty-First International Joint Conference on Artificial Intelligence {IJCAI-22}. California: International Joint Conferences on Artificial Intelligence Organization, 2022. http://dx.doi.org/10.24963/ijcai.2022/476.
Pełny tekst źródłaZhao, Weiye, Tairan He, Rui Chen, Tianhao Wei i Changliu Liu. "State-wise Safe Reinforcement Learning: A Survey". W Thirty-Second International Joint Conference on Artificial Intelligence {IJCAI-23}. California: International Joint Conferences on Artificial Intelligence Organization, 2023. http://dx.doi.org/10.24963/ijcai.2023/763.
Pełny tekst źródłaSarafian, Elad, Aviv Tamar i Sarit Kraus. "Constrained Policy Improvement for Efficient Reinforcement Learning". W Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California: International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/396.
Pełny tekst źródłaLee, Jongmin, Youngsoo Jang, Pascal Poupart i Kee-Eung Kim. "Constrained Bayesian Reinforcement Learning via Approximate Linear Programming". W Twenty-Sixth International Joint Conference on Artificial Intelligence. California: International Joint Conferences on Artificial Intelligence Organization, 2017. http://dx.doi.org/10.24963/ijcai.2017/290.
Pełny tekst źródłaChen, Weiqin, Dharmashankar Subramanian i Santiago Paternain. "Policy Gradients for Probabilistic Constrained Reinforcement Learning". W 2023 57th Annual Conference on Information Sciences and Systems (CISS). IEEE, 2023. http://dx.doi.org/10.1109/ciss56502.2023.10089763.
Pełny tekst źródłaAbe, Naoki, Melissa Kowalczyk, Mark Domick, Timothy Gardinier, Prem Melville, Cezar Pendus, Chandan K. Reddy i in. "Optimizing debt collections using constrained reinforcement learning". W the 16th ACM SIGKDD international conference. New York, New York, USA: ACM Press, 2010. http://dx.doi.org/10.1145/1835804.1835817.
Pełny tekst źródłaMalik, Shehryar, Muhammad Umair Haider, Omer Iqbal i Murtaza Taj. "Neural Network Pruning Through Constrained Reinforcement Learning". W 2022 26th International Conference on Pattern Recognition (ICPR). IEEE, 2022. http://dx.doi.org/10.1109/icpr56361.2022.9956050.
Pełny tekst źródła