Literatura académica sobre el tema "Explainable Artificial Intelligence (XAI)"
Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros
Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Explainable Artificial Intelligence (XAI)".
Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.
También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.
Artículos de revistas sobre el tema "Explainable Artificial Intelligence (XAI)"
Gunning, David y David Aha. "DARPA’s Explainable Artificial Intelligence (XAI) Program". AI Magazine 40, n.º 2 (24 de junio de 2019): 44–58. http://dx.doi.org/10.1609/aimag.v40i2.2850.
Texto completoSewada, Ranu, Ashwani Jangid, Piyush Kumar y Neha Mishra. "Explainable Artificial Intelligence (XAI)". Journal of Nonlinear Analysis and Optimization 13, n.º 01 (2023): 41–47. http://dx.doi.org/10.36893/jnao.2022.v13i02.041-047.
Texto completoGunning, David, Mark Stefik, Jaesik Choi, Timothy Miller, Simone Stumpf y Guang-Zhong Yang. "XAI—Explainable artificial intelligence". Science Robotics 4, n.º 37 (18 de diciembre de 2019): eaay7120. http://dx.doi.org/10.1126/scirobotics.aay7120.
Texto completoOwens, Emer, Barry Sheehan, Martin Mullins, Martin Cunneen, Juliane Ressel y German Castignani. "Explainable Artificial Intelligence (XAI) in Insurance". Risks 10, n.º 12 (1 de diciembre de 2022): 230. http://dx.doi.org/10.3390/risks10120230.
Texto completoChaudhary, G. "Explainable Artificial Intelligence (xAI): Reflections on Judicial System". Kutafin Law Review 10, n.º 4 (13 de enero de 2024): 872–89. http://dx.doi.org/10.17803/2713-0533.2023.4.26.872-889.
Texto completoPraveenraj, D. David Winster, Melvin Victor, C. Vennila, Ahmed Hussein Alawadi, Pardaeva Diyora, N. Vasudevan y T. Avudaiappan. "Exploring Explainable Artificial Intelligence for Transparent Decision Making". E3S Web of Conferences 399 (2023): 04030. http://dx.doi.org/10.1051/e3sconf/202339904030.
Texto completoJaved, Abdul Rehman, Waqas Ahmed, Sharnil Pandya, Praveen Kumar Reddy Maddikunta, Mamoun Alazab y Thippa Reddy Gadekallu. "A Survey of Explainable Artificial Intelligence for Smart Cities". Electronics 12, n.º 4 (18 de febrero de 2023): 1020. http://dx.doi.org/10.3390/electronics12041020.
Texto completoZhang, Yiming, Ying Weng y Jonathan Lund. "Applications of Explainable Artificial Intelligence in Diagnosis and Surgery". Diagnostics 12, n.º 2 (19 de enero de 2022): 237. http://dx.doi.org/10.3390/diagnostics12020237.
Texto completoLozano-Murcia, Catalina, Francisco P. Romero, Jesus Serrano-Guerrero, Arturo Peralta y Jose A. Olivas. "Potential Applications of Explainable Artificial Intelligence to Actuarial Problems". Mathematics 12, n.º 5 (21 de febrero de 2024): 635. http://dx.doi.org/10.3390/math12050635.
Texto completoShukla, Bibhudhendu, Ip-Shing Fan y Ian Jennions. "Opportunities for Explainable Artificial Intelligence in Aerospace Predictive Maintenance". PHM Society European Conference 5, n.º 1 (22 de julio de 2020): 11. http://dx.doi.org/10.36001/phme.2020.v5i1.1231.
Texto completoTesis sobre el tema "Explainable Artificial Intelligence (XAI)"
Vincenzi, Leonardo. "eXplainable Artificial Intelligence User Experience: contesto e stato dell’arte". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23338/.
Texto completoElguendouze, Sofiane. "Explainable Artificial Intelligence approaches for Image Captioning". Electronic Thesis or Diss., Orléans, 2024. http://www.theses.fr/2024ORLE1003.
Texto completoThe rapid advancement of image captioning models, driven by the integration of deep learning techniques that combine image and text modalities, has resulted in increasingly complex systems. However, these models often operate as black boxes, lacking the ability to provide transparent explanations for their decisions. This thesis addresses the explainability of image captioning systems based on Encoder-Attention-Decoder architectures, through four aspects. First, it explores the concept of the latent space, marking a departure from traditional approaches relying on the original representation space. Second, it introduces the notion of decisiveness, leading to the formulation of a new definition for the concept of component influence/decisiveness in the context of explainable image captioning, as well as a perturbation-based approach to capturing decisiveness. The third aspect aims to elucidate the factors influencing explanation quality, in particular the scope of explanation methods. Accordingly, latent-based variants of well-established explanation methods such as LRP and LIME have been developed, along with the introduction of a latent-centered evaluation approach called Latent Ablation. The fourth aspect of this work involves investigating what we call saliency and the representation of certain visual concepts, such as object quantity, at different levels of the captioning architecture
PANIGUTTI, Cecilia. "eXplainable AI for trustworthy healthcare applications". Doctoral thesis, Scuola Normale Superiore, 2022. https://hdl.handle.net/11384/125202.
Texto completoGjeka, Mario. "Uno strumento per le spiegazioni di sistemi di Explainable Artificial Intelligence". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.
Buscar texto completoBracchi, Luca. "I-eXplainer: applicazione web per spiegazioni interattive". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20424/.
Texto completoHammarström, Tobias. "Towards Explainable Decision-making Strategies of Deep Convolutional Neural Networks : An exploration into explainable AI and potential applications within cancer detection". Thesis, Uppsala universitet, Avdelningen för visuell information och interaktion, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-424779.
Texto completoMatz, Filip y Yuxiang Luo. "Explaining Automated Decisions in Practice : Insights from the Swedish Credit Scoring Industry". Thesis, KTH, Skolan för industriell teknik och management (ITM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-300897.
Texto completoUnder senare år har antalet AI implementationer stadigt ökat i flera industrier. Dessa implementationer har visat flera utmaningar kring nuvarande AI system, specifikt gällande diskriminering, otydlighet och datasäkerhet vilket lett till ett intresse för förklarbar artificiell intelligens (XAI). XAI syftar till att utveckla AI system som är rättvisa, transparenta och begripliga. Flera konceptuella ramverk har introducerats för XAI som presenterar etiska såväl som politiska perspektiv och målbilder. Dessutom har tekniska metoder utvecklats som gjort framsteg mot förklarbarhet i forskningskontext. Däremot saknas det fortfarande studier som undersöker implementationer av dessa koncept och tekniker i praktiken. Denna studie syftar till att överbrygga klyftan mellan den senaste teorin inom området och praktiken genom en fallstudie av ett företag i den svenska kreditupplysningsindustrin. Detta genom att föreslå ett ramverk för implementation av lokala förklaringar i praktiken och genom att utveckla tre förklaringsprototyper. Rapporten utvärderar även prototyperna med konsumenter på följande dimensioner: tillit, systemförståelse, användbarhet och övertalningsstyrka. Det föreslagna ramverket validerades genom fallstudien och belyste ett antal utmaningar och avvägningar som förekommer när XAI system utvecklas för användning i praktiken. Utöver detta visar utvärderingen av prototyperna att majoriteten av konsumenter föredrar regelbaserade förklaringar men indikerar även att preferenser mellan konsumenter varierar. Rekommendationer för framtida forskning är dels en längre studie, vari en XAI modell introduceras på och utvärderas av den fria marknaden, dels forskning som kombinerar olika XAI metoder för att generera mer personliga förklaringar för konsumenter.
Ankaräng, Marcus y Jakob Kristiansson. "Comparison of Logistic Regression and an Explained Random Forest in the Domain of Creditworthiness Assessment". Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-301907.
Texto completoI takt med att AI används allt oftare för att fatta beslut i samhället, har kravet på förklarbarhet ökat. En utmaning med flera moderna maskininlärningsmodeller är att de, på grund av sina komplexa strukturer, sällan ger tillgång till mänskligt förståeliga motiveringar. Forskning inom förklarar AI har lett fram till metoder som kan appliceras ovanpå icke- förklarbara modeller för att tolka deras beslutsgrunder. Det här arbetet syftar till att jämföra en icke- förklarbar maskininlärningsmodell i kombination med en förklaringsmetod, och en modell som är förklarbar genom sin struktur. Den icke- förklarbara modellen var random forest och förklaringsmetoden som användes var SHAP. Den förklarbara modellen var logistisk regression, som är förklarande genom sina vikter. Jämförelsen utfördes inom området kreditvärdighet och grundades i prediktiv prestanda och förklarbarhet. Vidare användes dessa modeller för att undersöka vilka egenskaper som var kännetecknande för låntagare som inte förväntades kunna betala tillbaka sitt lån. Jämförelsen visade att ingen av de båda metoderna presterande signifikant mycket bättre än den andra sett till prediktiv prestanda. Kännetecknande särdrag för dåliga låntagare skiljde sig åt mellan metoderna. Tre viktiga aspekter var låntagarens °ålder, vart denna bodde och huruvida personen ägde en hemtelefon. Gällande förklarbarheten framträdde flera fördelar med SHAP, däribland möjligheten att kunna producera både lokala och globala förklaringar. Vidare konstaterades att SHAP gör det möjligt att dra fördel av den höga prestandan som många moderna maskininlärningsmetoder uppvisar och samtidigt uppfylla dagens ökade krav på transparens.
Leoni, Cristian. "Interpretation of Dimensionality Reduction with Supervised Proxies of User-defined Labels". Thesis, Linnéuniversitetet, Institutionen för datavetenskap och medieteknik (DM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-105622.
Texto completoNilsson, Linus. "Explainable Artificial Intelligence for Reinforcement Learning Agents". Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-294162.
Texto completoEfter framgångarna inom maskininlärning de senaste årtiondet har förstärkningsinlärning blivit ett primärt forskningsämne för att lösa komplexa uppgifter och inom automation. Tillämpningarna är många, allt från att spela datorspel på en professionell nivå till robotar som samarbetar för att plocka varor i ett lager. Dock så är systemen väldigt komplexa och förståelsen kring varför en agent väljer att lösa en uppgift på ett specifikt sätt är okända för en mänsklig observatör. Detta gör att de praktiska tillämpningarna av dessa agenter är begränsade till icke-kritiska system och den information som kan användas för att lära ut nya sätt att lösa olika uppgifter är dolda. Utifrån detta så har förklarbar artificiell intelligens (XAI) blivit ett område inom forskning som fått allt mer uppmärksamhet de senaste åren. Detta för att kunna förklara maskininlärningssystem för den mänskliga användaren. I denna examensrapport föreslår vi att använda modelloberoende XAI tekniker kombinerat klustringstekniker på enkla Atarispel, vi föreslår även ett sätt att automatisera hur man kan utvärdera hur väl en förklaring förklarar beteendet hos agenterna. Detta i ett försök att upptäcka till vilken grad modelloberoende XAI tekniker kan användas för att förklara beteenden hos förstärkningsinlärningsagenter. De testade metoderna var RISE, t-SNE och Deletion. Metoderna utvärderades på flera olika agenter, tränade att spelaAtari-breakout. Resultatet visar att de kan användas för att förklara beteendet hos agenterna på en lokal nivå (en individuell bild ur ett spel), globalt beteende (över den totala spelsekvensen) samt även att metoderna kan hitta olika strategier användna av de olika agenterna där mängden träning de fått skiljer sig.
Libros sobre el tema "Explainable Artificial Intelligence (XAI)"
Kose, Utku, Nilgun Sengoz, Xi Chen y Jose Antonio Marmolejo Saucedo. Explainable Artificial Intelligence (XAI) in Healthcare. New York: CRC Press, 2024. http://dx.doi.org/10.1201/9781003426073.
Texto completoChen, Tin-Chih Toly. Explainable Artificial Intelligence (XAI) in Manufacturing. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-27961-4.
Texto completoKhamparia, Aditya, Deepak Gupta, Ashish Khanna y Valentina E. Balas, eds. Biomedical Data Analysis and Processing Using Explainable (XAI) and Responsive Artificial Intelligence (RAI). Singapore: Springer Singapore, 2022. http://dx.doi.org/10.1007/978-981-19-1476-8.
Texto completoLongo, Luca, ed. Explainable Artificial Intelligence. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44064-9.
Texto completoLongo, Luca, ed. Explainable Artificial Intelligence. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44070-0.
Texto completoLongo, Luca, ed. Explainable Artificial Intelligence. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44067-0.
Texto completoKrötzsch, Markus y Daria Stepanova, eds. Reasoning Web. Explainable Artificial Intelligence. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-31423-1.
Texto completoTulli, Silvia y David W. Aha. Explainable Agency in Artificial Intelligence. Boca Raton: CRC Press, 2023. http://dx.doi.org/10.1201/9781003355281.
Texto completoLahby, Mohamed, Utku Kose y Akash Kumar Bhoi. Explainable Artificial Intelligence for Smart Cities. Boca Raton: CRC Press, 2021. http://dx.doi.org/10.1201/9781003172772.
Texto completoAhmed, Mohiuddin, Sheikh Rabiul Islam, Adnan Anwar, Nour Moustafa y Al-Sakib Khan Pathan, eds. Explainable Artificial Intelligence for Cyber Security. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-96630-0.
Texto completoCapítulos de libros sobre el tema "Explainable Artificial Intelligence (XAI)"
Mohaghegh, Shahab D. "Explainable Artificial Intelligence (XAI)". En Artificial Intelligence for Science and Engineering Applications, 89–122. Boca Raton: CRC Press, 2024. http://dx.doi.org/10.1201/9781003369356-8.
Texto completoHolzinger, Andreas, Randy Goebel, Ruth Fong, Taesup Moon, Klaus-Robert Müller y Wojciech Samek. "xxAI - Beyond Explainable Artificial Intelligence". En xxAI - Beyond Explainable AI, 3–10. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-04083-2_1.
Texto completoChen, Tin-Chih Toly. "Explainable Artificial Intelligence (XAI) with Applications". En Explainable Ambient Intelligence (XAmI), 23–38. Cham: Springer Nature Switzerland, 2024. http://dx.doi.org/10.1007/978-3-031-54935-9_2.
Texto completoSardar, Tanvir Habib, Sunanda Das y Bishwajeet Kumar Pandey. "Explainable AI (XAI)". En Medical Data Analysis and Processing using Explainable Artificial Intelligence, 1–18. Boca Raton: CRC Press, 2023. http://dx.doi.org/10.1201/9781003257721-1.
Texto completoChen, Tin-Chih Toly. "Explainable Artificial Intelligence (XAI) in Manufacturing". En Explainable Artificial Intelligence (XAI) in Manufacturing, 1–11. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-27961-4_1.
Texto completoAditya Shastry, K. "Artificial Intelligence for Healthcare Applications". En Explainable Artificial Intelligence (XAI) in Healthcare, 1–29. New York: CRC Press, 2024. http://dx.doi.org/10.1201/9781003426073-1.
Texto completoLampathaki, Fenareti, Enrica Bosani, Evmorfia Biliri, Erifili Ichtiaroglou, Andreas Louca, Dimitris Syrrafos, Mattia Calabresi, Michele Sesana, Veronica Antonello y Andrea Capaccioli. "XAI for Product Demand Planning: Models, Experiences, and Lessons Learnt". En Artificial Intelligence in Manufacturing, 437–58. Cham: Springer Nature Switzerland, 2024. http://dx.doi.org/10.1007/978-3-031-46452-2_25.
Texto completoHelen Victoria, A., Ravi Shekhar Tiwari y Ayaan Khadir Ghulam. "Libraries for Explainable Artificial Intelligence (EXAI)". En Explainable AI (XAI) for Sustainable Development, 211–32. Boca Raton: Chapman and Hall/CRC, 2024. http://dx.doi.org/10.1201/9781003457176-13.
Texto completoKırboğa, K. K. y E. U. Küçüksille. "XAI in Biomedical Applications". En Explainable Artificial Intelligence for Biomedical Applications, 79–99. New York: River Publishers, 2023. http://dx.doi.org/10.1201/9781032629353-5.
Texto completoUysal, Ilhan y Utku Kose. "XAI for Drug Discovery". En Explainable Artificial Intelligence for Biomedical Applications, 265–88. New York: River Publishers, 2023. http://dx.doi.org/10.1201/9781032629353-13.
Texto completoActas de conferencias sobre el tema "Explainable Artificial Intelligence (XAI)"
Gunning, David. "DARPA's explainable artificial intelligence (XAI) program". En IUI '19: 24th International Conference on Intelligent User Interfaces. New York, NY, USA: ACM, 2019. http://dx.doi.org/10.1145/3301275.3308446.
Texto completoIgnatiev, Alexey. "Towards Trustable Explainable AI". En Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California: International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/726.
Texto completoKrstić, Zvjezdana y Mirjana Maksimović. "Significance of Explainable Artificial Intelligence (XAI) in Marketing". En 29th International Scientific Conference Strategic Management and Decision Support Systems in Strategic Management. University of Novi Sad, Faculty of Economics in Subotica, 2024. http://dx.doi.org/10.46541/978-86-7233-428-9_401.
Texto completoGerlings, Julie, Arisa Shollo y Ioanna Constantiou. "Reviewing the Need for Explainable Artificial Intelligence (xAI)". En Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2021. http://dx.doi.org/10.24251/hicss.2021.156.
Texto completoSudar, K. Muthamil, P. Nagaraj, S. Nithisaa, R. Aishwarya, M. Aakash y S. Ishwarya Lakshmi. "Alzheimer's Disease Analysis using Explainable Artificial Intelligence (XAI)". En 2022 International Conference on Sustainable Computing and Data Communication Systems (ICSCDS). IEEE, 2022. http://dx.doi.org/10.1109/icscds53736.2022.9760858.
Texto completoMeske, Christian, Babak Abedin, Iris Junglas y Fethi Rabhi. "Introduction to the Minitrack on Explainable Artificial Intelligence (XAI)". En Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2021. http://dx.doi.org/10.24251/hicss.2021.153.
Texto completoAbedin, Babak, Christian Meske, Fethi Rabhi y Mathias Klier. "Introduction to the Minitrack on Explainable Artificial Intelligence (XAI)". En Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2023. http://dx.doi.org/10.24251/hicss.2023.131.
Texto completoAbedin, Babak, Mathias Klier, Christian Meske y Fethi Rabhi. "Introduction to the Minitrack on Explainable Artificial Intelligence (XAI)". En Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2022. http://dx.doi.org/10.24251/hicss.2022.182.
Texto completoP. Peixoto, Maria J. y Akramul Azim. "Explainable Artificial Intelligence (XAI) Approach for Reinforcement Learning Systems". En SAC '24: 39th ACM/SIGAPP Symposium on Applied Computing. New York, NY, USA: ACM, 2024. http://dx.doi.org/10.1145/3605098.3635992.
Texto completoSethi, Aryan, Sahiti Dharmavaram y S. K. Somasundaram. "Explainable Artificial Intelligence (XAI) Approach to Heart Disease Prediction". En 2024 3rd International Conference on Artificial Intelligence For Internet of Things (AIIoT). IEEE, 2024. http://dx.doi.org/10.1109/aiiot58432.2024.10574635.
Texto completoInformes sobre el tema "Explainable Artificial Intelligence (XAI)"
Core, Mark G., H. C. Lane, Michael van Lent, Dave Gomboc, Steve Solomon y Milton Rosenberg. Building Explainable Artificial Intelligence Systems. Fort Belvoir, VA: Defense Technical Information Center, enero de 2006. http://dx.doi.org/10.21236/ada459166.
Texto completoPhillips, P. Jonathon, Carina A. Hahn, Peter C. Fontana, Amy N. Yates, Kristen Greene, David A. Broniatowski y Mark A. Przybocki. Four Principles of Explainable Artificial Intelligence. National Institute of Standards and Technology, septiembre de 2021. http://dx.doi.org/10.6028/nist.ir.8312.
Texto completoWalker, Cody, Vivek Agarwal, Linyu Lin, Anna Hall, Rachael Hill, Ronald Boring PhD, Torrey Mortenson y Nancy Lybeck. Explainable Artificial Intelligence Technology for Predictive Maintenance. Office of Scientific and Technical Information (OSTI), agosto de 2023. http://dx.doi.org/10.2172/1998555.
Texto completo