Добірка наукової літератури з теми "Explainable Artificial Intelligence (XAI)"
Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями
Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Explainable Artificial Intelligence (XAI)".
Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.
Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.
Статті в журналах з теми "Explainable Artificial Intelligence (XAI)":
Gunning, David, and David Aha. "DARPA’s Explainable Artificial Intelligence (XAI) Program." AI Magazine 40, no. 2 (June 24, 2019): 44–58. http://dx.doi.org/10.1609/aimag.v40i2.2850.
Sewada, Ranu, Ashwani Jangid, Piyush Kumar, and Neha Mishra. "Explainable Artificial Intelligence (XAI)." Journal of Nonlinear Analysis and Optimization 13, no. 01 (2023): 41–47. http://dx.doi.org/10.36893/jnao.2022.v13i02.041-047.
Gunning, David, Mark Stefik, Jaesik Choi, Timothy Miller, Simone Stumpf, and Guang-Zhong Yang. "XAI—Explainable artificial intelligence." Science Robotics 4, no. 37 (December 18, 2019): eaay7120. http://dx.doi.org/10.1126/scirobotics.aay7120.
Owens, Emer, Barry Sheehan, Martin Mullins, Martin Cunneen, Juliane Ressel, and German Castignani. "Explainable Artificial Intelligence (XAI) in Insurance." Risks 10, no. 12 (December 1, 2022): 230. http://dx.doi.org/10.3390/risks10120230.
Chaudhary, G. "Explainable Artificial Intelligence (xAI): Reflections on Judicial System." Kutafin Law Review 10, no. 4 (January 13, 2024): 872–89. http://dx.doi.org/10.17803/2713-0533.2023.4.26.872-889.
Praveenraj, D. David Winster, Melvin Victor, C. Vennila, Ahmed Hussein Alawadi, Pardaeva Diyora, N. Vasudevan, and T. Avudaiappan. "Exploring Explainable Artificial Intelligence for Transparent Decision Making." E3S Web of Conferences 399 (2023): 04030. http://dx.doi.org/10.1051/e3sconf/202339904030.
Javed, Abdul Rehman, Waqas Ahmed, Sharnil Pandya, Praveen Kumar Reddy Maddikunta, Mamoun Alazab, and Thippa Reddy Gadekallu. "A Survey of Explainable Artificial Intelligence for Smart Cities." Electronics 12, no. 4 (February 18, 2023): 1020. http://dx.doi.org/10.3390/electronics12041020.
Zhang, Yiming, Ying Weng, and Jonathan Lund. "Applications of Explainable Artificial Intelligence in Diagnosis and Surgery." Diagnostics 12, no. 2 (January 19, 2022): 237. http://dx.doi.org/10.3390/diagnostics12020237.
Lozano-Murcia, Catalina, Francisco P. Romero, Jesus Serrano-Guerrero, Arturo Peralta, and Jose A. Olivas. "Potential Applications of Explainable Artificial Intelligence to Actuarial Problems." Mathematics 12, no. 5 (February 21, 2024): 635. http://dx.doi.org/10.3390/math12050635.
Shukla, Bibhudhendu, Ip-Shing Fan, and Ian Jennions. "Opportunities for Explainable Artificial Intelligence in Aerospace Predictive Maintenance." PHM Society European Conference 5, no. 1 (July 22, 2020): 11. http://dx.doi.org/10.36001/phme.2020.v5i1.1231.
Дисертації з теми "Explainable Artificial Intelligence (XAI)":
Vincenzi, Leonardo. "eXplainable Artificial Intelligence User Experience: contesto e stato dell’arte." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23338/.
Elguendouze, Sofiane. "Explainable Artificial Intelligence approaches for Image Captioning." Electronic Thesis or Diss., Orléans, 2024. http://www.theses.fr/2024ORLE1003.
The rapid advancement of image captioning models, driven by the integration of deep learning techniques that combine image and text modalities, has resulted in increasingly complex systems. However, these models often operate as black boxes, lacking the ability to provide transparent explanations for their decisions. This thesis addresses the explainability of image captioning systems based on Encoder-Attention-Decoder architectures, through four aspects. First, it explores the concept of the latent space, marking a departure from traditional approaches relying on the original representation space. Second, it introduces the notion of decisiveness, leading to the formulation of a new definition for the concept of component influence/decisiveness in the context of explainable image captioning, as well as a perturbation-based approach to capturing decisiveness. The third aspect aims to elucidate the factors influencing explanation quality, in particular the scope of explanation methods. Accordingly, latent-based variants of well-established explanation methods such as LRP and LIME have been developed, along with the introduction of a latent-centered evaluation approach called Latent Ablation. The fourth aspect of this work involves investigating what we call saliency and the representation of certain visual concepts, such as object quantity, at different levels of the captioning architecture
PANIGUTTI, Cecilia. "eXplainable AI for trustworthy healthcare applications." Doctoral thesis, Scuola Normale Superiore, 2022. https://hdl.handle.net/11384/125202.
Gjeka, Mario. "Uno strumento per le spiegazioni di sistemi di Explainable Artificial Intelligence." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.
Bracchi, Luca. "I-eXplainer: applicazione web per spiegazioni interattive." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20424/.
Hammarström, Tobias. "Towards Explainable Decision-making Strategies of Deep Convolutional Neural Networks : An exploration into explainable AI and potential applications within cancer detection." Thesis, Uppsala universitet, Avdelningen för visuell information och interaktion, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-424779.
Matz, Filip, and Yuxiang Luo. "Explaining Automated Decisions in Practice : Insights from the Swedish Credit Scoring Industry." Thesis, KTH, Skolan för industriell teknik och management (ITM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-300897.
Under senare år har antalet AI implementationer stadigt ökat i flera industrier. Dessa implementationer har visat flera utmaningar kring nuvarande AI system, specifikt gällande diskriminering, otydlighet och datasäkerhet vilket lett till ett intresse för förklarbar artificiell intelligens (XAI). XAI syftar till att utveckla AI system som är rättvisa, transparenta och begripliga. Flera konceptuella ramverk har introducerats för XAI som presenterar etiska såväl som politiska perspektiv och målbilder. Dessutom har tekniska metoder utvecklats som gjort framsteg mot förklarbarhet i forskningskontext. Däremot saknas det fortfarande studier som undersöker implementationer av dessa koncept och tekniker i praktiken. Denna studie syftar till att överbrygga klyftan mellan den senaste teorin inom området och praktiken genom en fallstudie av ett företag i den svenska kreditupplysningsindustrin. Detta genom att föreslå ett ramverk för implementation av lokala förklaringar i praktiken och genom att utveckla tre förklaringsprototyper. Rapporten utvärderar även prototyperna med konsumenter på följande dimensioner: tillit, systemförståelse, användbarhet och övertalningsstyrka. Det föreslagna ramverket validerades genom fallstudien och belyste ett antal utmaningar och avvägningar som förekommer när XAI system utvecklas för användning i praktiken. Utöver detta visar utvärderingen av prototyperna att majoriteten av konsumenter föredrar regelbaserade förklaringar men indikerar även att preferenser mellan konsumenter varierar. Rekommendationer för framtida forskning är dels en längre studie, vari en XAI modell introduceras på och utvärderas av den fria marknaden, dels forskning som kombinerar olika XAI metoder för att generera mer personliga förklaringar för konsumenter.
Ankaräng, Marcus, and Jakob Kristiansson. "Comparison of Logistic Regression and an Explained Random Forest in the Domain of Creditworthiness Assessment." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-301907.
I takt med att AI används allt oftare för att fatta beslut i samhället, har kravet på förklarbarhet ökat. En utmaning med flera moderna maskininlärningsmodeller är att de, på grund av sina komplexa strukturer, sällan ger tillgång till mänskligt förståeliga motiveringar. Forskning inom förklarar AI har lett fram till metoder som kan appliceras ovanpå icke- förklarbara modeller för att tolka deras beslutsgrunder. Det här arbetet syftar till att jämföra en icke- förklarbar maskininlärningsmodell i kombination med en förklaringsmetod, och en modell som är förklarbar genom sin struktur. Den icke- förklarbara modellen var random forest och förklaringsmetoden som användes var SHAP. Den förklarbara modellen var logistisk regression, som är förklarande genom sina vikter. Jämförelsen utfördes inom området kreditvärdighet och grundades i prediktiv prestanda och förklarbarhet. Vidare användes dessa modeller för att undersöka vilka egenskaper som var kännetecknande för låntagare som inte förväntades kunna betala tillbaka sitt lån. Jämförelsen visade att ingen av de båda metoderna presterande signifikant mycket bättre än den andra sett till prediktiv prestanda. Kännetecknande särdrag för dåliga låntagare skiljde sig åt mellan metoderna. Tre viktiga aspekter var låntagarens °ålder, vart denna bodde och huruvida personen ägde en hemtelefon. Gällande förklarbarheten framträdde flera fördelar med SHAP, däribland möjligheten att kunna producera både lokala och globala förklaringar. Vidare konstaterades att SHAP gör det möjligt att dra fördel av den höga prestandan som många moderna maskininlärningsmetoder uppvisar och samtidigt uppfylla dagens ökade krav på transparens.
Leoni, Cristian. "Interpretation of Dimensionality Reduction with Supervised Proxies of User-defined Labels." Thesis, Linnéuniversitetet, Institutionen för datavetenskap och medieteknik (DM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-105622.
Nilsson, Linus. "Explainable Artificial Intelligence for Reinforcement Learning Agents." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-294162.
Efter framgångarna inom maskininlärning de senaste årtiondet har förstärkningsinlärning blivit ett primärt forskningsämne för att lösa komplexa uppgifter och inom automation. Tillämpningarna är många, allt från att spela datorspel på en professionell nivå till robotar som samarbetar för att plocka varor i ett lager. Dock så är systemen väldigt komplexa och förståelsen kring varför en agent väljer att lösa en uppgift på ett specifikt sätt är okända för en mänsklig observatör. Detta gör att de praktiska tillämpningarna av dessa agenter är begränsade till icke-kritiska system och den information som kan användas för att lära ut nya sätt att lösa olika uppgifter är dolda. Utifrån detta så har förklarbar artificiell intelligens (XAI) blivit ett område inom forskning som fått allt mer uppmärksamhet de senaste åren. Detta för att kunna förklara maskininlärningssystem för den mänskliga användaren. I denna examensrapport föreslår vi att använda modelloberoende XAI tekniker kombinerat klustringstekniker på enkla Atarispel, vi föreslår även ett sätt att automatisera hur man kan utvärdera hur väl en förklaring förklarar beteendet hos agenterna. Detta i ett försök att upptäcka till vilken grad modelloberoende XAI tekniker kan användas för att förklara beteenden hos förstärkningsinlärningsagenter. De testade metoderna var RISE, t-SNE och Deletion. Metoderna utvärderades på flera olika agenter, tränade att spelaAtari-breakout. Resultatet visar att de kan användas för att förklara beteendet hos agenterna på en lokal nivå (en individuell bild ur ett spel), globalt beteende (över den totala spelsekvensen) samt även att metoderna kan hitta olika strategier användna av de olika agenterna där mängden träning de fått skiljer sig.
Книги з теми "Explainable Artificial Intelligence (XAI)":
Kose, Utku, Nilgun Sengoz, Xi Chen, and Jose Antonio Marmolejo Saucedo. Explainable Artificial Intelligence (XAI) in Healthcare. New York: CRC Press, 2024. http://dx.doi.org/10.1201/9781003426073.
Chen, Tin-Chih Toly. Explainable Artificial Intelligence (XAI) in Manufacturing. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-27961-4.
Khamparia, Aditya, Deepak Gupta, Ashish Khanna, and Valentina E. Balas, eds. Biomedical Data Analysis and Processing Using Explainable (XAI) and Responsive Artificial Intelligence (RAI). Singapore: Springer Singapore, 2022. http://dx.doi.org/10.1007/978-981-19-1476-8.
Longo, Luca, ed. Explainable Artificial Intelligence. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44064-9.
Longo, Luca, ed. Explainable Artificial Intelligence. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44070-0.
Longo, Luca, ed. Explainable Artificial Intelligence. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44067-0.
Krötzsch, Markus, and Daria Stepanova, eds. Reasoning Web. Explainable Artificial Intelligence. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-31423-1.
Tulli, Silvia, and David W. Aha. Explainable Agency in Artificial Intelligence. Boca Raton: CRC Press, 2023. http://dx.doi.org/10.1201/9781003355281.
Lahby, Mohamed, Utku Kose, and Akash Kumar Bhoi. Explainable Artificial Intelligence for Smart Cities. Boca Raton: CRC Press, 2021. http://dx.doi.org/10.1201/9781003172772.
Ahmed, Mohiuddin, Sheikh Rabiul Islam, Adnan Anwar, Nour Moustafa, and Al-Sakib Khan Pathan, eds. Explainable Artificial Intelligence for Cyber Security. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-96630-0.
Частини книг з теми "Explainable Artificial Intelligence (XAI)":
Mohaghegh, Shahab D. "Explainable Artificial Intelligence (XAI)." In Artificial Intelligence for Science and Engineering Applications, 89–122. Boca Raton: CRC Press, 2024. http://dx.doi.org/10.1201/9781003369356-8.
Holzinger, Andreas, Randy Goebel, Ruth Fong, Taesup Moon, Klaus-Robert Müller, and Wojciech Samek. "xxAI - Beyond Explainable Artificial Intelligence." In xxAI - Beyond Explainable AI, 3–10. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-04083-2_1.
Chen, Tin-Chih Toly. "Explainable Artificial Intelligence (XAI) with Applications." In Explainable Ambient Intelligence (XAmI), 23–38. Cham: Springer Nature Switzerland, 2024. http://dx.doi.org/10.1007/978-3-031-54935-9_2.
Sardar, Tanvir Habib, Sunanda Das, and Bishwajeet Kumar Pandey. "Explainable AI (XAI)." In Medical Data Analysis and Processing using Explainable Artificial Intelligence, 1–18. Boca Raton: CRC Press, 2023. http://dx.doi.org/10.1201/9781003257721-1.
Chen, Tin-Chih Toly. "Explainable Artificial Intelligence (XAI) in Manufacturing." In Explainable Artificial Intelligence (XAI) in Manufacturing, 1–11. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-27961-4_1.
Aditya Shastry, K. "Artificial Intelligence for Healthcare Applications." In Explainable Artificial Intelligence (XAI) in Healthcare, 1–29. New York: CRC Press, 2024. http://dx.doi.org/10.1201/9781003426073-1.
Lampathaki, Fenareti, Enrica Bosani, Evmorfia Biliri, Erifili Ichtiaroglou, Andreas Louca, Dimitris Syrrafos, Mattia Calabresi, Michele Sesana, Veronica Antonello, and Andrea Capaccioli. "XAI for Product Demand Planning: Models, Experiences, and Lessons Learnt." In Artificial Intelligence in Manufacturing, 437–58. Cham: Springer Nature Switzerland, 2024. http://dx.doi.org/10.1007/978-3-031-46452-2_25.
Helen Victoria, A., Ravi Shekhar Tiwari, and Ayaan Khadir Ghulam. "Libraries for Explainable Artificial Intelligence (EXAI)." In Explainable AI (XAI) for Sustainable Development, 211–32. Boca Raton: Chapman and Hall/CRC, 2024. http://dx.doi.org/10.1201/9781003457176-13.
Kırboğa, K. K., and E. U. Küçüksille. "XAI in Biomedical Applications." In Explainable Artificial Intelligence for Biomedical Applications, 79–99. New York: River Publishers, 2023. http://dx.doi.org/10.1201/9781032629353-5.
Uysal, Ilhan, and Utku Kose. "XAI for Drug Discovery." In Explainable Artificial Intelligence for Biomedical Applications, 265–88. New York: River Publishers, 2023. http://dx.doi.org/10.1201/9781032629353-13.
Тези доповідей конференцій з теми "Explainable Artificial Intelligence (XAI)":
Gunning, David. "DARPA's explainable artificial intelligence (XAI) program." In IUI '19: 24th International Conference on Intelligent User Interfaces. New York, NY, USA: ACM, 2019. http://dx.doi.org/10.1145/3301275.3308446.
Ignatiev, Alexey. "Towards Trustable Explainable AI." In Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California: International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/726.
Krstić, Zvjezdana, and Mirjana Maksimović. "Significance of Explainable Artificial Intelligence (XAI) in Marketing." In 29th International Scientific Conference Strategic Management and Decision Support Systems in Strategic Management. University of Novi Sad, Faculty of Economics in Subotica, 2024. http://dx.doi.org/10.46541/978-86-7233-428-9_401.
Gerlings, Julie, Arisa Shollo, and Ioanna Constantiou. "Reviewing the Need for Explainable Artificial Intelligence (xAI)." In Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2021. http://dx.doi.org/10.24251/hicss.2021.156.
Sudar, K. Muthamil, P. Nagaraj, S. Nithisaa, R. Aishwarya, M. Aakash, and S. Ishwarya Lakshmi. "Alzheimer's Disease Analysis using Explainable Artificial Intelligence (XAI)." In 2022 International Conference on Sustainable Computing and Data Communication Systems (ICSCDS). IEEE, 2022. http://dx.doi.org/10.1109/icscds53736.2022.9760858.
Meske, Christian, Babak Abedin, Iris Junglas, and Fethi Rabhi. "Introduction to the Minitrack on Explainable Artificial Intelligence (XAI)." In Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2021. http://dx.doi.org/10.24251/hicss.2021.153.
Abedin, Babak, Christian Meske, Fethi Rabhi, and Mathias Klier. "Introduction to the Minitrack on Explainable Artificial Intelligence (XAI)." In Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2023. http://dx.doi.org/10.24251/hicss.2023.131.
Abedin, Babak, Mathias Klier, Christian Meske, and Fethi Rabhi. "Introduction to the Minitrack on Explainable Artificial Intelligence (XAI)." In Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2022. http://dx.doi.org/10.24251/hicss.2022.182.
P. Peixoto, Maria J., and Akramul Azim. "Explainable Artificial Intelligence (XAI) Approach for Reinforcement Learning Systems." In SAC '24: 39th ACM/SIGAPP Symposium on Applied Computing. New York, NY, USA: ACM, 2024. http://dx.doi.org/10.1145/3605098.3635992.
Sethi, Aryan, Sahiti Dharmavaram, and S. K. Somasundaram. "Explainable Artificial Intelligence (XAI) Approach to Heart Disease Prediction." In 2024 3rd International Conference on Artificial Intelligence For Internet of Things (AIIoT). IEEE, 2024. http://dx.doi.org/10.1109/aiiot58432.2024.10574635.
Звіти організацій з теми "Explainable Artificial Intelligence (XAI)":
Core, Mark G., H. C. Lane, Michael van Lent, Dave Gomboc, Steve Solomon, and Milton Rosenberg. Building Explainable Artificial Intelligence Systems. Fort Belvoir, VA: Defense Technical Information Center, January 2006. http://dx.doi.org/10.21236/ada459166.
Phillips, P. Jonathon, Carina A. Hahn, Peter C. Fontana, Amy N. Yates, Kristen Greene, David A. Broniatowski, and Mark A. Przybocki. Four Principles of Explainable Artificial Intelligence. National Institute of Standards and Technology, September 2021. http://dx.doi.org/10.6028/nist.ir.8312.
Walker, Cody, Vivek Agarwal, Linyu Lin, Anna Hall, Rachael Hill, Ronald Boring PhD, Torrey Mortenson, and Nancy Lybeck. Explainable Artificial Intelligence Technology for Predictive Maintenance. Office of Scientific and Technical Information (OSTI), August 2023. http://dx.doi.org/10.2172/1998555.