Auswahl der wissenschaftlichen Literatur zum Thema „Explainable Artificial Intelligence (XAI)“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Inhaltsverzeichnis
Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Explainable Artificial Intelligence (XAI)" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Zeitschriftenartikel zum Thema "Explainable Artificial Intelligence (XAI)"
Gunning, David, und David Aha. „DARPA’s Explainable Artificial Intelligence (XAI) Program“. AI Magazine 40, Nr. 2 (24.06.2019): 44–58. http://dx.doi.org/10.1609/aimag.v40i2.2850.
Der volle Inhalt der QuelleSewada, Ranu, Ashwani Jangid, Piyush Kumar und Neha Mishra. „Explainable Artificial Intelligence (XAI)“. Journal of Nonlinear Analysis and Optimization 13, Nr. 01 (2023): 41–47. http://dx.doi.org/10.36893/jnao.2022.v13i02.041-047.
Der volle Inhalt der QuelleGunning, David, Mark Stefik, Jaesik Choi, Timothy Miller, Simone Stumpf und Guang-Zhong Yang. „XAI—Explainable artificial intelligence“. Science Robotics 4, Nr. 37 (18.12.2019): eaay7120. http://dx.doi.org/10.1126/scirobotics.aay7120.
Der volle Inhalt der QuelleOwens, Emer, Barry Sheehan, Martin Mullins, Martin Cunneen, Juliane Ressel und German Castignani. „Explainable Artificial Intelligence (XAI) in Insurance“. Risks 10, Nr. 12 (01.12.2022): 230. http://dx.doi.org/10.3390/risks10120230.
Der volle Inhalt der QuelleChaudhary, G. „Explainable Artificial Intelligence (xAI): Reflections on Judicial System“. Kutafin Law Review 10, Nr. 4 (13.01.2024): 872–89. http://dx.doi.org/10.17803/2713-0533.2023.4.26.872-889.
Der volle Inhalt der QuellePraveenraj, D. David Winster, Melvin Victor, C. Vennila, Ahmed Hussein Alawadi, Pardaeva Diyora, N. Vasudevan und T. Avudaiappan. „Exploring Explainable Artificial Intelligence for Transparent Decision Making“. E3S Web of Conferences 399 (2023): 04030. http://dx.doi.org/10.1051/e3sconf/202339904030.
Der volle Inhalt der QuelleJaved, Abdul Rehman, Waqas Ahmed, Sharnil Pandya, Praveen Kumar Reddy Maddikunta, Mamoun Alazab und Thippa Reddy Gadekallu. „A Survey of Explainable Artificial Intelligence for Smart Cities“. Electronics 12, Nr. 4 (18.02.2023): 1020. http://dx.doi.org/10.3390/electronics12041020.
Der volle Inhalt der QuelleZhang, Yiming, Ying Weng und Jonathan Lund. „Applications of Explainable Artificial Intelligence in Diagnosis and Surgery“. Diagnostics 12, Nr. 2 (19.01.2022): 237. http://dx.doi.org/10.3390/diagnostics12020237.
Der volle Inhalt der QuelleLozano-Murcia, Catalina, Francisco P. Romero, Jesus Serrano-Guerrero, Arturo Peralta und Jose A. Olivas. „Potential Applications of Explainable Artificial Intelligence to Actuarial Problems“. Mathematics 12, Nr. 5 (21.02.2024): 635. http://dx.doi.org/10.3390/math12050635.
Der volle Inhalt der QuelleShukla, Bibhudhendu, Ip-Shing Fan und Ian Jennions. „Opportunities for Explainable Artificial Intelligence in Aerospace Predictive Maintenance“. PHM Society European Conference 5, Nr. 1 (22.07.2020): 11. http://dx.doi.org/10.36001/phme.2020.v5i1.1231.
Der volle Inhalt der QuelleDissertationen zum Thema "Explainable Artificial Intelligence (XAI)"
Vincenzi, Leonardo. „eXplainable Artificial Intelligence User Experience: contesto e stato dell’arte“. Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23338/.
Der volle Inhalt der QuelleElguendouze, Sofiane. „Explainable Artificial Intelligence approaches for Image Captioning“. Electronic Thesis or Diss., Orléans, 2024. http://www.theses.fr/2024ORLE1003.
Der volle Inhalt der QuelleThe rapid advancement of image captioning models, driven by the integration of deep learning techniques that combine image and text modalities, has resulted in increasingly complex systems. However, these models often operate as black boxes, lacking the ability to provide transparent explanations for their decisions. This thesis addresses the explainability of image captioning systems based on Encoder-Attention-Decoder architectures, through four aspects. First, it explores the concept of the latent space, marking a departure from traditional approaches relying on the original representation space. Second, it introduces the notion of decisiveness, leading to the formulation of a new definition for the concept of component influence/decisiveness in the context of explainable image captioning, as well as a perturbation-based approach to capturing decisiveness. The third aspect aims to elucidate the factors influencing explanation quality, in particular the scope of explanation methods. Accordingly, latent-based variants of well-established explanation methods such as LRP and LIME have been developed, along with the introduction of a latent-centered evaluation approach called Latent Ablation. The fourth aspect of this work involves investigating what we call saliency and the representation of certain visual concepts, such as object quantity, at different levels of the captioning architecture
PANIGUTTI, Cecilia. „eXplainable AI for trustworthy healthcare applications“. Doctoral thesis, Scuola Normale Superiore, 2022. https://hdl.handle.net/11384/125202.
Der volle Inhalt der QuelleGjeka, Mario. „Uno strumento per le spiegazioni di sistemi di Explainable Artificial Intelligence“. Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.
Den vollen Inhalt der Quelle findenBracchi, Luca. „I-eXplainer: applicazione web per spiegazioni interattive“. Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20424/.
Der volle Inhalt der QuelleHammarström, Tobias. „Towards Explainable Decision-making Strategies of Deep Convolutional Neural Networks : An exploration into explainable AI and potential applications within cancer detection“. Thesis, Uppsala universitet, Avdelningen för visuell information och interaktion, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-424779.
Der volle Inhalt der QuelleMatz, Filip, und Yuxiang Luo. „Explaining Automated Decisions in Practice : Insights from the Swedish Credit Scoring Industry“. Thesis, KTH, Skolan för industriell teknik och management (ITM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-300897.
Der volle Inhalt der QuelleUnder senare år har antalet AI implementationer stadigt ökat i flera industrier. Dessa implementationer har visat flera utmaningar kring nuvarande AI system, specifikt gällande diskriminering, otydlighet och datasäkerhet vilket lett till ett intresse för förklarbar artificiell intelligens (XAI). XAI syftar till att utveckla AI system som är rättvisa, transparenta och begripliga. Flera konceptuella ramverk har introducerats för XAI som presenterar etiska såväl som politiska perspektiv och målbilder. Dessutom har tekniska metoder utvecklats som gjort framsteg mot förklarbarhet i forskningskontext. Däremot saknas det fortfarande studier som undersöker implementationer av dessa koncept och tekniker i praktiken. Denna studie syftar till att överbrygga klyftan mellan den senaste teorin inom området och praktiken genom en fallstudie av ett företag i den svenska kreditupplysningsindustrin. Detta genom att föreslå ett ramverk för implementation av lokala förklaringar i praktiken och genom att utveckla tre förklaringsprototyper. Rapporten utvärderar även prototyperna med konsumenter på följande dimensioner: tillit, systemförståelse, användbarhet och övertalningsstyrka. Det föreslagna ramverket validerades genom fallstudien och belyste ett antal utmaningar och avvägningar som förekommer när XAI system utvecklas för användning i praktiken. Utöver detta visar utvärderingen av prototyperna att majoriteten av konsumenter föredrar regelbaserade förklaringar men indikerar även att preferenser mellan konsumenter varierar. Rekommendationer för framtida forskning är dels en längre studie, vari en XAI modell introduceras på och utvärderas av den fria marknaden, dels forskning som kombinerar olika XAI metoder för att generera mer personliga förklaringar för konsumenter.
Ankaräng, Marcus, und Jakob Kristiansson. „Comparison of Logistic Regression and an Explained Random Forest in the Domain of Creditworthiness Assessment“. Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-301907.
Der volle Inhalt der QuelleI takt med att AI används allt oftare för att fatta beslut i samhället, har kravet på förklarbarhet ökat. En utmaning med flera moderna maskininlärningsmodeller är att de, på grund av sina komplexa strukturer, sällan ger tillgång till mänskligt förståeliga motiveringar. Forskning inom förklarar AI har lett fram till metoder som kan appliceras ovanpå icke- förklarbara modeller för att tolka deras beslutsgrunder. Det här arbetet syftar till att jämföra en icke- förklarbar maskininlärningsmodell i kombination med en förklaringsmetod, och en modell som är förklarbar genom sin struktur. Den icke- förklarbara modellen var random forest och förklaringsmetoden som användes var SHAP. Den förklarbara modellen var logistisk regression, som är förklarande genom sina vikter. Jämförelsen utfördes inom området kreditvärdighet och grundades i prediktiv prestanda och förklarbarhet. Vidare användes dessa modeller för att undersöka vilka egenskaper som var kännetecknande för låntagare som inte förväntades kunna betala tillbaka sitt lån. Jämförelsen visade att ingen av de båda metoderna presterande signifikant mycket bättre än den andra sett till prediktiv prestanda. Kännetecknande särdrag för dåliga låntagare skiljde sig åt mellan metoderna. Tre viktiga aspekter var låntagarens °ålder, vart denna bodde och huruvida personen ägde en hemtelefon. Gällande förklarbarheten framträdde flera fördelar med SHAP, däribland möjligheten att kunna producera både lokala och globala förklaringar. Vidare konstaterades att SHAP gör det möjligt att dra fördel av den höga prestandan som många moderna maskininlärningsmetoder uppvisar och samtidigt uppfylla dagens ökade krav på transparens.
Leoni, Cristian. „Interpretation of Dimensionality Reduction with Supervised Proxies of User-defined Labels“. Thesis, Linnéuniversitetet, Institutionen för datavetenskap och medieteknik (DM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-105622.
Der volle Inhalt der QuelleNilsson, Linus. „Explainable Artificial Intelligence for Reinforcement Learning Agents“. Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-294162.
Der volle Inhalt der QuelleEfter framgångarna inom maskininlärning de senaste årtiondet har förstärkningsinlärning blivit ett primärt forskningsämne för att lösa komplexa uppgifter och inom automation. Tillämpningarna är många, allt från att spela datorspel på en professionell nivå till robotar som samarbetar för att plocka varor i ett lager. Dock så är systemen väldigt komplexa och förståelsen kring varför en agent väljer att lösa en uppgift på ett specifikt sätt är okända för en mänsklig observatör. Detta gör att de praktiska tillämpningarna av dessa agenter är begränsade till icke-kritiska system och den information som kan användas för att lära ut nya sätt att lösa olika uppgifter är dolda. Utifrån detta så har förklarbar artificiell intelligens (XAI) blivit ett område inom forskning som fått allt mer uppmärksamhet de senaste åren. Detta för att kunna förklara maskininlärningssystem för den mänskliga användaren. I denna examensrapport föreslår vi att använda modelloberoende XAI tekniker kombinerat klustringstekniker på enkla Atarispel, vi föreslår även ett sätt att automatisera hur man kan utvärdera hur väl en förklaring förklarar beteendet hos agenterna. Detta i ett försök att upptäcka till vilken grad modelloberoende XAI tekniker kan användas för att förklara beteenden hos förstärkningsinlärningsagenter. De testade metoderna var RISE, t-SNE och Deletion. Metoderna utvärderades på flera olika agenter, tränade att spelaAtari-breakout. Resultatet visar att de kan användas för att förklara beteendet hos agenterna på en lokal nivå (en individuell bild ur ett spel), globalt beteende (över den totala spelsekvensen) samt även att metoderna kan hitta olika strategier användna av de olika agenterna där mängden träning de fått skiljer sig.
Bücher zum Thema "Explainable Artificial Intelligence (XAI)"
Kose, Utku, Nilgun Sengoz, Xi Chen und Jose Antonio Marmolejo Saucedo. Explainable Artificial Intelligence (XAI) in Healthcare. New York: CRC Press, 2024. http://dx.doi.org/10.1201/9781003426073.
Der volle Inhalt der QuelleChen, Tin-Chih Toly. Explainable Artificial Intelligence (XAI) in Manufacturing. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-27961-4.
Der volle Inhalt der QuelleKhamparia, Aditya, Deepak Gupta, Ashish Khanna und Valentina E. Balas, Hrsg. Biomedical Data Analysis and Processing Using Explainable (XAI) and Responsive Artificial Intelligence (RAI). Singapore: Springer Singapore, 2022. http://dx.doi.org/10.1007/978-981-19-1476-8.
Der volle Inhalt der QuelleLongo, Luca, Hrsg. Explainable Artificial Intelligence. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44064-9.
Der volle Inhalt der QuelleLongo, Luca, Hrsg. Explainable Artificial Intelligence. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44070-0.
Der volle Inhalt der QuelleLongo, Luca, Hrsg. Explainable Artificial Intelligence. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44067-0.
Der volle Inhalt der QuelleKrötzsch, Markus, und Daria Stepanova, Hrsg. Reasoning Web. Explainable Artificial Intelligence. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-31423-1.
Der volle Inhalt der QuelleTulli, Silvia, und David W. Aha. Explainable Agency in Artificial Intelligence. Boca Raton: CRC Press, 2023. http://dx.doi.org/10.1201/9781003355281.
Der volle Inhalt der QuelleLahby, Mohamed, Utku Kose und Akash Kumar Bhoi. Explainable Artificial Intelligence for Smart Cities. Boca Raton: CRC Press, 2021. http://dx.doi.org/10.1201/9781003172772.
Der volle Inhalt der QuelleAhmed, Mohiuddin, Sheikh Rabiul Islam, Adnan Anwar, Nour Moustafa und Al-Sakib Khan Pathan, Hrsg. Explainable Artificial Intelligence for Cyber Security. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-96630-0.
Der volle Inhalt der QuelleBuchteile zum Thema "Explainable Artificial Intelligence (XAI)"
Mohaghegh, Shahab D. „Explainable Artificial Intelligence (XAI)“. In Artificial Intelligence for Science and Engineering Applications, 89–122. Boca Raton: CRC Press, 2024. http://dx.doi.org/10.1201/9781003369356-8.
Der volle Inhalt der QuelleHolzinger, Andreas, Randy Goebel, Ruth Fong, Taesup Moon, Klaus-Robert Müller und Wojciech Samek. „xxAI - Beyond Explainable Artificial Intelligence“. In xxAI - Beyond Explainable AI, 3–10. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-04083-2_1.
Der volle Inhalt der QuelleChen, Tin-Chih Toly. „Explainable Artificial Intelligence (XAI) with Applications“. In Explainable Ambient Intelligence (XAmI), 23–38. Cham: Springer Nature Switzerland, 2024. http://dx.doi.org/10.1007/978-3-031-54935-9_2.
Der volle Inhalt der QuelleSardar, Tanvir Habib, Sunanda Das und Bishwajeet Kumar Pandey. „Explainable AI (XAI)“. In Medical Data Analysis and Processing using Explainable Artificial Intelligence, 1–18. Boca Raton: CRC Press, 2023. http://dx.doi.org/10.1201/9781003257721-1.
Der volle Inhalt der QuelleChen, Tin-Chih Toly. „Explainable Artificial Intelligence (XAI) in Manufacturing“. In Explainable Artificial Intelligence (XAI) in Manufacturing, 1–11. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-27961-4_1.
Der volle Inhalt der QuelleAditya Shastry, K. „Artificial Intelligence for Healthcare Applications“. In Explainable Artificial Intelligence (XAI) in Healthcare, 1–29. New York: CRC Press, 2024. http://dx.doi.org/10.1201/9781003426073-1.
Der volle Inhalt der QuelleLampathaki, Fenareti, Enrica Bosani, Evmorfia Biliri, Erifili Ichtiaroglou, Andreas Louca, Dimitris Syrrafos, Mattia Calabresi, Michele Sesana, Veronica Antonello und Andrea Capaccioli. „XAI for Product Demand Planning: Models, Experiences, and Lessons Learnt“. In Artificial Intelligence in Manufacturing, 437–58. Cham: Springer Nature Switzerland, 2024. http://dx.doi.org/10.1007/978-3-031-46452-2_25.
Der volle Inhalt der QuelleHelen Victoria, A., Ravi Shekhar Tiwari und Ayaan Khadir Ghulam. „Libraries for Explainable Artificial Intelligence (EXAI)“. In Explainable AI (XAI) for Sustainable Development, 211–32. Boca Raton: Chapman and Hall/CRC, 2024. http://dx.doi.org/10.1201/9781003457176-13.
Der volle Inhalt der QuelleKırboğa, K. K., und E. U. Küçüksille. „XAI in Biomedical Applications“. In Explainable Artificial Intelligence for Biomedical Applications, 79–99. New York: River Publishers, 2023. http://dx.doi.org/10.1201/9781032629353-5.
Der volle Inhalt der QuelleUysal, Ilhan, und Utku Kose. „XAI for Drug Discovery“. In Explainable Artificial Intelligence for Biomedical Applications, 265–88. New York: River Publishers, 2023. http://dx.doi.org/10.1201/9781032629353-13.
Der volle Inhalt der QuelleKonferenzberichte zum Thema "Explainable Artificial Intelligence (XAI)"
Gunning, David. „DARPA's explainable artificial intelligence (XAI) program“. In IUI '19: 24th International Conference on Intelligent User Interfaces. New York, NY, USA: ACM, 2019. http://dx.doi.org/10.1145/3301275.3308446.
Der volle Inhalt der QuelleIgnatiev, Alexey. „Towards Trustable Explainable AI“. In Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California: International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/726.
Der volle Inhalt der QuelleKrstić, Zvjezdana, und Mirjana Maksimović. „Significance of Explainable Artificial Intelligence (XAI) in Marketing“. In 29th International Scientific Conference Strategic Management and Decision Support Systems in Strategic Management. University of Novi Sad, Faculty of Economics in Subotica, 2024. http://dx.doi.org/10.46541/978-86-7233-428-9_401.
Der volle Inhalt der QuelleGerlings, Julie, Arisa Shollo und Ioanna Constantiou. „Reviewing the Need for Explainable Artificial Intelligence (xAI)“. In Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2021. http://dx.doi.org/10.24251/hicss.2021.156.
Der volle Inhalt der QuelleSudar, K. Muthamil, P. Nagaraj, S. Nithisaa, R. Aishwarya, M. Aakash und S. Ishwarya Lakshmi. „Alzheimer's Disease Analysis using Explainable Artificial Intelligence (XAI)“. In 2022 International Conference on Sustainable Computing and Data Communication Systems (ICSCDS). IEEE, 2022. http://dx.doi.org/10.1109/icscds53736.2022.9760858.
Der volle Inhalt der QuelleMeske, Christian, Babak Abedin, Iris Junglas und Fethi Rabhi. „Introduction to the Minitrack on Explainable Artificial Intelligence (XAI)“. In Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2021. http://dx.doi.org/10.24251/hicss.2021.153.
Der volle Inhalt der QuelleAbedin, Babak, Christian Meske, Fethi Rabhi und Mathias Klier. „Introduction to the Minitrack on Explainable Artificial Intelligence (XAI)“. In Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2023. http://dx.doi.org/10.24251/hicss.2023.131.
Der volle Inhalt der QuelleAbedin, Babak, Mathias Klier, Christian Meske und Fethi Rabhi. „Introduction to the Minitrack on Explainable Artificial Intelligence (XAI)“. In Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2022. http://dx.doi.org/10.24251/hicss.2022.182.
Der volle Inhalt der QuelleP. Peixoto, Maria J., und Akramul Azim. „Explainable Artificial Intelligence (XAI) Approach for Reinforcement Learning Systems“. In SAC '24: 39th ACM/SIGAPP Symposium on Applied Computing. New York, NY, USA: ACM, 2024. http://dx.doi.org/10.1145/3605098.3635992.
Der volle Inhalt der QuelleSethi, Aryan, Sahiti Dharmavaram und S. K. Somasundaram. „Explainable Artificial Intelligence (XAI) Approach to Heart Disease Prediction“. In 2024 3rd International Conference on Artificial Intelligence For Internet of Things (AIIoT). IEEE, 2024. http://dx.doi.org/10.1109/aiiot58432.2024.10574635.
Der volle Inhalt der QuelleBerichte der Organisationen zum Thema "Explainable Artificial Intelligence (XAI)"
Core, Mark G., H. C. Lane, Michael van Lent, Dave Gomboc, Steve Solomon und Milton Rosenberg. Building Explainable Artificial Intelligence Systems. Fort Belvoir, VA: Defense Technical Information Center, Januar 2006. http://dx.doi.org/10.21236/ada459166.
Der volle Inhalt der QuellePhillips, P. Jonathon, Carina A. Hahn, Peter C. Fontana, Amy N. Yates, Kristen Greene, David A. Broniatowski und Mark A. Przybocki. Four Principles of Explainable Artificial Intelligence. National Institute of Standards and Technology, September 2021. http://dx.doi.org/10.6028/nist.ir.8312.
Der volle Inhalt der QuelleWalker, Cody, Vivek Agarwal, Linyu Lin, Anna Hall, Rachael Hill, Ronald Boring PhD, Torrey Mortenson und Nancy Lybeck. Explainable Artificial Intelligence Technology for Predictive Maintenance. Office of Scientific and Technical Information (OSTI), August 2023. http://dx.doi.org/10.2172/1998555.
Der volle Inhalt der Quelle