Gotowa bibliografia na temat „Explainable Artificial Intelligence (XAI)”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Spis treści
Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Explainable Artificial Intelligence (XAI)”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Artykuły w czasopismach na temat "Explainable Artificial Intelligence (XAI)"
Gunning, David, i David Aha. "DARPA’s Explainable Artificial Intelligence (XAI) Program". AI Magazine 40, nr 2 (24.06.2019): 44–58. http://dx.doi.org/10.1609/aimag.v40i2.2850.
Pełny tekst źródłaSewada, Ranu, Ashwani Jangid, Piyush Kumar i Neha Mishra. "Explainable Artificial Intelligence (XAI)". Journal of Nonlinear Analysis and Optimization 13, nr 01 (2023): 41–47. http://dx.doi.org/10.36893/jnao.2022.v13i02.041-047.
Pełny tekst źródłaGunning, David, Mark Stefik, Jaesik Choi, Timothy Miller, Simone Stumpf i Guang-Zhong Yang. "XAI—Explainable artificial intelligence". Science Robotics 4, nr 37 (18.12.2019): eaay7120. http://dx.doi.org/10.1126/scirobotics.aay7120.
Pełny tekst źródłaOwens, Emer, Barry Sheehan, Martin Mullins, Martin Cunneen, Juliane Ressel i German Castignani. "Explainable Artificial Intelligence (XAI) in Insurance". Risks 10, nr 12 (1.12.2022): 230. http://dx.doi.org/10.3390/risks10120230.
Pełny tekst źródłaChaudhary, G. "Explainable Artificial Intelligence (xAI): Reflections on Judicial System". Kutafin Law Review 10, nr 4 (13.01.2024): 872–89. http://dx.doi.org/10.17803/2713-0533.2023.4.26.872-889.
Pełny tekst źródłaPraveenraj, D. David Winster, Melvin Victor, C. Vennila, Ahmed Hussein Alawadi, Pardaeva Diyora, N. Vasudevan i T. Avudaiappan. "Exploring Explainable Artificial Intelligence for Transparent Decision Making". E3S Web of Conferences 399 (2023): 04030. http://dx.doi.org/10.1051/e3sconf/202339904030.
Pełny tekst źródłaJaved, Abdul Rehman, Waqas Ahmed, Sharnil Pandya, Praveen Kumar Reddy Maddikunta, Mamoun Alazab i Thippa Reddy Gadekallu. "A Survey of Explainable Artificial Intelligence for Smart Cities". Electronics 12, nr 4 (18.02.2023): 1020. http://dx.doi.org/10.3390/electronics12041020.
Pełny tekst źródłaZhang, Yiming, Ying Weng i Jonathan Lund. "Applications of Explainable Artificial Intelligence in Diagnosis and Surgery". Diagnostics 12, nr 2 (19.01.2022): 237. http://dx.doi.org/10.3390/diagnostics12020237.
Pełny tekst źródłaLozano-Murcia, Catalina, Francisco P. Romero, Jesus Serrano-Guerrero, Arturo Peralta i Jose A. Olivas. "Potential Applications of Explainable Artificial Intelligence to Actuarial Problems". Mathematics 12, nr 5 (21.02.2024): 635. http://dx.doi.org/10.3390/math12050635.
Pełny tekst źródłaShukla, Bibhudhendu, Ip-Shing Fan i Ian Jennions. "Opportunities for Explainable Artificial Intelligence in Aerospace Predictive Maintenance". PHM Society European Conference 5, nr 1 (22.07.2020): 11. http://dx.doi.org/10.36001/phme.2020.v5i1.1231.
Pełny tekst źródłaRozprawy doktorskie na temat "Explainable Artificial Intelligence (XAI)"
Vincenzi, Leonardo. "eXplainable Artificial Intelligence User Experience: contesto e stato dell’arte". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23338/.
Pełny tekst źródłaElguendouze, Sofiane. "Explainable Artificial Intelligence approaches for Image Captioning". Electronic Thesis or Diss., Orléans, 2024. http://www.theses.fr/2024ORLE1003.
Pełny tekst źródłaThe rapid advancement of image captioning models, driven by the integration of deep learning techniques that combine image and text modalities, has resulted in increasingly complex systems. However, these models often operate as black boxes, lacking the ability to provide transparent explanations for their decisions. This thesis addresses the explainability of image captioning systems based on Encoder-Attention-Decoder architectures, through four aspects. First, it explores the concept of the latent space, marking a departure from traditional approaches relying on the original representation space. Second, it introduces the notion of decisiveness, leading to the formulation of a new definition for the concept of component influence/decisiveness in the context of explainable image captioning, as well as a perturbation-based approach to capturing decisiveness. The third aspect aims to elucidate the factors influencing explanation quality, in particular the scope of explanation methods. Accordingly, latent-based variants of well-established explanation methods such as LRP and LIME have been developed, along with the introduction of a latent-centered evaluation approach called Latent Ablation. The fourth aspect of this work involves investigating what we call saliency and the representation of certain visual concepts, such as object quantity, at different levels of the captioning architecture
PANIGUTTI, Cecilia. "eXplainable AI for trustworthy healthcare applications". Doctoral thesis, Scuola Normale Superiore, 2022. https://hdl.handle.net/11384/125202.
Pełny tekst źródłaGjeka, Mario. "Uno strumento per le spiegazioni di sistemi di Explainable Artificial Intelligence". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.
Znajdź pełny tekst źródłaBracchi, Luca. "I-eXplainer: applicazione web per spiegazioni interattive". Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20424/.
Pełny tekst źródłaHammarström, Tobias. "Towards Explainable Decision-making Strategies of Deep Convolutional Neural Networks : An exploration into explainable AI and potential applications within cancer detection". Thesis, Uppsala universitet, Avdelningen för visuell information och interaktion, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-424779.
Pełny tekst źródłaMatz, Filip, i Yuxiang Luo. "Explaining Automated Decisions in Practice : Insights from the Swedish Credit Scoring Industry". Thesis, KTH, Skolan för industriell teknik och management (ITM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-300897.
Pełny tekst źródłaUnder senare år har antalet AI implementationer stadigt ökat i flera industrier. Dessa implementationer har visat flera utmaningar kring nuvarande AI system, specifikt gällande diskriminering, otydlighet och datasäkerhet vilket lett till ett intresse för förklarbar artificiell intelligens (XAI). XAI syftar till att utveckla AI system som är rättvisa, transparenta och begripliga. Flera konceptuella ramverk har introducerats för XAI som presenterar etiska såväl som politiska perspektiv och målbilder. Dessutom har tekniska metoder utvecklats som gjort framsteg mot förklarbarhet i forskningskontext. Däremot saknas det fortfarande studier som undersöker implementationer av dessa koncept och tekniker i praktiken. Denna studie syftar till att överbrygga klyftan mellan den senaste teorin inom området och praktiken genom en fallstudie av ett företag i den svenska kreditupplysningsindustrin. Detta genom att föreslå ett ramverk för implementation av lokala förklaringar i praktiken och genom att utveckla tre förklaringsprototyper. Rapporten utvärderar även prototyperna med konsumenter på följande dimensioner: tillit, systemförståelse, användbarhet och övertalningsstyrka. Det föreslagna ramverket validerades genom fallstudien och belyste ett antal utmaningar och avvägningar som förekommer när XAI system utvecklas för användning i praktiken. Utöver detta visar utvärderingen av prototyperna att majoriteten av konsumenter föredrar regelbaserade förklaringar men indikerar även att preferenser mellan konsumenter varierar. Rekommendationer för framtida forskning är dels en längre studie, vari en XAI modell introduceras på och utvärderas av den fria marknaden, dels forskning som kombinerar olika XAI metoder för att generera mer personliga förklaringar för konsumenter.
Ankaräng, Marcus, i Jakob Kristiansson. "Comparison of Logistic Regression and an Explained Random Forest in the Domain of Creditworthiness Assessment". Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-301907.
Pełny tekst źródłaI takt med att AI används allt oftare för att fatta beslut i samhället, har kravet på förklarbarhet ökat. En utmaning med flera moderna maskininlärningsmodeller är att de, på grund av sina komplexa strukturer, sällan ger tillgång till mänskligt förståeliga motiveringar. Forskning inom förklarar AI har lett fram till metoder som kan appliceras ovanpå icke- förklarbara modeller för att tolka deras beslutsgrunder. Det här arbetet syftar till att jämföra en icke- förklarbar maskininlärningsmodell i kombination med en förklaringsmetod, och en modell som är förklarbar genom sin struktur. Den icke- förklarbara modellen var random forest och förklaringsmetoden som användes var SHAP. Den förklarbara modellen var logistisk regression, som är förklarande genom sina vikter. Jämförelsen utfördes inom området kreditvärdighet och grundades i prediktiv prestanda och förklarbarhet. Vidare användes dessa modeller för att undersöka vilka egenskaper som var kännetecknande för låntagare som inte förväntades kunna betala tillbaka sitt lån. Jämförelsen visade att ingen av de båda metoderna presterande signifikant mycket bättre än den andra sett till prediktiv prestanda. Kännetecknande särdrag för dåliga låntagare skiljde sig åt mellan metoderna. Tre viktiga aspekter var låntagarens °ålder, vart denna bodde och huruvida personen ägde en hemtelefon. Gällande förklarbarheten framträdde flera fördelar med SHAP, däribland möjligheten att kunna producera både lokala och globala förklaringar. Vidare konstaterades att SHAP gör det möjligt att dra fördel av den höga prestandan som många moderna maskininlärningsmetoder uppvisar och samtidigt uppfylla dagens ökade krav på transparens.
Leoni, Cristian. "Interpretation of Dimensionality Reduction with Supervised Proxies of User-defined Labels". Thesis, Linnéuniversitetet, Institutionen för datavetenskap och medieteknik (DM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-105622.
Pełny tekst źródłaNilsson, Linus. "Explainable Artificial Intelligence for Reinforcement Learning Agents". Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-294162.
Pełny tekst źródłaEfter framgångarna inom maskininlärning de senaste årtiondet har förstärkningsinlärning blivit ett primärt forskningsämne för att lösa komplexa uppgifter och inom automation. Tillämpningarna är många, allt från att spela datorspel på en professionell nivå till robotar som samarbetar för att plocka varor i ett lager. Dock så är systemen väldigt komplexa och förståelsen kring varför en agent väljer att lösa en uppgift på ett specifikt sätt är okända för en mänsklig observatör. Detta gör att de praktiska tillämpningarna av dessa agenter är begränsade till icke-kritiska system och den information som kan användas för att lära ut nya sätt att lösa olika uppgifter är dolda. Utifrån detta så har förklarbar artificiell intelligens (XAI) blivit ett område inom forskning som fått allt mer uppmärksamhet de senaste åren. Detta för att kunna förklara maskininlärningssystem för den mänskliga användaren. I denna examensrapport föreslår vi att använda modelloberoende XAI tekniker kombinerat klustringstekniker på enkla Atarispel, vi föreslår även ett sätt att automatisera hur man kan utvärdera hur väl en förklaring förklarar beteendet hos agenterna. Detta i ett försök att upptäcka till vilken grad modelloberoende XAI tekniker kan användas för att förklara beteenden hos förstärkningsinlärningsagenter. De testade metoderna var RISE, t-SNE och Deletion. Metoderna utvärderades på flera olika agenter, tränade att spelaAtari-breakout. Resultatet visar att de kan användas för att förklara beteendet hos agenterna på en lokal nivå (en individuell bild ur ett spel), globalt beteende (över den totala spelsekvensen) samt även att metoderna kan hitta olika strategier användna av de olika agenterna där mängden träning de fått skiljer sig.
Książki na temat "Explainable Artificial Intelligence (XAI)"
Kose, Utku, Nilgun Sengoz, Xi Chen i Jose Antonio Marmolejo Saucedo. Explainable Artificial Intelligence (XAI) in Healthcare. New York: CRC Press, 2024. http://dx.doi.org/10.1201/9781003426073.
Pełny tekst źródłaChen, Tin-Chih Toly. Explainable Artificial Intelligence (XAI) in Manufacturing. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-27961-4.
Pełny tekst źródłaKhamparia, Aditya, Deepak Gupta, Ashish Khanna i Valentina E. Balas, red. Biomedical Data Analysis and Processing Using Explainable (XAI) and Responsive Artificial Intelligence (RAI). Singapore: Springer Singapore, 2022. http://dx.doi.org/10.1007/978-981-19-1476-8.
Pełny tekst źródłaLongo, Luca, red. Explainable Artificial Intelligence. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44064-9.
Pełny tekst źródłaLongo, Luca, red. Explainable Artificial Intelligence. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44070-0.
Pełny tekst źródłaLongo, Luca, red. Explainable Artificial Intelligence. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44067-0.
Pełny tekst źródłaKrötzsch, Markus, i Daria Stepanova, red. Reasoning Web. Explainable Artificial Intelligence. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-31423-1.
Pełny tekst źródłaTulli, Silvia, i David W. Aha. Explainable Agency in Artificial Intelligence. Boca Raton: CRC Press, 2023. http://dx.doi.org/10.1201/9781003355281.
Pełny tekst źródłaLahby, Mohamed, Utku Kose i Akash Kumar Bhoi. Explainable Artificial Intelligence for Smart Cities. Boca Raton: CRC Press, 2021. http://dx.doi.org/10.1201/9781003172772.
Pełny tekst źródłaAhmed, Mohiuddin, Sheikh Rabiul Islam, Adnan Anwar, Nour Moustafa i Al-Sakib Khan Pathan, red. Explainable Artificial Intelligence for Cyber Security. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-96630-0.
Pełny tekst źródłaCzęści książek na temat "Explainable Artificial Intelligence (XAI)"
Mohaghegh, Shahab D. "Explainable Artificial Intelligence (XAI)". W Artificial Intelligence for Science and Engineering Applications, 89–122. Boca Raton: CRC Press, 2024. http://dx.doi.org/10.1201/9781003369356-8.
Pełny tekst źródłaHolzinger, Andreas, Randy Goebel, Ruth Fong, Taesup Moon, Klaus-Robert Müller i Wojciech Samek. "xxAI - Beyond Explainable Artificial Intelligence". W xxAI - Beyond Explainable AI, 3–10. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-04083-2_1.
Pełny tekst źródłaChen, Tin-Chih Toly. "Explainable Artificial Intelligence (XAI) with Applications". W Explainable Ambient Intelligence (XAmI), 23–38. Cham: Springer Nature Switzerland, 2024. http://dx.doi.org/10.1007/978-3-031-54935-9_2.
Pełny tekst źródłaSardar, Tanvir Habib, Sunanda Das i Bishwajeet Kumar Pandey. "Explainable AI (XAI)". W Medical Data Analysis and Processing using Explainable Artificial Intelligence, 1–18. Boca Raton: CRC Press, 2023. http://dx.doi.org/10.1201/9781003257721-1.
Pełny tekst źródłaChen, Tin-Chih Toly. "Explainable Artificial Intelligence (XAI) in Manufacturing". W Explainable Artificial Intelligence (XAI) in Manufacturing, 1–11. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-27961-4_1.
Pełny tekst źródłaAditya Shastry, K. "Artificial Intelligence for Healthcare Applications". W Explainable Artificial Intelligence (XAI) in Healthcare, 1–29. New York: CRC Press, 2024. http://dx.doi.org/10.1201/9781003426073-1.
Pełny tekst źródłaLampathaki, Fenareti, Enrica Bosani, Evmorfia Biliri, Erifili Ichtiaroglou, Andreas Louca, Dimitris Syrrafos, Mattia Calabresi, Michele Sesana, Veronica Antonello i Andrea Capaccioli. "XAI for Product Demand Planning: Models, Experiences, and Lessons Learnt". W Artificial Intelligence in Manufacturing, 437–58. Cham: Springer Nature Switzerland, 2024. http://dx.doi.org/10.1007/978-3-031-46452-2_25.
Pełny tekst źródłaHelen Victoria, A., Ravi Shekhar Tiwari i Ayaan Khadir Ghulam. "Libraries for Explainable Artificial Intelligence (EXAI)". W Explainable AI (XAI) for Sustainable Development, 211–32. Boca Raton: Chapman and Hall/CRC, 2024. http://dx.doi.org/10.1201/9781003457176-13.
Pełny tekst źródłaKırboğa, K. K., i E. U. Küçüksille. "XAI in Biomedical Applications". W Explainable Artificial Intelligence for Biomedical Applications, 79–99. New York: River Publishers, 2023. http://dx.doi.org/10.1201/9781032629353-5.
Pełny tekst źródłaUysal, Ilhan, i Utku Kose. "XAI for Drug Discovery". W Explainable Artificial Intelligence for Biomedical Applications, 265–88. New York: River Publishers, 2023. http://dx.doi.org/10.1201/9781032629353-13.
Pełny tekst źródłaStreszczenia konferencji na temat "Explainable Artificial Intelligence (XAI)"
Gunning, David. "DARPA's explainable artificial intelligence (XAI) program". W IUI '19: 24th International Conference on Intelligent User Interfaces. New York, NY, USA: ACM, 2019. http://dx.doi.org/10.1145/3301275.3308446.
Pełny tekst źródłaIgnatiev, Alexey. "Towards Trustable Explainable AI". W Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California: International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/726.
Pełny tekst źródłaKrstić, Zvjezdana, i Mirjana Maksimović. "Significance of Explainable Artificial Intelligence (XAI) in Marketing". W 29th International Scientific Conference Strategic Management and Decision Support Systems in Strategic Management. University of Novi Sad, Faculty of Economics in Subotica, 2024. http://dx.doi.org/10.46541/978-86-7233-428-9_401.
Pełny tekst źródłaGerlings, Julie, Arisa Shollo i Ioanna Constantiou. "Reviewing the Need for Explainable Artificial Intelligence (xAI)". W Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2021. http://dx.doi.org/10.24251/hicss.2021.156.
Pełny tekst źródłaSudar, K. Muthamil, P. Nagaraj, S. Nithisaa, R. Aishwarya, M. Aakash i S. Ishwarya Lakshmi. "Alzheimer's Disease Analysis using Explainable Artificial Intelligence (XAI)". W 2022 International Conference on Sustainable Computing and Data Communication Systems (ICSCDS). IEEE, 2022. http://dx.doi.org/10.1109/icscds53736.2022.9760858.
Pełny tekst źródłaMeske, Christian, Babak Abedin, Iris Junglas i Fethi Rabhi. "Introduction to the Minitrack on Explainable Artificial Intelligence (XAI)". W Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2021. http://dx.doi.org/10.24251/hicss.2021.153.
Pełny tekst źródłaAbedin, Babak, Christian Meske, Fethi Rabhi i Mathias Klier. "Introduction to the Minitrack on Explainable Artificial Intelligence (XAI)". W Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2023. http://dx.doi.org/10.24251/hicss.2023.131.
Pełny tekst źródłaAbedin, Babak, Mathias Klier, Christian Meske i Fethi Rabhi. "Introduction to the Minitrack on Explainable Artificial Intelligence (XAI)". W Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2022. http://dx.doi.org/10.24251/hicss.2022.182.
Pełny tekst źródłaP. Peixoto, Maria J., i Akramul Azim. "Explainable Artificial Intelligence (XAI) Approach for Reinforcement Learning Systems". W SAC '24: 39th ACM/SIGAPP Symposium on Applied Computing. New York, NY, USA: ACM, 2024. http://dx.doi.org/10.1145/3605098.3635992.
Pełny tekst źródłaSethi, Aryan, Sahiti Dharmavaram i S. K. Somasundaram. "Explainable Artificial Intelligence (XAI) Approach to Heart Disease Prediction". W 2024 3rd International Conference on Artificial Intelligence For Internet of Things (AIIoT). IEEE, 2024. http://dx.doi.org/10.1109/aiiot58432.2024.10574635.
Pełny tekst źródłaRaporty organizacyjne na temat "Explainable Artificial Intelligence (XAI)"
Core, Mark G., H. C. Lane, Michael van Lent, Dave Gomboc, Steve Solomon i Milton Rosenberg. Building Explainable Artificial Intelligence Systems. Fort Belvoir, VA: Defense Technical Information Center, styczeń 2006. http://dx.doi.org/10.21236/ada459166.
Pełny tekst źródłaPhillips, P. Jonathon, Carina A. Hahn, Peter C. Fontana, Amy N. Yates, Kristen Greene, David A. Broniatowski i Mark A. Przybocki. Four Principles of Explainable Artificial Intelligence. National Institute of Standards and Technology, wrzesień 2021. http://dx.doi.org/10.6028/nist.ir.8312.
Pełny tekst źródłaWalker, Cody, Vivek Agarwal, Linyu Lin, Anna Hall, Rachael Hill, Ronald Boring PhD, Torrey Mortenson i Nancy Lybeck. Explainable Artificial Intelligence Technology for Predictive Maintenance. Office of Scientific and Technical Information (OSTI), sierpień 2023. http://dx.doi.org/10.2172/1998555.
Pełny tekst źródła