Littérature scientifique sur le sujet « Explainable Artificial Intelligence (XAI) »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Sommaire
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Explainable Artificial Intelligence (XAI) ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "Explainable Artificial Intelligence (XAI)"
Gunning, David, et David Aha. « DARPA’s Explainable Artificial Intelligence (XAI) Program ». AI Magazine 40, no 2 (24 juin 2019) : 44–58. http://dx.doi.org/10.1609/aimag.v40i2.2850.
Texte intégralSewada, Ranu, Ashwani Jangid, Piyush Kumar et Neha Mishra. « Explainable Artificial Intelligence (XAI) ». Journal of Nonlinear Analysis and Optimization 13, no 01 (2023) : 41–47. http://dx.doi.org/10.36893/jnao.2022.v13i02.041-047.
Texte intégralGunning, David, Mark Stefik, Jaesik Choi, Timothy Miller, Simone Stumpf et Guang-Zhong Yang. « XAI—Explainable artificial intelligence ». Science Robotics 4, no 37 (18 décembre 2019) : eaay7120. http://dx.doi.org/10.1126/scirobotics.aay7120.
Texte intégralOwens, Emer, Barry Sheehan, Martin Mullins, Martin Cunneen, Juliane Ressel et German Castignani. « Explainable Artificial Intelligence (XAI) in Insurance ». Risks 10, no 12 (1 décembre 2022) : 230. http://dx.doi.org/10.3390/risks10120230.
Texte intégralChaudhary, G. « Explainable Artificial Intelligence (xAI) : Reflections on Judicial System ». Kutafin Law Review 10, no 4 (13 janvier 2024) : 872–89. http://dx.doi.org/10.17803/2713-0533.2023.4.26.872-889.
Texte intégralPraveenraj, D. David Winster, Melvin Victor, C. Vennila, Ahmed Hussein Alawadi, Pardaeva Diyora, N. Vasudevan et T. Avudaiappan. « Exploring Explainable Artificial Intelligence for Transparent Decision Making ». E3S Web of Conferences 399 (2023) : 04030. http://dx.doi.org/10.1051/e3sconf/202339904030.
Texte intégralJaved, Abdul Rehman, Waqas Ahmed, Sharnil Pandya, Praveen Kumar Reddy Maddikunta, Mamoun Alazab et Thippa Reddy Gadekallu. « A Survey of Explainable Artificial Intelligence for Smart Cities ». Electronics 12, no 4 (18 février 2023) : 1020. http://dx.doi.org/10.3390/electronics12041020.
Texte intégralZhang, Yiming, Ying Weng et Jonathan Lund. « Applications of Explainable Artificial Intelligence in Diagnosis and Surgery ». Diagnostics 12, no 2 (19 janvier 2022) : 237. http://dx.doi.org/10.3390/diagnostics12020237.
Texte intégralLozano-Murcia, Catalina, Francisco P. Romero, Jesus Serrano-Guerrero, Arturo Peralta et Jose A. Olivas. « Potential Applications of Explainable Artificial Intelligence to Actuarial Problems ». Mathematics 12, no 5 (21 février 2024) : 635. http://dx.doi.org/10.3390/math12050635.
Texte intégralShukla, Bibhudhendu, Ip-Shing Fan et Ian Jennions. « Opportunities for Explainable Artificial Intelligence in Aerospace Predictive Maintenance ». PHM Society European Conference 5, no 1 (22 juillet 2020) : 11. http://dx.doi.org/10.36001/phme.2020.v5i1.1231.
Texte intégralThèses sur le sujet "Explainable Artificial Intelligence (XAI)"
Vincenzi, Leonardo. « eXplainable Artificial Intelligence User Experience : contesto e stato dell’arte ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23338/.
Texte intégralElguendouze, Sofiane. « Explainable Artificial Intelligence approaches for Image Captioning ». Electronic Thesis or Diss., Orléans, 2024. http://www.theses.fr/2024ORLE1003.
Texte intégralThe rapid advancement of image captioning models, driven by the integration of deep learning techniques that combine image and text modalities, has resulted in increasingly complex systems. However, these models often operate as black boxes, lacking the ability to provide transparent explanations for their decisions. This thesis addresses the explainability of image captioning systems based on Encoder-Attention-Decoder architectures, through four aspects. First, it explores the concept of the latent space, marking a departure from traditional approaches relying on the original representation space. Second, it introduces the notion of decisiveness, leading to the formulation of a new definition for the concept of component influence/decisiveness in the context of explainable image captioning, as well as a perturbation-based approach to capturing decisiveness. The third aspect aims to elucidate the factors influencing explanation quality, in particular the scope of explanation methods. Accordingly, latent-based variants of well-established explanation methods such as LRP and LIME have been developed, along with the introduction of a latent-centered evaluation approach called Latent Ablation. The fourth aspect of this work involves investigating what we call saliency and the representation of certain visual concepts, such as object quantity, at different levels of the captioning architecture
PANIGUTTI, Cecilia. « eXplainable AI for trustworthy healthcare applications ». Doctoral thesis, Scuola Normale Superiore, 2022. https://hdl.handle.net/11384/125202.
Texte intégralGjeka, Mario. « Uno strumento per le spiegazioni di sistemi di Explainable Artificial Intelligence ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.
Trouver le texte intégralBracchi, Luca. « I-eXplainer : applicazione web per spiegazioni interattive ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20424/.
Texte intégralHammarström, Tobias. « Towards Explainable Decision-making Strategies of Deep Convolutional Neural Networks : An exploration into explainable AI and potential applications within cancer detection ». Thesis, Uppsala universitet, Avdelningen för visuell information och interaktion, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-424779.
Texte intégralMatz, Filip, et Yuxiang Luo. « Explaining Automated Decisions in Practice : Insights from the Swedish Credit Scoring Industry ». Thesis, KTH, Skolan för industriell teknik och management (ITM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-300897.
Texte intégralUnder senare år har antalet AI implementationer stadigt ökat i flera industrier. Dessa implementationer har visat flera utmaningar kring nuvarande AI system, specifikt gällande diskriminering, otydlighet och datasäkerhet vilket lett till ett intresse för förklarbar artificiell intelligens (XAI). XAI syftar till att utveckla AI system som är rättvisa, transparenta och begripliga. Flera konceptuella ramverk har introducerats för XAI som presenterar etiska såväl som politiska perspektiv och målbilder. Dessutom har tekniska metoder utvecklats som gjort framsteg mot förklarbarhet i forskningskontext. Däremot saknas det fortfarande studier som undersöker implementationer av dessa koncept och tekniker i praktiken. Denna studie syftar till att överbrygga klyftan mellan den senaste teorin inom området och praktiken genom en fallstudie av ett företag i den svenska kreditupplysningsindustrin. Detta genom att föreslå ett ramverk för implementation av lokala förklaringar i praktiken och genom att utveckla tre förklaringsprototyper. Rapporten utvärderar även prototyperna med konsumenter på följande dimensioner: tillit, systemförståelse, användbarhet och övertalningsstyrka. Det föreslagna ramverket validerades genom fallstudien och belyste ett antal utmaningar och avvägningar som förekommer när XAI system utvecklas för användning i praktiken. Utöver detta visar utvärderingen av prototyperna att majoriteten av konsumenter föredrar regelbaserade förklaringar men indikerar även att preferenser mellan konsumenter varierar. Rekommendationer för framtida forskning är dels en längre studie, vari en XAI modell introduceras på och utvärderas av den fria marknaden, dels forskning som kombinerar olika XAI metoder för att generera mer personliga förklaringar för konsumenter.
Ankaräng, Marcus, et Jakob Kristiansson. « Comparison of Logistic Regression and an Explained Random Forest in the Domain of Creditworthiness Assessment ». Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-301907.
Texte intégralI takt med att AI används allt oftare för att fatta beslut i samhället, har kravet på förklarbarhet ökat. En utmaning med flera moderna maskininlärningsmodeller är att de, på grund av sina komplexa strukturer, sällan ger tillgång till mänskligt förståeliga motiveringar. Forskning inom förklarar AI har lett fram till metoder som kan appliceras ovanpå icke- förklarbara modeller för att tolka deras beslutsgrunder. Det här arbetet syftar till att jämföra en icke- förklarbar maskininlärningsmodell i kombination med en förklaringsmetod, och en modell som är förklarbar genom sin struktur. Den icke- förklarbara modellen var random forest och förklaringsmetoden som användes var SHAP. Den förklarbara modellen var logistisk regression, som är förklarande genom sina vikter. Jämförelsen utfördes inom området kreditvärdighet och grundades i prediktiv prestanda och förklarbarhet. Vidare användes dessa modeller för att undersöka vilka egenskaper som var kännetecknande för låntagare som inte förväntades kunna betala tillbaka sitt lån. Jämförelsen visade att ingen av de båda metoderna presterande signifikant mycket bättre än den andra sett till prediktiv prestanda. Kännetecknande särdrag för dåliga låntagare skiljde sig åt mellan metoderna. Tre viktiga aspekter var låntagarens °ålder, vart denna bodde och huruvida personen ägde en hemtelefon. Gällande förklarbarheten framträdde flera fördelar med SHAP, däribland möjligheten att kunna producera både lokala och globala förklaringar. Vidare konstaterades att SHAP gör det möjligt att dra fördel av den höga prestandan som många moderna maskininlärningsmetoder uppvisar och samtidigt uppfylla dagens ökade krav på transparens.
Leoni, Cristian. « Interpretation of Dimensionality Reduction with Supervised Proxies of User-defined Labels ». Thesis, Linnéuniversitetet, Institutionen för datavetenskap och medieteknik (DM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-105622.
Texte intégralNilsson, Linus. « Explainable Artificial Intelligence for Reinforcement Learning Agents ». Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-294162.
Texte intégralEfter framgångarna inom maskininlärning de senaste årtiondet har förstärkningsinlärning blivit ett primärt forskningsämne för att lösa komplexa uppgifter och inom automation. Tillämpningarna är många, allt från att spela datorspel på en professionell nivå till robotar som samarbetar för att plocka varor i ett lager. Dock så är systemen väldigt komplexa och förståelsen kring varför en agent väljer att lösa en uppgift på ett specifikt sätt är okända för en mänsklig observatör. Detta gör att de praktiska tillämpningarna av dessa agenter är begränsade till icke-kritiska system och den information som kan användas för att lära ut nya sätt att lösa olika uppgifter är dolda. Utifrån detta så har förklarbar artificiell intelligens (XAI) blivit ett område inom forskning som fått allt mer uppmärksamhet de senaste åren. Detta för att kunna förklara maskininlärningssystem för den mänskliga användaren. I denna examensrapport föreslår vi att använda modelloberoende XAI tekniker kombinerat klustringstekniker på enkla Atarispel, vi föreslår även ett sätt att automatisera hur man kan utvärdera hur väl en förklaring förklarar beteendet hos agenterna. Detta i ett försök att upptäcka till vilken grad modelloberoende XAI tekniker kan användas för att förklara beteenden hos förstärkningsinlärningsagenter. De testade metoderna var RISE, t-SNE och Deletion. Metoderna utvärderades på flera olika agenter, tränade att spelaAtari-breakout. Resultatet visar att de kan användas för att förklara beteendet hos agenterna på en lokal nivå (en individuell bild ur ett spel), globalt beteende (över den totala spelsekvensen) samt även att metoderna kan hitta olika strategier användna av de olika agenterna där mängden träning de fått skiljer sig.
Livres sur le sujet "Explainable Artificial Intelligence (XAI)"
Kose, Utku, Nilgun Sengoz, Xi Chen et Jose Antonio Marmolejo Saucedo. Explainable Artificial Intelligence (XAI) in Healthcare. New York : CRC Press, 2024. http://dx.doi.org/10.1201/9781003426073.
Texte intégralChen, Tin-Chih Toly. Explainable Artificial Intelligence (XAI) in Manufacturing. Cham : Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-27961-4.
Texte intégralKhamparia, Aditya, Deepak Gupta, Ashish Khanna et Valentina E. Balas, dir. Biomedical Data Analysis and Processing Using Explainable (XAI) and Responsive Artificial Intelligence (RAI). Singapore : Springer Singapore, 2022. http://dx.doi.org/10.1007/978-981-19-1476-8.
Texte intégralLongo, Luca, dir. Explainable Artificial Intelligence. Cham : Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44064-9.
Texte intégralLongo, Luca, dir. Explainable Artificial Intelligence. Cham : Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44070-0.
Texte intégralLongo, Luca, dir. Explainable Artificial Intelligence. Cham : Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-44067-0.
Texte intégralKrötzsch, Markus, et Daria Stepanova, dir. Reasoning Web. Explainable Artificial Intelligence. Cham : Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-31423-1.
Texte intégralTulli, Silvia, et David W. Aha. Explainable Agency in Artificial Intelligence. Boca Raton : CRC Press, 2023. http://dx.doi.org/10.1201/9781003355281.
Texte intégralLahby, Mohamed, Utku Kose et Akash Kumar Bhoi. Explainable Artificial Intelligence for Smart Cities. Boca Raton : CRC Press, 2021. http://dx.doi.org/10.1201/9781003172772.
Texte intégralAhmed, Mohiuddin, Sheikh Rabiul Islam, Adnan Anwar, Nour Moustafa et Al-Sakib Khan Pathan, dir. Explainable Artificial Intelligence for Cyber Security. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-96630-0.
Texte intégralChapitres de livres sur le sujet "Explainable Artificial Intelligence (XAI)"
Mohaghegh, Shahab D. « Explainable Artificial Intelligence (XAI) ». Dans Artificial Intelligence for Science and Engineering Applications, 89–122. Boca Raton : CRC Press, 2024. http://dx.doi.org/10.1201/9781003369356-8.
Texte intégralHolzinger, Andreas, Randy Goebel, Ruth Fong, Taesup Moon, Klaus-Robert Müller et Wojciech Samek. « xxAI - Beyond Explainable Artificial Intelligence ». Dans xxAI - Beyond Explainable AI, 3–10. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-04083-2_1.
Texte intégralChen, Tin-Chih Toly. « Explainable Artificial Intelligence (XAI) with Applications ». Dans Explainable Ambient Intelligence (XAmI), 23–38. Cham : Springer Nature Switzerland, 2024. http://dx.doi.org/10.1007/978-3-031-54935-9_2.
Texte intégralSardar, Tanvir Habib, Sunanda Das et Bishwajeet Kumar Pandey. « Explainable AI (XAI) ». Dans Medical Data Analysis and Processing using Explainable Artificial Intelligence, 1–18. Boca Raton : CRC Press, 2023. http://dx.doi.org/10.1201/9781003257721-1.
Texte intégralChen, Tin-Chih Toly. « Explainable Artificial Intelligence (XAI) in Manufacturing ». Dans Explainable Artificial Intelligence (XAI) in Manufacturing, 1–11. Cham : Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-27961-4_1.
Texte intégralAditya Shastry, K. « Artificial Intelligence for Healthcare Applications ». Dans Explainable Artificial Intelligence (XAI) in Healthcare, 1–29. New York : CRC Press, 2024. http://dx.doi.org/10.1201/9781003426073-1.
Texte intégralLampathaki, Fenareti, Enrica Bosani, Evmorfia Biliri, Erifili Ichtiaroglou, Andreas Louca, Dimitris Syrrafos, Mattia Calabresi, Michele Sesana, Veronica Antonello et Andrea Capaccioli. « XAI for Product Demand Planning : Models, Experiences, and Lessons Learnt ». Dans Artificial Intelligence in Manufacturing, 437–58. Cham : Springer Nature Switzerland, 2024. http://dx.doi.org/10.1007/978-3-031-46452-2_25.
Texte intégralHelen Victoria, A., Ravi Shekhar Tiwari et Ayaan Khadir Ghulam. « Libraries for Explainable Artificial Intelligence (EXAI) ». Dans Explainable AI (XAI) for Sustainable Development, 211–32. Boca Raton : Chapman and Hall/CRC, 2024. http://dx.doi.org/10.1201/9781003457176-13.
Texte intégralKırboğa, K. K., et E. U. Küçüksille. « XAI in Biomedical Applications ». Dans Explainable Artificial Intelligence for Biomedical Applications, 79–99. New York : River Publishers, 2023. http://dx.doi.org/10.1201/9781032629353-5.
Texte intégralUysal, Ilhan, et Utku Kose. « XAI for Drug Discovery ». Dans Explainable Artificial Intelligence for Biomedical Applications, 265–88. New York : River Publishers, 2023. http://dx.doi.org/10.1201/9781032629353-13.
Texte intégralActes de conférences sur le sujet "Explainable Artificial Intelligence (XAI)"
Gunning, David. « DARPA's explainable artificial intelligence (XAI) program ». Dans IUI '19 : 24th International Conference on Intelligent User Interfaces. New York, NY, USA : ACM, 2019. http://dx.doi.org/10.1145/3301275.3308446.
Texte intégralIgnatiev, Alexey. « Towards Trustable Explainable AI ». Dans Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California : International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/726.
Texte intégralKrstić, Zvjezdana, et Mirjana Maksimović. « Significance of Explainable Artificial Intelligence (XAI) in Marketing ». Dans 29th International Scientific Conference Strategic Management and Decision Support Systems in Strategic Management. University of Novi Sad, Faculty of Economics in Subotica, 2024. http://dx.doi.org/10.46541/978-86-7233-428-9_401.
Texte intégralGerlings, Julie, Arisa Shollo et Ioanna Constantiou. « Reviewing the Need for Explainable Artificial Intelligence (xAI) ». Dans Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2021. http://dx.doi.org/10.24251/hicss.2021.156.
Texte intégralSudar, K. Muthamil, P. Nagaraj, S. Nithisaa, R. Aishwarya, M. Aakash et S. Ishwarya Lakshmi. « Alzheimer's Disease Analysis using Explainable Artificial Intelligence (XAI) ». Dans 2022 International Conference on Sustainable Computing and Data Communication Systems (ICSCDS). IEEE, 2022. http://dx.doi.org/10.1109/icscds53736.2022.9760858.
Texte intégralMeske, Christian, Babak Abedin, Iris Junglas et Fethi Rabhi. « Introduction to the Minitrack on Explainable Artificial Intelligence (XAI) ». Dans Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2021. http://dx.doi.org/10.24251/hicss.2021.153.
Texte intégralAbedin, Babak, Christian Meske, Fethi Rabhi et Mathias Klier. « Introduction to the Minitrack on Explainable Artificial Intelligence (XAI) ». Dans Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2023. http://dx.doi.org/10.24251/hicss.2023.131.
Texte intégralAbedin, Babak, Mathias Klier, Christian Meske et Fethi Rabhi. « Introduction to the Minitrack on Explainable Artificial Intelligence (XAI) ». Dans Hawaii International Conference on System Sciences. Hawaii International Conference on System Sciences, 2022. http://dx.doi.org/10.24251/hicss.2022.182.
Texte intégralP. Peixoto, Maria J., et Akramul Azim. « Explainable Artificial Intelligence (XAI) Approach for Reinforcement Learning Systems ». Dans SAC '24 : 39th ACM/SIGAPP Symposium on Applied Computing. New York, NY, USA : ACM, 2024. http://dx.doi.org/10.1145/3605098.3635992.
Texte intégralSethi, Aryan, Sahiti Dharmavaram et S. K. Somasundaram. « Explainable Artificial Intelligence (XAI) Approach to Heart Disease Prediction ». Dans 2024 3rd International Conference on Artificial Intelligence For Internet of Things (AIIoT). IEEE, 2024. http://dx.doi.org/10.1109/aiiot58432.2024.10574635.
Texte intégralRapports d'organisations sur le sujet "Explainable Artificial Intelligence (XAI)"
Core, Mark G., H. C. Lane, Michael van Lent, Dave Gomboc, Steve Solomon et Milton Rosenberg. Building Explainable Artificial Intelligence Systems. Fort Belvoir, VA : Defense Technical Information Center, janvier 2006. http://dx.doi.org/10.21236/ada459166.
Texte intégralPhillips, P. Jonathon, Carina A. Hahn, Peter C. Fontana, Amy N. Yates, Kristen Greene, David A. Broniatowski et Mark A. Przybocki. Four Principles of Explainable Artificial Intelligence. National Institute of Standards and Technology, septembre 2021. http://dx.doi.org/10.6028/nist.ir.8312.
Texte intégralWalker, Cody, Vivek Agarwal, Linyu Lin, Anna Hall, Rachael Hill, Ronald Boring PhD, Torrey Mortenson et Nancy Lybeck. Explainable Artificial Intelligence Technology for Predictive Maintenance. Office of Scientific and Technical Information (OSTI), août 2023. http://dx.doi.org/10.2172/1998555.
Texte intégral