Littérature scientifique sur le sujet « XAI Interpretability »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « XAI Interpretability ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "XAI Interpretability"
Lim, Suk-Young, Dong-Kyu Chae et Sang-Chul Lee. « Detecting Deepfake Voice Using Explainable Deep Learning Techniques ». Applied Sciences 12, no 8 (13 avril 2022) : 3926. http://dx.doi.org/10.3390/app12083926.
Texte intégralZerilli, John. « Explaining Machine Learning Decisions ». Philosophy of Science 89, no 1 (janvier 2022) : 1–19. http://dx.doi.org/10.1017/psa.2021.13.
Texte intégralVeitch, Erik, et Ole Andreas Alsos. « Human-Centered Explainable Artificial Intelligence for Marine Autonomous Surface Vehicles ». Journal of Marine Science and Engineering 9, no 11 (6 novembre 2021) : 1227. http://dx.doi.org/10.3390/jmse9111227.
Texte intégralDindorf, Carlo, Wolfgang Teufl, Bertram Taetz, Gabriele Bleser et Michael Fröhlich. « Interpretability of Input Representations for Gait Classification in Patients after Total Hip Arthroplasty ». Sensors 20, no 16 (6 août 2020) : 4385. http://dx.doi.org/10.3390/s20164385.
Texte intégralChaddad, Ahmad, Jihao Peng, Jian Xu et Ahmed Bouridane. « Survey of Explainable AI Techniques in Healthcare ». Sensors 23, no 2 (5 janvier 2023) : 634. http://dx.doi.org/10.3390/s23020634.
Texte intégralBaşağaoğlu, Hakan, Debaditya Chakraborty, Cesar Do Lago, Lilianna Gutierrez, Mehmet Arif Şahinli, Marcio Giacomoni, Chad Furl, Ali Mirchi, Daniel Moriasi et Sema Sevinç Şengör. « A Review on Interpretable and Explainable Artificial Intelligence in Hydroclimatic Applications ». Water 14, no 8 (11 avril 2022) : 1230. http://dx.doi.org/10.3390/w14081230.
Texte intégralAslam, Nida, Irfan Ullah Khan, Samiha Mirza, Alanoud AlOwayed, Fatima M. Anis, Reef M. Aljuaid et Reham Baageel. « Interpretable Machine Learning Models for Malicious Domains Detection Using Explainable Artificial Intelligence (XAI) ». Sustainability 14, no 12 (16 juin 2022) : 7375. http://dx.doi.org/10.3390/su14127375.
Texte intégralLuo, Ru, Jin Xing, Lifu Chen, Zhouhao Pan, Xingmin Cai, Zengqi Li, Jielan Wang et Alistair Ford. « Glassboxing Deep Learning to Enhance Aircraft Detection from SAR Imagery ». Remote Sensing 13, no 18 (13 septembre 2021) : 3650. http://dx.doi.org/10.3390/rs13183650.
Texte intégralBogdanova, Alina, et Vitaly Romanov. « Explainable source code authorship attribution algorithm ». Journal of Physics : Conference Series 2134, no 1 (1 décembre 2021) : 012011. http://dx.doi.org/10.1088/1742-6596/2134/1/012011.
Texte intégralIslam, Mir Riyanul, Mobyen Uddin Ahmed, Shaibal Barua et Shahina Begum. « A Systematic Review of Explainable Artificial Intelligence in Terms of Different Application Domains and Tasks ». Applied Sciences 12, no 3 (27 janvier 2022) : 1353. http://dx.doi.org/10.3390/app12031353.
Texte intégralThèses sur le sujet "XAI Interpretability"
SEVESO, ANDREA. « Symbolic Reasoning for Contrastive Explanations ». Doctoral thesis, Università degli Studi di Milano-Bicocca, 2023. https://hdl.handle.net/10281/404830.
Texte intégralThe need for explanations of Machine Learning (ML) systems is growing as new models outperform their predecessors while becoming more complex and less comprehensible for their end-users. An essential step in eXplainable Artificial Intelligence (XAI) research is to create interpretable models that aim at approximating the decision function of a black box algorithm. Though several XAI methods have been proposed in recent years, not enough attention was paid to explaining how models change their behaviour in contrast with other versions (e.g., due to retraining or data shifts). In such cases, an XAI system should explain why the model changes its predictions concerning past outcomes. In several practical situations, human decision-makers deal with more than one machine learning model. Consequently, the importance of understanding how two machine learning models work beyond their prediction performances is growing, to understand their behavior, their differences, and their likeness. To date, interpretable models are synthesised for explaining black boxes and their predictions and can be beneficial for formally representing and measuring the differences in the retrained model's behaviour in dealing with new and different data. Capturing and understanding such differences is crucial, as the need for trust is key in any application to support human-Artificial Intelligence (AI) decision-making processes. This is the idea of ContrXT, a novel approach that (i) traces the decision criteria of a black box classifier by encoding the changes in the decision logic through Binary Decision Diagrams. Then (ii) it provides global, model-agnostic, Model-Contrastive (M-contrast) explanations in natural language, estimating why -and to what extent- the model has modified its behaviour over time. We implemented and evaluated this approach over several supervised ML models trained on benchmark datasets and a real-life application, showing it is effective in catching majorly changed classes and in explaining their variation through a user study. The approach has been implemented, and it is available to the community both as a python package and through REST API, providing contrastive explanations as a service.
Matz, Filip, et Yuxiang Luo. « Explaining Automated Decisions in Practice : Insights from the Swedish Credit Scoring Industry ». Thesis, KTH, Skolan för industriell teknik och management (ITM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-300897.
Texte intégralUnder senare år har antalet AI implementationer stadigt ökat i flera industrier. Dessa implementationer har visat flera utmaningar kring nuvarande AI system, specifikt gällande diskriminering, otydlighet och datasäkerhet vilket lett till ett intresse för förklarbar artificiell intelligens (XAI). XAI syftar till att utveckla AI system som är rättvisa, transparenta och begripliga. Flera konceptuella ramverk har introducerats för XAI som presenterar etiska såväl som politiska perspektiv och målbilder. Dessutom har tekniska metoder utvecklats som gjort framsteg mot förklarbarhet i forskningskontext. Däremot saknas det fortfarande studier som undersöker implementationer av dessa koncept och tekniker i praktiken. Denna studie syftar till att överbrygga klyftan mellan den senaste teorin inom området och praktiken genom en fallstudie av ett företag i den svenska kreditupplysningsindustrin. Detta genom att föreslå ett ramverk för implementation av lokala förklaringar i praktiken och genom att utveckla tre förklaringsprototyper. Rapporten utvärderar även prototyperna med konsumenter på följande dimensioner: tillit, systemförståelse, användbarhet och övertalningsstyrka. Det föreslagna ramverket validerades genom fallstudien och belyste ett antal utmaningar och avvägningar som förekommer när XAI system utvecklas för användning i praktiken. Utöver detta visar utvärderingen av prototyperna att majoriteten av konsumenter föredrar regelbaserade förklaringar men indikerar även att preferenser mellan konsumenter varierar. Rekommendationer för framtida forskning är dels en längre studie, vari en XAI modell introduceras på och utvärderas av den fria marknaden, dels forskning som kombinerar olika XAI metoder för att generera mer personliga förklaringar för konsumenter.
Chapitres de livres sur le sujet "XAI Interpretability"
Dinu, Marius-Constantin, Markus Hofmarcher, Vihang P. Patil, Matthias Dorfer, Patrick M. Blies, Johannes Brandstetter, Jose A. Arjona-Medina et Sepp Hochreiter. « XAI and Strategy Extraction via Reward Redistribution ». Dans xxAI - Beyond Explainable AI, 177–205. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-04083-2_10.
Texte intégralStevens, Alexander, Johannes De Smedt et Jari Peeperkorn. « Quantifying Explainability in Outcome-Oriented Predictive Process Monitoring ». Dans Lecture Notes in Business Information Processing, 194–206. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-98581-3_15.
Texte intégralVirgolin, Marco, Andrea De Lorenzo, Eric Medvet et Francesca Randone. « Learning a Formula of Interpretability to Learn Interpretable Formulas ». Dans Parallel Problem Solving from Nature – PPSN XVI, 79–93. Cham : Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-58115-2_6.
Texte intégralSingh, Chandan, Wooseok Ha et Bin Yu. « Interpreting and Improving Deep-Learning Models with Reality Checks ». Dans xxAI - Beyond Explainable AI, 229–54. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-04083-2_12.
Texte intégralMittelstadt, Brent. « Interpretability and Transparency in Artificial Intelligence ». Dans The Oxford Handbook of Digital Ethics. Oxford University Press, 2022. http://dx.doi.org/10.1093/oxfordhb/9780198857815.013.20.
Texte intégralKavila, Selvani Deepthi, Rajesh Bandaru, Tanishk Venkat Mahesh Babu Gali et Jana Shafi. « Analysis of Cardiovascular Disease Prediction Using Model-Agnostic Explainable Artificial Intelligence Techniques ». Dans Advances in Medical Technologies and Clinical Practice, 27–54. IGI Global, 2022. http://dx.doi.org/10.4018/978-1-6684-3791-9.ch002.
Texte intégralDaglarli, Evren. « Explainable Artificial Intelligence (xAI) Approaches and Deep Meta-Learning Models for Cyber-Physical Systems ». Dans Advances in Systems Analysis, Software Engineering, and High Performance Computing, 42–67. IGI Global, 2021. http://dx.doi.org/10.4018/978-1-7998-5101-1.ch003.
Texte intégralDağlarli, Evren. « Explainable Artificial Intelligence (xAI) Approaches and Deep Meta-Learning Models ». Dans Advances and Applications in Deep Learning. IntechOpen, 2020. http://dx.doi.org/10.5772/intechopen.92172.
Texte intégralActes de conférences sur le sujet "XAI Interpretability"
Alibekov, M. R. « Diagnosis of Plant Biotic Stress by Methods of Explainable Artificial Intelligence ». Dans 32nd International Conference on Computer Graphics and Vision. Keldysh Institute of Applied Mathematics, 2022. http://dx.doi.org/10.20948/graphicon-2022-728-739.
Texte intégralDemajo, Lara Marie, Vince Vella et Alexiei Dingli. « Explainable AI for Interpretable Credit Scoring ». Dans 10th International Conference on Advances in Computing and Information Technology (ACITY 2020). AIRCC Publishing Corporation, 2020. http://dx.doi.org/10.5121/csit.2020.101516.
Texte intégralFryskowska, Anna, Michal Kedzierski, Damian Wierzbicki, Marcin Gorka et Natalia Berlinska. « Analysis of imagery interpretability of open sources radar satellite imagery ». Dans XII Conference on Reconnaissance and Electronic Warfare Systems, sous la direction de Piotr Kaniewski. SPIE, 2019. http://dx.doi.org/10.1117/12.2525013.
Texte intégralWalczykowski, Piotr, Marcin Gorka, Michal Kedzierski, Aleksandra Sekrecka et Marcin Walkowiak. « Evaluation of the interpretability of satellite imagery obtained from open sources of information ». Dans XII Conference on Reconnaissance and Electronic Warfare Systems, sous la direction de Piotr Kaniewski. SPIE, 2019. http://dx.doi.org/10.1117/12.2525019.
Texte intégral