Articles de revues sur le sujet « Algorithm explainability »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Algorithm explainability ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Nuobu, Gengpan. « Transformer model : Explainability and prospectiveness ». Applied and Computational Engineering 20, no 1 (23 octobre 2023) : 88–99. http://dx.doi.org/10.54254/2755-2721/20/20231079.
Texte intégralHwang, Hyunseung, et Steven Euijong Whang. « XClusters : Explainability-First Clustering ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 7 (26 juin 2023) : 7962–70. http://dx.doi.org/10.1609/aaai.v37i7.25963.
Texte intégralPendyala, Vishnu, et Hyungkyun Kim. « Assessing the Reliability of Machine Learning Models Applied to the Mental Health Domain Using Explainable AI ». Electronics 13, no 6 (8 mars 2024) : 1025. http://dx.doi.org/10.3390/electronics13061025.
Texte intégralLoreti, Daniela, et Giorgio Visani. « Parallel approaches for a decision tree-based explainability algorithm ». Future Generation Computer Systems 158 (septembre 2024) : 308–22. http://dx.doi.org/10.1016/j.future.2024.04.044.
Texte intégralWang, Zhenzhong, Qingyuan Zeng, Wanyu Lin, Min Jiang et Kay Chen Tan. « Generating Diagnostic and Actionable Explanations for Fair Graph Neural Networks ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 19 (24 mars 2024) : 21690–98. http://dx.doi.org/10.1609/aaai.v38i19.30168.
Texte intégralYiğit, Tuncay, Nilgün Şengöz, Özlem Özmen, Jude Hemanth et Ali Hakan Işık. « Diagnosis of Paratuberculosis in Histopathological Images Based on Explainable Artificial Intelligence and Deep Learning ». Traitement du Signal 39, no 3 (30 juin 2022) : 863–69. http://dx.doi.org/10.18280/ts.390311.
Texte intégralPowell, Alison B. « Explanations as governance ? Investigating practices of explanation in algorithmic system design ». European Journal of Communication 36, no 4 (août 2021) : 362–75. http://dx.doi.org/10.1177/02673231211028376.
Texte intégralXie, Lijie, Zhaoming Hu, Xingjuan Cai, Wensheng Zhang et Jinjun Chen. « Explainable recommendation based on knowledge graph and multi-objective optimization ». Complex & ; Intelligent Systems 7, no 3 (6 mars 2021) : 1241–52. http://dx.doi.org/10.1007/s40747-021-00315-y.
Texte intégralKabir, Sami, Mohammad Shahadat Hossain et Karl Andersson. « An Advanced Explainable Belief Rule-Based Framework to Predict the Energy Consumption of Buildings ». Energies 17, no 8 (9 avril 2024) : 1797. http://dx.doi.org/10.3390/en17081797.
Texte intégralBulitko, Vadim, Shuwei Wang, Justin Stevens et Levi H. S. Lelis. « Portability and Explainability of Synthesized Formula-based Heuristics ». Proceedings of the International Symposium on Combinatorial Search 15, no 1 (17 juillet 2022) : 29–37. http://dx.doi.org/10.1609/socs.v15i1.21749.
Texte intégralGräßer, Felix, Hagen Malberg et Sebastian Zaunseder. « Neighborhood Optimization for Therapy Decision Support ». Current Directions in Biomedical Engineering 5, no 1 (1 septembre 2019) : 1–4. http://dx.doi.org/10.1515/cdbme-2019-0001.
Texte intégralKottinger, Justin, Shaull Almagor et Morteza Lahijanian. « Conflict-Based Search for Explainable Multi-Agent Path Finding ». Proceedings of the International Conference on Automated Planning and Scheduling 32 (13 juin 2022) : 692–700. http://dx.doi.org/10.1609/icaps.v32i1.19859.
Texte intégralMonsarrat, Paul, David Bernard, Mathieu Marty, Chiara Cecchin-Albertoni, Emmanuel Doumard, Laure Gez, Julien Aligon, Jean-Noël Vergnes, Louis Casteilla et Philippe Kemoun. « Systemic Periodontal Risk Score Using an Innovative Machine Learning Strategy : An Observational Study ». Journal of Personalized Medicine 12, no 2 (4 février 2022) : 217. http://dx.doi.org/10.3390/jpm12020217.
Texte intégralLv, Ge, et Lei Chen. « On Data-Aware Global Explainability of Graph Neural Networks ». Proceedings of the VLDB Endowment 16, no 11 (juillet 2023) : 3447–60. http://dx.doi.org/10.14778/3611479.3611538.
Texte intégralLi, Tong, Jiale Deng, Yanyan Shen, Luyu Qiu, Huang Yongxiang et Caleb Chen Cao. « Towards Fine-Grained Explainability for Heterogeneous Graph Neural Network ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 7 (26 juin 2023) : 8640–47. http://dx.doi.org/10.1609/aaai.v37i7.26040.
Texte intégralKong, Weihao, Jianping Chen et Pengfei Zhu. « Machine Learning-Based Uranium Prospectivity Mapping and Model Explainability Research ». Minerals 14, no 2 (24 janvier 2024) : 128. http://dx.doi.org/10.3390/min14020128.
Texte intégralFauvel, Kevin, Tao Lin, Véronique Masson, Élisa Fromont et Alexandre Termier. « XCM : An Explainable Convolutional Neural Network for Multivariate Time Series Classification ». Mathematics 9, no 23 (5 décembre 2021) : 3137. http://dx.doi.org/10.3390/math9233137.
Texte intégralHuang, Xuanxiang, Yacine Izza et Joao Marques-Silva. « Solving Explainability Queries with Quantification : The Case of Feature Relevancy ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 4 (26 juin 2023) : 3996–4006. http://dx.doi.org/10.1609/aaai.v37i4.25514.
Texte intégralPatel, Sagar, Sangeetha Abdu Jyothi et Nina Narodytska. « CrystalBox : Future-Based Explanations for Input-Driven Deep RL Systems ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 13 (24 mars 2024) : 14563–71. http://dx.doi.org/10.1609/aaai.v38i13.29372.
Texte intégralArous, Ines, Ljiljana Dolamic, Jie Yang, Akansha Bhardwaj, Giuseppe Cuccu et Philippe Cudré-Mauroux. « MARTA : Leveraging Human Rationales for Explainable Text Classification ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 7 (18 mai 2021) : 5868–76. http://dx.doi.org/10.1609/aaai.v35i7.16734.
Texte intégralTsiami, Lydia, et Christos Makropoulos. « Cyber—Physical Attack Detection in Water Distribution Systems with Temporal Graph Convolutional Neural Networks ». Water 13, no 9 (29 avril 2021) : 1247. http://dx.doi.org/10.3390/w13091247.
Texte intégralBotana, Iñigo López-Riobóo, Carlos Eiras-Franco et Amparo Alonso-Betanzos. « Regression Tree Based Explanation for Anomaly Detection Algorithm ». Proceedings 54, no 1 (18 août 2020) : 7. http://dx.doi.org/10.3390/proceedings2020054007.
Texte intégralGao, Jingyue, Xiting Wang, Yasha Wang et Xing Xie. « Explainable Recommendation through Attentive Multi-View Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 3622–29. http://dx.doi.org/10.1609/aaai.v33i01.33013622.
Texte intégralLv, Ting, Zhenkuan Pan, Weibo Wei, Guangyu Yang, Jintao Song, Xuqing Wang, Lu Sun, Qian Li et Xiatao Sun. « Iterative deep neural networks based on proximal gradient descent for image restoration ». PLOS ONE 17, no 11 (4 novembre 2022) : e0276373. http://dx.doi.org/10.1371/journal.pone.0276373.
Texte intégralChatterjee, Soumick, Arnab Das, Chirag Mandal, Budhaditya Mukhopadhyay, Manish Vipinraj, Aniruddh Shukla, Rajatha Nagaraja Rao, Chompunuch Sarasaen, Oliver Speck et Andreas Nürnberger. « TorchEsegeta : Framework for Interpretability and Explainability of Image-Based Deep Learning Models ». Applied Sciences 12, no 4 (10 février 2022) : 1834. http://dx.doi.org/10.3390/app12041834.
Texte intégralBanditwattanawong, Thepparit, et Masawee Masdisornchote. « On Characterization of Norm-Referenced Achievement Grading Schemes toward Explainability and Selectability ». Applied Computational Intelligence and Soft Computing 2021 (18 février 2021) : 1–14. http://dx.doi.org/10.1155/2021/8899649.
Texte intégralRudzite, Liva. « Algorithmic Explainability and the Sufficient-Disclosure Requirement under the European Patent Convention ». Juridica International 31 (25 octobre 2022) : 125–35. http://dx.doi.org/10.12697/ji.2022.31.09.
Texte intégralLizzi, Francesca, Camilla Scapicchio, Francesco Laruina, Alessandra Retico et Maria Evelina Fantacci. « Convolutional Neural Networks for Breast Density Classification : Performance and Explanation Insights ». Applied Sciences 12, no 1 (24 décembre 2021) : 148. http://dx.doi.org/10.3390/app12010148.
Texte intégralFang, Xue, Lin Li et Zheng Wei. « Design of Recommendation Algorithm Based on Knowledge Graph ». Journal of Physics : Conference Series 2425, no 1 (1 février 2023) : 012025. http://dx.doi.org/10.1088/1742-6596/2425/1/012025.
Texte intégralKrishna Adithya, Venkatesh, Bryan M. Williams, Silvester Czanner, Srinivasan Kavitha, David S. Friedman, Colin E. Willoughby, Rengaraj Venkatesh et Gabriela Czanner. « EffUnet-SpaGen : An Efficient and Spatial Generative Approach to Glaucoma Detection ». Journal of Imaging 7, no 6 (30 mai 2021) : 92. http://dx.doi.org/10.3390/jimaging7060092.
Texte intégralAdithyaram, N. « Early Detection of Lung Disease Using Deep Learning Algorithms on Image Data ». International Journal for Research in Applied Science and Engineering Technology 11, no 7 (31 juillet 2023) : 466–69. http://dx.doi.org/10.22214/ijraset.2023.53802.
Texte intégralSatoni Kurniawansyah, Arius. « EXPLAINABLE ARTIFICIAL INTELLIGENCE THEORY IN DECISION MAKING TREATMENT OF ARITHMIA PATIENTS WITH USING DEEP LEARNING MODELS ». Jurnal Rekayasa Sistem Informasi dan Teknologi 1, no 1 (29 août 2022) : 26–41. http://dx.doi.org/10.59407/jrsit.v1i1.75.
Texte intégralShalev, Yuval, et Irad Ben-Gal. « Context Based Predictive Information ». Entropy 21, no 7 (29 juin 2019) : 645. http://dx.doi.org/10.3390/e21070645.
Texte intégralSamaras, Agorastos-Dimitrios, Serafeim Moustakidis, Ioannis D. Apostolopoulos, Elpiniki Papageorgiou et Nikolaos Papandrianos. « Uncovering the Black Box of Coronary Artery Disease Diagnosis : The Significance of Explainability in Predictive Models ». Applied Sciences 13, no 14 (12 juillet 2023) : 8120. http://dx.doi.org/10.3390/app13148120.
Texte intégralSilva-Aravena, Fabián, Hugo Núñez Delafuente, Jimmy H. Gutiérrez-Bahamondes et Jenny Morales. « A Hybrid Algorithm of ML and XAI to Prevent Breast Cancer : A Strategy to Support Decision Making ». Cancers 15, no 9 (25 avril 2023) : 2443. http://dx.doi.org/10.3390/cancers15092443.
Texte intégralBUITEN, Miriam C. « Towards Intelligent Regulation of Artificial Intelligence ». European Journal of Risk Regulation 10, no 1 (mars 2019) : 41–59. http://dx.doi.org/10.1017/err.2019.8.
Texte intégralAgarwal, Piyush, Melih Tamer et Hector Budman. « Explainability : Relevance based dynamic deep learning algorithm for fault detection and diagnosis in chemical processes ». Computers & ; Chemical Engineering 154 (novembre 2021) : 107467. http://dx.doi.org/10.1016/j.compchemeng.2021.107467.
Texte intégralZhao, Yuying, Yu Wang et Tyler Derr. « Fairness and Explainability : Bridging the Gap towards Fair Model Explanations ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 9 (26 juin 2023) : 11363–71. http://dx.doi.org/10.1609/aaai.v37i9.26344.
Texte intégralChoi, Insu, et Woo Chang Kim. « Enhancing Exchange-Traded Fund Price Predictions : Insights from Information-Theoretic Networks and Node Embeddings ». Entropy 26, no 1 (12 janvier 2024) : 70. http://dx.doi.org/10.3390/e26010070.
Texte intégralBlomerus, Nicholas, Jacques Cilliers, Willie Nel, Erik Blasch et Pieter de Villiers. « Feedback-Assisted Automatic Target and Clutter Discrimination Using a Bayesian Convolutional Neural Network for Improved Explainability in SAR Applications ». Remote Sensing 14, no 23 (1 décembre 2022) : 6096. http://dx.doi.org/10.3390/rs14236096.
Texte intégralChin, Marshall H., Nasim Afsar-Manesh, Arlene S. Bierman, Christine Chang, Caleb J. Colón-Rodríguez, Prashila Dullabh, Deborah Guadalupe Duran et al. « Guiding Principles to Address the Impact of Algorithm Bias on Racial and Ethnic Disparities in Health and Health Care ». JAMA Network Open 6, no 12 (15 décembre 2023) : e2345050. http://dx.doi.org/10.1001/jamanetworkopen.2023.45050.
Texte intégralKlettke, Meike, Adrian Lutsch et Uta Störl. « Kurz erklärt : Measuring Data Changes in Data Engineering and their Impact on Explainability and Algorithm Fairness ». Datenbank-Spektrum 21, no 3 (27 octobre 2021) : 245–49. http://dx.doi.org/10.1007/s13222-021-00392-w.
Texte intégralChetoui, Mohamed, Moulay A. Akhloufi, Bardia Yousefi et El Mostafa Bouattane. « Explainable COVID-19 Detection on Chest X-rays Using an End-to-End Deep Convolutional Neural Network Architecture ». Big Data and Cognitive Computing 5, no 4 (7 décembre 2021) : 73. http://dx.doi.org/10.3390/bdcc5040073.
Texte intégralSchober, Sebastian A., Yosra Bahri, Cecilia Carbonelli et Robert Wille. « Neural Network Robustness Analysis Using Sensor Simulations for a Graphene-Based Semiconductor Gas Sensor ». Chemosensors 10, no 5 (21 avril 2022) : 152. http://dx.doi.org/10.3390/chemosensors10050152.
Texte intégralHÖLLER, Sonja, Thomas DILGER, Teresa SPIESS, Christian PLODER et Reinhard BERNSTEINER. « Awareness of Unethical Artificial Intelligence and its Mitigation Measures ». European Journal of Interdisciplinary Studies 15, no 2 (22 décembre 2023) : 67–89. http://dx.doi.org/10.24818/ejis.2023.17.
Texte intégralZeng, Wenhuan, et Daniel H. Huson. « Leverage the Explainability of Transformer Models to Improve the DNA 5-Methylcytosine Identification (Student Abstract) ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 21 (24 mars 2024) : 23703–4. http://dx.doi.org/10.1609/aaai.v38i21.30533.
Texte intégralMollaei, Nafiseh, Carlos Fujao, Luis Silva, Joao Rodrigues, Catia Cepeda et Hugo Gamboa. « Human-Centered Explainable Artificial Intelligence : Automotive Occupational Health Protection Profiles in Prevention Musculoskeletal Symptoms ». International Journal of Environmental Research and Public Health 19, no 15 (3 août 2022) : 9552. http://dx.doi.org/10.3390/ijerph19159552.
Texte intégralPatil, Shruti, Vijayakumar Varadarajan, Siddiqui Mohd Mazhar, Abdulwodood Sahibzada, Nihal Ahmed, Onkar Sinha, Satish Kumar, Kailash Shaw et Ketan Kotecha. « Explainable Artificial Intelligence for Intrusion Detection System ». Electronics 11, no 19 (27 septembre 2022) : 3079. http://dx.doi.org/10.3390/electronics11193079.
Texte intégralTrabassi, Dante, Mariano Serrao, Tiwana Varrecchia, Alberto Ranavolo, Gianluca Coppola, Roberto De Icco, Cristina Tassorelli et Stefano Filippo Castiglia. « Machine Learning Approach to Support the Detection of Parkinson’s Disease in IMU-Based Gait Analysis ». Sensors 22, no 10 (12 mai 2022) : 3700. http://dx.doi.org/10.3390/s22103700.
Texte intégralGutierrez-Rojas, Daniel, Ioannis T. Christou, Daniel Dantas, Arun Narayanan, Pedro H. J. Nardelli et Yongheng Yang. « Performance evaluation of machine learning for fault selection in power transmission lines ». Knowledge and Information Systems 64, no 3 (19 février 2022) : 859–83. http://dx.doi.org/10.1007/s10115-022-01657-w.
Texte intégral