Articles de revues sur le sujet « Interpretable ML »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Interpretable ML ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Zytek, Alexandra, Ignacio Arnaldo, Dongyu Liu, Laure Berti-Equille et Kalyan Veeramachaneni. « The Need for Interpretable Features ». ACM SIGKDD Explorations Newsletter 24, no 1 (2 juin 2022) : 1–13. http://dx.doi.org/10.1145/3544903.3544905.
Texte intégralWu, Bozhi, Sen Chen, Cuiyun Gao, Lingling Fan, Yang Liu, Weiping Wen et Michael R. Lyu. « Why an Android App Is Classified as Malware ». ACM Transactions on Software Engineering and Methodology 30, no 2 (mars 2021) : 1–29. http://dx.doi.org/10.1145/3423096.
Texte intégralYang, Ziduo, Weihe Zhong, Lu Zhao et Calvin Yu-Chian Chen. « ML-DTI : Mutual Learning Mechanism for Interpretable Drug–Target Interaction Prediction ». Journal of Physical Chemistry Letters 12, no 17 (27 avril 2021) : 4247–61. http://dx.doi.org/10.1021/acs.jpclett.1c00867.
Texte intégralLin, Zhiqing. « A Methodological Review of Machine Learning in Applied Linguistics ». English Language Teaching 14, no 1 (23 décembre 2020) : 74. http://dx.doi.org/10.5539/elt.v14n1p74.
Texte intégralAbdullah, Talal A. A., Mohd Soperi Mohd Zahid et Waleed Ali. « A Review of Interpretable ML in Healthcare : Taxonomy, Applications, Challenges, and Future Directions ». Symmetry 13, no 12 (17 décembre 2021) : 2439. http://dx.doi.org/10.3390/sym13122439.
Texte intégralSajid, Mirza Rizwan, Arshad Ali Khan, Haitham M. Albar, Noryanti Muhammad, Waqas Sami, Syed Ahmad Chan Bukhari et Iram Wajahat. « Exploration of Black Boxes of Supervised Machine Learning Models : A Demonstration on Development of Predictive Heart Risk Score ». Computational Intelligence and Neuroscience 2022 (12 mai 2022) : 1–11. http://dx.doi.org/10.1155/2022/5475313.
Texte intégralSingh, Devesh. « Interpretable Machine-Learning Approach in Estimating FDI Inflow : Visualization of ML Models with LIME and H2O ». TalTech Journal of European Studies 11, no 1 (1 mai 2021) : 133–52. http://dx.doi.org/10.2478/bjes-2021-0009.
Texte intégralCarreiro Pinasco, Gustavo, Eduardo Moreno Júdice de Mattos Farina, Fabiano Novaes Barcellos Filho, Willer França Fiorotti, Matheus Coradini Mariano Ferreira, Sheila Cristina de Souza Cruz, Andre Louzada Colodette et al. « An interpretable machine learning model for covid-19 screening ». Journal of Human Growth and Development 32, no 2 (23 juin 2022) : 268–74. http://dx.doi.org/10.36311/jhgd.v32.13324.
Texte intégralMenon, P. Archana, et Dr R. Gunasundari. « Study of Interpretability in ML Algorithms for Disease Prognosis ». Revista Gestão Inovação e Tecnologias 11, no 4 (19 août 2021) : 4735–49. http://dx.doi.org/10.47059/revistageintec.v11i4.2500.
Texte intégralDawid, Anna, Patrick Huembeli, Michał Tomza, Maciej Lewenstein et Alexandre Dauphin. « Hessian-based toolbox for reliable and interpretable machine learning in physics ». Machine Learning : Science and Technology 3, no 1 (24 novembre 2021) : 015002. http://dx.doi.org/10.1088/2632-2153/ac338d.
Texte intégralBölte, Jens, Bernadette M. Jansma, Anna Zilverstand et Pienie Zwitserlood. « Derivational morphology approached with event-related potentials ». Mental Lexicon 4, no 3 (15 décembre 2009) : 336–53. http://dx.doi.org/10.1075/ml.4.3.02bol.
Texte intégralRajczakowska, Magdalena, Maciej Szeląg, Karin Habermehl-Cwirzen, Hans Hedlund et Andrzej Cwirzen. « Interpretable Machine Learning for Prediction of Post-Fire Self-Healing of Concrete ». Materials 16, no 3 (2 février 2023) : 1273. http://dx.doi.org/10.3390/ma16031273.
Texte intégralBohanec, Marko, Marko Robnik-Šikonja et Mirjana Kljajić Borštnar. « Decision-making framework with double-loop learning through interpretable black-box machine learning models ». Industrial Management & ; Data Systems 117, no 7 (14 août 2017) : 1389–406. http://dx.doi.org/10.1108/imds-09-2016-0409.
Texte intégralKim, Eui-Jin. « Analysis of Travel Mode Choice in Seoul Using an Interpretable Machine Learning Approach ». Journal of Advanced Transportation 2021 (1 mars 2021) : 1–13. http://dx.doi.org/10.1155/2021/6685004.
Texte intégralZafar, Muhammad Rehman, et Naimul Khan. « Deterministic Local Interpretable Model-Agnostic Explanations for Stable Explainability ». Machine Learning and Knowledge Extraction 3, no 3 (30 juin 2021) : 525–41. http://dx.doi.org/10.3390/make3030027.
Texte intégralNtampaka, Michelle, et Alexey Vikhlinin. « The Importance of Being Interpretable : Toward an Understandable Machine Learning Encoder for Galaxy Cluster Cosmology ». Astrophysical Journal 926, no 1 (1 février 2022) : 45. http://dx.doi.org/10.3847/1538-4357/ac423e.
Texte intégralLiu, Fang, Xiaodi Wang, Ting Li, Mingzeng Huang, Tao Hu, Yunfeng Wen et Yunche Su. « An Automated and Interpretable Machine Learning Scheme for Power System Transient Stability Assessment ». Energies 16, no 4 (16 février 2023) : 1956. http://dx.doi.org/10.3390/en16041956.
Texte intégralBarbosa, Poliana Goncalves, et Elena Nicoladis. « Deverbal compound comprehension in preschool children ». Mental Lexicon 11, no 1 (7 juin 2016) : 94–114. http://dx.doi.org/10.1075/ml.11.1.05bar.
Texte intégralHicks, Steven, Debesh Jha, Vajira Thambawita, Pål Halvorsen, Bjørn-Jostein Singstad, Sachin Gaur, Klas Pettersen et al. « MedAI : Transparency in Medical Image Segmentation ». Nordic Machine Intelligence 1, no 1 (1 novembre 2021) : 1–4. http://dx.doi.org/10.5617/nmi.9140.
Texte intégralLee, Dongwoo, John Mulrow, Chana Joanne Haboucha, Sybil Derrible et Yoram Shiftan. « Attitudes on Autonomous Vehicle Adoption using Interpretable Gradient Boosting Machine ». Transportation Research Record : Journal of the Transportation Research Board 2673, no 11 (23 juin 2019) : 865–78. http://dx.doi.org/10.1177/0361198119857953.
Texte intégralShrotri, Aditya A., Nina Narodytska, Alexey Ignatiev, Kuldeep S. Meel, Joao Marques-Silva et Moshe Y. Vardi. « Constraint-Driven Explanations for Black-Box ML Models ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 8 (28 juin 2022) : 8304–14. http://dx.doi.org/10.1609/aaai.v36i8.20805.
Texte intégralLuo, Yi, Huan-Hsin Tseng, Sunan Cui, Lise Wei, Randall K. Ten Haken et Issam El Naqa. « Balancing accuracy and interpretability of machine learning approaches for radiation treatment outcomes modeling ». BJR|Open 1, no 1 (juillet 2019) : 20190021. http://dx.doi.org/10.1259/bjro.20190021.
Texte intégralSchnur, Christopher, Payman Goodarzi, Yevgeniya Lugovtsova, Jannis Bulling, Jens Prager, Kilian Tschöke, Jochen Moll, Andreas Schütze et Tizian Schneider. « Towards Interpretable Machine Learning for Automated Damage Detection Based on Ultrasonic Guided Waves ». Sensors 22, no 1 (5 janvier 2022) : 406. http://dx.doi.org/10.3390/s22010406.
Texte intégralEder, Matthias, Emanuel Moser, Andreas Holzinger, Claire Jean-Quartier et Fleur Jeanquartier. « Interpretable Machine Learning with Brain Image and Survival Data ». BioMedInformatics 2, no 3 (6 septembre 2022) : 492–510. http://dx.doi.org/10.3390/biomedinformatics2030031.
Texte intégralGadzinski, Gregory, et Alessio Castello. « Combining white box models, black box machines and human interventions for interpretable decision strategies ». Judgment and Decision Making 17, no 3 (mai 2022) : 598–627. http://dx.doi.org/10.1017/s1930297500003594.
Texte intégralCakiroglu, Celal, Kamrul Islam, Gebrail Bekdaş, Sanghun Kim et Zong Woo Geem. « Interpretable Machine Learning Algorithms to Predict the Axial Capacity of FRP-Reinforced Concrete Columns ». Materials 15, no 8 (8 avril 2022) : 2742. http://dx.doi.org/10.3390/ma15082742.
Texte intégralPark, Jurn-Gyu, Nikil Dutt et Sung-Soo Lim. « An Interpretable Machine Learning Model Enhanced Integrated CPU-GPU DVFS Governor ». ACM Transactions on Embedded Computing Systems 20, no 6 (30 novembre 2021) : 1–28. http://dx.doi.org/10.1145/3470974.
Texte intégralLi, Fa, Qing Zhu, William J. Riley, Lei Zhao, Li Xu, Kunxiaojia Yuan, Min Chen et al. « AttentionFire_v1.0 : interpretable machine learning fire model for burned-area predictions over tropics ». Geoscientific Model Development 16, no 3 (3 février 2023) : 869–84. http://dx.doi.org/10.5194/gmd-16-869-2023.
Texte intégralChaibi, Mohamed, EL Mahjoub Benghoulam, Lhoussaine Tarik, Mohamed Berrada et Abdellah El Hmaidi. « An Interpretable Machine Learning Model for Daily Global Solar Radiation Prediction ». Energies 14, no 21 (5 novembre 2021) : 7367. http://dx.doi.org/10.3390/en14217367.
Texte intégralAslam, Nida, Irfan Ullah Khan, Samiha Mirza, Alanoud AlOwayed, Fatima M. Anis, Reef M. Aljuaid et Reham Baageel. « Interpretable Machine Learning Models for Malicious Domains Detection Using Explainable Artificial Intelligence (XAI) ». Sustainability 14, no 12 (16 juin 2022) : 7375. http://dx.doi.org/10.3390/su14127375.
Texte intégralThekke Kanapram, Divya, Lucio Marcenaro, David Martin Gomez et Carlo Regazzoni. « Graph-Powered Interpretable Machine Learning Models for Abnormality Detection in Ego-Things Network ». Sensors 22, no 6 (15 mars 2022) : 2260. http://dx.doi.org/10.3390/s22062260.
Texte intégralHu, Hao, Marie-José Huguet et Mohamed Siala. « Optimizing Binary Decision Diagrams with MaxSAT for Classification ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 4 (28 juin 2022) : 3767–75. http://dx.doi.org/10.1609/aaai.v36i4.20291.
Texte intégralKhanna, Varada Vivek, Krishnaraj Chadaga, Niranajana Sampathila, Srikanth Prabhu, Venkatesh Bhandage et Govardhan K. Hegde. « A Distinctive Explainable Machine Learning Framework for Detection of Polycystic Ovary Syndrome ». Applied System Innovation 6, no 2 (23 février 2023) : 32. http://dx.doi.org/10.3390/asi6020032.
Texte intégralCombs, Kara, Mary Fendley et Trevor Bihl. « A Preliminary Look at Heuristic Analysis for Assessing Artificial Intelligence Explainability ». WSEAS TRANSACTIONS ON COMPUTER RESEARCH 8 (1 juin 2020) : 61–72. http://dx.doi.org/10.37394/232018.2020.8.9.
Texte intégralLakkad, Aditya Kamleshbhai, Rushit Dharmendrabhai Bhadaniya, Vraj Nareshkumar Shah et Lavanya K. « Complex Events Processing on Live News Events Using Apache Kafka and Clustering Techniques ». International Journal of Intelligent Information Technologies 17, no 1 (janvier 2021) : 39–52. http://dx.doi.org/10.4018/ijiit.2021010103.
Texte intégralNavidi, Zeinab, Jesse Sun, Raymond H. Chan, Kate Hanneman, Amna Al-Arnawoot, Alif Munim, Harry Rakowski et al. « Interpretable machine learning for automated left ventricular scar quantification in hypertrophic cardiomyopathy patients ». PLOS Digital Health 2, no 1 (4 janvier 2023) : e0000159. http://dx.doi.org/10.1371/journal.pdig.0000159.
Texte intégralIzza, Yacine, Alexey Ignatiev et Joao Marques-Silva. « On Tackling Explanation Redundancy in Decision Trees ». Journal of Artificial Intelligence Research 75 (29 septembre 2022) : 261–321. http://dx.doi.org/10.1613/jair.1.13575.
Texte intégralMcGovern, Amy, Ryan Lagerquist, David John Gagne, G. Eli Jergensen, Kimberly L. Elmore, Cameron R. Homeyer et Travis Smith. « Making the Black Box More Transparent : Understanding the Physical Implications of Machine Learning ». Bulletin of the American Meteorological Society 100, no 11 (novembre 2019) : 2175–99. http://dx.doi.org/10.1175/bams-d-18-0195.1.
Texte intégralGuo, Ganggui, Shanshan Li, Yakun Liu, Ze Cao et Yangyu Deng. « Prediction of Cavity Length Using an Interpretable Ensemble Learning Approach ». International Journal of Environmental Research and Public Health 20, no 1 (30 décembre 2022) : 702. http://dx.doi.org/10.3390/ijerph20010702.
Texte intégralJaafreh, Russlan, Jung-Gu Kim et Kotiba Hamad. « Interpretable Machine Learning Analysis of Stress Concentration in Magnesium : An Insight beyond the Black Box of Predictive Modeling ». Crystals 12, no 9 (2 septembre 2022) : 1247. http://dx.doi.org/10.3390/cryst12091247.
Texte intégralBertsimas, Dimitris, Daisy Zhuo, Jack Dunn, Jordan Levine, Eugenio Zuccarelli, Nikos Smyrnakis, Zdzislaw Tobota, Bohdan Maruszewski, Jose Fragata et George E. Sarris. « Adverse Outcomes Prediction for Congenital Heart Surgery : A Machine Learning Approach ». World Journal for Pediatric and Congenital Heart Surgery 12, no 4 (28 avril 2021) : 453–60. http://dx.doi.org/10.1177/21501351211007106.
Texte intégralWöber, Wilfried, Manuel Curto, Papius Tibihika, Paul Meulenbroek, Esayas Alemayehu, Lars Mehnen, Harald Meimberg et Peter Sykacek. « Identifying geographically differentiated features of Ethopian Nile tilapia (Oreochromis niloticus) morphology with machine learning ». PLOS ONE 16, no 4 (15 avril 2021) : e0249593. http://dx.doi.org/10.1371/journal.pone.0249593.
Texte intégralAlsayegh, Faisal, Moh A. Alkhamis, Fatima Ali, Sreeja Attur, Nicholas M. Fountain-Jones et Mohammad Zubaid. « Anemia or other comorbidities ? using machine learning to reveal deeper insights into the drivers of acute coronary syndromes in hospital admitted patients ». PLOS ONE 17, no 1 (24 janvier 2022) : e0262997. http://dx.doi.org/10.1371/journal.pone.0262997.
Texte intégralWongvibulsin, Shannon, Katherine C. Wu et Scott L. Zeger. « Improving Clinical Translation of Machine Learning Approaches Through Clinician-Tailored Visual Displays of Black Box Algorithms : Development and Validation ». JMIR Medical Informatics 8, no 6 (9 juin 2020) : e15791. http://dx.doi.org/10.2196/15791.
Texte intégralKhadem, Heydar, Hoda Nemat, Jackie Elliott et Mohammed Benaissa. « Interpretable Machine Learning for Inpatient COVID-19 Mortality Risk Assessments : Diabetes Mellitus Exclusive Interplay ». Sensors 22, no 22 (12 novembre 2022) : 8757. http://dx.doi.org/10.3390/s22228757.
Texte intégralEstivill-Castro, Vladimir, Eugene Gilmore et René Hexel. « Constructing Explainable Classifiers from the Start—Enabling Human-in-the Loop Machine Learning ». Information 13, no 10 (29 septembre 2022) : 464. http://dx.doi.org/10.3390/info13100464.
Texte intégralDaly, Elizabeth M., Massimiliano Mattetti, Öznur Alkan et Rahul Nair. « User Driven Model Adjustment via Boolean Rule Explanations ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 7 (18 mai 2021) : 5896–904. http://dx.doi.org/10.1609/aaai.v35i7.16737.
Texte intégralBermejo, Pablo, Alicia Vivo, Pedro J. Tárraga et J. A. Rodríguez-Montes. « Development of Interpretable Predictive Models for BPH and Prostate Cancer ». Clinical Medicine Insights : Oncology 9 (janvier 2015) : CMO.S19739. http://dx.doi.org/10.4137/cmo.s19739.
Texte intégralDe Cannière, Hélène, Federico Corradi, Christophe J. P. Smeets, Melanie Schoutteten, Carolina Varon, Chris Van Hoof, Sabine Van Huffel, Willemijn Groenendaal et Pieter Vandervoort. « Wearable Monitoring and Interpretable Machine Learning Can Objectively Track Progression in Patients during Cardiac Rehabilitation ». Sensors 20, no 12 (26 juin 2020) : 3601. http://dx.doi.org/10.3390/s20123601.
Texte intégralDimitriadis, Ilias, Konstantinos Georgiou et Athena Vakali. « Social Botomics : A Systematic Ensemble ML Approach for Explainable and Multi-Class Bot Detection ». Applied Sciences 11, no 21 (21 octobre 2021) : 9857. http://dx.doi.org/10.3390/app11219857.
Texte intégral