Articles de revues sur le sujet « Interpretable methods »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Interpretable methods ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Topin, Nicholay, Stephanie Milani, Fei Fang et Manuela Veloso. « Iterative Bounding MDPs : Learning Interpretable Policies via Non-Interpretable Methods ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 11 (18 mai 2021) : 9923–31. http://dx.doi.org/10.1609/aaai.v35i11.17192.
Texte intégralKATAOKA, Makoto. « COMPUTER-INTERPRETABLE DESCRIPTION OF CONSTRUCTION METHODS ». AIJ Journal of Technology and Design 13, no 25 (2007) : 277–80. http://dx.doi.org/10.3130/aijt.13.277.
Texte intégralMurdoch, W. James, Chandan Singh, Karl Kumbier, Reza Abbasi-Asl et Bin Yu. « Definitions, methods, and applications in interpretable machine learning ». Proceedings of the National Academy of Sciences 116, no 44 (16 octobre 2019) : 22071–80. http://dx.doi.org/10.1073/pnas.1900654116.
Texte intégralAlangari, Nourah, Mohamed El Bachir Menai, Hassan Mathkour et Ibrahim Almosallam. « Exploring Evaluation Methods for Interpretable Machine Learning : A Survey ». Information 14, no 8 (21 août 2023) : 469. http://dx.doi.org/10.3390/info14080469.
Texte intégralKenesei, Tamás, et János Abonyi. « Interpretable support vector regression ». Artificial Intelligence Research 1, no 2 (9 octobre 2012) : 11. http://dx.doi.org/10.5430/air.v1n2p11.
Texte intégralYe, Zhuyifan, Wenmian Yang, Yilong Yang et Defang Ouyang. « Interpretable machine learning methods for in vitro pharmaceutical formulation development ». Food Frontiers 2, no 2 (5 mai 2021) : 195–207. http://dx.doi.org/10.1002/fft2.78.
Texte intégralMi, Jian-Xun, An-Di Li et Li-Fang Zhou. « Review Study of Interpretation Methods for Future Interpretable Machine Learning ». IEEE Access 8 (2020) : 191969–85. http://dx.doi.org/10.1109/access.2020.3032756.
Texte intégralObermann, Lennart, et Stephan Waack. « Demonstrating non-inferiority of easy interpretable methods for insolvency prediction ». Expert Systems with Applications 42, no 23 (décembre 2015) : 9117–28. http://dx.doi.org/10.1016/j.eswa.2015.08.009.
Texte intégralAssegie, Tsehay Admassu. « Evaluation of the Shapley Additive Explanation Technique for Ensemble Learning Methods ». Proceedings of Engineering and Technology Innovation 21 (22 avril 2022) : 20–26. http://dx.doi.org/10.46604/peti.2022.9025.
Texte intégralBang, Seojin, Pengtao Xie, Heewook Lee, Wei Wu et Eric Xing. « Explaining A Black-box By Using A Deep Variational Information Bottleneck Approach ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 13 (18 mai 2021) : 11396–404. http://dx.doi.org/10.1609/aaai.v35i13.17358.
Texte intégralLi, Qiaomei, Rachel Cummings et Yonatan Mintz. « Optimal Local Explainer Aggregation for Interpretable Prediction ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 11 (28 juin 2022) : 12000–12007. http://dx.doi.org/10.1609/aaai.v36i11.21458.
Texte intégralMahya, Parisa, et Johannes Fürnkranz. « An Empirical Comparison of Interpretable Models to Post-Hoc Explanations ». AI 4, no 2 (19 mai 2023) : 426–36. http://dx.doi.org/10.3390/ai4020023.
Texte intégralLee, Franklin Langlang, Jaehong Park, Sushmit Goyal, Yousef Qaroush, Shihu Wang, Hong Yoon, Aravind Rammohan et Youngseon Shim. « Comparison of Machine Learning Methods towards Developing Interpretable Polyamide Property Prediction ». Polymers 13, no 21 (23 octobre 2021) : 3653. http://dx.doi.org/10.3390/polym13213653.
Texte intégralLi, Xiao, Zachary Serlin, Guang Yang et Calin Belta. « A formal methods approach to interpretable reinforcement learning for robotic planning ». Science Robotics 4, no 37 (18 décembre 2019) : eaay6276. http://dx.doi.org/10.1126/scirobotics.aay6276.
Texte intégralSkirzyński, Julian, Frederic Becker et Falk Lieder. « Automatic discovery of interpretable planning strategies ». Machine Learning 110, no 9 (9 avril 2021) : 2641–83. http://dx.doi.org/10.1007/s10994-021-05963-2.
Texte intégralXu, Yixiao, Xiaolei Liu, Kangyi Ding et Bangzhou Xin. « IBD : An Interpretable Backdoor-Detection Method via Multivariate Interactions ». Sensors 22, no 22 (10 novembre 2022) : 8697. http://dx.doi.org/10.3390/s22228697.
Texte intégralGu, Jindong. « Interpretable Graph Capsule Networks for Object Recognition ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 2 (18 mai 2021) : 1469–77. http://dx.doi.org/10.1609/aaai.v35i2.16237.
Texte intégralHagerty, C. G., et F. A. Sonnenberg. « Computer-Interpretable Clinical Practice Guidelines ». Yearbook of Medical Informatics 15, no 01 (août 2006) : 145–58. http://dx.doi.org/10.1055/s-0038-1638486.
Texte intégralGe, Xiaoyi, Mingshu Zhang, Xu An Wang, Jia Liu et Bin Wei. « Emotion-Drive Interpretable Fake News Detection ». International Journal of Data Warehousing and Mining 18, no 1 (1 janvier 2022) : 1–17. http://dx.doi.org/10.4018/ijdwm.314585.
Texte intégralH. Merritt, Sean, et Alexander P. Christensen. « An Experimental Study of Dimension Reduction Methods on Machine Learning Algorithms with Applications to Psychometrics ». Advances in Artificial Intelligence and Machine Learning 03, no 01 (2023) : 760–77. http://dx.doi.org/10.54364/aaiml.2023.1149.
Texte intégralLuan, Tao, Guoqing Liang et Pengfei Peng. « Interpretable DeepFake Detection Based on Frequency Spatial Transformer ». International Journal of Emerging Technologies and Advanced Applications 1, no 2 (26 mars 2024) : 19–25. http://dx.doi.org/10.62677/ijetaa.2402108.
Texte intégralVerma, Abhinav. « Verifiable and Interpretable Reinforcement Learning through Program Synthesis ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 9902–3. http://dx.doi.org/10.1609/aaai.v33i01.33019902.
Texte intégralTulsani, Vijya, Prashant Sahatiya, Jignasha Parmar et Jayshree Parmar. « XAI Applications in Medical Imaging : A Survey of Methods and Challenges ». International Journal on Recent and Innovation Trends in Computing and Communication 11, no 9 (27 octobre 2023) : 181–86. http://dx.doi.org/10.17762/ijritcc.v11i9.8332.
Texte intégralHayes, Sean M. S., Jeffrey R. Sachs et Carolyn R. Cho. « From complex data to biological insight : ‘DEKER’ feature selection and network inference ». Journal of Pharmacokinetics and Pharmacodynamics 49, no 1 (17 novembre 2021) : 81–99. http://dx.doi.org/10.1007/s10928-021-09792-7.
Texte intégralKhakabimamaghani, Sahand, Yogeshwar D. Kelkar, Bruno M. Grande, Ryan D. Morin, Martin Ester et Daniel Ziemek. « SUBSTRA : Supervised Bayesian Patient Stratification ». Bioinformatics 35, no 18 (15 février 2019) : 3263–72. http://dx.doi.org/10.1093/bioinformatics/btz112.
Texte intégralSun, Lili, Xueyan Liu, Min Zhao et Bo Yang. « Interpretable Variational Graph Autoencoder with Noninformative Prior ». Future Internet 13, no 2 (18 février 2021) : 51. http://dx.doi.org/10.3390/fi13020051.
Texte intégralCansel, Neslihan, Fatma Hilal Yagin, Mustafa Akan et Bedriye Ilkay Aygul. « INTERPRETABLE ESTIMATION OF SUICIDE RISK AND SEVERITY FROM COMPLETE BLOOD COUNT PARAMETERS WITH EXPLAINABLE ARTIFICIAL INTELLIGENCE METHODS ». PSYCHIATRIA DANUBINA 35, no 1 (13 avril 2023) : 62–72. http://dx.doi.org/10.24869/psyd.2023.62.
Texte intégralShi, Liushuai, Le Wang, Chengjiang Long, Sanping Zhou, Fang Zheng, Nanning Zheng et Gang Hua. « Social Interpretable Tree for Pedestrian Trajectory Prediction ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 2 (28 juin 2022) : 2235–43. http://dx.doi.org/10.1609/aaai.v36i2.20121.
Texte intégralKrumb, Henry, Dhritimaan Das, Romol Chadda et Anirban Mukhopadhyay. « CycleGAN for interpretable online EMT compensation ». International Journal of Computer Assisted Radiology and Surgery 16, no 5 (14 mars 2021) : 757–65. http://dx.doi.org/10.1007/s11548-021-02324-1.
Texte intégralBhambhoria, Rohan, Hui Liu, Samuel Dahan et Xiaodan Zhu. « Interpretable Low-Resource Legal Decision Making ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 11 (28 juin 2022) : 11819–27. http://dx.doi.org/10.1609/aaai.v36i11.21438.
Texte intégralWhiteway, Matthew R., Dan Biderman, Yoni Friedman, Mario Dipoppa, E. Kelly Buchanan, Anqi Wu, John Zhou et al. « Partitioning variability in animal behavioral videos using semi-supervised variational autoencoders ». PLOS Computational Biology 17, no 9 (22 septembre 2021) : e1009439. http://dx.doi.org/10.1371/journal.pcbi.1009439.
Texte intégralWalter, Nils Philipp, Jonas Fischer et Jilles Vreeken. « Finding Interpretable Class-Specific Patterns through Efficient Neural Search ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 8 (24 mars 2024) : 9062–70. http://dx.doi.org/10.1609/aaai.v38i8.28756.
Texte intégralMeng, Fan. « Creating Interpretable Data-Driven Approaches for Tropical Cyclones Forecasting ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 11 (28 juin 2022) : 12892–93. http://dx.doi.org/10.1609/aaai.v36i11.21583.
Texte intégralWang, Min, Steven M. Kornblau et Kevin R. Coombes. « Decomposing the Apoptosis Pathway Into Biologically Interpretable Principal Components ». Cancer Informatics 17 (1 janvier 2018) : 117693511877108. http://dx.doi.org/10.1177/1176935118771082.
Texte intégralWeiss, S. M., et N. Indurkhya. « Rule-based Machine Learning Methods for Functional Prediction ». Journal of Artificial Intelligence Research 3 (1 décembre 1995) : 383–403. http://dx.doi.org/10.1613/jair.199.
Texte intégralFeng, Aosong, Chenyu You, Shiqiang Wang et Leandros Tassiulas. « KerGNNs : Interpretable Graph Neural Networks with Graph Kernels ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 6 (28 juin 2022) : 6614–22. http://dx.doi.org/10.1609/aaai.v36i6.20615.
Texte intégralWang, Yulong, Xiaolu Zhang, Xiaolin Hu, Bo Zhang et Hang Su. « Dynamic Network Pruning with Interpretable Layerwise Channel Selection ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 6299–306. http://dx.doi.org/10.1609/aaai.v34i04.6098.
Texte intégralHase, Peter, Chaofan Chen, Oscar Li et Cynthia Rudin. « Interpretable Image Recognition with Hierarchical Prototypes ». Proceedings of the AAAI Conference on Human Computation and Crowdsourcing 7 (28 octobre 2019) : 32–40. http://dx.doi.org/10.1609/hcomp.v7i1.5265.
Texte intégralGhanem, Souhila, Raphaël Couturier et Pablo Gregori. « An Accurate and Easy to Interpret Binary Classifier Based on Association Rules Using Implication Intensity and Majority Vote ». Mathematics 9, no 12 (8 juin 2021) : 1315. http://dx.doi.org/10.3390/math9121315.
Texte intégralEiras-Franco, Carlos, Bertha Guijarro-Berdiñas, Amparo Alonso-Betanzos et Antonio Bahamonde. « Interpretable Market Segmentation on High Dimension Data ». Proceedings 2, no 18 (17 septembre 2018) : 1171. http://dx.doi.org/10.3390/proceedings2181171.
Texte intégralPulkkinen, Pietari, et Hannu Koivisto. « Identification of interpretable and accurate fuzzy classifiers and function estimators with hybrid methods ». Applied Soft Computing 7, no 2 (mars 2007) : 520–33. http://dx.doi.org/10.1016/j.asoc.2006.11.001.
Texte intégralLiu, Yuekai, Tianyang Wang et Fulei Chu. « Hybrid machine condition monitoring based on interpretable dual tree methods using Wasserstein metrics ». Expert Systems with Applications 235 (janvier 2024) : 121104. http://dx.doi.org/10.1016/j.eswa.2023.121104.
Texte intégralMunir, Nimra, Ross McMorrow, Konrad Mulrennan, Darren Whitaker, Seán McLoone, Minna Kellomäki, Elina Talvitie, Inari Lyyra et Marion McAfee. « Interpretable Machine Learning Methods for Monitoring Polymer Degradation in Extrusion of Polylactic Acid ». Polymers 15, no 17 (28 août 2023) : 3566. http://dx.doi.org/10.3390/polym15173566.
Texte intégralQiao, Zuqiang, Shengzhi Dong, Qing Li, Xiangming Lu, Renjie Chen, Shuai Guo, Aru Yan et Wei Li. « Performance prediction models for sintered NdFeB using machine learning methods and interpretable studies ». Journal of Alloys and Compounds 963 (novembre 2023) : 171250. http://dx.doi.org/10.1016/j.jallcom.2023.171250.
Texte intégralRagazzo, Michele, Stefano Melchiorri, Laura Manzo, Valeria Errichiello, Giulio Puleri, Fabio Nicastro et Emiliano Giardina. « Comparative Analysis of ANDE 6C Rapid DNA Analysis System and Traditional Methods ». Genes 11, no 5 (22 mai 2020) : 582. http://dx.doi.org/10.3390/genes11050582.
Texte intégralWu, Bozhi, Sen Chen, Cuiyun Gao, Lingling Fan, Yang Liu, Weiping Wen et Michael R. Lyu. « Why an Android App Is Classified as Malware ». ACM Transactions on Software Engineering and Methodology 30, no 2 (mars 2021) : 1–29. http://dx.doi.org/10.1145/3423096.
Texte intégralXiang, Ziyu, Mingzhou Fan, Guillermo Vázquez Tovar, William Trehern, Byung-Jun Yoon, Xiaofeng Qian, Raymundo Arroyave et Xiaoning Qian. « Physics-constrained Automatic Feature Engineering for Predictive Modeling in Materials Science ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 12 (18 mai 2021) : 10414–21. http://dx.doi.org/10.1609/aaai.v35i12.17247.
Texte intégralAbafogi, Abdo Ababor. « Survey on Interpretable Semantic Textual Similarity, and its Applications ». International Journal of Innovative Technology and Exploring Engineering 10, no 3 (10 janvier 2021) : 14–18. http://dx.doi.org/10.35940/ijitee.b8294.0110321.
Texte intégralNan, Tianlong, Yuan Gao et Christian Kroer. « Fast and Interpretable Dynamics for Fisher Markets via Block-Coordinate Updates ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 5 (26 juin 2023) : 5832–40. http://dx.doi.org/10.1609/aaai.v37i5.25723.
Texte intégralZhao, Mingyang, Junchang Xin, Zhongyang Wang, Xinlei Wang et Zhiqiong Wang. « Interpretable Model Based on Pyramid Scene Parsing Features for Brain Tumor MRI Image Segmentation ». Computational and Mathematical Methods in Medicine 2022 (31 janvier 2022) : 1–10. http://dx.doi.org/10.1155/2022/8000781.
Texte intégral