Добірка наукової літератури з теми "Local-interpretable-model-agnostic"
Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями
Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Local-interpretable-model-agnostic".
Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.
Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.
Статті в журналах з теми "Local-interpretable-model-agnostic"
Zafar, Muhammad Rehman, and Naimul Khan. "Deterministic Local Interpretable Model-Agnostic Explanations for Stable Explainability." Machine Learning and Knowledge Extraction 3, no. 3 (June 30, 2021): 525–41. http://dx.doi.org/10.3390/make3030027.
Повний текст джерелаNeves, Inês, Duarte Folgado, Sara Santos, Marília Barandas, Andrea Campagner, Luca Ronzio, Federico Cabitza, and Hugo Gamboa. "Interpretable heartbeat classification using local model-agnostic explanations on ECGs." Computers in Biology and Medicine 133 (June 2021): 104393. http://dx.doi.org/10.1016/j.compbiomed.2021.104393.
Повний текст джерелаPalatnik de Sousa, Iam, Marley Maria Bernardes Rebuzzi Vellasco, and Eduardo Costa da Silva. "Local Interpretable Model-Agnostic Explanations for Classification of Lymph Node Metastases." Sensors 19, no. 13 (July 5, 2019): 2969. http://dx.doi.org/10.3390/s19132969.
Повний текст джерелаJiang, Enshuo. "UniformLIME: A Uniformly Perturbed Local Interpretable Model-Agnostic Explanations Approach for Aerodynamics." Journal of Physics: Conference Series 2171, no. 1 (January 1, 2022): 012025. http://dx.doi.org/10.1088/1742-6596/2171/1/012025.
Повний текст джерелаNguyen, Hai Thanh, Cham Ngoc Thi Nguyen, Thao Minh Nguyen Phan, and Tinh Cong Dao. "Pleural Effusion Diagnosis using Local Interpretable Model-agnostic Explanations and Convolutional Neural Network." IEIE Transactions on Smart Processing & Computing 10, no. 2 (April 30, 2021): 101–8. http://dx.doi.org/10.5573/ieiespc.2021.10.2.101.
Повний текст джерелаAdmassu, Tsehay. "Evaluation of Local Interpretable Model-Agnostic Explanation and Shapley Additive Explanation for Chronic Heart Disease Detection." Proceedings of Engineering and Technology Innovation 23 (January 1, 2023): 48–59. http://dx.doi.org/10.46604/peti.2023.10101.
Повний текст джерелаRajapaksha, Dilini, and Christoph Bergmeir. "LIMREF: Local Interpretable Model Agnostic Rule-Based Explanations for Forecasting, with an Application to Electricity Smart Meter Data." Proceedings of the AAAI Conference on Artificial Intelligence 36, no. 11 (June 28, 2022): 12098–107. http://dx.doi.org/10.1609/aaai.v36i11.21469.
Повний текст джерелаSingh, Devesh. "Interpretable Machine-Learning Approach in Estimating FDI Inflow: Visualization of ML Models with LIME and H2O." TalTech Journal of European Studies 11, no. 1 (May 1, 2021): 133–52. http://dx.doi.org/10.2478/bjes-2021-0009.
Повний текст джерелаGhoshRoy, Debasmita, Parvez Ahmad Alvi, and KC Santosh. "Explainable AI to Predict Male Fertility Using Extreme Gradient Boosting Algorithm with SMOTE." Electronics 12, no. 1 (December 21, 2022): 15. http://dx.doi.org/10.3390/electronics12010015.
Повний текст джерелаToğaçar, Mesut, Nedim Muzoğlu, Burhan Ergen, Bekir Sıddık Binboğa Yarman, and Ahmet Mesrur Halefoğlu. "Detection of COVID-19 findings by the local interpretable model-agnostic explanations method of types-based activations extracted from CNNs." Biomedical Signal Processing and Control 71 (January 2022): 103128. http://dx.doi.org/10.1016/j.bspc.2021.103128.
Повний текст джерелаДисертації з теми "Local-interpretable-model-agnostic"
Fjellström, Lisa. "The Contribution of Visual Explanations in Forensic Investigations of Deepfake Video : An Evaluation." Thesis, Umeå universitet, Institutionen för datavetenskap, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-184671.
Повний текст джерелаNorrie, Christian. "Explainable AI techniques for sepsis diagnosis : Evaluating LIME and SHAP through a user study." Thesis, Högskolan i Skövde, Institutionen för informationsteknologi, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-19845.
Повний текст джерелаMalmberg, Jacob, Öhman Marcus Nystad, and Alexandra Hotti. "Implementing Machine Learning in the Credit Process of a Learning Organization While Maintaining Transparency Using LIME." Thesis, KTH, Industriell ekonomi och organisation (Inst.), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-232579.
Повний текст джерелаFör att bedöma om en kreditlimit för ett företag ska förändras eller inte skriver ett finansiellt institut ett PM innehållande text och finansiella data. Detta PM granskas sedan av en kreditkommitté som beslutar om limiten ska förändras eller inte. För att effektivisera denna process användes i denna rapport maskininlärning istället för en kreditkommitté för att besluta om limiten ska förändras. Eftersom de flesta maskininlärningsalgoritmer är svarta lådor så användes LIME-ramverket för att hitta de viktigaste drivarna bakom klassificeringen. Denna studies resultat visar att kredit-PM kan klassificeras med hög noggrannhet och att LIME kan visa vilken del av ett PM som hade störst påverkan vid klassificeringen. Implikationerna av detta är att kreditprocessen kan förbättras av maskininlärning, utan att förlora transparens. Maskininlärning kan emellertid störa lärandeprocesser i organisationen, varför införandet av dessa algoritmer bör vägas mot hur betydelsefullt det är att bevara och utveckla kunskap inom organisationen.
Saluja, Rohit. "Interpreting Multivariate Time Series for an Organization Health Platform." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-289465.
Повний текст джерелаMaskininlärningsbaserade system blir snabbt populära eftersom man har insett att maskiner är effektivare än människor när det gäller att utföra vissa uppgifter. Även om maskininlärningsalgoritmer är extremt populära, är de också mycket bokstavliga. Detta har lett till en enorm forskningsökning inom området tolkbarhet i maskininlärning för att säkerställa att maskininlärningsmodeller är tillförlitliga, rättvisa och kan hållas ansvariga för deras beslutsprocess. Dessutom löser problemet i de flesta verkliga problem bara att göra förutsägelser med maskininlärningsalgoritmer bara delvis. Tidsserier är en av de mest populära och viktiga datatyperna på grund av dess dominerande närvaro inom affärsverksamhet, ekonomi och teknik. Trots detta är tolkningsförmågan i tidsserier fortfarande relativt outforskad jämfört med tabell-, text- och bilddata. Med den växande forskningen inom området tolkbarhet inom maskininlärning finns det också ett stort behov av att kunna kvantifiera kvaliteten på förklaringar som produceras efter tolkning av maskininlärningsmodeller. Av denna anledning är utvärdering av tolkbarhet extremt viktig. Utvärderingen av tolkbarhet för modeller som bygger på tidsserier verkar helt outforskad i forskarkretsar. Detta uppsatsarbete fokuserar på att uppnå och utvärdera agnostisk modelltolkbarhet i ett tidsserieprognosproblem. Fokus ligger i att hitta lösningen på ett problem som ett digitalt konsultföretag står inför som användningsfall. Det digitala konsultföretaget vill använda en datadriven metod för att förstå effekten av olika försäljningsrelaterade aktiviteter i företaget på de försäljningsavtal som företaget stänger. Lösningen innebar att inrama problemet som ett tidsserieprognosproblem för att förutsäga försäljningsavtalen och tolka den underliggande prognosmodellen. Tolkningsförmågan uppnåddes med hjälp av två nya tekniker för agnostisk tolkbarhet, lokala tolkbara modellagnostiska förklaringar (LIME) och Shapley additiva förklaringar (SHAP). Förklaringarna som producerats efter att ha uppnått tolkbarhet utvärderades med hjälp av mänsklig utvärdering av tolkbarhet. Resultaten av de mänskliga utvärderingsstudierna visar tydligt att de förklaringar som produceras av LIME och SHAP starkt hjälpte människor att förstå förutsägelserna från maskininlärningsmodellen. De mänskliga utvärderingsstudieresultaten visade också att LIME- och SHAP-förklaringar var nästan lika förståeliga med LIME som presterade bättre men med en mycket liten marginal. Arbetet som utförts under detta projekt kan enkelt utvidgas till alla tidsserieprognoser eller klassificeringsscenarier för att uppnå och utvärdera tolkbarhet. Dessutom kan detta arbete erbjuda en mycket bra ram för att uppnå och utvärdera tolkbarhet i alla maskininlärningsbaserade regressions- eller klassificeringsproblem.
Stanzione, Vincenzo Maria. "Developing a new approach for machine learning explainability combining local and global model-agnostic approaches." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2022. http://amslaurea.unibo.it/25480/.
Повний текст джерелаЧастини книг з теми "Local-interpretable-model-agnostic"
Davagdorj, Khishigsuren, Meijing Li, and Keun Ho Ryu. "Local Interpretable Model-Agnostic Explanations of Predictive Models for Hypertension." In Advances in Intelligent Information Hiding and Multimedia Signal Processing, 426–33. Singapore: Springer Singapore, 2021. http://dx.doi.org/10.1007/978-981-33-6757-9_53.
Повний текст джерелаThanh-Hai, Nguyen, Toan Bao Tran, An Cong Tran, and Nguyen Thai-Nghe. "Feature Selection Using Local Interpretable Model-Agnostic Explanations on Metagenomic Data." In Future Data and Security Engineering. Big Data, Security and Privacy, Smart City and Industry 4.0 Applications, 340–57. Singapore: Springer Singapore, 2020. http://dx.doi.org/10.1007/978-981-33-4370-2_24.
Повний текст джерелаElShawi, Radwa, Youssef Sherif, Mouaz Al-Mallah, and Sherif Sakr. "ILIME: Local and Global Interpretable Model-Agnostic Explainer of Black-Box Decision." In Advances in Databases and Information Systems, 53–68. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-28730-6_4.
Повний текст джерелаGraziani, Mara, Iam Palatnik de Sousa, Marley M. B. R. Vellasco, Eduardo Costa da Silva, Henning Müller, and Vincent Andrearczyk. "Sharpening Local Interpretable Model-Agnostic Explanations for Histopathology: Improved Understandability and Reliability." In Medical Image Computing and Computer Assisted Intervention – MICCAI 2021, 540–49. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-87199-4_51.
Повний текст джерелаSchlegel, Udo, Duy Lam Vo, Daniel A. Keim, and Daniel Seebacher. "TS-MULE: Local Interpretable Model-Agnostic Explanations for Time Series Forecast Models." In Communications in Computer and Information Science, 5–14. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-93736-2_1.
Повний текст джерелаRecio-García, Juan A., Belén Díaz-Agudo, and Victor Pino-Castilla. "CBR-LIME: A Case-Based Reasoning Approach to Provide Specific Local Interpretable Model-Agnostic Explanations." In Case-Based Reasoning Research and Development, 179–94. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-58342-2_12.
Повний текст джерелаBiecek, Przemyslaw, and Tomasz Burzykowski. "Local Interpretable Model-agnostic Explanations (LIME)." In Explanatory Model Analysis, 107–23. Chapman and Hall/CRC, 2021. http://dx.doi.org/10.1201/9780429027192-11.
Повний текст джерелаТези доповідей конференцій з теми "Local-interpretable-model-agnostic"
Shi, Peichang, Aryya Gangopadhyay, and Ping Yu. "LIVE: A Local Interpretable model-agnostic Visualizations and Explanations." In 2022 IEEE 10th International Conference on Healthcare Informatics (ICHI). IEEE, 2022. http://dx.doi.org/10.1109/ichi54592.2022.00045.
Повний текст джерелаBarr Kumarakulasinghe, Nesaretnam, Tobias Blomberg, Jintai Liu, Alexandra Saraiva Leao, and Panagiotis Papapetrou. "Evaluating Local Interpretable Model-Agnostic Explanations on Clinical Machine Learning Classification Models." In 2020 IEEE 33rd International Symposium on Computer-Based Medical Systems (CBMS). IEEE, 2020. http://dx.doi.org/10.1109/cbms49503.2020.00009.
Повний текст джерелаFarhood, Helia, Morteza Saberi, and Mohammad Najafi. "Improving Object Recognition in Crime Scenes via Local Interpretable Model-Agnostic Explanations." In 2021 IEEE 25th International Enterprise Distributed Object Computing Workshop (EDOCW). IEEE, 2021. http://dx.doi.org/10.1109/edocw52865.2021.00037.
Повний текст джерелаWang, Bin, Wenbin Pei, Bing Xue, and Mengjie Zhang. "Evolving local interpretable model-agnostic explanations for deep neural networks in image classification." In GECCO '21: Genetic and Evolutionary Computation Conference. New York, NY, USA: ACM, 2021. http://dx.doi.org/10.1145/3449726.3459452.
Повний текст джерелаFreitas da Cruz, Harry, Frederic Schneider, and Matthieu-P. Schapranow. "Prediction of Acute Kidney Injury in Cardiac Surgery Patients: Interpretation using Local Interpretable Model-agnostic Explanations." In 12th International Conference on Health Informatics. SCITEPRESS - Science and Technology Publications, 2019. http://dx.doi.org/10.5220/0007399203800387.
Повний текст джерелаSousa, Iam, Marley Vellasco, and Eduardo Silva. "Classificações Explicáveis para Imagens de Células Infectadas por Malária." In Encontro Nacional de Inteligência Artificial e Computacional. Sociedade Brasileira de Computação - SBC, 2020. http://dx.doi.org/10.5753/eniac.2020.12116.
Повний текст джерелаBorges, Fernando Elias Melo, Danton Diego Ferreira, and Antônio Carlos de Sousa Couto Júnior. "Classificação e Interpretação de dados do Cadastro Ambiental Rural utilizando técnicas de Aprendizagem de Máquina." In Congresso Brasileiro de Inteligência Computacional. SBIC, 2021. http://dx.doi.org/10.21528/cbic2021-108.
Повний текст джерелаProtopapadakis, Giorgois, Asteris Apostolidis, and Anestis I. Kalfas. "Explainable and Interpretable AI-Assisted Remaining Useful Life Estimation for Aeroengines." In ASME Turbo Expo 2022: Turbomachinery Technical Conference and Exposition. American Society of Mechanical Engineers, 2022. http://dx.doi.org/10.1115/gt2022-80777.
Повний текст джерелаYao, Chen, Xi Yueyun, Chen Jinwei, and Zhang Huisheng. "A Novel Gas Path Fault Diagnostic Model for Gas Turbine Based on Explainable Convolutional Neural Network With LIME Method." In ASME Turbo Expo 2021: Turbomachinery Technical Conference and Exposition. American Society of Mechanical Engineers, 2021. http://dx.doi.org/10.1115/gt2021-59289.
Повний текст джерелаAditama, Prihandono, Tina Koziol, and Dr Meindert Dillen. "Development of an Artificial Intelligence-Based Well Integrity Monitoring Solution." In ADIPEC. SPE, 2022. http://dx.doi.org/10.2118/211093-ms.
Повний текст джерела