Literatura académica sobre el tema "Black-Box Classifier"
Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros
Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Black-Box Classifier".
Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.
También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.
Artículos de revistas sobre el tema "Black-Box Classifier"
Lee, Hansoo y Sungshin Kim. "Black-Box Classifier Interpretation Using Decision Tree and Fuzzy Logic-Based Classifier Implementation". International Journal of Fuzzy Logic and Intelligent Systems 16, n.º 1 (31 de marzo de 2016): 27–35. http://dx.doi.org/10.5391/ijfis.2016.16.1.27.
Texto completoRajabi, Arezoo, Mahdieh Abbasi, Rakesh B. Bobba y Kimia Tajik. "Adversarial Images Against Super-Resolution Convolutional Neural Networks for Free". Proceedings on Privacy Enhancing Technologies 2022, n.º 3 (julio de 2022): 120–39. http://dx.doi.org/10.56553/popets-2022-0065.
Texto completoJi, Disi, Robert L. Logan, Padhraic Smyth y Mark Steyvers. "Active Bayesian Assessment of Black-Box Classifiers". Proceedings of the AAAI Conference on Artificial Intelligence 35, n.º 9 (18 de mayo de 2021): 7935–44. http://dx.doi.org/10.1609/aaai.v35i9.16968.
Texto completoTran, Thien Q., Kazuto Fukuchi, Youhei Akimoto y Jun Sakuma. "Unsupervised Causal Binary Concepts Discovery with VAE for Black-Box Model Explanation". Proceedings of the AAAI Conference on Artificial Intelligence 36, n.º 9 (28 de junio de 2022): 9614–22. http://dx.doi.org/10.1609/aaai.v36i9.21195.
Texto completoPark, Hosung, Gwonsang Ryu y Daeseon Choi. "Partial Retraining Substitute Model for Query-Limited Black-Box Attacks". Applied Sciences 10, n.º 20 (14 de octubre de 2020): 7168. http://dx.doi.org/10.3390/app10207168.
Texto completoLou, Chenlu y Xiang Pan. "Detect Black Box Signals with Enhanced Spectrum and Support Vector Classifier". Journal of Physics: Conference Series 1438 (enero de 2020): 012003. http://dx.doi.org/10.1088/1742-6596/1438/1/012003.
Texto completoChen, Pengpeng, Hailong Sun, Yongqiang Yang y Zhijun Chen. "Adversarial Learning from Crowds". Proceedings of the AAAI Conference on Artificial Intelligence 36, n.º 5 (28 de junio de 2022): 5304–12. http://dx.doi.org/10.1609/aaai.v36i5.20467.
Texto completoMahmood, Kaleel, Deniz Gurevin, Marten van Dijk y Phuoung Ha Nguyen. "Beware the Black-Box: On the Robustness of Recent Defenses to Adversarial Examples". Entropy 23, n.º 10 (18 de octubre de 2021): 1359. http://dx.doi.org/10.3390/e23101359.
Texto completoHartono, Pitoyo. "A transparent cancer classifier". Health Informatics Journal 26, n.º 1 (31 de diciembre de 2018): 190–204. http://dx.doi.org/10.1177/1460458218817800.
Texto completoMasuda, Haruki, Tsunato Nakai, Kota Yoshida, Takaya Kubota, Mitsuru Shiozaki y Takeshi Fujino. "Black-Box Adversarial Attack against Deep Neural Network Classifier Utilizing Quantized Probability Output". Journal of Signal Processing 24, n.º 4 (15 de julio de 2020): 145–48. http://dx.doi.org/10.2299/jsp.24.145.
Texto completoTesis sobre el tema "Black-Box Classifier"
Mena, Roldán José. "Modelling Uncertainty in Black-box Classification Systems". Doctoral thesis, Universitat de Barcelona, 2020. http://hdl.handle.net/10803/670763.
Texto completoLa tesis propone un método para el cálculo de la incertidumbre asociada a las predicciones de APIs o librerías externas de sistemas de clasificación.
Olofsson, Nina. "A Machine Learning Ensemble Approach to Churn Prediction : Developing and Comparing Local Explanation Models on Top of a Black-Box Classifier". Thesis, KTH, Skolan för datavetenskap och kommunikation (CSC), 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-210565.
Texto completoMetoder för att prediktera utträde är vanliga inom Customer Relationship Management och har visat sig vara värdefulla när det kommer till att behålla kunder. För att kunna prediktera utträde med så hög säkerhet som möjligt har den senasteforskningen fokuserat på alltmer komplexa maskininlärningsmodeller, såsom ensembler och hybridmodeller. En konsekvens av att ha alltmer komplexa modellerär dock att det blir svårare och svårare att förstå hur en viss modell har kommitfram till ett visst beslut. Tidigare studier inom maskininlärningsinterpretering har haft ett globalt perspektiv för att förklara svårförståeliga modeller. Denna studieutforskar lokala förklaringsmodeller för att förklara individuella beslut av en ensemblemodell känd som 'Random Forest'. Prediktionen av utträde studeras påanvändarna av Tink – en finansapp. Syftet med denna studie är att ta lokala förklaringsmodeller ett steg längre genomatt göra jämförelser av indikatorer för utträde mellan olika användargrupper. Totalt undersöktes tre par av grupper som påvisade skillnader i tre olika variabler. Sedan användes lokala förklaringsmodeller till att beräkna hur viktiga alla globaltfunna indikatorer för utträde var för respektive grupp. Resultaten visade att detinte fanns några signifikanta skillnader mellan grupperna gällande huvudindikatorerna för utträde. Istället visade resultaten skillnader i mindre viktiga indikatorer som hade att göra med den typ av information som lagras av användarna i appen. Förutom att undersöka skillnader i indikatorer för utträde resulterade dennastudie i en välfungerande modell för att prediktera utträde med förmågan attförklara individuella beslut. Random Forest-modellen visade sig vara signifikantbättre än ett antal enklare modeller, med ett AUC-värde på 0.93.
Neves, Maria Inês Lourenço das. "Opening the black-box of artificial intelligence predictions on clinical decision support systems". Master's thesis, 2021. http://hdl.handle.net/10362/126699.
Texto completoAs doenças cardiovasculares são, a nível mundial, a principal causa de morte e o seu tratamento e prevenção baseiam-se na interpretação do electrocardiograma. A interpretação do electrocardiograma, feita por médicos, é intrinsecamente subjectiva e, portanto, sujeita a erros. De modo a apoiar a decisão dos médicos, a inteligência artificial está a ser usada para desenvolver modelos com a capacidade de interpretar extensos conjuntos de dados e fornecer decisões precisas. No entanto, a falta de interpretabilidade da maioria dos modelos de aprendizagem automática é uma das desvantagens do recurso à mesma, principalmente em contexto clínico. Adicionalmente, a maioria dos métodos inteligência artifical explicável assumem independência entre amostras, o que implica a assunção de independência temporal ao lidar com séries temporais. A característica inerente das séries temporais não pode ser ignorada, uma vez que apresenta importância para o processo de tomada de decisão humana. Esta dissertação baseia-se em inteligência artificial explicável para tornar inteligível a classificação de batimentos cardíacos, através da utilização de várias adaptações de métodos agnósticos do estado-da-arte. Para abordar a explicação dos classificadores de séries temporais, propõe-se uma taxonomia preliminar, e o uso da derivada como um complemento para adicionar dependência temporal entre as amostras. Os resultados foram validados para um conjunto extenso de dados públicos, por meio do índice de Jaccard em 1-D, com a comparação das subsequências extraídas de um modelo interpretável e os métodos inteligência artificial explicável utilizados, e a análise de qualidade, para avaliar se a explicação se adequa ao comportamento do modelo. De modo a avaliar modelos com lógicas internas distintas, a validação foi realizada usando, por um lado, um modelo mais transparente e, por outro, um mais opaco, tanto numa situação de classificação binária como numa situação de classificação multiclasse. Os resultados mostram o uso promissor da inclusão da derivada do sinal para introduzir dependência temporal entre as amostras nas explicações fornecidas, para modelos com lógica interna mais simples.
Capítulos de libros sobre el tema "Black-Box Classifier"
Liu, Xinghan y Emiliano Lorini. "A Logic of “Black Box” Classifier Systems". En Logic, Language, Information, and Computation, 158–74. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-15298-6_10.
Texto completoAli, Abdullah y Birhanu Eshete. "Best-Effort Adversarial Approximation of Black-Box Malware Classifiers". En Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, 318–38. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-63086-7_18.
Texto completoPanigutti, Cecilia, Riccardo Guidotti, Anna Monreale y Dino Pedreschi. "Explaining Multi-label Black-Box Classifiers for Health Applications". En Precision Health and Medicine, 97–110. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-24409-5_9.
Texto completoJung, Hyungsik, Youngrock Oh, Jeonghyung Park y Min Soo Kim. "Jointly Optimize Positive and Negative Saliencies for Black Box Classifiers". En Pattern Recognition. ICPR International Workshops and Challenges, 76–89. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-68796-0_6.
Texto completoLampridis, Orestis, Riccardo Guidotti y Salvatore Ruggieri. "Explaining Sentiment Classification with Synthetic Exemplars and Counter-Exemplars". En Discovery Science, 357–73. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-61527-7_24.
Texto completoVijayaraghavan, Prashanth y Deb Roy. "Generating Black-Box Adversarial Examples for Text Classifiers Using a Deep Reinforced Model". En Machine Learning and Knowledge Discovery in Databases, 711–26. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-46147-8_43.
Texto completoBrandl, Julius, Nicolas Breinl, Maximilian Demmler, Lukas Hartmann, Jörg Hähner y Anthony Stein. "Reducing Search Space of Genetic Algorithms for Fast Black Box Attacks on Image Classifiers". En KI 2019: Advances in Artificial Intelligence, 115–22. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-30179-8_9.
Texto completoRosenberg, Ishai, Asaf Shabtai, Lior Rokach y Yuval Elovici. "Generic Black-Box End-to-End Attack Against State of the Art API Call Based Malware Classifiers". En Research in Attacks, Intrusions, and Defenses, 490–510. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-030-00470-5_23.
Texto completoUzunova, Hristina, Jan Ehrhardt, Timo Kepp y Heinz Handels. "Abstract: Interpretable Explanations of Black Box Classifiers Applied on Medical Images by Meaningful Perturbations Using Variational Autoencoders". En Informatik aktuell, 197. Wiesbaden: Springer Fachmedien Wiesbaden, 2019. http://dx.doi.org/10.1007/978-3-658-25326-4_42.
Texto completoRabold, Johannes, Michael Siebers y Ute Schmid. "Explaining Black-Box Classifiers with ILP – Empowering LIME with Aleph to Approximate Non-linear Decisions with Relational Rules". En Inductive Logic Programming, 105–17. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-99960-9_7.
Texto completoActas de conferencias sobre el tema "Black-Box Classifier"
Alufaisan, Yasmeen, Murat Kantarcioglu y Yan Zhou. "Detecting Discrimination in a Black-Box Classifier". En 2016 IEEE 2nd International Conference on Collaboration and Internet Computing (CIC). IEEE, 2016. http://dx.doi.org/10.1109/cic.2016.051.
Texto completoGitiaux, Xavier y Huzefa Rangwala. "mdfa: Multi-Differential Fairness Auditor for Black Box Classifiers". En Twenty-Eighth International Joint Conference on Artificial Intelligence {IJCAI-19}. California: International Joint Conferences on Artificial Intelligence Organization, 2019. http://dx.doi.org/10.24963/ijcai.2019/814.
Texto completoLam, Jonathan, Pengrui Quan, Jiamin Xu, Jeya Vikranth Jeyakumar y Mani Srivastava. "Hard-Label Black-Box Adversarial Attack on Deep Electrocardiogram Classifier". En SenSys '20: The 18th ACM Conference on Embedded Networked Sensor Systems. New York, NY, USA: ACM, 2020. http://dx.doi.org/10.1145/3417312.3431827.
Texto completoYu, Jia ao y Lei Peng. "Black-box Attacks on DNN Classifier Based on Fuzzy Adversarial Examples". En 2020 IEEE 5th International Conference on Signal and Image Processing (ICSIP). IEEE, 2020. http://dx.doi.org/10.1109/icsip49896.2020.9339329.
Texto completoSantos, Samara Silva, Marcos Antonio Alves, Leonardo Augusto Ferreira y Frederico Gadelha Guimarães. "PDTX: A novel local explainer based on the Perceptron Decision Tree". En Congresso Brasileiro de Inteligência Computacional. SBIC, 2021. http://dx.doi.org/10.21528/cbic2021-50.
Texto completoOliveira-Junior, Robinson A. A. de. "Credit scoring development in the light of the new Brazilian General Data Protection Law". En Symposium on Knowledge Discovery, Mining and Learning. Sociedade Brasileira de Computação - SBC, 2021. http://dx.doi.org/10.5753/kdmile.2021.17462.
Texto completoSooksatra, Korn, Pablo Rivas y Bikram Khanal. "On Adversarial Examples for Text Classification By Perturbing Latent Representations". En LatinX in AI at Neural Information Processing Systems Conference 2022. Journal of LatinX in AI Research, 2022. http://dx.doi.org/10.52591/lxai202211284.
Texto completoIwasawa, Yusuke, Kotaro Nakayama, Ikuko Yairi y Yutaka Matsuo. "Privacy Issues Regarding the Application of DNNs to Activity-Recognition using Wearables and Its Countermeasures by Use of Adversarial Training". En Twenty-Sixth International Joint Conference on Artificial Intelligence. California: International Joint Conferences on Artificial Intelligence Organization, 2017. http://dx.doi.org/10.24963/ijcai.2017/268.
Texto completoRadulovic, Nedeljko, Albert Bifet y Fabian Suchanek. "Confident Interpretations of Black Box Classifiers". En 2021 International Joint Conference on Neural Networks (IJCNN). IEEE, 2021. http://dx.doi.org/10.1109/ijcnn52387.2021.9534234.
Texto completoZhang, Yu, Kun Shao, Junan Yang y Hui Liu. "Black-Box Universal Adversarial Attack on Text Classifiers". En 2021 2nd Asia Conference on Computers and Communications (ACCC). IEEE, 2021. http://dx.doi.org/10.1109/accc54619.2021.00007.
Texto completo