Littérature scientifique sur le sujet « Black-Box Classifier »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Black-Box Classifier ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "Black-Box Classifier"
Lee, Hansoo, et Sungshin Kim. « Black-Box Classifier Interpretation Using Decision Tree and Fuzzy Logic-Based Classifier Implementation ». International Journal of Fuzzy Logic and Intelligent Systems 16, no 1 (31 mars 2016) : 27–35. http://dx.doi.org/10.5391/ijfis.2016.16.1.27.
Texte intégralRajabi, Arezoo, Mahdieh Abbasi, Rakesh B. Bobba et Kimia Tajik. « Adversarial Images Against Super-Resolution Convolutional Neural Networks for Free ». Proceedings on Privacy Enhancing Technologies 2022, no 3 (juillet 2022) : 120–39. http://dx.doi.org/10.56553/popets-2022-0065.
Texte intégralJi, Disi, Robert L. Logan, Padhraic Smyth et Mark Steyvers. « Active Bayesian Assessment of Black-Box Classifiers ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 9 (18 mai 2021) : 7935–44. http://dx.doi.org/10.1609/aaai.v35i9.16968.
Texte intégralTran, Thien Q., Kazuto Fukuchi, Youhei Akimoto et Jun Sakuma. « Unsupervised Causal Binary Concepts Discovery with VAE for Black-Box Model Explanation ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 9 (28 juin 2022) : 9614–22. http://dx.doi.org/10.1609/aaai.v36i9.21195.
Texte intégralPark, Hosung, Gwonsang Ryu et Daeseon Choi. « Partial Retraining Substitute Model for Query-Limited Black-Box Attacks ». Applied Sciences 10, no 20 (14 octobre 2020) : 7168. http://dx.doi.org/10.3390/app10207168.
Texte intégralLou, Chenlu, et Xiang Pan. « Detect Black Box Signals with Enhanced Spectrum and Support Vector Classifier ». Journal of Physics : Conference Series 1438 (janvier 2020) : 012003. http://dx.doi.org/10.1088/1742-6596/1438/1/012003.
Texte intégralChen, Pengpeng, Hailong Sun, Yongqiang Yang et Zhijun Chen. « Adversarial Learning from Crowds ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 5 (28 juin 2022) : 5304–12. http://dx.doi.org/10.1609/aaai.v36i5.20467.
Texte intégralMahmood, Kaleel, Deniz Gurevin, Marten van Dijk et Phuoung Ha Nguyen. « Beware the Black-Box : On the Robustness of Recent Defenses to Adversarial Examples ». Entropy 23, no 10 (18 octobre 2021) : 1359. http://dx.doi.org/10.3390/e23101359.
Texte intégralHartono, Pitoyo. « A transparent cancer classifier ». Health Informatics Journal 26, no 1 (31 décembre 2018) : 190–204. http://dx.doi.org/10.1177/1460458218817800.
Texte intégralMasuda, Haruki, Tsunato Nakai, Kota Yoshida, Takaya Kubota, Mitsuru Shiozaki et Takeshi Fujino. « Black-Box Adversarial Attack against Deep Neural Network Classifier Utilizing Quantized Probability Output ». Journal of Signal Processing 24, no 4 (15 juillet 2020) : 145–48. http://dx.doi.org/10.2299/jsp.24.145.
Texte intégralThèses sur le sujet "Black-Box Classifier"
Mena, Roldán José. « Modelling Uncertainty in Black-box Classification Systems ». Doctoral thesis, Universitat de Barcelona, 2020. http://hdl.handle.net/10803/670763.
Texte intégralLa tesis propone un método para el cálculo de la incertidumbre asociada a las predicciones de APIs o librerías externas de sistemas de clasificación.
Olofsson, Nina. « A Machine Learning Ensemble Approach to Churn Prediction : Developing and Comparing Local Explanation Models on Top of a Black-Box Classifier ». Thesis, KTH, Skolan för datavetenskap och kommunikation (CSC), 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-210565.
Texte intégralMetoder för att prediktera utträde är vanliga inom Customer Relationship Management och har visat sig vara värdefulla när det kommer till att behålla kunder. För att kunna prediktera utträde med så hög säkerhet som möjligt har den senasteforskningen fokuserat på alltmer komplexa maskininlärningsmodeller, såsom ensembler och hybridmodeller. En konsekvens av att ha alltmer komplexa modellerär dock att det blir svårare och svårare att förstå hur en viss modell har kommitfram till ett visst beslut. Tidigare studier inom maskininlärningsinterpretering har haft ett globalt perspektiv för att förklara svårförståeliga modeller. Denna studieutforskar lokala förklaringsmodeller för att förklara individuella beslut av en ensemblemodell känd som 'Random Forest'. Prediktionen av utträde studeras påanvändarna av Tink – en finansapp. Syftet med denna studie är att ta lokala förklaringsmodeller ett steg längre genomatt göra jämförelser av indikatorer för utträde mellan olika användargrupper. Totalt undersöktes tre par av grupper som påvisade skillnader i tre olika variabler. Sedan användes lokala förklaringsmodeller till att beräkna hur viktiga alla globaltfunna indikatorer för utträde var för respektive grupp. Resultaten visade att detinte fanns några signifikanta skillnader mellan grupperna gällande huvudindikatorerna för utträde. Istället visade resultaten skillnader i mindre viktiga indikatorer som hade att göra med den typ av information som lagras av användarna i appen. Förutom att undersöka skillnader i indikatorer för utträde resulterade dennastudie i en välfungerande modell för att prediktera utträde med förmågan attförklara individuella beslut. Random Forest-modellen visade sig vara signifikantbättre än ett antal enklare modeller, med ett AUC-värde på 0.93.
Neves, Maria Inês Lourenço das. « Opening the black-box of artificial intelligence predictions on clinical decision support systems ». Master's thesis, 2021. http://hdl.handle.net/10362/126699.
Texte intégralAs doenças cardiovasculares são, a nível mundial, a principal causa de morte e o seu tratamento e prevenção baseiam-se na interpretação do electrocardiograma. A interpretação do electrocardiograma, feita por médicos, é intrinsecamente subjectiva e, portanto, sujeita a erros. De modo a apoiar a decisão dos médicos, a inteligência artificial está a ser usada para desenvolver modelos com a capacidade de interpretar extensos conjuntos de dados e fornecer decisões precisas. No entanto, a falta de interpretabilidade da maioria dos modelos de aprendizagem automática é uma das desvantagens do recurso à mesma, principalmente em contexto clínico. Adicionalmente, a maioria dos métodos inteligência artifical explicável assumem independência entre amostras, o que implica a assunção de independência temporal ao lidar com séries temporais. A característica inerente das séries temporais não pode ser ignorada, uma vez que apresenta importância para o processo de tomada de decisão humana. Esta dissertação baseia-se em inteligência artificial explicável para tornar inteligível a classificação de batimentos cardíacos, através da utilização de várias adaptações de métodos agnósticos do estado-da-arte. Para abordar a explicação dos classificadores de séries temporais, propõe-se uma taxonomia preliminar, e o uso da derivada como um complemento para adicionar dependência temporal entre as amostras. Os resultados foram validados para um conjunto extenso de dados públicos, por meio do índice de Jaccard em 1-D, com a comparação das subsequências extraídas de um modelo interpretável e os métodos inteligência artificial explicável utilizados, e a análise de qualidade, para avaliar se a explicação se adequa ao comportamento do modelo. De modo a avaliar modelos com lógicas internas distintas, a validação foi realizada usando, por um lado, um modelo mais transparente e, por outro, um mais opaco, tanto numa situação de classificação binária como numa situação de classificação multiclasse. Os resultados mostram o uso promissor da inclusão da derivada do sinal para introduzir dependência temporal entre as amostras nas explicações fornecidas, para modelos com lógica interna mais simples.
Chapitres de livres sur le sujet "Black-Box Classifier"
Liu, Xinghan, et Emiliano Lorini. « A Logic of “Black Box” Classifier Systems ». Dans Logic, Language, Information, and Computation, 158–74. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-15298-6_10.
Texte intégralAli, Abdullah, et Birhanu Eshete. « Best-Effort Adversarial Approximation of Black-Box Malware Classifiers ». Dans Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering, 318–38. Cham : Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-63086-7_18.
Texte intégralPanigutti, Cecilia, Riccardo Guidotti, Anna Monreale et Dino Pedreschi. « Explaining Multi-label Black-Box Classifiers for Health Applications ». Dans Precision Health and Medicine, 97–110. Cham : Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-24409-5_9.
Texte intégralJung, Hyungsik, Youngrock Oh, Jeonghyung Park et Min Soo Kim. « Jointly Optimize Positive and Negative Saliencies for Black Box Classifiers ». Dans Pattern Recognition. ICPR International Workshops and Challenges, 76–89. Cham : Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-68796-0_6.
Texte intégralLampridis, Orestis, Riccardo Guidotti et Salvatore Ruggieri. « Explaining Sentiment Classification with Synthetic Exemplars and Counter-Exemplars ». Dans Discovery Science, 357–73. Cham : Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-61527-7_24.
Texte intégralVijayaraghavan, Prashanth, et Deb Roy. « Generating Black-Box Adversarial Examples for Text Classifiers Using a Deep Reinforced Model ». Dans Machine Learning and Knowledge Discovery in Databases, 711–26. Cham : Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-46147-8_43.
Texte intégralBrandl, Julius, Nicolas Breinl, Maximilian Demmler, Lukas Hartmann, Jörg Hähner et Anthony Stein. « Reducing Search Space of Genetic Algorithms for Fast Black Box Attacks on Image Classifiers ». Dans KI 2019 : Advances in Artificial Intelligence, 115–22. Cham : Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-30179-8_9.
Texte intégralRosenberg, Ishai, Asaf Shabtai, Lior Rokach et Yuval Elovici. « Generic Black-Box End-to-End Attack Against State of the Art API Call Based Malware Classifiers ». Dans Research in Attacks, Intrusions, and Defenses, 490–510. Cham : Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-030-00470-5_23.
Texte intégralUzunova, Hristina, Jan Ehrhardt, Timo Kepp et Heinz Handels. « Abstract : Interpretable Explanations of Black Box Classifiers Applied on Medical Images by Meaningful Perturbations Using Variational Autoencoders ». Dans Informatik aktuell, 197. Wiesbaden : Springer Fachmedien Wiesbaden, 2019. http://dx.doi.org/10.1007/978-3-658-25326-4_42.
Texte intégralRabold, Johannes, Michael Siebers et Ute Schmid. « Explaining Black-Box Classifiers with ILP – Empowering LIME with Aleph to Approximate Non-linear Decisions with Relational Rules ». Dans Inductive Logic Programming, 105–17. Cham : Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-99960-9_7.
Texte intégralActes de conférences sur le sujet "Black-Box Classifier"
Alufaisan, Yasmeen, Murat Kantarcioglu et Yan Zhou. « Detecting Discrimination in a Black-Box Classifier ». Dans 2016 IEEE 2nd International Conference on Collaboration and Internet Computing (CIC). IEEE, 2016. http://dx.doi.org/10.1109/cic.2016.051.
Texte intégralGitiaux, Xavier, et Huzefa Rangwala. « mdfa : Multi-Differential Fairness Auditor for Black Box Classifiers ». Dans Twenty-Eighth International Joint Conference on Artificial Intelligence {IJCAI-19}. California : International Joint Conferences on Artificial Intelligence Organization, 2019. http://dx.doi.org/10.24963/ijcai.2019/814.
Texte intégralLam, Jonathan, Pengrui Quan, Jiamin Xu, Jeya Vikranth Jeyakumar et Mani Srivastava. « Hard-Label Black-Box Adversarial Attack on Deep Electrocardiogram Classifier ». Dans SenSys '20 : The 18th ACM Conference on Embedded Networked Sensor Systems. New York, NY, USA : ACM, 2020. http://dx.doi.org/10.1145/3417312.3431827.
Texte intégralYu, Jia ao, et Lei Peng. « Black-box Attacks on DNN Classifier Based on Fuzzy Adversarial Examples ». Dans 2020 IEEE 5th International Conference on Signal and Image Processing (ICSIP). IEEE, 2020. http://dx.doi.org/10.1109/icsip49896.2020.9339329.
Texte intégralSantos, Samara Silva, Marcos Antonio Alves, Leonardo Augusto Ferreira et Frederico Gadelha Guimarães. « PDTX : A novel local explainer based on the Perceptron Decision Tree ». Dans Congresso Brasileiro de Inteligência Computacional. SBIC, 2021. http://dx.doi.org/10.21528/cbic2021-50.
Texte intégralOliveira-Junior, Robinson A. A. de. « Credit scoring development in the light of the new Brazilian General Data Protection Law ». Dans Symposium on Knowledge Discovery, Mining and Learning. Sociedade Brasileira de Computação - SBC, 2021. http://dx.doi.org/10.5753/kdmile.2021.17462.
Texte intégralSooksatra, Korn, Pablo Rivas et Bikram Khanal. « On Adversarial Examples for Text Classification By Perturbing Latent Representations ». Dans LatinX in AI at Neural Information Processing Systems Conference 2022. Journal of LatinX in AI Research, 2022. http://dx.doi.org/10.52591/lxai202211284.
Texte intégralIwasawa, Yusuke, Kotaro Nakayama, Ikuko Yairi et Yutaka Matsuo. « Privacy Issues Regarding the Application of DNNs to Activity-Recognition using Wearables and Its Countermeasures by Use of Adversarial Training ». Dans Twenty-Sixth International Joint Conference on Artificial Intelligence. California : International Joint Conferences on Artificial Intelligence Organization, 2017. http://dx.doi.org/10.24963/ijcai.2017/268.
Texte intégralRadulovic, Nedeljko, Albert Bifet et Fabian Suchanek. « Confident Interpretations of Black Box Classifiers ». Dans 2021 International Joint Conference on Neural Networks (IJCNN). IEEE, 2021. http://dx.doi.org/10.1109/ijcnn52387.2021.9534234.
Texte intégralZhang, Yu, Kun Shao, Junan Yang et Hui Liu. « Black-Box Universal Adversarial Attack on Text Classifiers ». Dans 2021 2nd Asia Conference on Computers and Communications (ACCC). IEEE, 2021. http://dx.doi.org/10.1109/accc54619.2021.00007.
Texte intégral