Articles de revues sur le sujet « Neural Network Pruning »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Neural Network Pruning ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
JORGENSEN, THOMAS D., BARRY P. HAYNES et CHARLOTTE C. F. NORLUND. « PRUNING ARTIFICIAL NEURAL NETWORKS USING NEURAL COMPLEXITY MEASURES ». International Journal of Neural Systems 18, no 05 (octobre 2008) : 389–403. http://dx.doi.org/10.1142/s012906570800166x.
Texte intégralGanguli, Tushar, et Edwin K. P. Chong. « Activation-Based Pruning of Neural Networks ». Algorithms 17, no 1 (21 janvier 2024) : 48. http://dx.doi.org/10.3390/a17010048.
Texte intégralKoene, Randal A., et Yoshio Takane. « Discriminant Component Pruning : Regularization and Interpretation of Multilayered Backpropagation Networks ». Neural Computation 11, no 3 (1 avril 1999) : 783–802. http://dx.doi.org/10.1162/089976699300016665.
Texte intégralLing, Xing. « Summary of Deep Neural Network Pruning Algorithms ». Applied and Computational Engineering 8, no 1 (1 août 2023) : 352–61. http://dx.doi.org/10.54254/2755-2721/8/20230182.
Texte intégralGong, Ziyi, Huifu Zhang, Hao Yang, Fangjun Liu et Fan Luo. « A Review of Neural Network Lightweighting Techniques ». Innovation & ; Technology Advances 1, no 2 (16 janvier 2024) : 1–16. http://dx.doi.org/10.61187/ita.v1i2.36.
Texte intégralGuo, Changyi, et Ping Li. « Hybrid Pruning Method Based on Convolutional Neural Network Sensitivity and Statistical Threshold ». Journal of Physics : Conference Series 2171, no 1 (1 janvier 2022) : 012055. http://dx.doi.org/10.1088/1742-6596/2171/1/012055.
Texte intégralZou, Yunhuan. « Research On Pruning Methods for Mobilenet Convolutional Neural Network ». Highlights in Science, Engineering and Technology 81 (26 janvier 2024) : 232–36. http://dx.doi.org/10.54097/a742e326.
Texte intégralLiang, Ling, Lei Deng, Yueling Zeng, Xing Hu, Yu Ji, Xin Ma, Guoqi Li et Yuan Xie. « Crossbar-Aware Neural Network Pruning ». IEEE Access 6 (2018) : 58324–37. http://dx.doi.org/10.1109/access.2018.2874823.
Texte intégralTsai, Feng-Sheng, Yi-Li Shih, Chin-Tzong Pang et Sheng-Yi Hsu. « Formulation of Pruning Maps with Rhythmic Neural Firing ». Mathematics 7, no 12 (17 décembre 2019) : 1247. http://dx.doi.org/10.3390/math7121247.
Texte intégralWang, Miao, Xu Yang, Yunchong Qian, Yunlin Lei, Jian Cai, Ziyi Huan, Xialv Lin et Hao Dong. « Adaptive Neural Network Structure Optimization Algorithm Based on Dynamic Nodes ». Current Issues in Molecular Biology 44, no 2 (7 février 2022) : 817–32. http://dx.doi.org/10.3390/cimb44020056.
Texte intégralAo, Ren, Zhang Tao, Wang Yuhao, Lin Sheng, Dong Peiyan, Chen Yen-kuang, Xie Yuan et Wang Yanzhi. « DARB : A Density-Adaptive Regular-Block Pruning for Deep Neural Networks ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 5495–502. http://dx.doi.org/10.1609/aaai.v34i04.6000.
Texte intégralLee, Donghyeon, Eunho Lee et Youngbae Hwang. « Lossless Reconstruction of Convolutional Neural Network for Channel-Based Network Pruning ». Sensors 23, no 4 (13 février 2023) : 2102. http://dx.doi.org/10.3390/s23042102.
Texte intégralPei, Songwen, Yusheng Wu, Jin Guo et Meikang Qiu. « Neural Network Pruning by Recurrent Weights for Finance Market ». ACM Transactions on Internet Technology 22, no 3 (31 août 2022) : 1–23. http://dx.doi.org/10.1145/3433547.
Texte intégralScholl, Carolin, Michael E. Rule et Matthias H. Hennig. « The information theory of developmental pruning : Optimizing global network architectures using local synaptic rules ». PLOS Computational Biology 17, no 10 (11 octobre 2021) : e1009458. http://dx.doi.org/10.1371/journal.pcbi.1009458.
Texte intégralWu, Tao, Jiao Shi, Deyun Zhou, Xiaolong Zheng et Na Li. « Evolutionary Multi-Objective One-Shot Filter Pruning for Designing Lightweight Convolutional Neural Network ». Sensors 21, no 17 (2 septembre 2021) : 5901. http://dx.doi.org/10.3390/s21175901.
Texte intégralWang, Jielei, Zongyong Cui, Zhipeng Zang, Xiangjie Meng et Zongjie Cao. « Absorption Pruning of Deep Neural Network for Object Detection in Remote Sensing Imagery ». Remote Sensing 14, no 24 (9 décembre 2022) : 6245. http://dx.doi.org/10.3390/rs14246245.
Texte intégralXiao, Penghao, Teng Xu, Xiayang Xiao, Weisong Li et Haipeng Wang. « Distillation Sparsity Training Algorithm for Accelerating Convolutional Neural Networks in Embedded Systems ». Remote Sensing 15, no 10 (17 mai 2023) : 2609. http://dx.doi.org/10.3390/rs15102609.
Texte intégralWu, Tingting, Chunhe Song, Peng Zeng et Changqing Xia. « Cluster-Based Structural Redundancy Identification for Neural Network Compression ». Entropy 25, no 1 (21 décembre 2022) : 9. http://dx.doi.org/10.3390/e25010009.
Texte intégralDuckro, Donald E., Dennis W. Quinn et Samuel J. Gardner. « Neural Network Pruning with Tukey-Kramer Multiple Comparison Procedure ». Neural Computation 14, no 5 (1 mai 2002) : 1149–68. http://dx.doi.org/10.1162/089976602753633420.
Texte intégralQin, Tian, Jiang Zhang et Xihua Zhu. « Analysis of Pruning Optimization Technology Based on Deep Learning ». Highlights in Science, Engineering and Technology 4 (26 juillet 2022) : 332–38. http://dx.doi.org/10.54097/hset.v4i.921.
Texte intégralWang, Jiajun. « Research on pruning optimization techniques for neural networks ». Applied and Computational Engineering 19, no 1 (23 octobre 2023) : 152–58. http://dx.doi.org/10.54254/2755-2721/19/20231025.
Texte intégralWang, Shuang, et Zhaogong Zhang. « ScoringNet : A Neural Network Based Pruning Criteria for Structured Pruning ». Scientific Programming 2023 (14 avril 2023) : 1–9. http://dx.doi.org/10.1155/2023/9983781.
Texte intégralThodberg, Hans Henrik. « IMPROVING GENERALIZATION OF NEURAL NETWORKS THROUGH PRUNING ». International Journal of Neural Systems 01, no 04 (janvier 1991) : 317–26. http://dx.doi.org/10.1142/s0129065791000352.
Texte intégralLu, Sheng. « Study on pruning optimization based on HRank pruning method ». Applied and Computational Engineering 6, no 1 (14 juin 2023) : 1204–11. http://dx.doi.org/10.54254/2755-2721/6/20230600.
Texte intégralJeczmionek, Ernest, et Piotr A. Kowalski. « Flattening Layer Pruning in Convolutional Neural Networks ». Symmetry 13, no 7 (27 juin 2021) : 1147. http://dx.doi.org/10.3390/sym13071147.
Texte intégralKAMMA, Koji, Yuki ISODA, Sarimu INOUE et Toshikazu WADA. « Neural Behavior-Based Approach for Neural Network Pruning ». IEICE Transactions on Information and Systems E103.D, no 5 (1 mai 2020) : 1135–43. http://dx.doi.org/10.1587/transinf.2019edp7177.
Texte intégralCheng, Hanjing, Zidong Wang, Lifeng Ma, Xiaohui Liu et Zhihui Wei. « Multi-task Pruning via Filter Index Sharing : A Many-Objective Optimization Approach ». Cognitive Computation 13, no 4 (25 juin 2021) : 1070–84. http://dx.doi.org/10.1007/s12559-021-09894-x.
Texte intégralLiu, Yu, Yong Wang, Haojin Qi et Xiaoming Ju. « SuperPruner : Automatic Neural Network Pruning via Super Network ». Scientific Programming 2021 (13 septembre 2021) : 1–11. http://dx.doi.org/10.1155/2021/9971669.
Texte intégralGou, Longxiang, Ziyi Han et Zhimeng Yuan. « An analysis of different methods for deep neural network pruning ». Applied and Computational Engineering 52, no 1 (27 mars 2024) : 81–86. http://dx.doi.org/10.54254/2755-2721/52/20241292.
Texte intégralDing, Yunlong, et Di-Rong Chen. « Optimization Based Layer-Wise Pruning Threshold Method for Accelerating Convolutional Neural Networks ». Mathematics 11, no 15 (27 juillet 2023) : 3311. http://dx.doi.org/10.3390/math11153311.
Texte intégralTessier, Hugo, Vincent Gripon, Mathieu Léonardon, Matthieu Arzel, Thomas Hannagan et David Bertrand. « Rethinking Weight Decay for Efficient Neural Network Pruning ». Journal of Imaging 8, no 3 (4 mars 2022) : 64. http://dx.doi.org/10.3390/jimaging8030064.
Texte intégralGangopadhyay, Briti, Pallab Dasgupta et Soumyajit Dey. « Safety Aware Neural Pruning for Deep Reinforcement Learning (Student Abstract) ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 13 (26 juin 2023) : 16212–13. http://dx.doi.org/10.1609/aaai.v37i13.26966.
Texte intégralJakob Krzyston, Rajib Bhattacharjea et Andrew Stark. « Neural network compression with feedback magnitude pruning for automatic modulation classification ». ITU Journal on Future and Evolving Technologies 3, no 2 (13 juillet 2022) : 157–64. http://dx.doi.org/10.52953/eujf4214.
Texte intégralGong, Wei. « A Neural Networks Pruning and Data Fusion Based Intrusion Detection Model ». Applied Mechanics and Materials 651-653 (septembre 2014) : 1772–75. http://dx.doi.org/10.4028/www.scientific.net/amm.651-653.1772.
Texte intégralLei, Yu, Dayu Wang, Shenghui Yang, Jiao Shi, Dayong Tian et Lingtong Min. « Network Collaborative Pruning Method for Hyperspectral Image Classification Based on Evolutionary Multi-Task Optimization ». Remote Sensing 15, no 12 (13 juin 2023) : 3084. http://dx.doi.org/10.3390/rs15123084.
Texte intégralAi, Fang Ju. « An Improved Pruning Algorithm for Fuzzy Neural Network ». Applied Mechanics and Materials 411-414 (septembre 2013) : 2031–36. http://dx.doi.org/10.4028/www.scientific.net/amm.411-414.2031.
Texte intégralCamacho, Jose David, Carlos Villaseñor, Carlos Lopez-Franco et Nancy Arana-Daniel. « Neuroplasticity-Based Pruning Method for Deep Convolutional Neural Networks ». Applied Sciences 12, no 10 (13 mai 2022) : 4945. http://dx.doi.org/10.3390/app12104945.
Texte intégralGe, Yisu, Shufang Lu et Fei Gao. « Small Network for Lightweight Task in Computer Vision : A Pruning Method Based on Feature Representation ». Computational Intelligence and Neuroscience 2021 (17 avril 2021) : 1–12. http://dx.doi.org/10.1155/2021/5531023.
Texte intégralGrau, M. Mar Abad, et L. Daniel Hernandez Molinero. « Local Representation Neural Networks for Feature Selection ». Journal of Advanced Computational Intelligence and Intelligent Informatics 3, no 4 (20 août 1999) : 326–31. http://dx.doi.org/10.20965/jaciii.1999.p0326.
Texte intégralZhang, Chaoyan, Cheng Li, Baolong Guo et Nannan Liao. « Neural Network Compression via Low Frequency Preference ». Remote Sensing 15, no 12 (16 juin 2023) : 3144. http://dx.doi.org/10.3390/rs15123144.
Texte intégralBondarenko, Andrey, Arkady Borisov et Ludmila Alekseeva. « Neurons vs Weights Pruning in Artificial Neural Networks ». Environment. Technology. Resources. Proceedings of the International Scientific and Practical Conference 3 (16 juin 2015) : 22. http://dx.doi.org/10.17770/etr2015vol3.166.
Texte intégralGuo, Wenzhe, Hasan Erdem Yantır, Mohammed E. Fouda, Ahmed M. Eltawil et Khaled Nabil Salama. « Towards Efficient Neuromorphic Hardware : Unsupervised Adaptive Neuron Pruning ». Electronics 9, no 7 (27 juin 2020) : 1059. http://dx.doi.org/10.3390/electronics9071059.
Texte intégralAlshahrani, Mona, Othman Soufan, Arturo Magana-Mora et Vladimir B. Bajic. « DANNP : an efficient artificial neural network pruning tool ». PeerJ Computer Science 3 (6 novembre 2017) : e137. http://dx.doi.org/10.7717/peerj-cs.137.
Texte intégralNaeem, Saad, Noreen Jamil, Habib Ullah Khan et Shah Nazir. « Complexity of Deep Convolutional Neural Networks in Mobile Computing ». Complexity 2020 (17 septembre 2020) : 1–8. http://dx.doi.org/10.1155/2020/3853780.
Texte intégralJEARANAITANAKIJ, KIETIKUL, et OUEN PINNGERN. « SPARTAN SIMPLICITY : A PRUNING ALGORITHM FOR NEURAL NETS ». Journal of Circuits, Systems and Computers 17, no 04 (août 2008) : 569–96. http://dx.doi.org/10.1142/s0218126608004514.
Texte intégralHuang, Junhao, Weize Sun et Lei Huang. « Joint Structure and Parameter Optimization of Multiobjective Sparse Neural Network ». Neural Computation 33, no 4 (2021) : 1113–43. http://dx.doi.org/10.1162/neco_a_01368.
Texte intégralМельниченко, А. В., et К. А. Здор. « INCORPORATING ATTENTION SCORE TO IMPROVE FORESIGHT PRUNING ON TRANSFORMER MODELS ». Visnyk of Zaporizhzhya National University Physical and Mathematical Sciences, no 2 (19 décembre 2023) : 22–28. http://dx.doi.org/10.26661/2786-6254-2023-2-03.
Texte intégralAmeen, Salem, et Sunil Vadera. « Pruning Neural Networks Using Multi-Armed Bandits ». Computer Journal 63, no 7 (26 septembre 2019) : 1099–108. http://dx.doi.org/10.1093/comjnl/bxz078.
Texte intégralCai, Mingzhuo, Yihong Su, Binyu Wang et Tianyu Zhang. « Research on compression pruning methods based on deep learning ». Journal of Physics : Conference Series 2580, no 1 (1 septembre 2023) : 012060. http://dx.doi.org/10.1088/1742-6596/2580/1/012060.
Texte intégralZhong, Xudong. « Convolutional Neural Network Structure Optimization based on Network Pruning ». Highlights in Science, Engineering and Technology 24 (27 décembre 2022) : 125–30. http://dx.doi.org/10.54097/hset.v24i.3904.
Texte intégral