Zeitschriftenartikel zum Thema „Neural Network Pruning“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Neural Network Pruning" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
JORGENSEN, THOMAS D., BARRY P. HAYNES und CHARLOTTE C. F. NORLUND. „PRUNING ARTIFICIAL NEURAL NETWORKS USING NEURAL COMPLEXITY MEASURES“. International Journal of Neural Systems 18, Nr. 05 (Oktober 2008): 389–403. http://dx.doi.org/10.1142/s012906570800166x.
Der volle Inhalt der QuelleGanguli, Tushar, und Edwin K. P. Chong. „Activation-Based Pruning of Neural Networks“. Algorithms 17, Nr. 1 (21.01.2024): 48. http://dx.doi.org/10.3390/a17010048.
Der volle Inhalt der QuelleKoene, Randal A., und Yoshio Takane. „Discriminant Component Pruning: Regularization and Interpretation of Multilayered Backpropagation Networks“. Neural Computation 11, Nr. 3 (01.04.1999): 783–802. http://dx.doi.org/10.1162/089976699300016665.
Der volle Inhalt der QuelleLing, Xing. „Summary of Deep Neural Network Pruning Algorithms“. Applied and Computational Engineering 8, Nr. 1 (01.08.2023): 352–61. http://dx.doi.org/10.54254/2755-2721/8/20230182.
Der volle Inhalt der QuelleGong, Ziyi, Huifu Zhang, Hao Yang, Fangjun Liu und Fan Luo. „A Review of Neural Network Lightweighting Techniques“. Innovation & Technology Advances 1, Nr. 2 (16.01.2024): 1–16. http://dx.doi.org/10.61187/ita.v1i2.36.
Der volle Inhalt der QuelleGuo, Changyi, und Ping Li. „Hybrid Pruning Method Based on Convolutional Neural Network Sensitivity and Statistical Threshold“. Journal of Physics: Conference Series 2171, Nr. 1 (01.01.2022): 012055. http://dx.doi.org/10.1088/1742-6596/2171/1/012055.
Der volle Inhalt der QuelleZou, Yunhuan. „Research On Pruning Methods for Mobilenet Convolutional Neural Network“. Highlights in Science, Engineering and Technology 81 (26.01.2024): 232–36. http://dx.doi.org/10.54097/a742e326.
Der volle Inhalt der QuelleLiang, Ling, Lei Deng, Yueling Zeng, Xing Hu, Yu Ji, Xin Ma, Guoqi Li und Yuan Xie. „Crossbar-Aware Neural Network Pruning“. IEEE Access 6 (2018): 58324–37. http://dx.doi.org/10.1109/access.2018.2874823.
Der volle Inhalt der QuelleTsai, Feng-Sheng, Yi-Li Shih, Chin-Tzong Pang und Sheng-Yi Hsu. „Formulation of Pruning Maps with Rhythmic Neural Firing“. Mathematics 7, Nr. 12 (17.12.2019): 1247. http://dx.doi.org/10.3390/math7121247.
Der volle Inhalt der QuelleWang, Miao, Xu Yang, Yunchong Qian, Yunlin Lei, Jian Cai, Ziyi Huan, Xialv Lin und Hao Dong. „Adaptive Neural Network Structure Optimization Algorithm Based on Dynamic Nodes“. Current Issues in Molecular Biology 44, Nr. 2 (07.02.2022): 817–32. http://dx.doi.org/10.3390/cimb44020056.
Der volle Inhalt der QuelleAo, Ren, Zhang Tao, Wang Yuhao, Lin Sheng, Dong Peiyan, Chen Yen-kuang, Xie Yuan und Wang Yanzhi. „DARB: A Density-Adaptive Regular-Block Pruning for Deep Neural Networks“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 04 (03.04.2020): 5495–502. http://dx.doi.org/10.1609/aaai.v34i04.6000.
Der volle Inhalt der QuelleLee, Donghyeon, Eunho Lee und Youngbae Hwang. „Lossless Reconstruction of Convolutional Neural Network for Channel-Based Network Pruning“. Sensors 23, Nr. 4 (13.02.2023): 2102. http://dx.doi.org/10.3390/s23042102.
Der volle Inhalt der QuellePei, Songwen, Yusheng Wu, Jin Guo und Meikang Qiu. „Neural Network Pruning by Recurrent Weights for Finance Market“. ACM Transactions on Internet Technology 22, Nr. 3 (31.08.2022): 1–23. http://dx.doi.org/10.1145/3433547.
Der volle Inhalt der QuelleScholl, Carolin, Michael E. Rule und Matthias H. Hennig. „The information theory of developmental pruning: Optimizing global network architectures using local synaptic rules“. PLOS Computational Biology 17, Nr. 10 (11.10.2021): e1009458. http://dx.doi.org/10.1371/journal.pcbi.1009458.
Der volle Inhalt der QuelleWu, Tao, Jiao Shi, Deyun Zhou, Xiaolong Zheng und Na Li. „Evolutionary Multi-Objective One-Shot Filter Pruning for Designing Lightweight Convolutional Neural Network“. Sensors 21, Nr. 17 (02.09.2021): 5901. http://dx.doi.org/10.3390/s21175901.
Der volle Inhalt der QuelleWang, Jielei, Zongyong Cui, Zhipeng Zang, Xiangjie Meng und Zongjie Cao. „Absorption Pruning of Deep Neural Network for Object Detection in Remote Sensing Imagery“. Remote Sensing 14, Nr. 24 (09.12.2022): 6245. http://dx.doi.org/10.3390/rs14246245.
Der volle Inhalt der QuelleXiao, Penghao, Teng Xu, Xiayang Xiao, Weisong Li und Haipeng Wang. „Distillation Sparsity Training Algorithm for Accelerating Convolutional Neural Networks in Embedded Systems“. Remote Sensing 15, Nr. 10 (17.05.2023): 2609. http://dx.doi.org/10.3390/rs15102609.
Der volle Inhalt der QuelleWu, Tingting, Chunhe Song, Peng Zeng und Changqing Xia. „Cluster-Based Structural Redundancy Identification for Neural Network Compression“. Entropy 25, Nr. 1 (21.12.2022): 9. http://dx.doi.org/10.3390/e25010009.
Der volle Inhalt der QuelleDuckro, Donald E., Dennis W. Quinn und Samuel J. Gardner. „Neural Network Pruning with Tukey-Kramer Multiple Comparison Procedure“. Neural Computation 14, Nr. 5 (01.05.2002): 1149–68. http://dx.doi.org/10.1162/089976602753633420.
Der volle Inhalt der QuelleQin, Tian, Jiang Zhang und Xihua Zhu. „Analysis of Pruning Optimization Technology Based on Deep Learning“. Highlights in Science, Engineering and Technology 4 (26.07.2022): 332–38. http://dx.doi.org/10.54097/hset.v4i.921.
Der volle Inhalt der QuelleWang, Jiajun. „Research on pruning optimization techniques for neural networks“. Applied and Computational Engineering 19, Nr. 1 (23.10.2023): 152–58. http://dx.doi.org/10.54254/2755-2721/19/20231025.
Der volle Inhalt der QuelleWang, Shuang, und Zhaogong Zhang. „ScoringNet: A Neural Network Based Pruning Criteria for Structured Pruning“. Scientific Programming 2023 (14.04.2023): 1–9. http://dx.doi.org/10.1155/2023/9983781.
Der volle Inhalt der QuelleThodberg, Hans Henrik. „IMPROVING GENERALIZATION OF NEURAL NETWORKS THROUGH PRUNING“. International Journal of Neural Systems 01, Nr. 04 (Januar 1991): 317–26. http://dx.doi.org/10.1142/s0129065791000352.
Der volle Inhalt der QuelleLu, Sheng. „Study on pruning optimization based on HRank pruning method“. Applied and Computational Engineering 6, Nr. 1 (14.06.2023): 1204–11. http://dx.doi.org/10.54254/2755-2721/6/20230600.
Der volle Inhalt der QuelleJeczmionek, Ernest, und Piotr A. Kowalski. „Flattening Layer Pruning in Convolutional Neural Networks“. Symmetry 13, Nr. 7 (27.06.2021): 1147. http://dx.doi.org/10.3390/sym13071147.
Der volle Inhalt der QuelleKAMMA, Koji, Yuki ISODA, Sarimu INOUE und Toshikazu WADA. „Neural Behavior-Based Approach for Neural Network Pruning“. IEICE Transactions on Information and Systems E103.D, Nr. 5 (01.05.2020): 1135–43. http://dx.doi.org/10.1587/transinf.2019edp7177.
Der volle Inhalt der QuelleCheng, Hanjing, Zidong Wang, Lifeng Ma, Xiaohui Liu und Zhihui Wei. „Multi-task Pruning via Filter Index Sharing: A Many-Objective Optimization Approach“. Cognitive Computation 13, Nr. 4 (25.06.2021): 1070–84. http://dx.doi.org/10.1007/s12559-021-09894-x.
Der volle Inhalt der QuelleLiu, Yu, Yong Wang, Haojin Qi und Xiaoming Ju. „SuperPruner: Automatic Neural Network Pruning via Super Network“. Scientific Programming 2021 (13.09.2021): 1–11. http://dx.doi.org/10.1155/2021/9971669.
Der volle Inhalt der QuelleGou, Longxiang, Ziyi Han und Zhimeng Yuan. „An analysis of different methods for deep neural network pruning“. Applied and Computational Engineering 52, Nr. 1 (27.03.2024): 81–86. http://dx.doi.org/10.54254/2755-2721/52/20241292.
Der volle Inhalt der QuelleDing, Yunlong, und Di-Rong Chen. „Optimization Based Layer-Wise Pruning Threshold Method for Accelerating Convolutional Neural Networks“. Mathematics 11, Nr. 15 (27.07.2023): 3311. http://dx.doi.org/10.3390/math11153311.
Der volle Inhalt der QuelleTessier, Hugo, Vincent Gripon, Mathieu Léonardon, Matthieu Arzel, Thomas Hannagan und David Bertrand. „Rethinking Weight Decay for Efficient Neural Network Pruning“. Journal of Imaging 8, Nr. 3 (04.03.2022): 64. http://dx.doi.org/10.3390/jimaging8030064.
Der volle Inhalt der QuelleGangopadhyay, Briti, Pallab Dasgupta und Soumyajit Dey. „Safety Aware Neural Pruning for Deep Reinforcement Learning (Student Abstract)“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 13 (26.06.2023): 16212–13. http://dx.doi.org/10.1609/aaai.v37i13.26966.
Der volle Inhalt der QuelleJakob Krzyston, Rajib Bhattacharjea und Andrew Stark. „Neural network compression with feedback magnitude pruning for automatic modulation classification“. ITU Journal on Future and Evolving Technologies 3, Nr. 2 (13.07.2022): 157–64. http://dx.doi.org/10.52953/eujf4214.
Der volle Inhalt der QuelleGong, Wei. „A Neural Networks Pruning and Data Fusion Based Intrusion Detection Model“. Applied Mechanics and Materials 651-653 (September 2014): 1772–75. http://dx.doi.org/10.4028/www.scientific.net/amm.651-653.1772.
Der volle Inhalt der QuelleLei, Yu, Dayu Wang, Shenghui Yang, Jiao Shi, Dayong Tian und Lingtong Min. „Network Collaborative Pruning Method for Hyperspectral Image Classification Based on Evolutionary Multi-Task Optimization“. Remote Sensing 15, Nr. 12 (13.06.2023): 3084. http://dx.doi.org/10.3390/rs15123084.
Der volle Inhalt der QuelleAi, Fang Ju. „An Improved Pruning Algorithm for Fuzzy Neural Network“. Applied Mechanics and Materials 411-414 (September 2013): 2031–36. http://dx.doi.org/10.4028/www.scientific.net/amm.411-414.2031.
Der volle Inhalt der QuelleCamacho, Jose David, Carlos Villaseñor, Carlos Lopez-Franco und Nancy Arana-Daniel. „Neuroplasticity-Based Pruning Method for Deep Convolutional Neural Networks“. Applied Sciences 12, Nr. 10 (13.05.2022): 4945. http://dx.doi.org/10.3390/app12104945.
Der volle Inhalt der QuelleGe, Yisu, Shufang Lu und Fei Gao. „Small Network for Lightweight Task in Computer Vision: A Pruning Method Based on Feature Representation“. Computational Intelligence and Neuroscience 2021 (17.04.2021): 1–12. http://dx.doi.org/10.1155/2021/5531023.
Der volle Inhalt der QuelleGrau, M. Mar Abad, und L. Daniel Hernandez Molinero. „Local Representation Neural Networks for Feature Selection“. Journal of Advanced Computational Intelligence and Intelligent Informatics 3, Nr. 4 (20.08.1999): 326–31. http://dx.doi.org/10.20965/jaciii.1999.p0326.
Der volle Inhalt der QuelleZhang, Chaoyan, Cheng Li, Baolong Guo und Nannan Liao. „Neural Network Compression via Low Frequency Preference“. Remote Sensing 15, Nr. 12 (16.06.2023): 3144. http://dx.doi.org/10.3390/rs15123144.
Der volle Inhalt der QuelleBondarenko, Andrey, Arkady Borisov und Ludmila Alekseeva. „Neurons vs Weights Pruning in Artificial Neural Networks“. Environment. Technology. Resources. Proceedings of the International Scientific and Practical Conference 3 (16.06.2015): 22. http://dx.doi.org/10.17770/etr2015vol3.166.
Der volle Inhalt der QuelleGuo, Wenzhe, Hasan Erdem Yantır, Mohammed E. Fouda, Ahmed M. Eltawil und Khaled Nabil Salama. „Towards Efficient Neuromorphic Hardware: Unsupervised Adaptive Neuron Pruning“. Electronics 9, Nr. 7 (27.06.2020): 1059. http://dx.doi.org/10.3390/electronics9071059.
Der volle Inhalt der QuelleAlshahrani, Mona, Othman Soufan, Arturo Magana-Mora und Vladimir B. Bajic. „DANNP: an efficient artificial neural network pruning tool“. PeerJ Computer Science 3 (06.11.2017): e137. http://dx.doi.org/10.7717/peerj-cs.137.
Der volle Inhalt der QuelleNaeem, Saad, Noreen Jamil, Habib Ullah Khan und Shah Nazir. „Complexity of Deep Convolutional Neural Networks in Mobile Computing“. Complexity 2020 (17.09.2020): 1–8. http://dx.doi.org/10.1155/2020/3853780.
Der volle Inhalt der QuelleJEARANAITANAKIJ, KIETIKUL, und OUEN PINNGERN. „SPARTAN SIMPLICITY: A PRUNING ALGORITHM FOR NEURAL NETS“. Journal of Circuits, Systems and Computers 17, Nr. 04 (August 2008): 569–96. http://dx.doi.org/10.1142/s0218126608004514.
Der volle Inhalt der QuelleHuang, Junhao, Weize Sun und Lei Huang. „Joint Structure and Parameter Optimization of Multiobjective Sparse Neural Network“. Neural Computation 33, Nr. 4 (2021): 1113–43. http://dx.doi.org/10.1162/neco_a_01368.
Der volle Inhalt der QuelleМельниченко, А. В., und К. А. Здор. „INCORPORATING ATTENTION SCORE TO IMPROVE FORESIGHT PRUNING ON TRANSFORMER MODELS“. Visnyk of Zaporizhzhya National University Physical and Mathematical Sciences, Nr. 2 (19.12.2023): 22–28. http://dx.doi.org/10.26661/2786-6254-2023-2-03.
Der volle Inhalt der QuelleAmeen, Salem, und Sunil Vadera. „Pruning Neural Networks Using Multi-Armed Bandits“. Computer Journal 63, Nr. 7 (26.09.2019): 1099–108. http://dx.doi.org/10.1093/comjnl/bxz078.
Der volle Inhalt der QuelleCai, Mingzhuo, Yihong Su, Binyu Wang und Tianyu Zhang. „Research on compression pruning methods based on deep learning“. Journal of Physics: Conference Series 2580, Nr. 1 (01.09.2023): 012060. http://dx.doi.org/10.1088/1742-6596/2580/1/012060.
Der volle Inhalt der QuelleZhong, Xudong. „Convolutional Neural Network Structure Optimization based on Network Pruning“. Highlights in Science, Engineering and Technology 24 (27.12.2022): 125–30. http://dx.doi.org/10.54097/hset.v24i.3904.
Der volle Inhalt der Quelle