Zeitschriftenartikel zum Thema „Sparse deep neural networks“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Sparse deep neural networks" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Scardapane, Simone, Danilo Comminiello, Amir Hussain und Aurelio Uncini. „Group sparse regularization for deep neural networks“. Neurocomputing 241 (Juni 2017): 81–89. http://dx.doi.org/10.1016/j.neucom.2017.02.029.
Der volle Inhalt der QuelleZang, Ke, Wenqi Wu und Wei Luo. „Deep Sparse Learning for Automatic Modulation Classification Using Recurrent Neural Networks“. Sensors 21, Nr. 19 (25.09.2021): 6410. http://dx.doi.org/10.3390/s21196410.
Der volle Inhalt der QuelleWu, Kailun, Yiwen Guo und Changshui Zhang. „Compressing Deep Neural Networks With Sparse Matrix Factorization“. IEEE Transactions on Neural Networks and Learning Systems 31, Nr. 10 (Oktober 2020): 3828–38. http://dx.doi.org/10.1109/tnnls.2019.2946636.
Der volle Inhalt der QuelleGangopadhyay, Briti, Pallab Dasgupta und Soumyajit Dey. „Safety Aware Neural Pruning for Deep Reinforcement Learning (Student Abstract)“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 13 (26.06.2023): 16212–13. http://dx.doi.org/10.1609/aaai.v37i13.26966.
Der volle Inhalt der QuellePetschenig, Horst, und Robert Legenstein. „Quantized rewiring: hardware-aware training of sparse deep neural networks“. Neuromorphic Computing and Engineering 3, Nr. 2 (26.05.2023): 024006. http://dx.doi.org/10.1088/2634-4386/accd8f.
Der volle Inhalt der QuelleBelay, Kaleab. „Gradient and Mangitude Based Pruning for Sparse Deep Neural Networks“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 11 (28.06.2022): 13126–27. http://dx.doi.org/10.1609/aaai.v36i11.21699.
Der volle Inhalt der QuelleKaur, Mandeep, und Pradip Kumar Yadava. „A Review on Classification of Images with Convolutional Neural Networks“. International Journal for Research in Applied Science and Engineering Technology 11, Nr. 7 (31.07.2023): 658–63. http://dx.doi.org/10.22214/ijraset.2023.54704.
Der volle Inhalt der QuelleBi, Jia, und Steve R. Gunn. „Sparse Deep Neural Network Optimization for Embedded Intelligence“. International Journal on Artificial Intelligence Tools 29, Nr. 03n04 (Juni 2020): 2060002. http://dx.doi.org/10.1142/s0218213020600027.
Der volle Inhalt der QuelleGallicchio, Claudio, und Alessio Micheli. „Fast and Deep Graph Neural Networks“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 04 (03.04.2020): 3898–905. http://dx.doi.org/10.1609/aaai.v34i04.5803.
Der volle Inhalt der QuelleTartaglione, Enzo, Andrea Bragagnolo, Attilio Fiandrotti und Marco Grangetto. „LOss-Based SensiTivity rEgulaRization: Towards deep sparse neural networks“. Neural Networks 146 (Februar 2022): 230–37. http://dx.doi.org/10.1016/j.neunet.2021.11.029.
Der volle Inhalt der QuelleMa, Rongrong, Jianyu Miao, Lingfeng Niu und Peng Zhang. „Transformed ℓ1 regularization for learning sparse deep neural networks“. Neural Networks 119 (November 2019): 286–98. http://dx.doi.org/10.1016/j.neunet.2019.08.015.
Der volle Inhalt der QuelleZhao, Jin, und Licheng Jiao. „Fast Sparse Deep Neural Networks: Theory and Performance Analysis“. IEEE Access 7 (2019): 74040–55. http://dx.doi.org/10.1109/access.2019.2920688.
Der volle Inhalt der QuelleKarim, Ahmad M., Mehmet S. Güzel, Mehmet R. Tolun, Hilal Kaya und Fatih V. Çelebi. „A New Generalized Deep Learning Framework Combining Sparse Autoencoder and Taguchi Method for Novel Data Classification and Processing“. Mathematical Problems in Engineering 2018 (07.06.2018): 1–13. http://dx.doi.org/10.1155/2018/3145947.
Der volle Inhalt der QuelleLi, Yihang. „Sparse-Aware Deep Learning Accelerator“. Highlights in Science, Engineering and Technology 39 (01.04.2023): 305–10. http://dx.doi.org/10.54097/hset.v39i.6544.
Der volle Inhalt der QuelleOhn, Ilsang, und Yongdai Kim. „Nonconvex Sparse Regularization for Deep Neural Networks and Its Optimality“. Neural Computation 34, Nr. 2 (14.01.2022): 476–517. http://dx.doi.org/10.1162/neco_a_01457.
Der volle Inhalt der QuelleAvgerinos, Christos, Nicholas Vretos und Petros Daras. „Less Is More: Adaptive Trainable Gradient Dropout for Deep Neural Networks“. Sensors 23, Nr. 3 (24.01.2023): 1325. http://dx.doi.org/10.3390/s23031325.
Der volle Inhalt der QuelleHao, Yutong, Yunpeng Liu, Jinmiao Zhao und Chuang Yu. „Dual-Domain Prior-Driven Deep Network for Infrared Small-Target Detection“. Remote Sensing 15, Nr. 15 (31.07.2023): 3827. http://dx.doi.org/10.3390/rs15153827.
Der volle Inhalt der QuelleLee, Sangkyun, und Jeonghyun Lee. „Compressed Learning of Deep Neural Networks for OpenCL-Capable Embedded Systems“. Applied Sciences 9, Nr. 8 (23.04.2019): 1669. http://dx.doi.org/10.3390/app9081669.
Der volle Inhalt der QuelleMousavi, Hamid, Mohammad Loni, Mina Alibeigi und Masoud Daneshtalab. „DASS: Differentiable Architecture Search for Sparse Neural Networks“. ACM Transactions on Embedded Computing Systems 22, Nr. 5s (09.09.2023): 1–21. http://dx.doi.org/10.1145/3609385.
Der volle Inhalt der QuelleAo, Ren, Zhang Tao, Wang Yuhao, Lin Sheng, Dong Peiyan, Chen Yen-kuang, Xie Yuan und Wang Yanzhi. „DARB: A Density-Adaptive Regular-Block Pruning for Deep Neural Networks“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 04 (03.04.2020): 5495–502. http://dx.doi.org/10.1609/aaai.v34i04.6000.
Der volle Inhalt der QuelleÖstling, Robert. „Part of Speech Tagging: Shallow or Deep Learning?“ Northern European Journal of Language Technology 5 (19.06.2018): 1–15. http://dx.doi.org/10.3384/nejlt.2000-1533.1851.
Der volle Inhalt der QuelleGong, Maoguo, Jia Liu, Hao Li, Qing Cai und Linzhi Su. „A Multiobjective Sparse Feature Learning Model for Deep Neural Networks“. IEEE Transactions on Neural Networks and Learning Systems 26, Nr. 12 (Dezember 2015): 3263–77. http://dx.doi.org/10.1109/tnnls.2015.2469673.
Der volle Inhalt der QuelleBoo, Yoonho, und Wonyong Sung. „Compression of Deep Neural Networks with Structured Sparse Ternary Coding“. Journal of Signal Processing Systems 91, Nr. 9 (06.11.2018): 1009–19. http://dx.doi.org/10.1007/s11265-018-1418-z.
Der volle Inhalt der QuelleZhao, Yao, Qingsong Liu, He Tian, Bingo Wing-Kuen Ling und Zhe Zhang. „DeepRED Based Sparse SAR Imaging“. Remote Sensing 16, Nr. 2 (05.01.2024): 212. http://dx.doi.org/10.3390/rs16020212.
Der volle Inhalt der QuelleWan, Xinyue, Bofeng Zhang, Guobing Zou und Furong Chang. „Sparse Data Recommendation by Fusing Continuous Imputation Denoising Autoencoder and Neural Matrix Factorization“. Applied Sciences 9, Nr. 1 (24.12.2018): 54. http://dx.doi.org/10.3390/app9010054.
Der volle Inhalt der QuelleEl-Yabroudi, Mohammad Z., Ikhlas Abdel-Qader, Bradley J. Bazuin, Osama Abudayyeh und Rakan C. Chabaan. „Guided Depth Completion with Instance Segmentation Fusion in Autonomous Driving Applications“. Sensors 22, Nr. 24 (07.12.2022): 9578. http://dx.doi.org/10.3390/s22249578.
Der volle Inhalt der QuelleQiao, Chen, Yan Shi, Yu-Xian Diao, Vince D. Calhoun und Yu-Ping Wang. „Log-sum enhanced sparse deep neural network“. Neurocomputing 407 (September 2020): 206–20. http://dx.doi.org/10.1016/j.neucom.2020.04.118.
Der volle Inhalt der QuelleMorotti, Elena, Davide Evangelista und Elena Loli Piccolomini. „A Green Prospective for Learned Post-Processing in Sparse-View Tomographic Reconstruction“. Journal of Imaging 7, Nr. 8 (07.08.2021): 139. http://dx.doi.org/10.3390/jimaging7080139.
Der volle Inhalt der QuelleWan, Lulu, Tao Chen, Antonio Plaza und Haojie Cai. „Hyperspectral Unmixing Based on Spectral and Sparse Deep Convolutional Neural Networks“. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing 14 (2021): 11669–82. http://dx.doi.org/10.1109/jstars.2021.3126755.
Der volle Inhalt der QuelleKhattak, Muhammad Irfan, Nasir Saleem, Jiechao Gao, Elena Verdu und Javier Parra Fuente. „Regularized sparse features for noisy speech enhancement using deep neural networks“. Computers and Electrical Engineering 100 (Mai 2022): 107887. http://dx.doi.org/10.1016/j.compeleceng.2022.107887.
Der volle Inhalt der QuelleXie, Zhihua, Yi Li, Jieyi Niu, Ling Shi, Zhipeng Wang und Guoyu Lu. „Hyperspectral face recognition based on sparse spectral attention deep neural networks“. Optics Express 28, Nr. 24 (16.11.2020): 36286. http://dx.doi.org/10.1364/oe.404793.
Der volle Inhalt der QuelleLiu, Wei, Yue Yang und Longsheng Wei. „Weather Recognition of Street Scene Based on Sparse Deep Neural Networks“. Journal of Advanced Computational Intelligence and Intelligent Informatics 21, Nr. 3 (19.05.2017): 403–8. http://dx.doi.org/10.20965/jaciii.2017.p0403.
Der volle Inhalt der QuelleSchwab, Johannes, Stephan Antholzer und Markus Haltmeier. „Big in Japan: Regularizing Networks for Solving Inverse Problems“. Journal of Mathematical Imaging and Vision 62, Nr. 3 (03.10.2019): 445–55. http://dx.doi.org/10.1007/s10851-019-00911-1.
Der volle Inhalt der Quelle.., Vani, und Piyush Kumar Pareek. „Deep Multiple Instance Learning Approach for Classification in Clinical Decision Support Systems“. American Journal of Business and Operations Research 10, Nr. 2 (2023): 52–60. http://dx.doi.org/10.54216/ajbor.100206.
Der volle Inhalt der QuelleHe, Haoyuan, Lingxuan Huang, Zisen Huang und Tiantian Yang. „The Compression Techniques Applied on Deep Learning Model“. Highlights in Science, Engineering and Technology 4 (26.07.2022): 325–31. http://dx.doi.org/10.54097/hset.v4i.920.
Der volle Inhalt der QuelleAlmulla Khalaf, Maysa Ibrahem, und John Q. Gan. „A three-stage learning algorithm for deep multilayer perceptron with effective weight initialisation based on sparse auto-encoder“. Artificial Intelligence Research 8, Nr. 1 (02.04.2019): 41. http://dx.doi.org/10.5430/air.v8n1p41.
Der volle Inhalt der QuelleZahn, Olivia, Jorge Bustamante, Callin Switzer, Thomas L. Daniel und J. Nathan Kutz. „Pruning deep neural networks generates a sparse, bio-inspired nonlinear controller for insect flight“. PLOS Computational Biology 18, Nr. 9 (27.09.2022): e1010512. http://dx.doi.org/10.1371/journal.pcbi.1010512.
Der volle Inhalt der QuelleLiu, Xiao, Wenbin Li, Jing Huo, Lili Yao und Yang Gao. „Layerwise Sparse Coding for Pruned Deep Neural Networks with Extreme Compression Ratio“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 04 (03.04.2020): 4900–4907. http://dx.doi.org/10.1609/aaai.v34i04.5927.
Der volle Inhalt der QuelleYao, Zhongtian, Kejie Huang, Haibin Shen und Zhaoyan Ming. „Deep Neural Network Acceleration With Sparse Prediction Layers“. IEEE Access 8 (2020): 6839–48. http://dx.doi.org/10.1109/access.2020.2963941.
Der volle Inhalt der QuelleLee, Gwo-Chuan, Jyun-Hong Li und Zi-Yang Li. „A Wasserstein Generative Adversarial Network–Gradient Penalty-Based Model with Imbalanced Data Enhancement for Network Intrusion Detection“. Applied Sciences 13, Nr. 14 (12.07.2023): 8132. http://dx.doi.org/10.3390/app13148132.
Der volle Inhalt der QuellePhan, Huy, Miao Yin, Yang Sui, Bo Yuan und Saman Zonouz. „CSTAR: Towards Compact and Structured Deep Neural Networks with Adversarial Robustness“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 2 (26.06.2023): 2065–73. http://dx.doi.org/10.1609/aaai.v37i2.25299.
Der volle Inhalt der QuelleZhang, Hongwei, Jiacheng Ni, Kaiming Li, Ying Luo und Qun Zhang. „Nonsparse SAR Scene Imaging Network Based on Sparse Representation and Approximate Observations“. Remote Sensing 15, Nr. 17 (22.08.2023): 4126. http://dx.doi.org/10.3390/rs15174126.
Der volle Inhalt der QuelleGong, Zhenghui, Xiaolong Su, Panhe Hu, Shuowei Liu und Zhen Liu. „Deep Unfolding Sparse Bayesian Learning Network for Off-Grid DOA Estimation with Nested Array“. Remote Sensing 15, Nr. 22 (10.11.2023): 5320. http://dx.doi.org/10.3390/rs15225320.
Der volle Inhalt der QuelleChen, Yuanyuan, und Zhang Yi. „Adaptive sparse dropout: Learning the certainty and uncertainty in deep neural networks“. Neurocomputing 450 (August 2021): 354–61. http://dx.doi.org/10.1016/j.neucom.2021.04.047.
Der volle Inhalt der QuelleChen, Jiayu, Xiang Li, Vince D. Calhoun, Jessica A. Turner, Theo G. M. Erp, Lei Wang, Ole A. Andreassen et al. „Sparse deep neural networks on imaging genetics for schizophrenia case–control classification“. Human Brain Mapping 42, Nr. 8 (16.03.2021): 2556–68. http://dx.doi.org/10.1002/hbm.25387.
Der volle Inhalt der QuelleKovacs, Mate, und Victor V. Kryssanov. „Expanding the Feature Space of Deep Neural Networks for Sentiment Classification“. International Journal of Machine Learning and Computing 10, Nr. 2 (Februar 2020): 271–76. http://dx.doi.org/10.18178/ijmlc.2020.10.2.931.
Der volle Inhalt der QuelleLui, Hugo F. S., und William R. Wolf. „Construction of reduced-order models for fluid flows using deep feedforward neural networks“. Journal of Fluid Mechanics 872 (14.06.2019): 963–94. http://dx.doi.org/10.1017/jfm.2019.358.
Der volle Inhalt der QuelleChen, Qipeng, Qiaoqiao Xiong, Haisong Huang, Saihong Tang und Zhenghong Liu. „Research on the Construction of an Efficient and Lightweight Online Detection Method for Tiny Surface Defects through Model Compression and Knowledge Distillation“. Electronics 13, Nr. 2 (05.01.2024): 253. http://dx.doi.org/10.3390/electronics13020253.
Der volle Inhalt der QuelleZhao, Yao, Chengwen Ou, He Tian, Bingo Wing-Kuen Ling, Ye Tian und Zhe Zhang. „Sparse SAR Imaging Algorithm in Marine Environments Based on Memory-Augmented Deep Unfolding Network“. Remote Sensing 16, Nr. 7 (05.04.2024): 1289. http://dx.doi.org/10.3390/rs16071289.
Der volle Inhalt der QuelleKohjima, Masahiro. „Shuffled Deep Regression“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 12 (24.03.2024): 13238–45. http://dx.doi.org/10.1609/aaai.v38i12.29224.
Der volle Inhalt der Quelle