Articles de revues sur le sujet « Sparse deep neural networks »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Sparse deep neural networks ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Scardapane, Simone, Danilo Comminiello, Amir Hussain et Aurelio Uncini. « Group sparse regularization for deep neural networks ». Neurocomputing 241 (juin 2017) : 81–89. http://dx.doi.org/10.1016/j.neucom.2017.02.029.
Texte intégralZang, Ke, Wenqi Wu et Wei Luo. « Deep Sparse Learning for Automatic Modulation Classification Using Recurrent Neural Networks ». Sensors 21, no 19 (25 septembre 2021) : 6410. http://dx.doi.org/10.3390/s21196410.
Texte intégralWu, Kailun, Yiwen Guo et Changshui Zhang. « Compressing Deep Neural Networks With Sparse Matrix Factorization ». IEEE Transactions on Neural Networks and Learning Systems 31, no 10 (octobre 2020) : 3828–38. http://dx.doi.org/10.1109/tnnls.2019.2946636.
Texte intégralGangopadhyay, Briti, Pallab Dasgupta et Soumyajit Dey. « Safety Aware Neural Pruning for Deep Reinforcement Learning (Student Abstract) ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 13 (26 juin 2023) : 16212–13. http://dx.doi.org/10.1609/aaai.v37i13.26966.
Texte intégralPetschenig, Horst, et Robert Legenstein. « Quantized rewiring : hardware-aware training of sparse deep neural networks ». Neuromorphic Computing and Engineering 3, no 2 (26 mai 2023) : 024006. http://dx.doi.org/10.1088/2634-4386/accd8f.
Texte intégralBelay, Kaleab. « Gradient and Mangitude Based Pruning for Sparse Deep Neural Networks ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 11 (28 juin 2022) : 13126–27. http://dx.doi.org/10.1609/aaai.v36i11.21699.
Texte intégralKaur, Mandeep, et Pradip Kumar Yadava. « A Review on Classification of Images with Convolutional Neural Networks ». International Journal for Research in Applied Science and Engineering Technology 11, no 7 (31 juillet 2023) : 658–63. http://dx.doi.org/10.22214/ijraset.2023.54704.
Texte intégralBi, Jia, et Steve R. Gunn. « Sparse Deep Neural Network Optimization for Embedded Intelligence ». International Journal on Artificial Intelligence Tools 29, no 03n04 (juin 2020) : 2060002. http://dx.doi.org/10.1142/s0218213020600027.
Texte intégralGallicchio, Claudio, et Alessio Micheli. « Fast and Deep Graph Neural Networks ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 3898–905. http://dx.doi.org/10.1609/aaai.v34i04.5803.
Texte intégralTartaglione, Enzo, Andrea Bragagnolo, Attilio Fiandrotti et Marco Grangetto. « LOss-Based SensiTivity rEgulaRization : Towards deep sparse neural networks ». Neural Networks 146 (février 2022) : 230–37. http://dx.doi.org/10.1016/j.neunet.2021.11.029.
Texte intégralMa, Rongrong, Jianyu Miao, Lingfeng Niu et Peng Zhang. « Transformed ℓ1 regularization for learning sparse deep neural networks ». Neural Networks 119 (novembre 2019) : 286–98. http://dx.doi.org/10.1016/j.neunet.2019.08.015.
Texte intégralZhao, Jin, et Licheng Jiao. « Fast Sparse Deep Neural Networks : Theory and Performance Analysis ». IEEE Access 7 (2019) : 74040–55. http://dx.doi.org/10.1109/access.2019.2920688.
Texte intégralKarim, Ahmad M., Mehmet S. Güzel, Mehmet R. Tolun, Hilal Kaya et Fatih V. Çelebi. « A New Generalized Deep Learning Framework Combining Sparse Autoencoder and Taguchi Method for Novel Data Classification and Processing ». Mathematical Problems in Engineering 2018 (7 juin 2018) : 1–13. http://dx.doi.org/10.1155/2018/3145947.
Texte intégralLi, Yihang. « Sparse-Aware Deep Learning Accelerator ». Highlights in Science, Engineering and Technology 39 (1 avril 2023) : 305–10. http://dx.doi.org/10.54097/hset.v39i.6544.
Texte intégralOhn, Ilsang, et Yongdai Kim. « Nonconvex Sparse Regularization for Deep Neural Networks and Its Optimality ». Neural Computation 34, no 2 (14 janvier 2022) : 476–517. http://dx.doi.org/10.1162/neco_a_01457.
Texte intégralAvgerinos, Christos, Nicholas Vretos et Petros Daras. « Less Is More : Adaptive Trainable Gradient Dropout for Deep Neural Networks ». Sensors 23, no 3 (24 janvier 2023) : 1325. http://dx.doi.org/10.3390/s23031325.
Texte intégralHao, Yutong, Yunpeng Liu, Jinmiao Zhao et Chuang Yu. « Dual-Domain Prior-Driven Deep Network for Infrared Small-Target Detection ». Remote Sensing 15, no 15 (31 juillet 2023) : 3827. http://dx.doi.org/10.3390/rs15153827.
Texte intégralLee, Sangkyun, et Jeonghyun Lee. « Compressed Learning of Deep Neural Networks for OpenCL-Capable Embedded Systems ». Applied Sciences 9, no 8 (23 avril 2019) : 1669. http://dx.doi.org/10.3390/app9081669.
Texte intégralMousavi, Hamid, Mohammad Loni, Mina Alibeigi et Masoud Daneshtalab. « DASS : Differentiable Architecture Search for Sparse Neural Networks ». ACM Transactions on Embedded Computing Systems 22, no 5s (9 septembre 2023) : 1–21. http://dx.doi.org/10.1145/3609385.
Texte intégralAo, Ren, Zhang Tao, Wang Yuhao, Lin Sheng, Dong Peiyan, Chen Yen-kuang, Xie Yuan et Wang Yanzhi. « DARB : A Density-Adaptive Regular-Block Pruning for Deep Neural Networks ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 5495–502. http://dx.doi.org/10.1609/aaai.v34i04.6000.
Texte intégralÖstling, Robert. « Part of Speech Tagging : Shallow or Deep Learning ? » Northern European Journal of Language Technology 5 (19 juin 2018) : 1–15. http://dx.doi.org/10.3384/nejlt.2000-1533.1851.
Texte intégralGong, Maoguo, Jia Liu, Hao Li, Qing Cai et Linzhi Su. « A Multiobjective Sparse Feature Learning Model for Deep Neural Networks ». IEEE Transactions on Neural Networks and Learning Systems 26, no 12 (décembre 2015) : 3263–77. http://dx.doi.org/10.1109/tnnls.2015.2469673.
Texte intégralBoo, Yoonho, et Wonyong Sung. « Compression of Deep Neural Networks with Structured Sparse Ternary Coding ». Journal of Signal Processing Systems 91, no 9 (6 novembre 2018) : 1009–19. http://dx.doi.org/10.1007/s11265-018-1418-z.
Texte intégralZhao, Yao, Qingsong Liu, He Tian, Bingo Wing-Kuen Ling et Zhe Zhang. « DeepRED Based Sparse SAR Imaging ». Remote Sensing 16, no 2 (5 janvier 2024) : 212. http://dx.doi.org/10.3390/rs16020212.
Texte intégralWan, Xinyue, Bofeng Zhang, Guobing Zou et Furong Chang. « Sparse Data Recommendation by Fusing Continuous Imputation Denoising Autoencoder and Neural Matrix Factorization ». Applied Sciences 9, no 1 (24 décembre 2018) : 54. http://dx.doi.org/10.3390/app9010054.
Texte intégralEl-Yabroudi, Mohammad Z., Ikhlas Abdel-Qader, Bradley J. Bazuin, Osama Abudayyeh et Rakan C. Chabaan. « Guided Depth Completion with Instance Segmentation Fusion in Autonomous Driving Applications ». Sensors 22, no 24 (7 décembre 2022) : 9578. http://dx.doi.org/10.3390/s22249578.
Texte intégralQiao, Chen, Yan Shi, Yu-Xian Diao, Vince D. Calhoun et Yu-Ping Wang. « Log-sum enhanced sparse deep neural network ». Neurocomputing 407 (septembre 2020) : 206–20. http://dx.doi.org/10.1016/j.neucom.2020.04.118.
Texte intégralMorotti, Elena, Davide Evangelista et Elena Loli Piccolomini. « A Green Prospective for Learned Post-Processing in Sparse-View Tomographic Reconstruction ». Journal of Imaging 7, no 8 (7 août 2021) : 139. http://dx.doi.org/10.3390/jimaging7080139.
Texte intégralWan, Lulu, Tao Chen, Antonio Plaza et Haojie Cai. « Hyperspectral Unmixing Based on Spectral and Sparse Deep Convolutional Neural Networks ». IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing 14 (2021) : 11669–82. http://dx.doi.org/10.1109/jstars.2021.3126755.
Texte intégralKhattak, Muhammad Irfan, Nasir Saleem, Jiechao Gao, Elena Verdu et Javier Parra Fuente. « Regularized sparse features for noisy speech enhancement using deep neural networks ». Computers and Electrical Engineering 100 (mai 2022) : 107887. http://dx.doi.org/10.1016/j.compeleceng.2022.107887.
Texte intégralXie, Zhihua, Yi Li, Jieyi Niu, Ling Shi, Zhipeng Wang et Guoyu Lu. « Hyperspectral face recognition based on sparse spectral attention deep neural networks ». Optics Express 28, no 24 (16 novembre 2020) : 36286. http://dx.doi.org/10.1364/oe.404793.
Texte intégralLiu, Wei, Yue Yang et Longsheng Wei. « Weather Recognition of Street Scene Based on Sparse Deep Neural Networks ». Journal of Advanced Computational Intelligence and Intelligent Informatics 21, no 3 (19 mai 2017) : 403–8. http://dx.doi.org/10.20965/jaciii.2017.p0403.
Texte intégralSchwab, Johannes, Stephan Antholzer et Markus Haltmeier. « Big in Japan : Regularizing Networks for Solving Inverse Problems ». Journal of Mathematical Imaging and Vision 62, no 3 (3 octobre 2019) : 445–55. http://dx.doi.org/10.1007/s10851-019-00911-1.
Texte intégral.., Vani, et Piyush Kumar Pareek. « Deep Multiple Instance Learning Approach for Classification in Clinical Decision Support Systems ». American Journal of Business and Operations Research 10, no 2 (2023) : 52–60. http://dx.doi.org/10.54216/ajbor.100206.
Texte intégralHe, Haoyuan, Lingxuan Huang, Zisen Huang et Tiantian Yang. « The Compression Techniques Applied on Deep Learning Model ». Highlights in Science, Engineering and Technology 4 (26 juillet 2022) : 325–31. http://dx.doi.org/10.54097/hset.v4i.920.
Texte intégralAlmulla Khalaf, Maysa Ibrahem, et John Q. Gan. « A three-stage learning algorithm for deep multilayer perceptron with effective weight initialisation based on sparse auto-encoder ». Artificial Intelligence Research 8, no 1 (2 avril 2019) : 41. http://dx.doi.org/10.5430/air.v8n1p41.
Texte intégralZahn, Olivia, Jorge Bustamante, Callin Switzer, Thomas L. Daniel et J. Nathan Kutz. « Pruning deep neural networks generates a sparse, bio-inspired nonlinear controller for insect flight ». PLOS Computational Biology 18, no 9 (27 septembre 2022) : e1010512. http://dx.doi.org/10.1371/journal.pcbi.1010512.
Texte intégralLiu, Xiao, Wenbin Li, Jing Huo, Lili Yao et Yang Gao. « Layerwise Sparse Coding for Pruned Deep Neural Networks with Extreme Compression Ratio ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 4900–4907. http://dx.doi.org/10.1609/aaai.v34i04.5927.
Texte intégralYao, Zhongtian, Kejie Huang, Haibin Shen et Zhaoyan Ming. « Deep Neural Network Acceleration With Sparse Prediction Layers ». IEEE Access 8 (2020) : 6839–48. http://dx.doi.org/10.1109/access.2020.2963941.
Texte intégralLee, Gwo-Chuan, Jyun-Hong Li et Zi-Yang Li. « A Wasserstein Generative Adversarial Network–Gradient Penalty-Based Model with Imbalanced Data Enhancement for Network Intrusion Detection ». Applied Sciences 13, no 14 (12 juillet 2023) : 8132. http://dx.doi.org/10.3390/app13148132.
Texte intégralPhan, Huy, Miao Yin, Yang Sui, Bo Yuan et Saman Zonouz. « CSTAR : Towards Compact and Structured Deep Neural Networks with Adversarial Robustness ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 2 (26 juin 2023) : 2065–73. http://dx.doi.org/10.1609/aaai.v37i2.25299.
Texte intégralZhang, Hongwei, Jiacheng Ni, Kaiming Li, Ying Luo et Qun Zhang. « Nonsparse SAR Scene Imaging Network Based on Sparse Representation and Approximate Observations ». Remote Sensing 15, no 17 (22 août 2023) : 4126. http://dx.doi.org/10.3390/rs15174126.
Texte intégralGong, Zhenghui, Xiaolong Su, Panhe Hu, Shuowei Liu et Zhen Liu. « Deep Unfolding Sparse Bayesian Learning Network for Off-Grid DOA Estimation with Nested Array ». Remote Sensing 15, no 22 (10 novembre 2023) : 5320. http://dx.doi.org/10.3390/rs15225320.
Texte intégralChen, Yuanyuan, et Zhang Yi. « Adaptive sparse dropout : Learning the certainty and uncertainty in deep neural networks ». Neurocomputing 450 (août 2021) : 354–61. http://dx.doi.org/10.1016/j.neucom.2021.04.047.
Texte intégralChen, Jiayu, Xiang Li, Vince D. Calhoun, Jessica A. Turner, Theo G. M. Erp, Lei Wang, Ole A. Andreassen et al. « Sparse deep neural networks on imaging genetics for schizophrenia case–control classification ». Human Brain Mapping 42, no 8 (16 mars 2021) : 2556–68. http://dx.doi.org/10.1002/hbm.25387.
Texte intégralKovacs, Mate, et Victor V. Kryssanov. « Expanding the Feature Space of Deep Neural Networks for Sentiment Classification ». International Journal of Machine Learning and Computing 10, no 2 (février 2020) : 271–76. http://dx.doi.org/10.18178/ijmlc.2020.10.2.931.
Texte intégralLui, Hugo F. S., et William R. Wolf. « Construction of reduced-order models for fluid flows using deep feedforward neural networks ». Journal of Fluid Mechanics 872 (14 juin 2019) : 963–94. http://dx.doi.org/10.1017/jfm.2019.358.
Texte intégralChen, Qipeng, Qiaoqiao Xiong, Haisong Huang, Saihong Tang et Zhenghong Liu. « Research on the Construction of an Efficient and Lightweight Online Detection Method for Tiny Surface Defects through Model Compression and Knowledge Distillation ». Electronics 13, no 2 (5 janvier 2024) : 253. http://dx.doi.org/10.3390/electronics13020253.
Texte intégralZhao, Yao, Chengwen Ou, He Tian, Bingo Wing-Kuen Ling, Ye Tian et Zhe Zhang. « Sparse SAR Imaging Algorithm in Marine Environments Based on Memory-Augmented Deep Unfolding Network ». Remote Sensing 16, no 7 (5 avril 2024) : 1289. http://dx.doi.org/10.3390/rs16071289.
Texte intégralKohjima, Masahiro. « Shuffled Deep Regression ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 12 (24 mars 2024) : 13238–45. http://dx.doi.org/10.1609/aaai.v38i12.29224.
Texte intégral