Articles de revues sur le sujet « Sparse Accelerator »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Sparse Accelerator ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Xie, Xiaoru, Mingyu Zhu, Siyuan Lu et Zhongfeng Wang. « Efficient Layer-Wise N:M Sparse CNN Accelerator with Flexible SPEC : Sparse Processing Element Clusters ». Micromachines 14, no 3 (24 février 2023) : 528. http://dx.doi.org/10.3390/mi14030528.
Texte intégralLi, Yihang. « Sparse-Aware Deep Learning Accelerator ». Highlights in Science, Engineering and Technology 39 (1 avril 2023) : 305–10. http://dx.doi.org/10.54097/hset.v39i.6544.
Texte intégralXu, Jia, Han Pu et Dong Wang. « Sparse Convolution FPGA Accelerator Based on Multi-Bank Hash Selection ». Micromachines 16, no 1 (27 décembre 2024) : 22. https://doi.org/10.3390/mi16010022.
Texte intégralZheng, Yong, Haigang Yang, Yiping Jia et Zhihong Huang. « PermLSTM : A High Energy-Efficiency LSTM Accelerator Architecture ». Electronics 10, no 8 (8 avril 2021) : 882. http://dx.doi.org/10.3390/electronics10080882.
Texte intégralYavits, Leonid, et Ran Ginosar. « Accelerator for Sparse Machine Learning ». IEEE Computer Architecture Letters 17, no 1 (1 janvier 2018) : 21–24. http://dx.doi.org/10.1109/lca.2017.2714667.
Texte intégralTeodorovic, Predrag, et Rastislav Struharik. « Hardware Acceleration of Sparse Oblique Decision Trees for Edge Computing ». Elektronika ir Elektrotechnika 25, no 5 (6 octobre 2019) : 18–24. http://dx.doi.org/10.5755/j01.eie.25.5.24351.
Texte intégralVranjkovic, Vuk, Predrag Teodorovic et Rastislav Struharik. « Universal Reconfigurable Hardware Accelerator for Sparse Machine Learning Predictive Models ». Electronics 11, no 8 (8 avril 2022) : 1178. http://dx.doi.org/10.3390/electronics11081178.
Texte intégralGowda, Kavitha Malali Vishveshwarappa, Sowmya Madhavan, Stefano Rinaldi, Parameshachari Bidare Divakarachari et Anitha Atmakur. « FPGA-Based Reconfigurable Convolutional Neural Network Accelerator Using Sparse and Convolutional Optimization ». Electronics 11, no 10 (22 mai 2022) : 1653. http://dx.doi.org/10.3390/electronics11101653.
Texte intégralDey, Sumon, Lee Baker, Joshua Schabel, Weifu Li et Paul D. Franzon. « A Scalable Cluster-based Hierarchical Hardware Accelerator for a Cortically Inspired Algorithm ». ACM Journal on Emerging Technologies in Computing Systems 17, no 4 (30 juin 2021) : 1–29. http://dx.doi.org/10.1145/3447777.
Texte intégralLiu, Sheng, Yasong Cao et Shuwei Sun. « Mapping and Optimization Method of SpMV on Multi-DSP Accelerator ». Electronics 11, no 22 (11 novembre 2022) : 3699. http://dx.doi.org/10.3390/electronics11223699.
Texte intégralVranjkovic, Vuk, et Rastislav Struharik. « Hardware Acceleration of Sparse Support Vector Machines for Edge Computing ». Elektronika ir Elektrotechnika 26, no 3 (27 juin 2020) : 42–53. http://dx.doi.org/10.5755/j01.eie.26.3.25796.
Texte intégralLiu, Peng, et Yu Wang. « A Low-Power General Matrix Multiplication Accelerator with Sparse Weight-and-Output Stationary Dataflow ». Micromachines 16, no 1 (16 janvier 2025) : 101. https://doi.org/10.3390/mi16010101.
Texte intégralWang, Deguang, Junzhong Shen, Mei Wen et Chunyuan Zhang. « Efficient Implementation of 2D and 3D Sparse Deconvolutional Neural Networks with a Uniform Architecture on FPGAs ». Electronics 8, no 7 (18 juillet 2019) : 803. http://dx.doi.org/10.3390/electronics8070803.
Texte intégralHe, Pengzhou, Yazheng Tu, Tianyou Bao, Çetin Çetin Koç et Jiafeng Xie. « HSPA : High-Throughput Sparse Polynomial Multiplication for Code-based Post-Quantum Cryptography ». ACM Transactions on Embedded Computing Systems 24, no 1 (10 décembre 2024) : 1–24. https://doi.org/10.1145/3703837.
Texte intégralXIAO, Hao, Kaikai ZHAO et Guangzhu LIU. « Efficient Hardware Accelerator for Compressed Sparse Deep Neural Network ». IEICE Transactions on Information and Systems E104.D, no 5 (1 mai 2021) : 772–75. http://dx.doi.org/10.1587/transinf.2020edl8153.
Texte intégralLi, Jiajun, Shuhao Jiang, Shijun Gong, Jingya Wu, Junchao Yan, Guihai Yan et Xiaowei Li. « SqueezeFlow : A Sparse CNN Accelerator Exploiting Concise Convolution Rules ». IEEE Transactions on Computers 68, no 11 (1 novembre 2019) : 1663–77. http://dx.doi.org/10.1109/tc.2019.2924215.
Texte intégralLi, Fanrong, Gang Li, Zitao Mo, Xiangyu He et Jian Cheng. « FSA : A Fine-Grained Systolic Accelerator for Sparse CNNs ». IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems 39, no 11 (novembre 2020) : 3589–600. http://dx.doi.org/10.1109/tcad.2020.3012212.
Texte intégralYang, Tao, Zhezhi He, Tengchuan Kou, Qingzheng Li, Qi Han, Haibao Yu, Fangxin Liu, Yun Liang et Li Jiang. « BISWSRBS : A Winograd-based CNN Accelerator with a Fine-grained Regular Sparsity Pattern and Mixed Precision Quantization ». ACM Transactions on Reconfigurable Technology and Systems 14, no 4 (31 décembre 2021) : 1–28. http://dx.doi.org/10.1145/3467476.
Texte intégralWu, Di, Xitian Fan, Wei Cao et Lingli Wang. « SWM : A High-Performance Sparse-Winograd Matrix Multiplication CNN Accelerator ». IEEE Transactions on Very Large Scale Integration (VLSI) Systems 29, no 5 (mai 2021) : 936–49. http://dx.doi.org/10.1109/tvlsi.2021.3060041.
Texte intégralLiu, Qingliang, Jinmei Lai et Jiabao Gao. « An Efficient Channel-Aware Sparse Binarized Neural Networks Inference Accelerator ». IEEE Transactions on Circuits and Systems II : Express Briefs 69, no 3 (mars 2022) : 1637–41. http://dx.doi.org/10.1109/tcsii.2021.3119369.
Texte intégralSun, Yichun, Hengzhu Liu et Tong Zhou. « Sparse Cholesky Factorization on FPGA Using Parameterized Model ». Mathematical Problems in Engineering 2017 (2017) : 1–11. http://dx.doi.org/10.1155/2017/3021591.
Texte intégralWang, Renping, Shun Li, Enhao Tang, Sen Lan, Yajing Liu, Jing Yang, Shizhen Huang et Hailong Hu. « SH-GAT : Software-hardware co-design for accelerating graph attention networks on FPGA ». Electronic Research Archive 32, no 4 (2024) : 2310–22. http://dx.doi.org/10.3934/era.2024105.
Texte intégralXie, Xiaoru, Jun Lin, Zhongfeng Wang et Jinghe Wei. « An Efficient and Flexible Accelerator Design for Sparse Convolutional Neural Networks ». IEEE Transactions on Circuits and Systems I : Regular Papers 68, no 7 (juillet 2021) : 2936–49. http://dx.doi.org/10.1109/tcsi.2021.3074300.
Texte intégralLai, Bo-Cheng, Jyun-Wei Pan et Chien-Yu Lin. « Enhancing Utilization of SIMD-Like Accelerator for Sparse Convolutional Neural Networks ». IEEE Transactions on Very Large Scale Integration (VLSI) Systems 27, no 5 (mai 2019) : 1218–22. http://dx.doi.org/10.1109/tvlsi.2019.2897052.
Texte intégralLu, Yuntao, Chao Wang, Lei Gong et Xuehai Zhou. « SparseNN : A Performance-Efficient Accelerator for Large-Scale Sparse Neural Networks ». International Journal of Parallel Programming 46, no 4 (3 octobre 2017) : 648–59. http://dx.doi.org/10.1007/s10766-017-0528-8.
Texte intégralMelham, R. « A systolic accelerator for the iterative solution of sparse linear systems ». IEEE Transactions on Computers 38, no 11 (1989) : 1591–95. http://dx.doi.org/10.1109/12.42132.
Texte intégralLi, Tao, et Li Shen. « A sparse matrix vector multiplication accelerator based on high-bandwidth memory ». Computers and Electrical Engineering 105 (janvier 2023) : 108488. http://dx.doi.org/10.1016/j.compeleceng.2022.108488.
Texte intégralZhu, Chaoyang, Kejie Huang, Shuyuan Yang, Ziqi Zhu, Hejia Zhang et Haibin Shen. « An Efficient Hardware Accelerator for Structured Sparse Convolutional Neural Networks on FPGAs ». IEEE Transactions on Very Large Scale Integration (VLSI) Systems 28, no 9 (septembre 2020) : 1953–65. http://dx.doi.org/10.1109/tvlsi.2020.3002779.
Texte intégralWang, Zixiao, Ke Xu, Shuaixiao Wu, Li Liu, Lingzhi Liu et Dong Wang. « Sparse-YOLO : Hardware/Software Co-Design of an FPGA Accelerator for YOLOv2 ». IEEE Access 8 (2020) : 116569–85. http://dx.doi.org/10.1109/access.2020.3004198.
Texte intégralHumble, Ryan, William Colocho, Finn O’Shea, Daniel Ratner et Eric Darve. « Resilient VAE : Unsupervised Anomaly Detection at the SLAC Linac Coherent Light Source ». EPJ Web of Conferences 295 (2024) : 09033. http://dx.doi.org/10.1051/epjconf/202429509033.
Texte intégralLiang, Zhongwei, Xiaochu Liu, Guilin Wen et Jinrui Xiao. « Effectiveness prediction of abrasive jetting stream of accelerator tank using normalized sparse autoencoder-adaptive neural fuzzy inference system ». Proceedings of the Institution of Mechanical Engineers, Part B : Journal of Engineering Manufacture 234, no 13 (26 juin 2020) : 1615–39. http://dx.doi.org/10.1177/0954405420927582.
Texte intégralShimoda, Masayuki, Youki Sada et Hiroki Nakahara. « FPGA-Based Inter-layer Pipelined Accelerators for Filter-Wise Weight-Balanced Sparse Fully Convolutional Networks with Overlapped Tiling ». Journal of Signal Processing Systems 93, no 5 (13 février 2021) : 499–512. http://dx.doi.org/10.1007/s11265-021-01642-6.
Texte intégralWang, Miao, Xiaoya Fan, Wei Zhang, Ting Zhu, Tengteng Yao, Hui Ding et Danghui Wang. « Balancing memory-accessing and computing over sparse DNN accelerator via efficient data packaging ». Journal of Systems Architecture 117 (août 2021) : 102094. http://dx.doi.org/10.1016/j.sysarc.2021.102094.
Texte intégralZhao, Yunping, Jianzhuang Lu et Xiaowen Chen. « A Dynamically Reconfigurable Accelerator Design Using a Sparse-Winograd Decomposition Algorithm for CNNs ». Computers, Materials & ; Continua 66, no 1 (2020) : 517–35. http://dx.doi.org/10.32604/cmc.2020.012380.
Texte intégralLiu, Zhi-Gang, Paul N. Whatmough et Matthew Mattina. « Systolic Tensor Array : An Efficient Structured-Sparse GEMM Accelerator for Mobile CNN Inference ». IEEE Computer Architecture Letters 19, no 1 (1 janvier 2020) : 34–37. http://dx.doi.org/10.1109/lca.2020.2979965.
Texte intégralPham, Duc-An, et Bo-Cheng Lai. « Dataflow and microarchitecture co-optimisation for sparse CNN on distributed processing element accelerator ». IET Circuits, Devices & ; Systems 14, no 8 (1 novembre 2020) : 1185–94. http://dx.doi.org/10.1049/iet-cds.2019.0225.
Texte intégralZhang, Min, Linpeng Li, Hai Wang, Yan Liu, Hongbo Qin et Wei Zhao. « Optimized Compression for Implementing Convolutional Neural Networks on FPGA ». Electronics 8, no 3 (6 mars 2019) : 295. http://dx.doi.org/10.3390/electronics8030295.
Texte intégralLiu, Chester, Sung-Gun Cho et Zhengya Zhang. « A 2.56-mm2 718GOPS Configurable Spiking Convolutional Sparse Coding Accelerator in 40-nm CMOS ». IEEE Journal of Solid-State Circuits 53, no 10 (octobre 2018) : 2818–27. http://dx.doi.org/10.1109/jssc.2018.2865457.
Texte intégralAimar, Alessandro, Hesham Mostafa, Enrico Calabrese, Antonio Rios-Navarro, Ricardo Tapiador-Morales, Iulia-Alexandra Lungu, Moritz B. Milde et al. « NullHop : A Flexible Convolutional Neural Network Accelerator Based on Sparse Representations of Feature Maps ». IEEE Transactions on Neural Networks and Learning Systems 30, no 3 (mars 2019) : 644–56. http://dx.doi.org/10.1109/tnnls.2018.2852335.
Texte intégralQian, Cheng, Bruce Childers, Libo Huang, Hui Guo et Zhiying Wang. « CGAcc : A Compressed Sparse Row Representation-Based BFS Graph Traversal Accelerator on Hybrid Memory Cube ». Electronics 7, no 11 (7 novembre 2018) : 307. http://dx.doi.org/10.3390/electronics7110307.
Texte intégralBian, Haoqiong, Tiannan Sha et Anastasia Ailamaki. « Using Cloud Functions as Accelerator for Elastic Data Analytics ». Proceedings of the ACM on Management of Data 1, no 2 (13 juin 2023) : 1–27. http://dx.doi.org/10.1145/3589306.
Texte intégralChen, Xi, Chang Gao, Zuowen Wang, Longbiao Cheng, Sheng Zhou, Shih-Chii Liu et Tobi Delbruck. « Exploiting Symmetric Temporally Sparse BPTT for Efficient RNN Training ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 10 (24 mars 2024) : 11399–406. http://dx.doi.org/10.1609/aaai.v38i10.29020.
Texte intégralWeng, Yui-Kai, Shih-Hsu Huang et Hsu-Yu Kao. « Block-Based Compression and Corresponding Hardware Circuits for Sparse Activations ». Sensors 21, no 22 (10 novembre 2021) : 7468. http://dx.doi.org/10.3390/s21227468.
Texte intégralXu, Shiyao, Jingfei Jiang, jinwei Xu et Xifu Qian. « Efficient SpMM Accelerator for Deep Learning : Sparkle and Its Automated Generator ». ACM Transactions on Reconfigurable Technology and Systems, 7 juin 2024. http://dx.doi.org/10.1145/3665896.
Texte intégralHwang, Soojin, Daehyeon Baek, Jongse Park et Jaehyuk Huh. « Cerberus : Triple Mode Acceleration of Sparse Matrix and Vector Multiplication ». ACM Transactions on Architecture and Code Optimization, 17 mars 2024. http://dx.doi.org/10.1145/3653020.
Texte intégralXie, Kunpeng, Ye Lu, Xinyu He, Dezhi Yi, Huijuan Dong et Yao Chen. « Winols : A Large-Tiling Sparse Winograd CNN Accelerator on FPGAs ». ACM Transactions on Architecture and Code Optimization, 31 janvier 2024. http://dx.doi.org/10.1145/3643682.
Texte intégralWang, Bo, Sheng Ma, Shengbai Luo, Lizhou Wu, Jianmin Zhang, Chunyuan Zhang et Tiejun Li. « SparGD : A Sparse GEMM Accelerator with Dynamic Dataflow ». ACM Transactions on Design Automation of Electronic Systems, 27 novembre 2023. http://dx.doi.org/10.1145/3634703.
Texte intégralSoltaniyeh, Mohammadreza, Richard P. Martin et Santosh Nagarakatte. « An Accelerator for Sparse Convolutional Neural Networks Leveraging Systolic General Matrix-Matrix Multiplication ». ACM Transactions on Architecture and Code Optimization, 25 avril 2022. http://dx.doi.org/10.1145/3532863.
Texte intégralSoltaniyeh, Mohammadreza, Richard P. Martin et Santosh Nagarakatte. « An Accelerator for Sparse Convolutional Neural Networks Leveraging Systolic General Matrix-Matrix Multiplication ». ACM Transactions on Architecture and Code Optimization, 25 avril 2022. http://dx.doi.org/10.1145/3532863.
Texte intégralDel Sarto, Nicola, Diane A. Isabelle, Valentina Cucino et Alberto Di Minin. « Engaging with startups through corporate accelerators : the case of H‐FARM's White Label Accelerator ». R&D Management, 9 juillet 2024. http://dx.doi.org/10.1111/radm.12705.
Texte intégral