Artykuły w czasopismach na temat „Neural network accelerator”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 50 najlepszych artykułów w czasopismach naukowych na temat „Neural network accelerator”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj artykuły w czasopismach z różnych dziedzin i twórz odpowiednie bibliografie.
Eliahu, Adi, Ronny Ronen, Pierre-Emmanuel Gaillardon i Shahar Kvatinsky. "multiPULPly". ACM Journal on Emerging Technologies in Computing Systems 17, nr 2 (kwiecień 2021): 1–27. http://dx.doi.org/10.1145/3432815.
Pełny tekst źródłaCho, Jaechan, Yongchul Jung, Seongjoo Lee i Yunho Jung. "Reconfigurable Binary Neural Network Accelerator with Adaptive Parallelism Scheme". Electronics 10, nr 3 (20.01.2021): 230. http://dx.doi.org/10.3390/electronics10030230.
Pełny tekst źródłaNoskova, E. S., I. E. Zakharov, Y. N. Shkandybin i S. G. Rykovanov. "Towards energy-efficient neural network calculations". Computer Optics 46, nr 1 (luty 2022): 160–66. http://dx.doi.org/10.18287/2412-6179-co-914.
Pełny tekst źródłaHong, JiUn, Saad Arslan, TaeGeon Lee i HyungWon Kim. "Design of Power-Efficient Training Accelerator for Convolution Neural Networks". Electronics 10, nr 7 (26.03.2021): 787. http://dx.doi.org/10.3390/electronics10070787.
Pełny tekst źródłaFerianc, Martin, Hongxiang Fan, Divyansh Manocha, Hongyu Zhou, Shuanglong Liu, Xinyu Niu i Wayne Luk. "Improving Performance Estimation for Design Space Exploration for Convolutional Neural Network Accelerators". Electronics 10, nr 4 (23.02.2021): 520. http://dx.doi.org/10.3390/electronics10040520.
Pełny tekst źródłaSunny, Febin P., Asif Mirza, Mahdi Nikdast i Sudeep Pasricha. "ROBIN: A Robust Optical Binary Neural Network Accelerator". ACM Transactions on Embedded Computing Systems 20, nr 5s (31.10.2021): 1–24. http://dx.doi.org/10.1145/3476988.
Pełny tekst źródłaAnmin, Kong, i Zhao Bin. "A Parallel Loading Based Accelerator for Convolution Neural Network". International Journal of Machine Learning and Computing 10, nr 5 (5.10.2020): 669–74. http://dx.doi.org/10.18178/ijmlc.2020.10.5.989.
Pełny tekst źródłaXia, Chengpeng, Yawen Chen, Haibo Zhang, Hao Zhang, Fei Dai i Jigang Wu. "Efficient neural network accelerators with optical computing and communication". Computer Science and Information Systems, nr 00 (2022): 66. http://dx.doi.org/10.2298/csis220131066x.
Pełny tekst źródłaTang, Wenkai, i Peiyong Zhang. "GPGCN: A General-Purpose Graph Convolution Neural Network Accelerator Based on RISC-V ISA Extension". Electronics 11, nr 22 (21.11.2022): 3833. http://dx.doi.org/10.3390/electronics11223833.
Pełny tekst źródłaAn, Fubang, Lingli Wang i Xuegong Zhou. "A High Performance Reconfigurable Hardware Architecture for Lightweight Convolutional Neural Network". Electronics 12, nr 13 (27.06.2023): 2847. http://dx.doi.org/10.3390/electronics12132847.
Pełny tekst źródłaBiookaghazadeh, Saman, Pravin Kumar Ravi i Ming Zhao. "Toward Multi-FPGA Acceleration of the Neural Networks". ACM Journal on Emerging Technologies in Computing Systems 17, nr 2 (kwiecień 2021): 1–23. http://dx.doi.org/10.1145/3432816.
Pełny tekst źródłaGe, Fen, Ning Wu, Hao Xiao, Yuanyuan Zhang i Fang Zhou. "Compact Convolutional Neural Network Accelerator for IoT Endpoint SoC". Electronics 8, nr 5 (5.05.2019): 497. http://dx.doi.org/10.3390/electronics8050497.
Pełny tekst źródłaClements, Joseph, i Yingjie Lao. "DeepHardMark: Towards Watermarking Neural Network Hardware". Proceedings of the AAAI Conference on Artificial Intelligence 36, nr 4 (28.06.2022): 4450–58. http://dx.doi.org/10.1609/aaai.v36i4.20367.
Pełny tekst źródłaXia, Chengpeng, Yawen Chen, Haibo Zhang i Jigang Wu. "STADIA: Photonic Stochastic Gradient Descent for Neural Network Accelerators". ACM Transactions on Embedded Computing Systems 22, nr 5s (9.09.2023): 1–23. http://dx.doi.org/10.1145/3607920.
Pełny tekst źródłaWei, Rongshan, Chenjia Li, Chuandong Chen, Guangyu Sun i Minghua He. "Memory Access Optimization of a Neural Network Accelerator Based on Memory Controller". Electronics 10, nr 4 (10.02.2021): 438. http://dx.doi.org/10.3390/electronics10040438.
Pełny tekst źródłaHu, Jian, Xianlong Zhang i Xiaohua Shi. "Simulating Neural Network Processors". Wireless Communications and Mobile Computing 2022 (23.02.2022): 1–12. http://dx.doi.org/10.1155/2022/7500195.
Pełny tekst źródłaChen, Weijian, Zhi Qi, Zahid Akhtar i Kamran Siddique. "Resistive-RAM-Based In-Memory Computing for Neural Network: A Review". Electronics 11, nr 22 (9.11.2022): 3667. http://dx.doi.org/10.3390/electronics11223667.
Pełny tekst źródłaLim, Se-Min, i Sang-Woo Jun. "MobileNets Can Be Lossily Compressed: Neural Network Compression for Embedded Accelerators". Electronics 11, nr 6 (9.03.2022): 858. http://dx.doi.org/10.3390/electronics11060858.
Pełny tekst źródłaAfifi, Salma, Febin Sunny, Amin Shafiee, Mahdi Nikdast i Sudeep Pasricha. "GHOST: A Graph Neural Network Accelerator using Silicon Photonics". ACM Transactions on Embedded Computing Systems 22, nr 5s (9.09.2023): 1–25. http://dx.doi.org/10.1145/3609097.
Pełny tekst źródłaLi, Yihang. "Sparse-Aware Deep Learning Accelerator". Highlights in Science, Engineering and Technology 39 (1.04.2023): 305–10. http://dx.doi.org/10.54097/hset.v39i.6544.
Pełny tekst źródłaXie, Xiaoru, Mingyu Zhu, Siyuan Lu i Zhongfeng Wang. "Efficient Layer-Wise N:M Sparse CNN Accelerator with Flexible SPEC: Sparse Processing Element Clusters". Micromachines 14, nr 3 (24.02.2023): 528. http://dx.doi.org/10.3390/mi14030528.
Pełny tekst źródłaYang, Zhi. "Dynamic Logo Design System of Network Media Art Based on Convolutional Neural Network". Mobile Information Systems 2022 (31.05.2022): 1–10. http://dx.doi.org/10.1155/2022/3247229.
Pełny tekst źródłaHosseini, Morteza, i Tinoosh Mohsenin. "Binary Precision Neural Network Manycore Accelerator". ACM Journal on Emerging Technologies in Computing Systems 17, nr 2 (kwiecień 2021): 1–27. http://dx.doi.org/10.1145/3423136.
Pełny tekst źródłaPark, Sang-Soo, i Ki-Seok Chung. "CENNA: Cost-Effective Neural Network Accelerator". Electronics 9, nr 1 (10.01.2020): 134. http://dx.doi.org/10.3390/electronics9010134.
Pełny tekst źródłaKim, Dongyoung, Junwhan Ahn i Sungjoo Yoo. "ZeNA: Zero-Aware Neural Network Accelerator". IEEE Design & Test 35, nr 1 (luty 2018): 39–46. http://dx.doi.org/10.1109/mdat.2017.2741463.
Pełny tekst źródłaChen, Tianshi, Zidong Du, Ninghui Sun, Jia Wang, Chengyong Wu, Yunji Chen i Olivier Temam. "A High-Throughput Neural Network Accelerator". IEEE Micro 35, nr 3 (maj 2015): 24–32. http://dx.doi.org/10.1109/mm.2015.41.
Pełny tekst źródłaTo, Chun-Hao, Eduardo Rozo, Elisabeth Krause, Hao-Yi Wu, Risa H. Wechsler i Andrés N. Salcedo. "LINNA: Likelihood Inference Neural Network Accelerator". Journal of Cosmology and Astroparticle Physics 2023, nr 01 (1.01.2023): 016. http://dx.doi.org/10.1088/1475-7516/2023/01/016.
Pełny tekst źródłaLiang, Yong, Junwen Tan, Zhisong Xie, Zetao Chen, Daoqian Lin i Zhenhao Yang. "Research on Convolutional Neural Network Inference Acceleration and Performance Optimization for Edge Intelligence". Sensors 24, nr 1 (31.12.2023): 240. http://dx.doi.org/10.3390/s24010240.
Pełny tekst źródłaLiu, Yang, Yiheng Zhang, Xiaoran Hao, Lan Chen, Mao Ni, Ming Chen i Rong Chen. "Design of a Convolutional Neural Network Accelerator Based on On-Chip Data Reordering". Electronics 13, nr 5 (4.03.2024): 975. http://dx.doi.org/10.3390/electronics13050975.
Pełny tekst źródłaRo, Yuhwan, Eojin Lee i Jung Ahn. "Evaluating the Impact of Optical Interconnects on a Multi-Chip Machine-Learning Architecture". Electronics 7, nr 8 (27.07.2018): 130. http://dx.doi.org/10.3390/electronics7080130.
Pełny tekst źródłaHuang, Hongmin, Zihao Liu, Taosheng Chen, Xianghong Hu, Qiming Zhang i Xiaoming Xiong. "Design Space Exploration for YOLO Neural Network Accelerator". Electronics 9, nr 11 (16.11.2020): 1921. http://dx.doi.org/10.3390/electronics9111921.
Pełny tekst źródłaChen, Zhimei. "Hardware Accelerated Optimization of Deep Learning Model on Artificial Intelligence Chip". Frontiers in Computing and Intelligent Systems 6, nr 2 (15.12.2023): 11–14. http://dx.doi.org/10.54097/fcis.v6i2.03.
Pełny tekst źródłaBrennsteiner, Stefan, Tughrul Arslan, John Thompson i Andrew McCormick. "A Real-Time Deep Learning OFDM Receiver". ACM Transactions on Reconfigurable Technology and Systems 15, nr 3 (30.09.2022): 1–25. http://dx.doi.org/10.1145/3494049.
Pełny tekst źródłaCho, Mannhee, i Youngmin Kim. "FPGA-Based Convolutional Neural Network Accelerator with Resource-Optimized Approximate Multiply-Accumulate Unit". Electronics 10, nr 22 (19.11.2021): 2859. http://dx.doi.org/10.3390/electronics10222859.
Pełny tekst źródłaChoubey, Abhishek, i Shruti Bhargava Choubey. "A Promising Hardware Accelerator with PAST Adder". Advances in Science and Technology 105 (kwiecień 2021): 241–48. http://dx.doi.org/10.4028/www.scientific.net/ast.105.241.
Pełny tekst źródłade Sousa, André L., Mário P. Véstias i Horácio C. Neto. "Multi-Model Inference Accelerator for Binary Convolutional Neural Networks". Electronics 11, nr 23 (30.11.2022): 3966. http://dx.doi.org/10.3390/electronics11233966.
Pełny tekst źródłaKang, Soongyu, Seongjoo Lee i Yunho Jung. "Design of Network-on-Chip-Based Restricted Coulomb Energy Neural Network Accelerator on FPGA Device". Sensors 24, nr 6 (15.03.2024): 1891. http://dx.doi.org/10.3390/s24061891.
Pełny tekst źródłaCosatto, E., i H. P. Craf. "A neural network accelerator for image analysis". IEEE Micro 15, nr 3 (czerwiec 1995): 32–38. http://dx.doi.org/10.1109/40.387680.
Pełny tekst źródłaKuznar, Damian, Robert Szczygiel, Piotr Maj i Anna Kozioł. "Design of artificial neural network hardware accelerator". Journal of Instrumentation 18, nr 04 (1.04.2023): C04013. http://dx.doi.org/10.1088/1748-0221/18/04/c04013.
Pełny tekst źródłaWang, Yuejiao, Zhong Ma i Zunming Yang. "Sequential Characteristics Based Operators Disassembly Quantization Method for LSTM Layers". Applied Sciences 12, nr 24 (12.12.2022): 12744. http://dx.doi.org/10.3390/app122412744.
Pełny tekst źródłaSeto, Kenshu. "A Survey on System-Level Design of Neural Network Accelerators". Journal of Integrated Circuits and Systems 16, nr 2 (18.08.2021): 1–10. http://dx.doi.org/10.29292/jics.v16i2.505.
Pełny tekst źródłaPark, Sang-Soo, i Ki-Seok Chung. "CONNA: Configurable Matrix Multiplication Engine for Neural Network Acceleration". Electronics 11, nr 15 (29.07.2022): 2373. http://dx.doi.org/10.3390/electronics11152373.
Pełny tekst źródłaWang, Hongzhe, Junjie Wang, Hao Hu, Guo Li, Shaogang Hu, Qi Yu, Zhen Liu, Tupei Chen, Shijie Zhou i Yang Liu. "Ultra-High-Speed Accelerator Architecture for Convolutional Neural Network Based on Processing-in-Memory Using Resistive Random Access Memory". Sensors 23, nr 5 (21.02.2023): 2401. http://dx.doi.org/10.3390/s23052401.
Pełny tekst źródłaGowda, Kavitha Malali Vishveshwarappa, Sowmya Madhavan, Stefano Rinaldi, Parameshachari Bidare Divakarachari i Anitha Atmakur. "FPGA-Based Reconfigurable Convolutional Neural Network Accelerator Using Sparse and Convolutional Optimization". Electronics 11, nr 10 (22.05.2022): 1653. http://dx.doi.org/10.3390/electronics11101653.
Pełny tekst źródłaC., Dr Aarthi, i Kowsalya S. "Feed Forward Neural Network With Column-Wise Matrix–Vector Multiplication on FPGAs". International Research Journal of Computer Science 11, nr 04 (5.04.2024): 355–59. http://dx.doi.org/10.26562/irjcs.2024.v1104.42.
Pełny tekst źródłaHou, Jia, Zichu Liu, Zepeng Yang i Chen Yang. "Hardware Trojan Attacks on the Reconfigurable Interconnections of Field-Programmable Gate Array-Based Convolutional Neural Network Accelerators and a Physically Unclonable Function-Based Countermeasure Detection Technique". Micromachines 15, nr 1 (19.01.2024): 149. http://dx.doi.org/10.3390/mi15010149.
Pełny tekst źródłaDeng, Bao, i Hao Lv. "Research on Dynamic Reconfigurable Convolutional Neural Network Accelerator". Journal of Physics: Conference Series 1952, nr 3 (1.06.2021): 032045. http://dx.doi.org/10.1088/1742-6596/1952/3/032045.
Pełny tekst źródłaYAN, Jiale, Ying ZHANG, Fengbin TU, Jianxun YANG, Shixuan ZHENG, Peng OUYANG, Leibo LIU, Yuan XIE, Shaojun WEI i Shouyi YIN. "Research on low-power neural network computing accelerator". SCIENTIA SINICA Informationis 49, nr 3 (1.03.2019): 314–33. http://dx.doi.org/10.1360/n112018-00282.
Pełny tekst źródłaKim, Doo Young, Jin Min Kim, Hakbeom Jang, Jinkyu Jeong i Jae W. Lee. "A neural network accelerator for mobile application processors". IEEE Transactions on Consumer Electronics 61, nr 4 (listopad 2015): 555–63. http://dx.doi.org/10.1109/tce.2015.7389812.
Pełny tekst źródłaGao, Chang, Antonio Rios-Navarro, Xi Chen, Shih-Chii Liu i Tobi Delbruck. "EdgeDRNN: Recurrent Neural Network Accelerator for Edge Inference". IEEE Journal on Emerging and Selected Topics in Circuits and Systems 10, nr 4 (grudzień 2020): 419–32. http://dx.doi.org/10.1109/jetcas.2020.3040300.
Pełny tekst źródła