Literatura académica sobre el tema "Lowe Power Accelerators"
Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros
Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Lowe Power Accelerators".
Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.
También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.
Artículos de revistas sobre el tema "Lowe Power Accelerators"
Zhao, Yulin, Donghui Wang y Leiou Wang. "Convolution Accelerator Designs Using Fast Algorithms". Algorithms 12, n.º 5 (27 de mayo de 2019): 112. http://dx.doi.org/10.3390/a12050112.
Texto completoGaldeckiy, Anatoliy. "On Prospects of Output Power Increasing in Low-Voltage Multibeam Klystrons for Electron Accelerators". Infocommunications and Radio Technologies 5, n.º 1 (25 de marzo de 2022): 93–100. http://dx.doi.org/10.29039/2587-9936.2022.05.1.07.
Texto completoZimek, Zbigniew. "Economical evaluation of radiation processing with high-intensity X-rays". Nukleonika 65, n.º 3 (1 de septiembre de 2020): 167–72. http://dx.doi.org/10.2478/nuka-2020-0027.
Texto completoBarbareschi, Mario, Salvatore Barone y Nicola Mazzocca. "Advancing synthesis of decision tree-based multiple classifier systems: an approximate computing case study". Knowledge and Information Systems 63, n.º 6 (12 de abril de 2021): 1577–96. http://dx.doi.org/10.1007/s10115-021-01565-5.
Texto completoWolfenden, Joseph, Alexandra S. Alexandrova, Frank Jackson, Storm Mathisen, Geoffrey Morris, Thomas H. Pacey, Narender Kumar, Monika Yadav, Angus Jones y Carsten P. Welsch. "Cherenkov Radiation in Optical Fibres as a Versatile Machine Protection System in Particle Accelerators". Sensors 23, n.º 4 (16 de febrero de 2023): 2248. http://dx.doi.org/10.3390/s23042248.
Texto completoLangerman, David y Alan George. "Real-time, High-resolution Depth Upsampling on Embedded Accelerators". ACM Transactions on Embedded Computing Systems 20, n.º 3 (abril de 2021): 1–22. http://dx.doi.org/10.1145/3436878.
Texto completoFreda, Robert, Bradford Knight y Siddharth Pannir. "A Theory for Power Extraction from Passive Accelerators and Confined Flows". Energies 13, n.º 18 (16 de septiembre de 2020): 4854. http://dx.doi.org/10.3390/en13184854.
Texto completoTian, Shuo, Lei Wang, Shi Xu, Shasha Guo, Zhijie Yang, Jianfeng Zhang y Weixia Xu. "A Systolic Accelerator for Neuromorphic Visual Recognition". Electronics 9, n.º 10 (15 de octubre de 2020): 1690. http://dx.doi.org/10.3390/electronics9101690.
Texto completoHaugen, K. L., K. Papastergiou, P. Asimakopoulos y D. Peftitsis. "High precision scalable power converter for accelerator magnets". Journal of Instrumentation 17, n.º 03 (1 de marzo de 2022): C03021. http://dx.doi.org/10.1088/1748-0221/17/03/c03021.
Texto completoShin, Isu, Jongsang Son, Soonjae Ahn, Jeseong Ryu, Sunwoo Park, Jongman Kim, Baekdong Cha, Eunkyoung Choi y Youngho Kim. "A Novel Short-Time Fourier Transform-Based Fall Detection Algorithm Using 3-Axis Accelerations". Mathematical Problems in Engineering 2015 (2015): 1–7. http://dx.doi.org/10.1155/2015/394340.
Texto completoTesis sobre el tema "Lowe Power Accelerators"
ROOZMEH, MEHDI. "High Performance Computing via High Level Synthesis". Doctoral thesis, Politecnico di Torino, 2018. http://hdl.handle.net/11583/2710706.
Texto completoRiera, Villanueva Marc. "Low-power accelerators for cognitive computing". Doctoral thesis, Universitat Politècnica de Catalunya, 2020. http://hdl.handle.net/10803/669828.
Texto completoLes xarxes neuronals profundes (DNN) han aconseguit un èxit enorme en aplicacions cognitives, i són especialment eficients en problemes de classificació i presa de decisions com ara reconeixement de veu o traducció automàtica. Els dispositius mòbils depenen cada cop més de les DNNs per entendre el món. Els telèfons i rellotges intel·ligents, o fins i tot els cotxes, realitzen diàriament tasques discriminatòries com ara el reconeixement de rostres o objectes. Malgrat la popularitat creixent de les DNNs, el seu funcionament en sistemes mòbils presenta diversos reptes: proporcionar una alta precisió i rendiment amb un petit pressupost de memòria i energia. Les DNNs modernes consisteixen en milions de paràmetres que requereixen recursos computacionals i de memòria enormes i, per tant, no es poden utilitzar directament en sistemes de baixa potència amb recursos limitats. L'objectiu d'aquesta tesi és abordar aquests problemes i proposar noves solucions per tal de dissenyar acceleradors eficients per a sistemes de computació cognitiva basats en DNNs. En primer lloc, ens centrem en optimitzar la inferència de les DNNs per a aplicacions de processament de seqüències. Realitzem una anàlisi de la similitud de les entrades entre execucions consecutives de les DNNs. A continuació, proposem DISC, un accelerador que implementa una tècnica de càlcul diferencial, basat en l'alt grau de semblança de les entrades, per reutilitzar els càlculs de l'execució anterior, en lloc de computar tota la xarxa. Observem que, de mitjana, més del 60% de les entrades de qualsevol capa de les DNNs utilitzades presenten canvis menors respecte a l'execució anterior. Evitar els accessos de memòria i càlculs d'aquestes entrades comporta un estalvi d'energia del 63% de mitjana. En segon lloc, proposem optimitzar la inferència de les DNNs basades en capes FC. Primer analitzem el nombre de pesos únics per neurona d'entrada en diverses xarxes. Aprofitant optimitzacions comunes com la quantització lineal, observem un nombre molt reduït de pesos únics per entrada en diverses capes FC de DNNs modernes. A continuació, per millorar l'eficiència energètica del càlcul de les capes FC, presentem CREW, un accelerador que implementa un eficient mecanisme de reutilització de càlculs i emmagatzematge dels pesos. CREW redueix el nombre de multiplicacions i proporciona estalvis importants en l'ús de la memòria. Avaluem CREW en un conjunt divers de DNNs modernes. CREW proporciona, de mitjana, una millora en rendiment de 2,61x i un estalvi d'energia de 2,42x. En tercer lloc, proposem un mecanisme per optimitzar la inferència de les RNNs. Les cel·les de les xarxes recurrents realitzen multiplicacions element a element de les activacions de diferents comportes, sigmoides i tanh sent les funcions habituals d'activació. Realitzem una anàlisi dels valors de les funcions d'activació i mostrem que una fracció significativa està saturada cap a zero o un en un conjunto d'RNNs populars. A continuació, proposem CGPA per podar dinàmicament les activacions de les RNNs a una granularitat gruixuda. CGPA evita l'avaluació de neurones senceres cada vegada que les sortides de neurones parelles estan saturades. CGPA redueix significativament la quantitat de càlculs i accessos a la memòria, aconseguint en mitjana un 12% de millora en el rendiment i estalvi d'energia. Finalment, en l'última contribució d'aquesta tesi ens centrem en metodologies de poda estàtica de les DNNs. La poda redueix la petjada de memòria i el treball computacional mitjançant l'eliminació de connexions o neurones redundants. Tanmateix, mostrem que els esquemes de poda previs fan servir un procés iteratiu molt llarg que requereix l'entrenament de les DNNs moltes vegades per ajustar els paràmetres de poda. A continuació, proposem un esquema de poda basat en l'anàlisi de components principals i la importància relativa de les connexions de cada neurona que optimitza automàticament el DNN optimitzat en un sol tret sense necessitat de sintonitzar manualment múltiples paràmetres
Yang, Yunfeng. "Low Power UDP/IP Accelerator for IM3910 Processor". Thesis, KTH, Skolan för informations- och kommunikationsteknik (ICT), 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-92241.
Texto completoYazdani, Aminabadi Reza. "Ultra low-power, high-performance accelerator for speech recognition". Doctoral thesis, Universitat Politècnica de Catalunya, 2019. http://hdl.handle.net/10803/667429.
Texto completoLos sistemas de reconocimiento automático del habla (ASR por sus siglas en inglés, Automatic Speech Recognition) son sin lugar a dudas una de las aplicaciones más relevantes en el área emergente de aprendizaje profundo (Deep Learning), specialmente en el segmento de los dispositivos móviles. Realizar el reconocimiento del habla de forma rápida y precisa tiene un elevado coste en energía, requiere de gran capacidad de memoria y de cómputo, lo cual no es deseable en sistemas móviles que tienen severas restricciones de consumo energético y disipación de potencia. El uso de arquitecturas específicas en forma de aceleradores hardware permite reducir el consumo energético de los sistemas de reconocimiento del habla, al tiempo que mejora el rendimiento y reduce la presión en el sistema de memoria. En esta tesis presentamos un acelerador específicamente diseñado para sistemas de reconocimiento del habla de gran vocabulario, independientes del orador y que funcionan en tiempo real. Un sistema de reconocimiento del habla estado del arte consiste principalmente en dos componentes: el modelo acústico basado en una red neuronal profunda (DNN, Deep Neural Network) y la búsqueda de Viterbi basada en un grafo que representa el lenguaje. Como primer objetivo nos centramos en la búsqueda de Viterbi, ya que representa el principal cuello de botella en los sistemas ASR. El acelerador para el algoritmo de Viterbi incluye técnicas innovadoras para mejorar el sistema de memoria, que es el mayor cuello de botella en rendimiento y energía, incluyendo técnicas de pre-búsqueda y una nueva técnica de ahorro de ancho de banda a memoria principal específicamente diseñada para sistemas ASR. Además, como el grafo que representa el lenguaje requiere de gran capacidad de almacenamiento en memoria (más de 1 GB), proponemos cambiar su representación y dividirlo en distintos grafos que se componen en tiempo de ejecución durante la búsqueda de Viterbi. De esta forma conseguimos reducir el almacenamiento en memoria principal en un factor de 31x, alcanzar un rendimiento 155 veces superior a tiempo real y reducir el consumo energético y la disipación de potencia en varios órdenes de magnitud comparado con las CPUs y las GPUs. En el siguiente paso, proponemos un novedoso sistema hardware para reconocimiento del habla que integra de forma efectiva un acelerador para DNNs podadas y cuantizadas con el acelerador de Viterbi. Nuestros resultados muestran que podar y/o cuantizar el DNN para el modelo acústico permite mantener la precisión pero causa un incremento en el tiempo de ejecución del sistema completo de hasta el 33%. Aunque podar/cuantizar mejora la eficiencia del DNN, éstas técnicas producen un gran incremento en la carga de trabajo de la búsqueda de Viterbi ya que las probabilidades calculadas por el DNN son menos fiables, es decir, se reduce la confianza en las predicciones del modelo acústico. Con el fin de evitar un incremento inaceptable en la carga de trabajo de la búsqueda de Viterbi, nuestro sistema restringe la búsqueda a las N hipótesis más probables en cada paso de la búsqueda. Nuestra solución permite combinar de forma efectiva un acelerador de DNNs con un acelerador de Viterbi incluyendo todas las optimizaciones de poda/cuantización. Nuestro resultados experimentales muestran que dicho sistema alcanza un rendimiento 222 veces superior a tiempo real con una disipación de potencia de 1.26 vatios, unos requisitos de memoria modestos de 41 MB y un uso de ancho de banda a memoria principal de, como máximo, 381 MB/s, ofreciendo una solución adecuada para dispositivos móviles.
Prasad, Rohit <1991>. "Integrated Programmable-Array accelerator to design heterogeneous ultra-low power manycore architectures". Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2022. http://amsdottorato.unibo.it/9983/1/PhD_thesis__20_January_2022_.pdf.
Texto completoTabani, Hamid. "Low-power architectures for automatic speech recognition". Doctoral thesis, Universitat Politècnica de Catalunya, 2018. http://hdl.handle.net/10803/462249.
Texto completoEl reconocimiento automático de voz (ASR) es una de las aplicaciones más importantes en el área de la computación cognitiva. ASR rápido y preciso se está convirtiendo en una aplicación clave para dispositivos móviles y portátiles. Estos dispositivos, como los Smartphones, han incorporado el reconocimiento de voz como una de las principales interfaces de usuario. Es probable que esta tendencia hacia las interfaces de usuario basadas en voz continúe en los próximos años, lo que está cambiando la forma de interacción humano-máquina. Los sistemas de reconocimiento de voz efectivos requieren un reconocimiento en tiempo real, que es un desafío para los dispositivos móviles debido a la naturaleza de cálculo intensivo del problema y las limitaciones de potencia de dichos sistemas y supone un gran esfuerzo para las arquitecturas de CPU. Las arquitecturas GPU ofrecen capacidades de paralelización que pueden aprovecharse para aumentar el rendimiento de los sistemas de reconocimiento de voz. Sin embargo, la utilización eficiente de los recursos de la GPU para el reconocimiento de voz también es un desafío, ya que las implementaciones de software presentan accesos de memoria irregulares e impredecibles y una localidad temporal deficiente. El propósito de esta tesis es estudiar las características de los sistemas ASR que se ejecutan en dispositivos móviles de baja potencia para proponer diferentes técnicas para mejorar el rendimiento y el consumo de energía. Proponemos varias optimizaciones a nivel de software impulsadas por el análisis de potencia y rendimiento. A diferencia de las propuestas anteriores que intercambian precisión por el rendimiento al reducir el número de gaussianas evaluadas, mantenemos la precisión y mejoramos el rendimiento mediante el uso efectivo de la microarquitectura subyacente de la CPU. Usamos una implementación refactorizada del código de evaluación de GMM para reducir el impacto de las instrucciones de salto. Explotamos la unidad vectorial disponible en la mayoría de las CPU modernas para impulsar el cálculo de GMM. Además, calculamos las gaussianas para múltiples frames en paralelo, lo que reduce significativamente el uso de ancho de banda de memoria. Nuestros resultados experimentales muestran que las optimizaciones propuestas proporcionan un speedup de 2.68x sobre el decodificador Pocketsphinx en una CPU Intel Skylake de alta gama, mientras que logra un ahorro de energía del 61%. En segundo lugar, proponemos una técnica de renombrado de registros que explota la reutilización de registros físicos para reducir la presión sobre el banco de registros. Nuestra técnica aprovecha el uso compartido de registros físicos mediante la introducción de cambios en la tabla de renombrado de registros y la issue queue. Evaluamos nuestra técnica de renombrado sobre un procesador moderno. El esquema propuesto admite excepciones precisas y da como resultado mejoras de rendimiento del 9.5% para la evaluación GMM. Nuestros resultados experimentales muestran que el esquema de renombrado de registros propuesto proporciona un 6% de aceleración en promedio para SPEC2006. Finalmente, proponemos un acelerador para la evaluación de GMM que reduce el consumo de energía en tres órdenes de magnitud en comparación con soluciones basadas en CPU y GPU. El acelerador propuesto implementa un esquema de evaluación perezosa donde las GMMs se calculan bajo demanda, evitando el 50% de los cálculos. Finalmente, incluye un esquema de memorización que evita el 74.88% de las operaciones de coma flotante. El diseño final proporciona una aceleración de 164x y una reducción de energía de 3532x en comparación con una implementación altamente optimizada que se ejecuta en una CPU móvil moderna. Comparado con una GPU móvil de última generación, el acelerador de GMM logra un speedup de 5.89x sobre una implementación CUDA optimizada, mientras que reduce la energía en 241x.
Gandolfi, Riccardo. "Design of a memory-to-memory tensor reshuffle unit for ultra-low-power deep learning accelerators". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/23706/.
Texto completoBleakley, Steven Shea y steven bleakley@qr com au. "Time Frequency Analysis of Railway Wagon Body Accelerations for a Low-Power Autonomous Device". Central Queensland University, 2006. http://library-resources.cqu.edu.au./thesis/adt-QCQU/public/adt-QCQU20070622.121515.
Texto completoXu, Hongjie. "Energy-Efficient On-Chip Cache Architectures and Deep Neural Network Accelerators Considering the Cost of Data Movement". Doctoral thesis, Kyoto University, 2021. http://hdl.handle.net/2433/263786.
Texto completo京都大学
新制・課程博士
博士(情報学)
甲第23325号
情博第761号
京都大学大学院情報学研究科通信情報システム専攻
(主査)教授 小野寺 秀俊, 教授 大木 英司, 教授 佐藤 高史
学位規則第4条第1項該当
Doctor of Informatics
Kyoto University
DFAM
Das, Satyajit. "Architecture and Programming Model Support for Reconfigurable Accelerators in Multi-Core Embedded Systems". Thesis, Lorient, 2018. http://www.theses.fr/2018LORIS490/document.
Texto completoEmerging trends in embedded systems and applications need high throughput and low power consumption. Due to the increasing demand for low power computing and diminishing returns from technology scaling, industry and academia are turning with renewed interest toward energy efficient hardware accelerators. The main drawback of hardware accelerators is that they are not programmable. Therefore, their utilization can be low is they perform one specific function and increasing the number of the accelerators in a system on chip (SoC) causes scalability issues. Programmable accelerators provide flexibility and solve the scalability issues. Coarse-Grained Reconfigurable Array (CGRA) architecture consisting of several processing elements with word level granularity is a promising choice for programmable accelerator. Inspired by the promising characteristics of programmable accelerators, potentials of CGRAs in near threshold computing platforms are studied and an end-to-end CGRA research framework is developed in this thesis. The major contributions of this framework are: CGRA design, implementation, integration in a computing system, and compilation for CGRA. First, the design and implementation of a CGRA named Integrated Programmable Array (IPA) is presented. Next, the problem of mapping applications with control and data flow onto CGRA is formulated. From this formulation, several efficient algorithms are developed using internal resources of a CGRA, with a vision for low power acceleration. The algorithms are integrated into an automated compilation flow. Finally, the IPA accelerator is augmented in PULP - a Parallel Ultra-Low-Power Processing-Platform to explore heterogeneous computing
Capítulos de libros sobre el tema "Lowe Power Accelerators"
Kalb, Tobias, Lester Kalms, Diana Göhringer, Carlota Pons, Ananya Muddukrishna, Magnus Jahre, Boitumelo Ruf et al. "Developing Low-Power Image Processing Applications with the TULIPP Reference Platform Instance". En Hardware Accelerators in Data Centers, 181–97. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-92792-3_10.
Texto completoSeeman, J., D. Schulte, J. P. Delahaye, M. Ross, S. Stapnes, A. Grudiev, A. Yamamoto et al. "Design and Principles of Linear Accelerators and Colliders". En Particle Physics Reference Library, 295–336. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-34245-6_7.
Texto completoLiao, Chunhua, Yonghong Yan, Bronis R. de Supinski, Daniel J. Quinlan y Barbara Chapman. "Early Experiences with the OpenMP Accelerator Model". En OpenMP in the Era of Low Power Devices and Accelerators, 84–98. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-40698-0_7.
Texto completoLocharla, Govinda Rao, Pogiri Revathi y M. V. Nageswara Rao. "Compression Techniques for Low Power Hardware Accelerator Design: Case Studies". En Lecture Notes in Electrical Engineering, 117–27. Singapore: Springer Nature Singapore, 2022. http://dx.doi.org/10.1007/978-981-19-5550-1_12.
Texto completoTeruel, Xavier, Michael Klemm, Kelvin Li, Xavier Martorell, Stephen L. Olivier y Christian Terboven. "A Proposal for Task-Generating Loops in OpenMP*". En OpenMP in the Era of Low Power Devices and Accelerators, 1–14. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-40698-0_1.
Texto completoGhosh, Priyanka, Yonghong Yan, Deepak Eachempati y Barbara Chapman. "A Prototype Implementation of OpenMP Task Dependency Support". En OpenMP in the Era of Low Power Devices and Accelerators, 128–40. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-40698-0_10.
Texto completoDurand, Marie, François Broquedis, Thierry Gautier y Bruno Raffin. "An Efficient OpenMP Loop Scheduler for Irregular Applications on Large-Scale NUMA Machines". En OpenMP in the Era of Low Power Devices and Accelerators, 141–55. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-40698-0_11.
Texto completoMuddukrishna, Ananya, Peter A. Jonsson, Vladimir Vlassov y Mats Brorsson. "Locality-Aware Task Scheduling and Data Distribution on NUMA Systems". En OpenMP in the Era of Low Power Devices and Accelerators, 156–70. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-40698-0_12.
Texto completoEichenberger, Alexandre E., John Mellor-Crummey, Martin Schulz, Michael Wong, Nawal Copty, Robert Dietrich, Xu Liu, Eugene Loh y Daniel Lorenz. "OMPT: An OpenMP Tools Application Programming Interface for Performance Analysis". En OpenMP in the Era of Low Power Devices and Accelerators, 171–85. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-40698-0_13.
Texto completoQawasmeh, Ahmad, Abid Malik, Barbara Chapman, Kevin Huck y Allen Malony. "Open Source Task Profiling by Extending the OpenMP Runtime API". En OpenMP in the Era of Low Power Devices and Accelerators, 186–99. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-40698-0_14.
Texto completoActas de conferencias sobre el tema "Lowe Power Accelerators"
Cong, Jingsheng Jason. "Accelerator-rich architectures". En ISLPED'14: International Symposium on Low Power Electronics and Design. New York, NY, USA: ACM, 2014. http://dx.doi.org/10.1145/2627369.2631636.
Texto completoVenkatesan, Rangharajan y Wei Wu. "Session details: Accelerators for Machine Learning". En ISLPED '16: International Symposium on Low Power Electronics and Design. New York, NY, USA: ACM, 2016. http://dx.doi.org/10.1145/3256013.
Texto completoMoss, Arthur, Hyunjong Lee, Lei Xun, Chulhong Min, Fahim Kawsar y Alessandro Montanari. "Ultra-Low Power DNN Accelerators for IoT". En SenSys '22: The 20th ACM Conference on Embedded Networked Sensor Systems. New York, NY, USA: ACM, 2022. http://dx.doi.org/10.1145/3560905.3568300.
Texto completoYan, Mingyu, Xing Hu, Shuangchen Li, Itir Akgun, Han Li, Xin Ma, Lei Deng et al. "Balancing Memory Accesses for Energy-Efficient Graph Analytics Accelerators". En 2019 IEEE/ACM International Symposium on Low Power Electronics and Design (ISLPED). IEEE, 2019. http://dx.doi.org/10.1109/islped.2019.8824832.
Texto completoLimaye, Ankur y Tosiron Adegbija. "DOSAGE: Generating Domain-Specific Accelerators for Resource-Constrained Computing". En 2021 IEEE/ACM International Symposium on Low Power Electronics and Design (ISLPED). IEEE, 2021. http://dx.doi.org/10.1109/islped52811.2021.9502501.
Texto completoChen, Yu-Ting y Jason Cong. "Interconnect synthesis of heterogeneous accelerators in a shared memory architecture". En 2015 IEEE/ACM International Symposium on Low Power Electronics and Design (ISLPED). IEEE, 2015. http://dx.doi.org/10.1109/islped.2015.7273540.
Texto completoSedukhin, Stanislav, Yoichi Tomioka y Kohei Yamamoto. "In Search of the Performance- and Energy-Efficient CNN Accelerators". En 2021 IEEE Symposium in Low-Power and High-Speed Chips (COOL CHIPS). IEEE, 2021. http://dx.doi.org/10.1109/coolchips52128.2021.9410350.
Texto completoSunny, Shine Parekkadan y Satyajit Das. "Reinforcement Learning based Efficient Mapping of DNN Models onto Accelerators". En 2022 IEEE Symposium in Low-Power and High-Speed Chips (COOL CHIPS). IEEE, 2022. http://dx.doi.org/10.1109/coolchips54332.2022.9772673.
Texto completoCong, Jason, Mohammad Ali Ghodrat, Michael Gill, Beayna Grigorian, Hui Huang y Glenn Reinman. "Composable accelerator-rich microprocessor enhanced for adaptivity and longevity". En 2013 IEEE International Symposium on Low Power Electronics and Design (ISLPED). IEEE, 2013. http://dx.doi.org/10.1109/islped.2013.6629314.
Texto completoHolik, Michael, Carlos Granja y Claude Leroy. "Ultra Low Power Datalogger". En NUCLEAR PHYSICS METHODS AND ACCELERATORS IN BIOLOGY AND MEDICINE: Fifth International Summer School on Nuclear Physics Methods and Accelerators in Biology and Medicine. AIP, 2010. http://dx.doi.org/10.1063/1.3295639.
Texto completo