Literatura académica sobre el tema "Recurrent Neural Network architecture"
Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros
Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Recurrent Neural Network architecture".
Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.
También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.
Artículos de revistas sobre el tema "Recurrent Neural Network architecture"
Back, Andrew D. y Ah Chung Tsoi. "A Low-Sensitivity Recurrent Neural Network". Neural Computation 10, n.º 1 (1 de enero de 1998): 165–88. http://dx.doi.org/10.1162/089976698300017935.
Texto completoПаршин, А. И., М. Н. Аралов, В. Ф. Барабанов y Н. И. Гребенникова. "RANDOM MULTI-MODAL DEEP LEARNING IN THE PROBLEM OF IMAGE RECOGNITION". ВЕСТНИК ВОРОНЕЖСКОГО ГОСУДАРСТВЕННОГО ТЕХНИЧЕСКОГО УНИВЕРСИТЕТА, n.º 4 (20 de octubre de 2021): 21–26. http://dx.doi.org/10.36622/vstu.2021.17.4.003.
Texto completoGallicchio, Claudio y Alessio Micheli. "Fast and Deep Graph Neural Networks". Proceedings of the AAAI Conference on Artificial Intelligence 34, n.º 04 (3 de abril de 2020): 3898–905. http://dx.doi.org/10.1609/aaai.v34i04.5803.
Texto completoVASSILIADIS, STAMATIS, GERALD G. PECHANEK y JOSÉ G. DELGADO-FRIAS. "SPIN: THE SEQUENTIAL PIPELINED NEUROEMULATOR". International Journal on Artificial Intelligence Tools 02, n.º 01 (marzo de 1993): 117–32. http://dx.doi.org/10.1142/s0218213093000084.
Texto completoUzdiaev, M. Yu, R. N. Iakovlev, D. M. Dudarenko y A. D. Zhebrun. "Identification of a Person by Gait in a Video Stream". Proceedings of the Southwest State University 24, n.º 4 (4 de febrero de 2021): 57–75. http://dx.doi.org/10.21869/2223-1560-2020-24-4-57-75.
Texto completoKalinin, Maxim, Vasiliy Krundyshev y Evgeny Zubkov. "Estimation of applicability of modern neural network methods for preventing cyberthreats to self-organizing network infrastructures of digital economy platforms",. SHS Web of Conferences 44 (2018): 00044. http://dx.doi.org/10.1051/shsconf/20184400044.
Texto completoCaniago, Afif Ilham, Wilis Kaswidjanti y Juwairiah Juwairiah. "Recurrent Neural Network With Gate Recurrent Unit For Stock Price Prediction". Telematika 18, n.º 3 (31 de octubre de 2021): 345. http://dx.doi.org/10.31315/telematika.v18i3.6650.
Texto completoTELMOUDI, ACHRAF JABEUR, HATEM TLIJANI, LOTFI NABLI, MAARUF ALI y RADHI M'HIRI. "A NEW RBF NEURAL NETWORK FOR PREDICTION IN INDUSTRIAL CONTROL". International Journal of Information Technology & Decision Making 11, n.º 04 (julio de 2012): 749–75. http://dx.doi.org/10.1142/s0219622012500198.
Texto completoZiemke, Tom. "Radar Image Segmentation Using Self-Adapting Recurrent Networks". International Journal of Neural Systems 08, n.º 01 (febrero de 1997): 47–54. http://dx.doi.org/10.1142/s0129065797000070.
Texto completoK, Karthika, Tejashree K, Naveen Rajan M. y Namita R. "Towards Strong AI with Analog Neural Chips". International Journal of Innovative Research in Advanced Engineering 10, n.º 06 (23 de junio de 2023): 394–99. http://dx.doi.org/10.26562/ijirae.2023.v1006.28.
Texto completoTesis sobre el tema "Recurrent Neural Network architecture"
Bopaiah, Jeevith. "A recurrent neural network architecture for biomedical event trigger classification". UKnowledge, 2018. https://uknowledge.uky.edu/cs_etds/73.
Texto completoPan, YaDung. "Fuzzy adaptive recurrent counterpropagation neural networks: A neural network architecture for qualitative modeling and real-time simulation of dynamic processes". Diss., The University of Arizona, 1995. http://hdl.handle.net/10150/187101.
Texto completoHanson, Jack. "Protein Structure Prediction by Recurrent and Convolutional Deep Neural Network Architectures". Thesis, Griffith University, 2018. http://hdl.handle.net/10072/382722.
Texto completoThesis (PhD Doctorate)
Doctor of Philosophy (PhD)
School of Eng & Built Env
Science, Environment, Engineering and Technology
Full Text
Silfa, Franyell. "Energy-efficient architectures for recurrent neural networks". Doctoral thesis, Universitat Politècnica de Catalunya, 2021. http://hdl.handle.net/10803/671448.
Texto completoLos algoritmos de aprendizaje profundo han tenido un éxito notable en aplicaciones como el reconocimiento automático de voz y la traducción automática. Por ende, estas aplicaciones son omnipresentes en nuestras vidas y se encuentran en una gran cantidad de dispositivos. Estos algoritmos se componen de Redes Neuronales Profundas (DNN), tales como las Redes Neuronales Convolucionales y Redes Neuronales Recurrentes (RNN), las cuales tienen un gran número de parámetros y cálculos. Por esto implementar DNNs en dispositivos móviles y servidores es un reto debido a los requisitos de memoria y energía. Las RNN se usan para resolver problemas de secuencia a secuencia tales como traducción automática. Estas contienen dependencias de datos entre las ejecuciones de cada time-step, por ello la cantidad de paralelismo es limitado. Por eso la evaluación de RNNs de forma energéticamente eficiente es un reto. En esta tesis se estudian RNNs para mejorar su eficiencia energética en arquitecturas especializadas. Para esto, proponemos técnicas de ahorro energético y arquitecturas de alta eficiencia adaptadas a la evaluación de RNN. Primero, caracterizamos un conjunto de RNN ejecutándose en un SoC. Luego identificamos que acceder a la memoria para leer los pesos es la mayor fuente de consumo energético el cual llega hasta un 80%. Por ende, creamos E-PUR: una unidad de procesamiento para RNN. E-PUR logra una aceleración de 6.8x y mejora el consumo energético en 88x en comparación con el SoC. Esas mejoras se deben a la maximización de la ubicación temporal de los pesos. En E-PUR, la lectura de los pesos representa el mayor consumo energético. Por ende, nos enfocamos en reducir los accesos a la memoria y creamos un esquema que reutiliza resultados calculados previamente. La observación es que al evaluar las secuencias de entrada de un RNN, la salida de una neurona dada tiende a cambiar ligeramente entre evaluaciones consecutivas, por lo que ideamos un esquema que almacena en caché las salidas de las neuronas y las reutiliza cada vez que detecta un cambio pequeño entre el valor de salida actual y el valor previo, lo que evita leer los pesos. Para decidir cuándo usar un cálculo anterior utilizamos una Red Neuronal Binaria (BNN) como predictor de reutilización, dado que su salida está altamente correlacionada con la salida de la RNN. Esta propuesta evita más del 24.2% de los cálculos y reduce el consumo energético promedio en 18.5%. El tamaño de la memoria de los modelos RNN suele reducirse utilizando baja precisión para la evaluación y el almacenamiento de los pesos. En este caso, la precisión mínima utilizada se identifica de forma estática y se establece de manera que la RNN mantenga su exactitud. Normalmente, este método utiliza la misma precisión para todo los cálculos. Sin embargo, observamos que algunos cálculos se pueden evaluar con una precisión menor sin afectar la exactitud. Por eso, ideamos una técnica que selecciona dinámicamente la precisión utilizada para calcular cada time-step. Un reto de esta propuesta es como elegir una precisión menor. Abordamos este problema reconociendo que el resultado de una evaluación previa se puede emplear para determinar la precisión requerida en el time-step actual. Nuestro esquema evalúa el 57% de los cálculos con una precisión menor que la precisión fija empleada por los métodos estáticos. Por último, la evaluación en E-PUR muestra una aceleración de 1.46x con un ahorro de energía promedio de 19.2%
Мельникова, І. К. "Інтелектуальна технологія прогнозу курсу криптовалют методом рекурентних нейромереж". Master's thesis, Сумський державний університет, 2019. http://essuir.sumdu.edu.ua/handle/123456789/76753.
Texto completoTekin, Mim Kemal. "Vehicle Path Prediction Using Recurrent Neural Network". Thesis, Linköpings universitet, Statistik och maskininlärning, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-166134.
Texto completoSivakumar, Shyamala C. "Architectures and algorithms for stable and constructive learning in discrete time recurrent neural networks". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp03/NQ31533.pdf.
Texto completoWen, Tsung-Hsien. "Recurrent neural network language generation for dialogue systems". Thesis, University of Cambridge, 2018. https://www.repository.cam.ac.uk/handle/1810/275648.
Texto completoMelidis, Christos. "Adaptive neural architectures for intuitive robot control". Thesis, University of Plymouth, 2017. http://hdl.handle.net/10026.1/9998.
Texto completoHe, Jian. "Adaptive power system stabilizer based on recurrent neural network". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape8/PQDD_0008/NQ38471.pdf.
Texto completoLibros sobre el tema "Recurrent Neural Network architecture"
Dayhoff, Judith E. Neural network architectures: An introduction. New York, N.Y: Van Nostrand Reinhold, 1990.
Buscar texto completoT, Leondes Cornelius, ed. Neural network systems, techniques, and applications. San Diego: Academic Press, 1998.
Buscar texto completoC, Jain L. y Johnson R. P, eds. Automatic generation of neural network architecture using evolutionary computation. Singapore: World Scientific, 1997.
Buscar texto completoCios, Krzysztof J. Self-growing neural network architecture using crisp and fuzzy entropy. [Washington, DC]: National Aeronautics and Space Administration, 1992.
Buscar texto completoCios, Krzysztof J. Self-growing neural network architecture using crisp and fuzzy entropy. [Washington, DC]: National Aeronautics and Space Administration, 1992.
Buscar texto completoCios, Krzysztof J. Self-growing neural network architecture using crisp and fuzzy entropy. [Washington, DC]: National Aeronautics and Space Administration, 1992.
Buscar texto completoCios, Krzysztof J. Self-growing neural network architecture using crisp and fuzzy entropy. [Washington, DC]: National Aeronautics and Space Administration, 1992.
Buscar texto completoUnited States. National Aeronautics and Space Administration., ed. A neural network architecture for implementation of expert sytems for real time monitoring. [Cincinnati, Ohio]: University of Cincinnati, College of Engineering, 1991.
Buscar texto completoLim, Chee Peng. Probabilistic fuzzy ARTMAP: An autonomous neural network architecture for Bayesian probability estimation. Sheffield: University of Sheffield, Dept. of Automatic Control & Systems Engineering, 1995.
Buscar texto completoUnited States. National Aeronautics and Space Administration., ed. A novel approach to noise-filtering based on a gain-scheduling neural network architecture. [Washington, DC]: National Aeronautics and Space Administration, 1994.
Buscar texto completoCapítulos de libros sobre el tema "Recurrent Neural Network architecture"
Salem, Fathi M. "Network Architectures". En Recurrent Neural Networks, 3–19. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-89929-5_1.
Texto completoBianchi, Filippo Maria, Enrico Maiorino, Michael C. Kampffmeyer, Antonello Rizzi y Robert Jenssen. "Recurrent Neural Network Architectures". En SpringerBriefs in Computer Science, 23–29. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-70338-1_3.
Texto completoWüthrich, Mario V. y Michael Merz. "Recurrent Neural Networks". En Springer Actuarial, 381–406. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-12409-9_8.
Texto completoSelvanathan, N. y Mashkuri Hj Yaacob. "Canonical form of Recurrent Neural Network Architecture". En Industrial and Engineering Applications of Artificial Intelligence and Expert Systems, 796. London: CRC Press, 2022. http://dx.doi.org/10.1201/9780429332111-154.
Texto completoRawal, Aditya, Jason Liang y Risto Miikkulainen. "Discovering Gated Recurrent Neural Network Architectures". En Natural Computing Series, 233–51. Singapore: Springer Singapore, 2020. http://dx.doi.org/10.1007/978-981-15-3685-4_9.
Texto completoTsoi, Ah Chung. "Recurrent neural network architectures: An overview". En Adaptive Processing of Sequences and Data Structures, 1–26. Berlin, Heidelberg: Springer Berlin Heidelberg, 1998. http://dx.doi.org/10.1007/bfb0053993.
Texto completoModrzejewski, Mateusz, Konrad Bereda y Przemysław Rokita. "Efficient Recurrent Neural Network Architecture for Musical Style Transfer". En Artificial Intelligence and Soft Computing, 124–32. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-87986-0_11.
Texto completoModrzejewski, Mateusz, Konrad Bereda y Przemysław Rokita. "Efficient Recurrent Neural Network Architecture for Musical Style Transfer". En Artificial Intelligence and Soft Computing, 124–32. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-87986-0_11.
Texto completoLiao, Yongbo, Hongmei Li y Zongbo Wang. "FPGA Based Real-Time Processing Architecture for Recurrent Neural Network". En Advances in Intelligent Systems and Computing, 705–9. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-69096-4_99.
Texto completoCebrián, Pedro L., Alberto Martín-Pérez, Manuel Villa, Jaime Sancho, Gonzalo Rosa, Guillermo Vazquez, Pallab Sutradhar et al. "Deep Recurrent Neural Network Performing Spectral Recurrence on Hyperspectral Images for Brain Tissue Classification". En Design and Architecture for Signal and Image Processing, 15–27. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-29970-4_2.
Texto completoActas de conferencias sobre el tema "Recurrent Neural Network architecture"
Gao, Yang, Hong Yang, Peng Zhang, Chuan Zhou y Yue Hu. "Graph Neural Architecture Search". En Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California: International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/195.
Texto completoFourati, Rahma, Chaouki Aouiti y Adel M. Alimi. "Improved recurrent neural network architecture for SVM learning". En 2015 15th International Conference on Intelligent Systems Design and Applications (ISDA). IEEE, 2015. http://dx.doi.org/10.1109/isda.2015.7489221.
Texto completoMaulik, Romit, Romain Egele, Bethany Lusch y Prasanna Balaprakash. "Recurrent Neural Network Architecture Search for Geophysical Emulation". En SC20: International Conference for High Performance Computing, Networking, Storage and Analysis. IEEE, 2020. http://dx.doi.org/10.1109/sc41405.2020.00012.
Texto completoKumar, Swaraj, Vishal Murgai, Devashish Singh y Issaac Kommeneni. "Recurrent Neural Network Architecture for Communication Log Analysis". En 2022 IEEE 33rd Annual International Symposium on Personal, Indoor and Mobile Radio Communications (PIMRC). IEEE, 2022. http://dx.doi.org/10.1109/pimrc54779.2022.9978048.
Texto completoKhaliq, Shaik Abdul y Mohamed Asan Basiri M. "An Efficient VLSI Architecture of Recurrent Neural Network". En 2022 IEEE 6th Conference on Information and Communication Technology (CICT). IEEE, 2022. http://dx.doi.org/10.1109/cict56698.2022.9997812.
Texto completoBasu, Saikat, Jaybrata Chakraborty y Md Aftabuddin. "Emotion recognition from speech using convolutional neural network with recurrent neural network architecture". En 2017 2nd International Conference on Communication and Electronics Systems (ICCES). IEEE, 2017. http://dx.doi.org/10.1109/cesys.2017.8321292.
Texto completoChakraborty, Bappaditya, Partha Sarathi Mukherjee y Ujjwal Bhattacharya. "Bangla online handwriting recognition using recurrent neural network architecture". En the Tenth Indian Conference. New York, New York, USA: ACM Press, 2016. http://dx.doi.org/10.1145/3009977.3010072.
Texto completoHee-Heon Song, Sun-Mee Kang y Seong-Whan Lee. "A new recurrent neural network architecture for pattern recognition". En Proceedings of 13th International Conference on Pattern Recognition. IEEE, 1996. http://dx.doi.org/10.1109/icpr.1996.547658.
Texto completoElsayed, Nelly, Zag ElSayed y Anthony S. Maida. "LiteLSTM Architecture for Deep Recurrent Neural Networks". En 2022 IEEE International Symposium on Circuits and Systems (ISCAS). IEEE, 2022. http://dx.doi.org/10.1109/iscas48785.2022.9937585.
Texto completoZhao, Yi, Yanyan Shen y Junjie Yao. "Recurrent Neural Network for Text Classification with Hierarchical Multiscale Dense Connections". En Twenty-Eighth International Joint Conference on Artificial Intelligence {IJCAI-19}. California: International Joint Conferences on Artificial Intelligence Organization, 2019. http://dx.doi.org/10.24963/ijcai.2019/757.
Texto completoInformes sobre el tema "Recurrent Neural Network architecture"
Barto, Andrew. Adaptive Neural Network Architecture. Fort Belvoir, VA: Defense Technical Information Center, octubre de 1987. http://dx.doi.org/10.21236/ada190114.
Texto completoMcDonnell, John R. y Don Waagen. Evolving Neural Network Architecture. Fort Belvoir, VA: Defense Technical Information Center, marzo de 1993. http://dx.doi.org/10.21236/ada264802.
Texto completoBrabel, Michael J. Basin Sculpting a Hybrid Recurrent Feedforward Neural Network. Fort Belvoir, VA: Defense Technical Information Center, enero de 1998. http://dx.doi.org/10.21236/ada336386.
Texto completoBasu, Anujit. Nuclear power plant status diagnostics using a neural network with dynamic node architecture. Office of Scientific and Technical Information (OSTI), enero de 1992. http://dx.doi.org/10.2172/10139977.
Texto completoBasu, A. Nuclear power plant status diagnostics using a neural network with dynamic node architecture. Office of Scientific and Technical Information (OSTI), enero de 1992. http://dx.doi.org/10.2172/6649091.
Texto completoBodruzzaman, M. y M. A. Essawy. Iterative prediction of chaotic time series using a recurrent neural network. Quarterly progress report, January 1, 1995--March 31, 1995. Office of Scientific and Technical Information (OSTI), marzo de 1996. http://dx.doi.org/10.2172/283610.
Texto completoKirichek, Galina, Vladyslav Harkusha, Artur Timenko y Nataliia Kulykovska. System for detecting network anomalies using a hybrid of an uncontrolled and controlled neural network. [б. в.], febrero de 2020. http://dx.doi.org/10.31812/123456789/3743.
Texto completoPettit, Chris y D. Wilson. A physics-informed neural network for sound propagation in the atmospheric boundary layer. Engineer Research and Development Center (U.S.), junio de 2021. http://dx.doi.org/10.21079/11681/41034.
Texto completoMohanty, Subhasish y Joseph Listwan. Development of Digital Twin Predictive Model for PWR Components: Updates on Multi Times Series Temperature Prediction Using Recurrent Neural Network, DMW Fatigue Tests, System Level Thermal-Mechanical-Stress Analysis. Office of Scientific and Technical Information (OSTI), septiembre de 2021. http://dx.doi.org/10.2172/1822853.
Texto completoMarkova, Oksana, Serhiy Semerikov y Maiia Popel. СoCalc as a Learning Tool for Neural Network Simulation in the Special Course “Foundations of Mathematic Informatics”. Sun SITE Central Europe, mayo de 2018. http://dx.doi.org/10.31812/0564/2250.
Texto completo