Academic literature on the topic 'Convolutional recurrent neural networks'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Convolutional recurrent neural networks.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Journal articles on the topic "Convolutional recurrent neural networks":
Hindarto, Djarot. "Comparison of RNN Architectures and Non-RNN Architectures in Sentiment Analysis." sinkron 8, no. 4 (October 1, 2023): 2537–46. http://dx.doi.org/10.33395/sinkron.v8i4.13048.
Kassylkassova, Kamila, Zhanna Yessengaliyeva, Gayrat Urazboev, and Ayman Kassylkassova. "OPTIMIZATION METHOD FOR INTEGRATION OF CONVOLUTIONAL AND RECURRENT NEURAL NETWORK." Eurasian Journal of Mathematical and Computer Applications 11, no. 2 (2023): 40–56. http://dx.doi.org/10.32523/2306-6172-2023-11-2-40-56.
Lyu, Shengfei, and Jiaqi Liu. "Convolutional Recurrent Neural Networks for Text Classification." Journal of Database Management 32, no. 4 (October 2021): 65–82. http://dx.doi.org/10.4018/jdm.2021100105.
P., Vijay Babu, and Senthil Kumar R. "Performance Evaluation of Brain Tumor Identification and Examination Using MRI Images with Innovative Convolution Neural Networks and Comparing the Accuracy with RNN Algorithm." ECS Transactions 107, no. 1 (April 24, 2022): 12405–14. http://dx.doi.org/10.1149/10701.12405ecst.
Peng, Wenli, Shenglai Zhen, Xin Chen, Qianjing Xiong, and Benli Yu. "Study on convolutional recurrent neural networks for speech enhancement in fiber-optic microphones." Journal of Physics: Conference Series 2246, no. 1 (April 1, 2022): 012084. http://dx.doi.org/10.1088/1742-6596/2246/1/012084.
P, Suma, and Senthil Kumar R. "Automatic Classification of Normal and Infected Blood Cells for Leukemia Through Color Based Segmentation Technique Over Innovative CNN Algorithm and Comparing the Error Rate with RNN." ECS Transactions 107, no. 1 (April 24, 2022): 14123–34. http://dx.doi.org/10.1149/10701.14123ecst.
Wang, Lin, and Zuqiang Meng. "Multichannel Two-Dimensional Convolutional Neural Network Based on Interactive Features and Group Strategy for Chinese Sentiment Analysis." Sensors 22, no. 3 (January 18, 2022): 714. http://dx.doi.org/10.3390/s22030714.
Poudel, Sushan, and Dr R. Anuradha. "Speech Command Recognition using Artificial Neural Networks." JOIV : International Journal on Informatics Visualization 4, no. 2 (May 26, 2020): 73. http://dx.doi.org/10.30630/joiv.4.2.358.
Wu, Hao, and Saurabh Prasad. "Convolutional Recurrent Neural Networks forHyperspectral Data Classification." Remote Sensing 9, no. 3 (March 21, 2017): 298. http://dx.doi.org/10.3390/rs9030298.
Li, Kezhi, John Daniels, Chengyuan Liu, Pau Herrero, and Pantelis Georgiou. "Convolutional Recurrent Neural Networks for Glucose Prediction." IEEE Journal of Biomedical and Health Informatics 24, no. 2 (February 2020): 603–13. http://dx.doi.org/10.1109/jbhi.2019.2908488.
Dissertations / Theses on the topic "Convolutional recurrent neural networks":
Ayoub, Issa. "Multimodal Affective Computing Using Temporal Convolutional Neural Network and Deep Convolutional Neural Networks." Thesis, Université d'Ottawa / University of Ottawa, 2019. http://hdl.handle.net/10393/39337.
Silfa, Franyell. "Energy-efficient architectures for recurrent neural networks." Doctoral thesis, Universitat Politècnica de Catalunya, 2021. http://hdl.handle.net/10803/671448.
Los algoritmos de aprendizaje profundo han tenido un éxito notable en aplicaciones como el reconocimiento automático de voz y la traducción automática. Por ende, estas aplicaciones son omnipresentes en nuestras vidas y se encuentran en una gran cantidad de dispositivos. Estos algoritmos se componen de Redes Neuronales Profundas (DNN), tales como las Redes Neuronales Convolucionales y Redes Neuronales Recurrentes (RNN), las cuales tienen un gran número de parámetros y cálculos. Por esto implementar DNNs en dispositivos móviles y servidores es un reto debido a los requisitos de memoria y energía. Las RNN se usan para resolver problemas de secuencia a secuencia tales como traducción automática. Estas contienen dependencias de datos entre las ejecuciones de cada time-step, por ello la cantidad de paralelismo es limitado. Por eso la evaluación de RNNs de forma energéticamente eficiente es un reto. En esta tesis se estudian RNNs para mejorar su eficiencia energética en arquitecturas especializadas. Para esto, proponemos técnicas de ahorro energético y arquitecturas de alta eficiencia adaptadas a la evaluación de RNN. Primero, caracterizamos un conjunto de RNN ejecutándose en un SoC. Luego identificamos que acceder a la memoria para leer los pesos es la mayor fuente de consumo energético el cual llega hasta un 80%. Por ende, creamos E-PUR: una unidad de procesamiento para RNN. E-PUR logra una aceleración de 6.8x y mejora el consumo energético en 88x en comparación con el SoC. Esas mejoras se deben a la maximización de la ubicación temporal de los pesos. En E-PUR, la lectura de los pesos representa el mayor consumo energético. Por ende, nos enfocamos en reducir los accesos a la memoria y creamos un esquema que reutiliza resultados calculados previamente. La observación es que al evaluar las secuencias de entrada de un RNN, la salida de una neurona dada tiende a cambiar ligeramente entre evaluaciones consecutivas, por lo que ideamos un esquema que almacena en caché las salidas de las neuronas y las reutiliza cada vez que detecta un cambio pequeño entre el valor de salida actual y el valor previo, lo que evita leer los pesos. Para decidir cuándo usar un cálculo anterior utilizamos una Red Neuronal Binaria (BNN) como predictor de reutilización, dado que su salida está altamente correlacionada con la salida de la RNN. Esta propuesta evita más del 24.2% de los cálculos y reduce el consumo energético promedio en 18.5%. El tamaño de la memoria de los modelos RNN suele reducirse utilizando baja precisión para la evaluación y el almacenamiento de los pesos. En este caso, la precisión mínima utilizada se identifica de forma estática y se establece de manera que la RNN mantenga su exactitud. Normalmente, este método utiliza la misma precisión para todo los cálculos. Sin embargo, observamos que algunos cálculos se pueden evaluar con una precisión menor sin afectar la exactitud. Por eso, ideamos una técnica que selecciona dinámicamente la precisión utilizada para calcular cada time-step. Un reto de esta propuesta es como elegir una precisión menor. Abordamos este problema reconociendo que el resultado de una evaluación previa se puede emplear para determinar la precisión requerida en el time-step actual. Nuestro esquema evalúa el 57% de los cálculos con una precisión menor que la precisión fija empleada por los métodos estáticos. Por último, la evaluación en E-PUR muestra una aceleración de 1.46x con un ahorro de energía promedio de 19.2%
Oyharcabal, Astorga Nicolás. "Convolutional recurrent neural networks for remaining useful life prediction in mechanical systems." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/168514.
La determinación de la vida útil remanente (RUL del inglés "Remaining Useful Life") de una máquina, equipo, dispositivo o elemento mecánico, es algo en lo que se ha estado trabajando en los últimos años y que es crucial para el futuro de cualquier industria que así lo requiera. El continuo monitoreo de máquinas junto a una buena predicción de la RUL permite la minimización de costos de mantención y menor exposición a fallas. Sin embargo, los datos obtenidos del monitoreo son variados, tienen ruido, poseen un carácter secuencial y no siempre guardan estricta relación con la RUL, por lo que su estimación es un problema difícil. Es por ello que en la actualidad se utilizan distintas clases de Redes Neuronales y en particular, cuando se quiere modelar problemas de carácter secuencial, se utilizan las Redes Neuronales Recurrentes o RNN (del inglés "Recurrent Neural Network") como LSTM (del inglés "Long Short Term Memory") o JANET (del inglés "Just Another NETwork"), por su capacidad para identificar de forma autónoma patrones en secuencias temporales, pero también junto a estas últimas redes, también se utilizan alternativas que incorporan la Convolución como operación para cada célula de las RNN y que se conocen como ConvRNN (del inglés "Convolutional Recurrent Neural Network"). Estas últimas redes son mejores que sus pares convolucional y recurrentes en ciertos casos que requieren procesar secuencias de imágenes, y en el caso particular de este trabajo, series de tiempo de datos de monitoreo que son suavizados por la Convolución y procesados por la Recurrencia. El objetivo general de este trabajo es determinar la mejor opción de ConvRNN para la determinación de la RUL de un turbofan a partir de series de tiempo de la base de datos C-MAPSS. También se estudia cómo editar la base de datos para mejorar la precisión de una ConvRNN y la aplicación de la Convolución como una operación primaria en una serie de tiempo cuyos parámetros muestran el comportamiento de un turbofan. Para ello se programa una LSTM Convolucional, LSTM Convolucional Codificador-Decodificador, JANET Convolucional y JANET Convolucional Codificador-Decodificador. A partir de esto se encuentra que el modelo JANET Convolucional Codificador-Decodificador da los mejores resultados en cuanto a exactitud promedio y cantidad de parámetros necesarios (entre menos mejor pues se necesita menos memoria) para la red, siendo además capaz de asimilar la totalidad de las bases de datos C-MAPSS. Por otro lado, también se encuentra que la RUL de la base de datos puede ser modificada para datos antes de la falla. Para la programación y puesta en marcha de las diferentes redes, se utilizan los computadores del laboratorio de Integración de Confiabilidad y Mantenimiento Inteligente (ICMI) del Departamento de Ingeniería Mecánica de la Universidad de Chile.
Ljubenkov, Davor. "Optimizing Bike Sharing System Flows using Graph Mining, Convolutional and Recurrent Neural Networks." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-257783.
Lånecykel avser ett system för uthyrning eller utlåning av cyklar. Systemet används främst i större städer och bekostas huvudsakligen genom tecknande av ett abonnemang.Effektivt hålla cykel andelssystem som balanseras som möjligt huvud problemand därmed förutsäga eller minimera manuell transport av cyklar över staden isthe främsta mål för att spara logistikkostnaderna för drift companies.Syftet med denna avhandling är tvåfaldigt.För det första är det att visualisera cykelflödet med hjälp av datautforskningsmetoder och statistisk analys för att bättre förstå rörlighetskarakteristika med avseende på avstånd, varaktighet, tid på dagen, rumsfördelning, väderförhållanden och andra attribut.För det andra är det vid möjliga flödesvisualiseringar möjligt att fokusera på specifika riktade grafer som endast innehåller de par eller stationer vars ömsesidiga flödesskillnad är den mest asymmetriska.Genom att göra det kan vi anvnda grafmining och maskininlärningsteknik på dessa obalanserade stationer, och använda konjunktionsnurala nätverk (CNN) som tar adjacency matrix snapshots eller obalanserade subgrafer.En genererad struktur från den tidigare metoden används i det långa kortvariga minnet artificiella återkommande neurala nätverket (RNN LSTM) för att hitta och förutsäga dess dynamiska mönster.Som ett resultat förutsäger vi cykelflden för varje nod i den eventuella framtida underkonfigurationen, vilket i sin tur informerar cykeldelningsägare om att planera i enlighet med detta.Denna kombination av metoder meddelar dem vilka framtida områden som bör inriktas på mer och hur många cykelflyttningsfaser som kan förväntas.Metoder utvärderas med hjälp av cross validation (CV), Root mean square error (RMSE) och Mean average error (MAE) metrics.Fördelar identifieras både för stadsplanering och för cykeldelningsföretag genom att spara tid och minimera kostnaderna.
Tan, Ke. "Convolutional and recurrent neural networks for real-time speech separation in the complex domain." The Ohio State University, 2021. http://rave.ohiolink.edu/etdc/view?acc_num=osu1626983471600193.
Daliparthi, Venkata Satya Sai Ajay. "Semantic Segmentation of Urban Scene Images Using Recurrent Neural Networks." Thesis, Blekinge Tekniska Högskola, Institutionen för datavetenskap, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-20651.
Hanson, Jack. "Protein Structure Prediction by Recurrent and Convolutional Deep Neural Network Architectures." Thesis, Griffith University, 2018. http://hdl.handle.net/10072/382722.
Thesis (PhD Doctorate)
Doctor of Philosophy (PhD)
School of Eng & Built Env
Science, Environment, Engineering and Technology
Full Text
Holm, Noah, and Emil Plynning. "Spatio-temporal prediction of residential burglaries using convolutional LSTM neural networks." Thesis, KTH, Geoinformatik, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-229952.
Fu, Xinyu. "Context-aware sentence categorisation : word mover's distance and character-level convolutional recurrent neural network." Thesis, University of Nottingham, 2018. http://eprints.nottingham.ac.uk/52054/.
Kvedaraite, Indre. "Sentiment Analysis of YouTube Public Videos based on their Comments." Thesis, Linnéuniversitetet, Institutionen för datavetenskap och medieteknik (DM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-105754.
Books on the topic "Convolutional recurrent neural networks":
Salem, Fathi M. Recurrent Neural Networks. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-89929-5.
Tyagi, Amit Kumar, and Ajith Abraham. Recurrent Neural Networks. Boca Raton: CRC Press, 2022. http://dx.doi.org/10.1201/9781003307822.
Hu, Xiaolin, and P. Balasubramaniam. Recurrent neural networks. Rijek, Crotia: InTech, 2008.
Mou, Lili, and Zhi Jin. Tree-Based Convolutional Neural Networks. Singapore: Springer Singapore, 2018. http://dx.doi.org/10.1007/978-981-13-1870-2.
Milosevic, Nemanja. Introduction to Convolutional Neural Networks. Berkeley, CA: Apress, 2020. http://dx.doi.org/10.1007/978-1-4842-5648-0.
Habibi Aghdam, Hamed, and Elnaz Jahani Heravi. Guide to Convolutional Neural Networks. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-57550-6.
Venkatesan, Ragav, and Baoxin Li. Convolutional Neural Networks in Visual Computing. Boca Raton ; London : Taylor & Francis, CRC Press, 2017.: CRC Press, 2017. http://dx.doi.org/10.4324/9781315154282.
Teoh, Teik Toe. Convolutional Neural Networks for Medical Applications. Singapore: Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-19-8814-1.
Hammer, Barbara. Learning with recurrent neural networks. London: Springer London, 2000. http://dx.doi.org/10.1007/bfb0110016.
Koonce, Brett. Convolutional Neural Networks with Swift for Tensorflow. Berkeley, CA: Apress, 2021. http://dx.doi.org/10.1007/978-1-4842-6168-2.
Book chapters on the topic "Convolutional recurrent neural networks":
Rajalakshmi, Ratnavel, Abhinav Basil Shinow, Aswin Murali, Kashinadh S. Nair, and J. Bhuvana. "An Efficient Convolutional Neural Network with Image Augmentation for Cassava Leaf Disease Detection." In Recurrent Neural Networks, 289–305. Boca Raton: CRC Press, 2022. http://dx.doi.org/10.1201/9781003307822-19.
Yan, Wei Qi. "Convolutional Neural Networks and Recurrent Neural Networks." In Texts in Computer Science, 69–124. Singapore: Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-99-4823-9_3.
Michelucci, Umberto. "Convolutional and Recurrent Neural Networks." In Applied Deep Learning, 323–64. Berkeley, CA: Apress, 2018. http://dx.doi.org/10.1007/978-1-4842-3790-8_8.
Borhani, Reza, Soheila Borhani, and Aggelos K. Katsaggelos. "Convolutional and Recurrent Neural Networks." In Fundamentals of Machine Learning and Deep Learning in Medicine, 131–63. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-19502-0_7.
Pattabiraman, V., and R. Maheswari. "Image to Text Processing Using Convolution Neural Networks." In Recurrent Neural Networks, 43–52. Boca Raton: CRC Press, 2022. http://dx.doi.org/10.1201/9781003307822-4.
Seo, Youngjoo, Michaël Defferrard, Pierre Vandergheynst, and Xavier Bresson. "Structured Sequence Modeling with Graph Convolutional Recurrent Networks." In Neural Information Processing, 362–73. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-030-04167-0_33.
Bartz, Christian, Tom Herold, Haojin Yang, and Christoph Meinel. "Language Identification Using Deep Convolutional Recurrent Neural Networks." In Neural Information Processing, 880–89. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-70136-3_93.
Nowak, Jakub, Marcin Korytkowski, and Rafał Scherer. "Convolutional Recurrent Neural Networks for Computer Network Analysis." In Artificial Neural Networks and Machine Learning – ICANN 2019: Text and Time Series, 747–57. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-30490-4_59.
Lopez, Diego Manzanas, Sung Woo Choi, Hoang-Dung Tran, and Taylor T. Johnson. "NNV 2.0: The Neural Network Verification Tool." In Computer Aided Verification, 397–412. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-37703-7_19.
Tan, Chuanqi, Fuchun Sun, Wenchang Zhang, Jianhua Chen, and Chunfang Liu. "Multimodal Classification with Deep Convolutional-Recurrent Neural Networks for Electroencephalography." In Neural Information Processing, 767–76. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-70096-0_78.
Conference papers on the topic "Convolutional recurrent neural networks":
Chien, Jen-Tzung, and Yu-Min Huang. "Stochastic Convolutional Recurrent Networks." In 2020 International Joint Conference on Neural Networks (IJCNN). IEEE, 2020. http://dx.doi.org/10.1109/ijcnn48605.2020.9206970.
Wang, Wentao, Canhui Liao, Quan Cheng, and Pengju Wang. "Mixed convolutional recurrent neural networks." In the International Conference. New York, New York, USA: ACM Press, 2019. http://dx.doi.org/10.1145/3371425.3371430.
"Direction Finding Using Convolutional Neural Networks and Convolutional Recurrent Neural Networks." In 2020 28th Signal Processing and Communications Applications Conference (SIU). IEEE, 2020. http://dx.doi.org/10.1109/siu49456.2020.9302448.
Yang, Yi. "Convolutional Neural Networks with Recurrent Neural Filters." In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA, USA: Association for Computational Linguistics, 2018. http://dx.doi.org/10.18653/v1/d18-1109.
Gulshad, Sadaf, and Jong-Hwan Kim. "Deep convolutional and recurrent writer." In 2017 International Joint Conference on Neural Networks (IJCNN). IEEE, 2017. http://dx.doi.org/10.1109/ijcnn.2017.7966206.
Kadambari, Sai Kiran, and Sundeep Prabhakar Chepuri. "Fast Graph Convolutional Recurrent Neural Networks." In 2019 53rd Asilomar Conference on Signals, Systems, and Computers. IEEE, 2019. http://dx.doi.org/10.1109/ieeeconf44664.2019.9048829.
Ruiz, Luana, Fernando Gama, and Alejandro Ribeiro. "Gated Graph Convolutional Recurrent Neural Networks." In 2019 27th European Signal Processing Conference (EUSIPCO). IEEE, 2019. http://dx.doi.org/10.23919/eusipco.2019.8902995.
Calvin, Rachel, and Shravya Suresh. "Image Captioning using Convolutional Neural Networks and Recurrent Neural Network." In 2021 6th International Conference for Convergence in Technology (I2CT). IEEE, 2021. http://dx.doi.org/10.1109/i2ct51068.2021.9418001.
Wang, Ruishuang, Zhao Li, Jian Cao, Tong Chen, and Lei Wang. "Convolutional Recurrent Neural Networks for Text Classification." In 2019 International Joint Conference on Neural Networks (IJCNN). IEEE, 2019. http://dx.doi.org/10.1109/ijcnn.2019.8852406.
Shankar, Tanmay, Santosha K. Dwivedy, and Prithwijit Guha. "Reinforcement Learning via Recurrent Convolutional Neural Networks." In 2016 23rd International Conference on Pattern Recognition (ICPR). IEEE, 2016. http://dx.doi.org/10.1109/icpr.2016.7900026.
Reports on the topic "Convolutional recurrent neural networks":
Forrest, Robert. Convolutional Neural Networks for Signal Detection. Office of Scientific and Technical Information (OSTI), November 2020. http://dx.doi.org/10.2172/1813655.
Tarasenko, Andrii O., Yuriy V. Yakimov, and Vladimir N. Soloviev. Convolutional neural networks for image classification. [б. в.], February 2020. http://dx.doi.org/10.31812/123456789/3682.
Donahue, Jeff, Lisa A. Hendricks, Sergio Guadarrama, Marcus Rohrbach, Subhashini Venugopalan, Kate Saenko, and Trevor Darrell. Long-term Recurrent Convolutional Networks for Visual Recognition and Description. Fort Belvoir, VA: Defense Technical Information Center, November 2014. http://dx.doi.org/10.21236/ada623249.
Yan, Erin, Harleen Sandhu, Saran Bodda, Abhinav Gupta, Xu Wu, and Piyush Sabharwall. Structural Health Monitoring of Microreactor Safety Systems Using Convolutional Neural Networks. Office of Scientific and Technical Information (OSTI), July 2021. http://dx.doi.org/10.2172/1824205.
Lukow, Steven, Ross Lee, David Grow, and Jonathan Gigax. Advancing Vision-based Feedback and Convolutional Neural Networks for Visual Outlier Detection. Office of Scientific and Technical Information (OSTI), September 2022. http://dx.doi.org/10.2172/1889960.
Fisher, Andmorgan, Timothy Middleton, Jonathan Cotugno, Elena Sava, Laura Clemente-Harding, Joseph Berger, Allistar Smith, and Teresa Li. Use of convolutional neural networks for semantic image segmentation across different computing systems. Engineer Research and Development Center (U.S.), March 2020. http://dx.doi.org/10.21079/11681/35881.
Garon, Isaac. IMAGE CLASSIFICATION USING CONVOLUTIONAL NEURAL NETWORKS TO AUTOMATE VISUAL INSPECTION OF CCO CONTAINERS. Office of Scientific and Technical Information (OSTI), August 2023. http://dx.doi.org/10.2172/1997257.
Lupo Pasini, Massimiliano, Jong Youl Choi, Pei Zhang, and Justin Baker. User Manual - HydraGNN: Distributed PyTorch Implementation of Multi-Headed Graph Convolutional Neural Networks. Office of Scientific and Technical Information (OSTI), November 2023. http://dx.doi.org/10.2172/2224153.
Pearlmutter, Barak A. Learning State Space Trajectories in Recurrent Neural Networks: A preliminary Report. Fort Belvoir, VA: Defense Technical Information Center, July 1988. http://dx.doi.org/10.21236/ada219114.
Talathi, S. S. Deep Recurrent Neural Networks for seizure detection and early seizure detection systems. Office of Scientific and Technical Information (OSTI), June 2017. http://dx.doi.org/10.2172/1366924.