Letteratura scientifica selezionata sul tema "Convolutional recurrent neural networks"
Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili
Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Convolutional recurrent neural networks".
Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.
Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.
Articoli di riviste sul tema "Convolutional recurrent neural networks":
Hindarto, Djarot. "Comparison of RNN Architectures and Non-RNN Architectures in Sentiment Analysis". sinkron 8, n. 4 (1 ottobre 2023): 2537–46. http://dx.doi.org/10.33395/sinkron.v8i4.13048.
Kassylkassova, Kamila, Zhanna Yessengaliyeva, Gayrat Urazboev e Ayman Kassylkassova. "OPTIMIZATION METHOD FOR INTEGRATION OF CONVOLUTIONAL AND RECURRENT NEURAL NETWORK". Eurasian Journal of Mathematical and Computer Applications 11, n. 2 (2023): 40–56. http://dx.doi.org/10.32523/2306-6172-2023-11-2-40-56.
Lyu, Shengfei, e Jiaqi Liu. "Convolutional Recurrent Neural Networks for Text Classification". Journal of Database Management 32, n. 4 (ottobre 2021): 65–82. http://dx.doi.org/10.4018/jdm.2021100105.
P., Vijay Babu, e Senthil Kumar R. "Performance Evaluation of Brain Tumor Identification and Examination Using MRI Images with Innovative Convolution Neural Networks and Comparing the Accuracy with RNN Algorithm". ECS Transactions 107, n. 1 (24 aprile 2022): 12405–14. http://dx.doi.org/10.1149/10701.12405ecst.
Peng, Wenli, Shenglai Zhen, Xin Chen, Qianjing Xiong e Benli Yu. "Study on convolutional recurrent neural networks for speech enhancement in fiber-optic microphones". Journal of Physics: Conference Series 2246, n. 1 (1 aprile 2022): 012084. http://dx.doi.org/10.1088/1742-6596/2246/1/012084.
P, Suma, e Senthil Kumar R. "Automatic Classification of Normal and Infected Blood Cells for Leukemia Through Color Based Segmentation Technique Over Innovative CNN Algorithm and Comparing the Error Rate with RNN". ECS Transactions 107, n. 1 (24 aprile 2022): 14123–34. http://dx.doi.org/10.1149/10701.14123ecst.
Wang, Lin, e Zuqiang Meng. "Multichannel Two-Dimensional Convolutional Neural Network Based on Interactive Features and Group Strategy for Chinese Sentiment Analysis". Sensors 22, n. 3 (18 gennaio 2022): 714. http://dx.doi.org/10.3390/s22030714.
Poudel, Sushan, e Dr R. Anuradha. "Speech Command Recognition using Artificial Neural Networks". JOIV : International Journal on Informatics Visualization 4, n. 2 (26 maggio 2020): 73. http://dx.doi.org/10.30630/joiv.4.2.358.
Wu, Hao, e Saurabh Prasad. "Convolutional Recurrent Neural Networks forHyperspectral Data Classification". Remote Sensing 9, n. 3 (21 marzo 2017): 298. http://dx.doi.org/10.3390/rs9030298.
Li, Kezhi, John Daniels, Chengyuan Liu, Pau Herrero e Pantelis Georgiou. "Convolutional Recurrent Neural Networks for Glucose Prediction". IEEE Journal of Biomedical and Health Informatics 24, n. 2 (febbraio 2020): 603–13. http://dx.doi.org/10.1109/jbhi.2019.2908488.
Tesi sul tema "Convolutional recurrent neural networks":
Ayoub, Issa. "Multimodal Affective Computing Using Temporal Convolutional Neural Network and Deep Convolutional Neural Networks". Thesis, Université d'Ottawa / University of Ottawa, 2019. http://hdl.handle.net/10393/39337.
Silfa, Franyell. "Energy-efficient architectures for recurrent neural networks". Doctoral thesis, Universitat Politècnica de Catalunya, 2021. http://hdl.handle.net/10803/671448.
Los algoritmos de aprendizaje profundo han tenido un éxito notable en aplicaciones como el reconocimiento automático de voz y la traducción automática. Por ende, estas aplicaciones son omnipresentes en nuestras vidas y se encuentran en una gran cantidad de dispositivos. Estos algoritmos se componen de Redes Neuronales Profundas (DNN), tales como las Redes Neuronales Convolucionales y Redes Neuronales Recurrentes (RNN), las cuales tienen un gran número de parámetros y cálculos. Por esto implementar DNNs en dispositivos móviles y servidores es un reto debido a los requisitos de memoria y energía. Las RNN se usan para resolver problemas de secuencia a secuencia tales como traducción automática. Estas contienen dependencias de datos entre las ejecuciones de cada time-step, por ello la cantidad de paralelismo es limitado. Por eso la evaluación de RNNs de forma energéticamente eficiente es un reto. En esta tesis se estudian RNNs para mejorar su eficiencia energética en arquitecturas especializadas. Para esto, proponemos técnicas de ahorro energético y arquitecturas de alta eficiencia adaptadas a la evaluación de RNN. Primero, caracterizamos un conjunto de RNN ejecutándose en un SoC. Luego identificamos que acceder a la memoria para leer los pesos es la mayor fuente de consumo energético el cual llega hasta un 80%. Por ende, creamos E-PUR: una unidad de procesamiento para RNN. E-PUR logra una aceleración de 6.8x y mejora el consumo energético en 88x en comparación con el SoC. Esas mejoras se deben a la maximización de la ubicación temporal de los pesos. En E-PUR, la lectura de los pesos representa el mayor consumo energético. Por ende, nos enfocamos en reducir los accesos a la memoria y creamos un esquema que reutiliza resultados calculados previamente. La observación es que al evaluar las secuencias de entrada de un RNN, la salida de una neurona dada tiende a cambiar ligeramente entre evaluaciones consecutivas, por lo que ideamos un esquema que almacena en caché las salidas de las neuronas y las reutiliza cada vez que detecta un cambio pequeño entre el valor de salida actual y el valor previo, lo que evita leer los pesos. Para decidir cuándo usar un cálculo anterior utilizamos una Red Neuronal Binaria (BNN) como predictor de reutilización, dado que su salida está altamente correlacionada con la salida de la RNN. Esta propuesta evita más del 24.2% de los cálculos y reduce el consumo energético promedio en 18.5%. El tamaño de la memoria de los modelos RNN suele reducirse utilizando baja precisión para la evaluación y el almacenamiento de los pesos. En este caso, la precisión mínima utilizada se identifica de forma estática y se establece de manera que la RNN mantenga su exactitud. Normalmente, este método utiliza la misma precisión para todo los cálculos. Sin embargo, observamos que algunos cálculos se pueden evaluar con una precisión menor sin afectar la exactitud. Por eso, ideamos una técnica que selecciona dinámicamente la precisión utilizada para calcular cada time-step. Un reto de esta propuesta es como elegir una precisión menor. Abordamos este problema reconociendo que el resultado de una evaluación previa se puede emplear para determinar la precisión requerida en el time-step actual. Nuestro esquema evalúa el 57% de los cálculos con una precisión menor que la precisión fija empleada por los métodos estáticos. Por último, la evaluación en E-PUR muestra una aceleración de 1.46x con un ahorro de energía promedio de 19.2%
Oyharcabal, Astorga Nicolás. "Convolutional recurrent neural networks for remaining useful life prediction in mechanical systems". Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/168514.
La determinación de la vida útil remanente (RUL del inglés "Remaining Useful Life") de una máquina, equipo, dispositivo o elemento mecánico, es algo en lo que se ha estado trabajando en los últimos años y que es crucial para el futuro de cualquier industria que así lo requiera. El continuo monitoreo de máquinas junto a una buena predicción de la RUL permite la minimización de costos de mantención y menor exposición a fallas. Sin embargo, los datos obtenidos del monitoreo son variados, tienen ruido, poseen un carácter secuencial y no siempre guardan estricta relación con la RUL, por lo que su estimación es un problema difícil. Es por ello que en la actualidad se utilizan distintas clases de Redes Neuronales y en particular, cuando se quiere modelar problemas de carácter secuencial, se utilizan las Redes Neuronales Recurrentes o RNN (del inglés "Recurrent Neural Network") como LSTM (del inglés "Long Short Term Memory") o JANET (del inglés "Just Another NETwork"), por su capacidad para identificar de forma autónoma patrones en secuencias temporales, pero también junto a estas últimas redes, también se utilizan alternativas que incorporan la Convolución como operación para cada célula de las RNN y que se conocen como ConvRNN (del inglés "Convolutional Recurrent Neural Network"). Estas últimas redes son mejores que sus pares convolucional y recurrentes en ciertos casos que requieren procesar secuencias de imágenes, y en el caso particular de este trabajo, series de tiempo de datos de monitoreo que son suavizados por la Convolución y procesados por la Recurrencia. El objetivo general de este trabajo es determinar la mejor opción de ConvRNN para la determinación de la RUL de un turbofan a partir de series de tiempo de la base de datos C-MAPSS. También se estudia cómo editar la base de datos para mejorar la precisión de una ConvRNN y la aplicación de la Convolución como una operación primaria en una serie de tiempo cuyos parámetros muestran el comportamiento de un turbofan. Para ello se programa una LSTM Convolucional, LSTM Convolucional Codificador-Decodificador, JANET Convolucional y JANET Convolucional Codificador-Decodificador. A partir de esto se encuentra que el modelo JANET Convolucional Codificador-Decodificador da los mejores resultados en cuanto a exactitud promedio y cantidad de parámetros necesarios (entre menos mejor pues se necesita menos memoria) para la red, siendo además capaz de asimilar la totalidad de las bases de datos C-MAPSS. Por otro lado, también se encuentra que la RUL de la base de datos puede ser modificada para datos antes de la falla. Para la programación y puesta en marcha de las diferentes redes, se utilizan los computadores del laboratorio de Integración de Confiabilidad y Mantenimiento Inteligente (ICMI) del Departamento de Ingeniería Mecánica de la Universidad de Chile.
Ljubenkov, Davor. "Optimizing Bike Sharing System Flows using Graph Mining, Convolutional and Recurrent Neural Networks". Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-257783.
Lånecykel avser ett system för uthyrning eller utlåning av cyklar. Systemet används främst i större städer och bekostas huvudsakligen genom tecknande av ett abonnemang.Effektivt hålla cykel andelssystem som balanseras som möjligt huvud problemand därmed förutsäga eller minimera manuell transport av cyklar över staden isthe främsta mål för att spara logistikkostnaderna för drift companies.Syftet med denna avhandling är tvåfaldigt.För det första är det att visualisera cykelflödet med hjälp av datautforskningsmetoder och statistisk analys för att bättre förstå rörlighetskarakteristika med avseende på avstånd, varaktighet, tid på dagen, rumsfördelning, väderförhållanden och andra attribut.För det andra är det vid möjliga flödesvisualiseringar möjligt att fokusera på specifika riktade grafer som endast innehåller de par eller stationer vars ömsesidiga flödesskillnad är den mest asymmetriska.Genom att göra det kan vi anvnda grafmining och maskininlärningsteknik på dessa obalanserade stationer, och använda konjunktionsnurala nätverk (CNN) som tar adjacency matrix snapshots eller obalanserade subgrafer.En genererad struktur från den tidigare metoden används i det långa kortvariga minnet artificiella återkommande neurala nätverket (RNN LSTM) för att hitta och förutsäga dess dynamiska mönster.Som ett resultat förutsäger vi cykelflden för varje nod i den eventuella framtida underkonfigurationen, vilket i sin tur informerar cykeldelningsägare om att planera i enlighet med detta.Denna kombination av metoder meddelar dem vilka framtida områden som bör inriktas på mer och hur många cykelflyttningsfaser som kan förväntas.Metoder utvärderas med hjälp av cross validation (CV), Root mean square error (RMSE) och Mean average error (MAE) metrics.Fördelar identifieras både för stadsplanering och för cykeldelningsföretag genom att spara tid och minimera kostnaderna.
Tan, Ke. "Convolutional and recurrent neural networks for real-time speech separation in the complex domain". The Ohio State University, 2021. http://rave.ohiolink.edu/etdc/view?acc_num=osu1626983471600193.
Daliparthi, Venkata Satya Sai Ajay. "Semantic Segmentation of Urban Scene Images Using Recurrent Neural Networks". Thesis, Blekinge Tekniska Högskola, Institutionen för datavetenskap, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-20651.
Hanson, Jack. "Protein Structure Prediction by Recurrent and Convolutional Deep Neural Network Architectures". Thesis, Griffith University, 2018. http://hdl.handle.net/10072/382722.
Thesis (PhD Doctorate)
Doctor of Philosophy (PhD)
School of Eng & Built Env
Science, Environment, Engineering and Technology
Full Text
Holm, Noah, e Emil Plynning. "Spatio-temporal prediction of residential burglaries using convolutional LSTM neural networks". Thesis, KTH, Geoinformatik, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-229952.
Fu, Xinyu. "Context-aware sentence categorisation : word mover's distance and character-level convolutional recurrent neural network". Thesis, University of Nottingham, 2018. http://eprints.nottingham.ac.uk/52054/.
Kvedaraite, Indre. "Sentiment Analysis of YouTube Public Videos based on their Comments". Thesis, Linnéuniversitetet, Institutionen för datavetenskap och medieteknik (DM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-105754.
Libri sul tema "Convolutional recurrent neural networks":
Salem, Fathi M. Recurrent Neural Networks. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-89929-5.
Tyagi, Amit Kumar, e Ajith Abraham. Recurrent Neural Networks. Boca Raton: CRC Press, 2022. http://dx.doi.org/10.1201/9781003307822.
Hu, Xiaolin, e P. Balasubramaniam. Recurrent neural networks. Rijek, Crotia: InTech, 2008.
Mou, Lili, e Zhi Jin. Tree-Based Convolutional Neural Networks. Singapore: Springer Singapore, 2018. http://dx.doi.org/10.1007/978-981-13-1870-2.
Milosevic, Nemanja. Introduction to Convolutional Neural Networks. Berkeley, CA: Apress, 2020. http://dx.doi.org/10.1007/978-1-4842-5648-0.
Habibi Aghdam, Hamed, e Elnaz Jahani Heravi. Guide to Convolutional Neural Networks. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-57550-6.
Venkatesan, Ragav, e Baoxin Li. Convolutional Neural Networks in Visual Computing. Boca Raton ; London : Taylor & Francis, CRC Press, 2017.: CRC Press, 2017. http://dx.doi.org/10.4324/9781315154282.
Teoh, Teik Toe. Convolutional Neural Networks for Medical Applications. Singapore: Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-19-8814-1.
Hammer, Barbara. Learning with recurrent neural networks. London: Springer London, 2000. http://dx.doi.org/10.1007/bfb0110016.
Koonce, Brett. Convolutional Neural Networks with Swift for Tensorflow. Berkeley, CA: Apress, 2021. http://dx.doi.org/10.1007/978-1-4842-6168-2.
Capitoli di libri sul tema "Convolutional recurrent neural networks":
Rajalakshmi, Ratnavel, Abhinav Basil Shinow, Aswin Murali, Kashinadh S. Nair e J. Bhuvana. "An Efficient Convolutional Neural Network with Image Augmentation for Cassava Leaf Disease Detection". In Recurrent Neural Networks, 289–305. Boca Raton: CRC Press, 2022. http://dx.doi.org/10.1201/9781003307822-19.
Yan, Wei Qi. "Convolutional Neural Networks and Recurrent Neural Networks". In Texts in Computer Science, 69–124. Singapore: Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-99-4823-9_3.
Michelucci, Umberto. "Convolutional and Recurrent Neural Networks". In Applied Deep Learning, 323–64. Berkeley, CA: Apress, 2018. http://dx.doi.org/10.1007/978-1-4842-3790-8_8.
Borhani, Reza, Soheila Borhani e Aggelos K. Katsaggelos. "Convolutional and Recurrent Neural Networks". In Fundamentals of Machine Learning and Deep Learning in Medicine, 131–63. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-19502-0_7.
Pattabiraman, V., e R. Maheswari. "Image to Text Processing Using Convolution Neural Networks". In Recurrent Neural Networks, 43–52. Boca Raton: CRC Press, 2022. http://dx.doi.org/10.1201/9781003307822-4.
Seo, Youngjoo, Michaël Defferrard, Pierre Vandergheynst e Xavier Bresson. "Structured Sequence Modeling with Graph Convolutional Recurrent Networks". In Neural Information Processing, 362–73. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-030-04167-0_33.
Bartz, Christian, Tom Herold, Haojin Yang e Christoph Meinel. "Language Identification Using Deep Convolutional Recurrent Neural Networks". In Neural Information Processing, 880–89. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-70136-3_93.
Nowak, Jakub, Marcin Korytkowski e Rafał Scherer. "Convolutional Recurrent Neural Networks for Computer Network Analysis". In Artificial Neural Networks and Machine Learning – ICANN 2019: Text and Time Series, 747–57. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-30490-4_59.
Lopez, Diego Manzanas, Sung Woo Choi, Hoang-Dung Tran e Taylor T. Johnson. "NNV 2.0: The Neural Network Verification Tool". In Computer Aided Verification, 397–412. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-37703-7_19.
Tan, Chuanqi, Fuchun Sun, Wenchang Zhang, Jianhua Chen e Chunfang Liu. "Multimodal Classification with Deep Convolutional-Recurrent Neural Networks for Electroencephalography". In Neural Information Processing, 767–76. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-70096-0_78.
Atti di convegni sul tema "Convolutional recurrent neural networks":
Chien, Jen-Tzung, e Yu-Min Huang. "Stochastic Convolutional Recurrent Networks". In 2020 International Joint Conference on Neural Networks (IJCNN). IEEE, 2020. http://dx.doi.org/10.1109/ijcnn48605.2020.9206970.
Wang, Wentao, Canhui Liao, Quan Cheng e Pengju Wang. "Mixed convolutional recurrent neural networks". In the International Conference. New York, New York, USA: ACM Press, 2019. http://dx.doi.org/10.1145/3371425.3371430.
"Direction Finding Using Convolutional Neural Networks and Convolutional Recurrent Neural Networks". In 2020 28th Signal Processing and Communications Applications Conference (SIU). IEEE, 2020. http://dx.doi.org/10.1109/siu49456.2020.9302448.
Yang, Yi. "Convolutional Neural Networks with Recurrent Neural Filters". In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA, USA: Association for Computational Linguistics, 2018. http://dx.doi.org/10.18653/v1/d18-1109.
Gulshad, Sadaf, e Jong-Hwan Kim. "Deep convolutional and recurrent writer". In 2017 International Joint Conference on Neural Networks (IJCNN). IEEE, 2017. http://dx.doi.org/10.1109/ijcnn.2017.7966206.
Kadambari, Sai Kiran, e Sundeep Prabhakar Chepuri. "Fast Graph Convolutional Recurrent Neural Networks". In 2019 53rd Asilomar Conference on Signals, Systems, and Computers. IEEE, 2019. http://dx.doi.org/10.1109/ieeeconf44664.2019.9048829.
Ruiz, Luana, Fernando Gama e Alejandro Ribeiro. "Gated Graph Convolutional Recurrent Neural Networks". In 2019 27th European Signal Processing Conference (EUSIPCO). IEEE, 2019. http://dx.doi.org/10.23919/eusipco.2019.8902995.
Calvin, Rachel, e Shravya Suresh. "Image Captioning using Convolutional Neural Networks and Recurrent Neural Network". In 2021 6th International Conference for Convergence in Technology (I2CT). IEEE, 2021. http://dx.doi.org/10.1109/i2ct51068.2021.9418001.
Wang, Ruishuang, Zhao Li, Jian Cao, Tong Chen e Lei Wang. "Convolutional Recurrent Neural Networks for Text Classification". In 2019 International Joint Conference on Neural Networks (IJCNN). IEEE, 2019. http://dx.doi.org/10.1109/ijcnn.2019.8852406.
Shankar, Tanmay, Santosha K. Dwivedy e Prithwijit Guha. "Reinforcement Learning via Recurrent Convolutional Neural Networks". In 2016 23rd International Conference on Pattern Recognition (ICPR). IEEE, 2016. http://dx.doi.org/10.1109/icpr.2016.7900026.
Rapporti di organizzazioni sul tema "Convolutional recurrent neural networks":
Forrest, Robert. Convolutional Neural Networks for Signal Detection. Office of Scientific and Technical Information (OSTI), novembre 2020. http://dx.doi.org/10.2172/1813655.
Tarasenko, Andrii O., Yuriy V. Yakimov e Vladimir N. Soloviev. Convolutional neural networks for image classification. [б. в.], febbraio 2020. http://dx.doi.org/10.31812/123456789/3682.
Donahue, Jeff, Lisa A. Hendricks, Sergio Guadarrama, Marcus Rohrbach, Subhashini Venugopalan, Kate Saenko e Trevor Darrell. Long-term Recurrent Convolutional Networks for Visual Recognition and Description. Fort Belvoir, VA: Defense Technical Information Center, novembre 2014. http://dx.doi.org/10.21236/ada623249.
Yan, Erin, Harleen Sandhu, Saran Bodda, Abhinav Gupta, Xu Wu e Piyush Sabharwall. Structural Health Monitoring of Microreactor Safety Systems Using Convolutional Neural Networks. Office of Scientific and Technical Information (OSTI), luglio 2021. http://dx.doi.org/10.2172/1824205.
Lukow, Steven, Ross Lee, David Grow e Jonathan Gigax. Advancing Vision-based Feedback and Convolutional Neural Networks for Visual Outlier Detection. Office of Scientific and Technical Information (OSTI), settembre 2022. http://dx.doi.org/10.2172/1889960.
Fisher, Andmorgan, Timothy Middleton, Jonathan Cotugno, Elena Sava, Laura Clemente-Harding, Joseph Berger, Allistar Smith e Teresa Li. Use of convolutional neural networks for semantic image segmentation across different computing systems. Engineer Research and Development Center (U.S.), marzo 2020. http://dx.doi.org/10.21079/11681/35881.
Garon, Isaac. IMAGE CLASSIFICATION USING CONVOLUTIONAL NEURAL NETWORKS TO AUTOMATE VISUAL INSPECTION OF CCO CONTAINERS. Office of Scientific and Technical Information (OSTI), agosto 2023. http://dx.doi.org/10.2172/1997257.
Lupo Pasini, Massimiliano, Jong Youl Choi, Pei Zhang e Justin Baker. User Manual - HydraGNN: Distributed PyTorch Implementation of Multi-Headed Graph Convolutional Neural Networks. Office of Scientific and Technical Information (OSTI), novembre 2023. http://dx.doi.org/10.2172/2224153.
Pearlmutter, Barak A. Learning State Space Trajectories in Recurrent Neural Networks: A preliminary Report. Fort Belvoir, VA: Defense Technical Information Center, luglio 1988. http://dx.doi.org/10.21236/ada219114.
Talathi, S. S. Deep Recurrent Neural Networks for seizure detection and early seizure detection systems. Office of Scientific and Technical Information (OSTI), giugno 2017. http://dx.doi.org/10.2172/1366924.