Littérature scientifique sur le sujet « Convolutional recurrent neural networks »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Sommaire
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Convolutional recurrent neural networks ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "Convolutional recurrent neural networks"
Hindarto, Djarot. « Comparison of RNN Architectures and Non-RNN Architectures in Sentiment Analysis ». sinkron 8, no 4 (1 octobre 2023) : 2537–46. http://dx.doi.org/10.33395/sinkron.v8i4.13048.
Texte intégralKassylkassova, Kamila, Zhanna Yessengaliyeva, Gayrat Urazboev et Ayman Kassylkassova. « OPTIMIZATION METHOD FOR INTEGRATION OF CONVOLUTIONAL AND RECURRENT NEURAL NETWORK ». Eurasian Journal of Mathematical and Computer Applications 11, no 2 (2023) : 40–56. http://dx.doi.org/10.32523/2306-6172-2023-11-2-40-56.
Texte intégralLyu, Shengfei, et Jiaqi Liu. « Convolutional Recurrent Neural Networks for Text Classification ». Journal of Database Management 32, no 4 (octobre 2021) : 65–82. http://dx.doi.org/10.4018/jdm.2021100105.
Texte intégralP., Vijay Babu, et Senthil Kumar R. « Performance Evaluation of Brain Tumor Identification and Examination Using MRI Images with Innovative Convolution Neural Networks and Comparing the Accuracy with RNN Algorithm ». ECS Transactions 107, no 1 (24 avril 2022) : 12405–14. http://dx.doi.org/10.1149/10701.12405ecst.
Texte intégralPeng, Wenli, Shenglai Zhen, Xin Chen, Qianjing Xiong et Benli Yu. « Study on convolutional recurrent neural networks for speech enhancement in fiber-optic microphones ». Journal of Physics : Conference Series 2246, no 1 (1 avril 2022) : 012084. http://dx.doi.org/10.1088/1742-6596/2246/1/012084.
Texte intégralP, Suma, et Senthil Kumar R. « Automatic Classification of Normal and Infected Blood Cells for Leukemia Through Color Based Segmentation Technique Over Innovative CNN Algorithm and Comparing the Error Rate with RNN ». ECS Transactions 107, no 1 (24 avril 2022) : 14123–34. http://dx.doi.org/10.1149/10701.14123ecst.
Texte intégralWang, Lin, et Zuqiang Meng. « Multichannel Two-Dimensional Convolutional Neural Network Based on Interactive Features and Group Strategy for Chinese Sentiment Analysis ». Sensors 22, no 3 (18 janvier 2022) : 714. http://dx.doi.org/10.3390/s22030714.
Texte intégralPoudel, Sushan, et Dr R. Anuradha. « Speech Command Recognition using Artificial Neural Networks ». JOIV : International Journal on Informatics Visualization 4, no 2 (26 mai 2020) : 73. http://dx.doi.org/10.30630/joiv.4.2.358.
Texte intégralWu, Hao, et Saurabh Prasad. « Convolutional Recurrent Neural Networks forHyperspectral Data Classification ». Remote Sensing 9, no 3 (21 mars 2017) : 298. http://dx.doi.org/10.3390/rs9030298.
Texte intégralLi, Kezhi, John Daniels, Chengyuan Liu, Pau Herrero et Pantelis Georgiou. « Convolutional Recurrent Neural Networks for Glucose Prediction ». IEEE Journal of Biomedical and Health Informatics 24, no 2 (février 2020) : 603–13. http://dx.doi.org/10.1109/jbhi.2019.2908488.
Texte intégralThèses sur le sujet "Convolutional recurrent neural networks"
Ayoub, Issa. « Multimodal Affective Computing Using Temporal Convolutional Neural Network and Deep Convolutional Neural Networks ». Thesis, Université d'Ottawa / University of Ottawa, 2019. http://hdl.handle.net/10393/39337.
Texte intégralSilfa, Franyell. « Energy-efficient architectures for recurrent neural networks ». Doctoral thesis, Universitat Politècnica de Catalunya, 2021. http://hdl.handle.net/10803/671448.
Texte intégralLos algoritmos de aprendizaje profundo han tenido un éxito notable en aplicaciones como el reconocimiento automático de voz y la traducción automática. Por ende, estas aplicaciones son omnipresentes en nuestras vidas y se encuentran en una gran cantidad de dispositivos. Estos algoritmos se componen de Redes Neuronales Profundas (DNN), tales como las Redes Neuronales Convolucionales y Redes Neuronales Recurrentes (RNN), las cuales tienen un gran número de parámetros y cálculos. Por esto implementar DNNs en dispositivos móviles y servidores es un reto debido a los requisitos de memoria y energía. Las RNN se usan para resolver problemas de secuencia a secuencia tales como traducción automática. Estas contienen dependencias de datos entre las ejecuciones de cada time-step, por ello la cantidad de paralelismo es limitado. Por eso la evaluación de RNNs de forma energéticamente eficiente es un reto. En esta tesis se estudian RNNs para mejorar su eficiencia energética en arquitecturas especializadas. Para esto, proponemos técnicas de ahorro energético y arquitecturas de alta eficiencia adaptadas a la evaluación de RNN. Primero, caracterizamos un conjunto de RNN ejecutándose en un SoC. Luego identificamos que acceder a la memoria para leer los pesos es la mayor fuente de consumo energético el cual llega hasta un 80%. Por ende, creamos E-PUR: una unidad de procesamiento para RNN. E-PUR logra una aceleración de 6.8x y mejora el consumo energético en 88x en comparación con el SoC. Esas mejoras se deben a la maximización de la ubicación temporal de los pesos. En E-PUR, la lectura de los pesos representa el mayor consumo energético. Por ende, nos enfocamos en reducir los accesos a la memoria y creamos un esquema que reutiliza resultados calculados previamente. La observación es que al evaluar las secuencias de entrada de un RNN, la salida de una neurona dada tiende a cambiar ligeramente entre evaluaciones consecutivas, por lo que ideamos un esquema que almacena en caché las salidas de las neuronas y las reutiliza cada vez que detecta un cambio pequeño entre el valor de salida actual y el valor previo, lo que evita leer los pesos. Para decidir cuándo usar un cálculo anterior utilizamos una Red Neuronal Binaria (BNN) como predictor de reutilización, dado que su salida está altamente correlacionada con la salida de la RNN. Esta propuesta evita más del 24.2% de los cálculos y reduce el consumo energético promedio en 18.5%. El tamaño de la memoria de los modelos RNN suele reducirse utilizando baja precisión para la evaluación y el almacenamiento de los pesos. En este caso, la precisión mínima utilizada se identifica de forma estática y se establece de manera que la RNN mantenga su exactitud. Normalmente, este método utiliza la misma precisión para todo los cálculos. Sin embargo, observamos que algunos cálculos se pueden evaluar con una precisión menor sin afectar la exactitud. Por eso, ideamos una técnica que selecciona dinámicamente la precisión utilizada para calcular cada time-step. Un reto de esta propuesta es como elegir una precisión menor. Abordamos este problema reconociendo que el resultado de una evaluación previa se puede emplear para determinar la precisión requerida en el time-step actual. Nuestro esquema evalúa el 57% de los cálculos con una precisión menor que la precisión fija empleada por los métodos estáticos. Por último, la evaluación en E-PUR muestra una aceleración de 1.46x con un ahorro de energía promedio de 19.2%
Oyharcabal, Astorga Nicolás. « Convolutional recurrent neural networks for remaining useful life prediction in mechanical systems ». Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/168514.
Texte intégralLa determinación de la vida útil remanente (RUL del inglés "Remaining Useful Life") de una máquina, equipo, dispositivo o elemento mecánico, es algo en lo que se ha estado trabajando en los últimos años y que es crucial para el futuro de cualquier industria que así lo requiera. El continuo monitoreo de máquinas junto a una buena predicción de la RUL permite la minimización de costos de mantención y menor exposición a fallas. Sin embargo, los datos obtenidos del monitoreo son variados, tienen ruido, poseen un carácter secuencial y no siempre guardan estricta relación con la RUL, por lo que su estimación es un problema difícil. Es por ello que en la actualidad se utilizan distintas clases de Redes Neuronales y en particular, cuando se quiere modelar problemas de carácter secuencial, se utilizan las Redes Neuronales Recurrentes o RNN (del inglés "Recurrent Neural Network") como LSTM (del inglés "Long Short Term Memory") o JANET (del inglés "Just Another NETwork"), por su capacidad para identificar de forma autónoma patrones en secuencias temporales, pero también junto a estas últimas redes, también se utilizan alternativas que incorporan la Convolución como operación para cada célula de las RNN y que se conocen como ConvRNN (del inglés "Convolutional Recurrent Neural Network"). Estas últimas redes son mejores que sus pares convolucional y recurrentes en ciertos casos que requieren procesar secuencias de imágenes, y en el caso particular de este trabajo, series de tiempo de datos de monitoreo que son suavizados por la Convolución y procesados por la Recurrencia. El objetivo general de este trabajo es determinar la mejor opción de ConvRNN para la determinación de la RUL de un turbofan a partir de series de tiempo de la base de datos C-MAPSS. También se estudia cómo editar la base de datos para mejorar la precisión de una ConvRNN y la aplicación de la Convolución como una operación primaria en una serie de tiempo cuyos parámetros muestran el comportamiento de un turbofan. Para ello se programa una LSTM Convolucional, LSTM Convolucional Codificador-Decodificador, JANET Convolucional y JANET Convolucional Codificador-Decodificador. A partir de esto se encuentra que el modelo JANET Convolucional Codificador-Decodificador da los mejores resultados en cuanto a exactitud promedio y cantidad de parámetros necesarios (entre menos mejor pues se necesita menos memoria) para la red, siendo además capaz de asimilar la totalidad de las bases de datos C-MAPSS. Por otro lado, también se encuentra que la RUL de la base de datos puede ser modificada para datos antes de la falla. Para la programación y puesta en marcha de las diferentes redes, se utilizan los computadores del laboratorio de Integración de Confiabilidad y Mantenimiento Inteligente (ICMI) del Departamento de Ingeniería Mecánica de la Universidad de Chile.
Ljubenkov, Davor. « Optimizing Bike Sharing System Flows using Graph Mining, Convolutional and Recurrent Neural Networks ». Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-257783.
Texte intégralLånecykel avser ett system för uthyrning eller utlåning av cyklar. Systemet används främst i större städer och bekostas huvudsakligen genom tecknande av ett abonnemang.Effektivt hålla cykel andelssystem som balanseras som möjligt huvud problemand därmed förutsäga eller minimera manuell transport av cyklar över staden isthe främsta mål för att spara logistikkostnaderna för drift companies.Syftet med denna avhandling är tvåfaldigt.För det första är det att visualisera cykelflödet med hjälp av datautforskningsmetoder och statistisk analys för att bättre förstå rörlighetskarakteristika med avseende på avstånd, varaktighet, tid på dagen, rumsfördelning, väderförhållanden och andra attribut.För det andra är det vid möjliga flödesvisualiseringar möjligt att fokusera på specifika riktade grafer som endast innehåller de par eller stationer vars ömsesidiga flödesskillnad är den mest asymmetriska.Genom att göra det kan vi anvnda grafmining och maskininlärningsteknik på dessa obalanserade stationer, och använda konjunktionsnurala nätverk (CNN) som tar adjacency matrix snapshots eller obalanserade subgrafer.En genererad struktur från den tidigare metoden används i det långa kortvariga minnet artificiella återkommande neurala nätverket (RNN LSTM) för att hitta och förutsäga dess dynamiska mönster.Som ett resultat förutsäger vi cykelflden för varje nod i den eventuella framtida underkonfigurationen, vilket i sin tur informerar cykeldelningsägare om att planera i enlighet med detta.Denna kombination av metoder meddelar dem vilka framtida områden som bör inriktas på mer och hur många cykelflyttningsfaser som kan förväntas.Metoder utvärderas med hjälp av cross validation (CV), Root mean square error (RMSE) och Mean average error (MAE) metrics.Fördelar identifieras både för stadsplanering och för cykeldelningsföretag genom att spara tid och minimera kostnaderna.
Tan, Ke. « Convolutional and recurrent neural networks for real-time speech separation in the complex domain ». The Ohio State University, 2021. http://rave.ohiolink.edu/etdc/view?acc_num=osu1626983471600193.
Texte intégralDaliparthi, Venkata Satya Sai Ajay. « Semantic Segmentation of Urban Scene Images Using Recurrent Neural Networks ». Thesis, Blekinge Tekniska Högskola, Institutionen för datavetenskap, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-20651.
Texte intégralHanson, Jack. « Protein Structure Prediction by Recurrent and Convolutional Deep Neural Network Architectures ». Thesis, Griffith University, 2018. http://hdl.handle.net/10072/382722.
Texte intégralThesis (PhD Doctorate)
Doctor of Philosophy (PhD)
School of Eng & Built Env
Science, Environment, Engineering and Technology
Full Text
Holm, Noah, et Emil Plynning. « Spatio-temporal prediction of residential burglaries using convolutional LSTM neural networks ». Thesis, KTH, Geoinformatik, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-229952.
Texte intégralFu, Xinyu. « Context-aware sentence categorisation : word mover's distance and character-level convolutional recurrent neural network ». Thesis, University of Nottingham, 2018. http://eprints.nottingham.ac.uk/52054/.
Texte intégralKvedaraite, Indre. « Sentiment Analysis of YouTube Public Videos based on their Comments ». Thesis, Linnéuniversitetet, Institutionen för datavetenskap och medieteknik (DM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-105754.
Texte intégralLivres sur le sujet "Convolutional recurrent neural networks"
Salem, Fathi M. Recurrent Neural Networks. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-89929-5.
Texte intégralTyagi, Amit Kumar, et Ajith Abraham. Recurrent Neural Networks. Boca Raton : CRC Press, 2022. http://dx.doi.org/10.1201/9781003307822.
Texte intégralHu, Xiaolin, et P. Balasubramaniam. Recurrent neural networks. Rijek, Crotia : InTech, 2008.
Trouver le texte intégralMou, Lili, et Zhi Jin. Tree-Based Convolutional Neural Networks. Singapore : Springer Singapore, 2018. http://dx.doi.org/10.1007/978-981-13-1870-2.
Texte intégralMilosevic, Nemanja. Introduction to Convolutional Neural Networks. Berkeley, CA : Apress, 2020. http://dx.doi.org/10.1007/978-1-4842-5648-0.
Texte intégralHabibi Aghdam, Hamed, et Elnaz Jahani Heravi. Guide to Convolutional Neural Networks. Cham : Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-57550-6.
Texte intégralVenkatesan, Ragav, et Baoxin Li. Convolutional Neural Networks in Visual Computing. Boca Raton ; London : Taylor & Francis, CRC Press, 2017. : CRC Press, 2017. http://dx.doi.org/10.4324/9781315154282.
Texte intégralTeoh, Teik Toe. Convolutional Neural Networks for Medical Applications. Singapore : Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-19-8814-1.
Texte intégralHammer, Barbara. Learning with recurrent neural networks. London : Springer London, 2000. http://dx.doi.org/10.1007/bfb0110016.
Texte intégralKoonce, Brett. Convolutional Neural Networks with Swift for Tensorflow. Berkeley, CA : Apress, 2021. http://dx.doi.org/10.1007/978-1-4842-6168-2.
Texte intégralChapitres de livres sur le sujet "Convolutional recurrent neural networks"
Rajalakshmi, Ratnavel, Abhinav Basil Shinow, Aswin Murali, Kashinadh S. Nair et J. Bhuvana. « An Efficient Convolutional Neural Network with Image Augmentation for Cassava Leaf Disease Detection ». Dans Recurrent Neural Networks, 289–305. Boca Raton : CRC Press, 2022. http://dx.doi.org/10.1201/9781003307822-19.
Texte intégralYan, Wei Qi. « Convolutional Neural Networks and Recurrent Neural Networks ». Dans Texts in Computer Science, 69–124. Singapore : Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-99-4823-9_3.
Texte intégralMichelucci, Umberto. « Convolutional and Recurrent Neural Networks ». Dans Applied Deep Learning, 323–64. Berkeley, CA : Apress, 2018. http://dx.doi.org/10.1007/978-1-4842-3790-8_8.
Texte intégralBorhani, Reza, Soheila Borhani et Aggelos K. Katsaggelos. « Convolutional and Recurrent Neural Networks ». Dans Fundamentals of Machine Learning and Deep Learning in Medicine, 131–63. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-19502-0_7.
Texte intégralPattabiraman, V., et R. Maheswari. « Image to Text Processing Using Convolution Neural Networks ». Dans Recurrent Neural Networks, 43–52. Boca Raton : CRC Press, 2022. http://dx.doi.org/10.1201/9781003307822-4.
Texte intégralSeo, Youngjoo, Michaël Defferrard, Pierre Vandergheynst et Xavier Bresson. « Structured Sequence Modeling with Graph Convolutional Recurrent Networks ». Dans Neural Information Processing, 362–73. Cham : Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-030-04167-0_33.
Texte intégralBartz, Christian, Tom Herold, Haojin Yang et Christoph Meinel. « Language Identification Using Deep Convolutional Recurrent Neural Networks ». Dans Neural Information Processing, 880–89. Cham : Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-70136-3_93.
Texte intégralNowak, Jakub, Marcin Korytkowski et Rafał Scherer. « Convolutional Recurrent Neural Networks for Computer Network Analysis ». Dans Artificial Neural Networks and Machine Learning – ICANN 2019 : Text and Time Series, 747–57. Cham : Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-30490-4_59.
Texte intégralLopez, Diego Manzanas, Sung Woo Choi, Hoang-Dung Tran et Taylor T. Johnson. « NNV 2.0 : The Neural Network Verification Tool ». Dans Computer Aided Verification, 397–412. Cham : Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-37703-7_19.
Texte intégralTan, Chuanqi, Fuchun Sun, Wenchang Zhang, Jianhua Chen et Chunfang Liu. « Multimodal Classification with Deep Convolutional-Recurrent Neural Networks for Electroencephalography ». Dans Neural Information Processing, 767–76. Cham : Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-70096-0_78.
Texte intégralActes de conférences sur le sujet "Convolutional recurrent neural networks"
Chien, Jen-Tzung, et Yu-Min Huang. « Stochastic Convolutional Recurrent Networks ». Dans 2020 International Joint Conference on Neural Networks (IJCNN). IEEE, 2020. http://dx.doi.org/10.1109/ijcnn48605.2020.9206970.
Texte intégralWang, Wentao, Canhui Liao, Quan Cheng et Pengju Wang. « Mixed convolutional recurrent neural networks ». Dans the International Conference. New York, New York, USA : ACM Press, 2019. http://dx.doi.org/10.1145/3371425.3371430.
Texte intégral« Direction Finding Using Convolutional Neural Networks and Convolutional Recurrent Neural Networks ». Dans 2020 28th Signal Processing and Communications Applications Conference (SIU). IEEE, 2020. http://dx.doi.org/10.1109/siu49456.2020.9302448.
Texte intégralYang, Yi. « Convolutional Neural Networks with Recurrent Neural Filters ». Dans Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA, USA : Association for Computational Linguistics, 2018. http://dx.doi.org/10.18653/v1/d18-1109.
Texte intégralGulshad, Sadaf, et Jong-Hwan Kim. « Deep convolutional and recurrent writer ». Dans 2017 International Joint Conference on Neural Networks (IJCNN). IEEE, 2017. http://dx.doi.org/10.1109/ijcnn.2017.7966206.
Texte intégralKadambari, Sai Kiran, et Sundeep Prabhakar Chepuri. « Fast Graph Convolutional Recurrent Neural Networks ». Dans 2019 53rd Asilomar Conference on Signals, Systems, and Computers. IEEE, 2019. http://dx.doi.org/10.1109/ieeeconf44664.2019.9048829.
Texte intégralRuiz, Luana, Fernando Gama et Alejandro Ribeiro. « Gated Graph Convolutional Recurrent Neural Networks ». Dans 2019 27th European Signal Processing Conference (EUSIPCO). IEEE, 2019. http://dx.doi.org/10.23919/eusipco.2019.8902995.
Texte intégralCalvin, Rachel, et Shravya Suresh. « Image Captioning using Convolutional Neural Networks and Recurrent Neural Network ». Dans 2021 6th International Conference for Convergence in Technology (I2CT). IEEE, 2021. http://dx.doi.org/10.1109/i2ct51068.2021.9418001.
Texte intégralWang, Ruishuang, Zhao Li, Jian Cao, Tong Chen et Lei Wang. « Convolutional Recurrent Neural Networks for Text Classification ». Dans 2019 International Joint Conference on Neural Networks (IJCNN). IEEE, 2019. http://dx.doi.org/10.1109/ijcnn.2019.8852406.
Texte intégralShankar, Tanmay, Santosha K. Dwivedy et Prithwijit Guha. « Reinforcement Learning via Recurrent Convolutional Neural Networks ». Dans 2016 23rd International Conference on Pattern Recognition (ICPR). IEEE, 2016. http://dx.doi.org/10.1109/icpr.2016.7900026.
Texte intégralRapports d'organisations sur le sujet "Convolutional recurrent neural networks"
Forrest, Robert. Convolutional Neural Networks for Signal Detection. Office of Scientific and Technical Information (OSTI), novembre 2020. http://dx.doi.org/10.2172/1813655.
Texte intégralTarasenko, Andrii O., Yuriy V. Yakimov et Vladimir N. Soloviev. Convolutional neural networks for image classification. [б. в.], février 2020. http://dx.doi.org/10.31812/123456789/3682.
Texte intégralDonahue, Jeff, Lisa A. Hendricks, Sergio Guadarrama, Marcus Rohrbach, Subhashini Venugopalan, Kate Saenko et Trevor Darrell. Long-term Recurrent Convolutional Networks for Visual Recognition and Description. Fort Belvoir, VA : Defense Technical Information Center, novembre 2014. http://dx.doi.org/10.21236/ada623249.
Texte intégralYan, Erin, Harleen Sandhu, Saran Bodda, Abhinav Gupta, Xu Wu et Piyush Sabharwall. Structural Health Monitoring of Microreactor Safety Systems Using Convolutional Neural Networks. Office of Scientific and Technical Information (OSTI), juillet 2021. http://dx.doi.org/10.2172/1824205.
Texte intégralLukow, Steven, Ross Lee, David Grow et Jonathan Gigax. Advancing Vision-based Feedback and Convolutional Neural Networks for Visual Outlier Detection. Office of Scientific and Technical Information (OSTI), septembre 2022. http://dx.doi.org/10.2172/1889960.
Texte intégralFisher, Andmorgan, Timothy Middleton, Jonathan Cotugno, Elena Sava, Laura Clemente-Harding, Joseph Berger, Allistar Smith et Teresa Li. Use of convolutional neural networks for semantic image segmentation across different computing systems. Engineer Research and Development Center (U.S.), mars 2020. http://dx.doi.org/10.21079/11681/35881.
Texte intégralGaron, Isaac. IMAGE CLASSIFICATION USING CONVOLUTIONAL NEURAL NETWORKS TO AUTOMATE VISUAL INSPECTION OF CCO CONTAINERS. Office of Scientific and Technical Information (OSTI), août 2023. http://dx.doi.org/10.2172/1997257.
Texte intégralLupo Pasini, Massimiliano, Jong Youl Choi, Pei Zhang et Justin Baker. User Manual - HydraGNN : Distributed PyTorch Implementation of Multi-Headed Graph Convolutional Neural Networks. Office of Scientific and Technical Information (OSTI), novembre 2023. http://dx.doi.org/10.2172/2224153.
Texte intégralPearlmutter, Barak A. Learning State Space Trajectories in Recurrent Neural Networks : A preliminary Report. Fort Belvoir, VA : Defense Technical Information Center, juillet 1988. http://dx.doi.org/10.21236/ada219114.
Texte intégralTalathi, S. S. Deep Recurrent Neural Networks for seizure detection and early seizure detection systems. Office of Scientific and Technical Information (OSTI), juin 2017. http://dx.doi.org/10.2172/1366924.
Texte intégral