Gotowa bibliografia na temat „Convolutional recurrent neural networks”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Spis treści
Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Convolutional recurrent neural networks”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Artykuły w czasopismach na temat "Convolutional recurrent neural networks"
Hindarto, Djarot. "Comparison of RNN Architectures and Non-RNN Architectures in Sentiment Analysis". sinkron 8, nr 4 (1.10.2023): 2537–46. http://dx.doi.org/10.33395/sinkron.v8i4.13048.
Pełny tekst źródłaKassylkassova, Kamila, Zhanna Yessengaliyeva, Gayrat Urazboev i Ayman Kassylkassova. "OPTIMIZATION METHOD FOR INTEGRATION OF CONVOLUTIONAL AND RECURRENT NEURAL NETWORK". Eurasian Journal of Mathematical and Computer Applications 11, nr 2 (2023): 40–56. http://dx.doi.org/10.32523/2306-6172-2023-11-2-40-56.
Pełny tekst źródłaLyu, Shengfei, i Jiaqi Liu. "Convolutional Recurrent Neural Networks for Text Classification". Journal of Database Management 32, nr 4 (październik 2021): 65–82. http://dx.doi.org/10.4018/jdm.2021100105.
Pełny tekst źródłaP., Vijay Babu, i Senthil Kumar R. "Performance Evaluation of Brain Tumor Identification and Examination Using MRI Images with Innovative Convolution Neural Networks and Comparing the Accuracy with RNN Algorithm". ECS Transactions 107, nr 1 (24.04.2022): 12405–14. http://dx.doi.org/10.1149/10701.12405ecst.
Pełny tekst źródłaPeng, Wenli, Shenglai Zhen, Xin Chen, Qianjing Xiong i Benli Yu. "Study on convolutional recurrent neural networks for speech enhancement in fiber-optic microphones". Journal of Physics: Conference Series 2246, nr 1 (1.04.2022): 012084. http://dx.doi.org/10.1088/1742-6596/2246/1/012084.
Pełny tekst źródłaP, Suma, i Senthil Kumar R. "Automatic Classification of Normal and Infected Blood Cells for Leukemia Through Color Based Segmentation Technique Over Innovative CNN Algorithm and Comparing the Error Rate with RNN". ECS Transactions 107, nr 1 (24.04.2022): 14123–34. http://dx.doi.org/10.1149/10701.14123ecst.
Pełny tekst źródłaWang, Lin, i Zuqiang Meng. "Multichannel Two-Dimensional Convolutional Neural Network Based on Interactive Features and Group Strategy for Chinese Sentiment Analysis". Sensors 22, nr 3 (18.01.2022): 714. http://dx.doi.org/10.3390/s22030714.
Pełny tekst źródłaPoudel, Sushan, i Dr R. Anuradha. "Speech Command Recognition using Artificial Neural Networks". JOIV : International Journal on Informatics Visualization 4, nr 2 (26.05.2020): 73. http://dx.doi.org/10.30630/joiv.4.2.358.
Pełny tekst źródłaWu, Hao, i Saurabh Prasad. "Convolutional Recurrent Neural Networks forHyperspectral Data Classification". Remote Sensing 9, nr 3 (21.03.2017): 298. http://dx.doi.org/10.3390/rs9030298.
Pełny tekst źródłaLi, Kezhi, John Daniels, Chengyuan Liu, Pau Herrero i Pantelis Georgiou. "Convolutional Recurrent Neural Networks for Glucose Prediction". IEEE Journal of Biomedical and Health Informatics 24, nr 2 (luty 2020): 603–13. http://dx.doi.org/10.1109/jbhi.2019.2908488.
Pełny tekst źródłaRozprawy doktorskie na temat "Convolutional recurrent neural networks"
Ayoub, Issa. "Multimodal Affective Computing Using Temporal Convolutional Neural Network and Deep Convolutional Neural Networks". Thesis, Université d'Ottawa / University of Ottawa, 2019. http://hdl.handle.net/10393/39337.
Pełny tekst źródłaSilfa, Franyell. "Energy-efficient architectures for recurrent neural networks". Doctoral thesis, Universitat Politècnica de Catalunya, 2021. http://hdl.handle.net/10803/671448.
Pełny tekst źródłaLos algoritmos de aprendizaje profundo han tenido un éxito notable en aplicaciones como el reconocimiento automático de voz y la traducción automática. Por ende, estas aplicaciones son omnipresentes en nuestras vidas y se encuentran en una gran cantidad de dispositivos. Estos algoritmos se componen de Redes Neuronales Profundas (DNN), tales como las Redes Neuronales Convolucionales y Redes Neuronales Recurrentes (RNN), las cuales tienen un gran número de parámetros y cálculos. Por esto implementar DNNs en dispositivos móviles y servidores es un reto debido a los requisitos de memoria y energía. Las RNN se usan para resolver problemas de secuencia a secuencia tales como traducción automática. Estas contienen dependencias de datos entre las ejecuciones de cada time-step, por ello la cantidad de paralelismo es limitado. Por eso la evaluación de RNNs de forma energéticamente eficiente es un reto. En esta tesis se estudian RNNs para mejorar su eficiencia energética en arquitecturas especializadas. Para esto, proponemos técnicas de ahorro energético y arquitecturas de alta eficiencia adaptadas a la evaluación de RNN. Primero, caracterizamos un conjunto de RNN ejecutándose en un SoC. Luego identificamos que acceder a la memoria para leer los pesos es la mayor fuente de consumo energético el cual llega hasta un 80%. Por ende, creamos E-PUR: una unidad de procesamiento para RNN. E-PUR logra una aceleración de 6.8x y mejora el consumo energético en 88x en comparación con el SoC. Esas mejoras se deben a la maximización de la ubicación temporal de los pesos. En E-PUR, la lectura de los pesos representa el mayor consumo energético. Por ende, nos enfocamos en reducir los accesos a la memoria y creamos un esquema que reutiliza resultados calculados previamente. La observación es que al evaluar las secuencias de entrada de un RNN, la salida de una neurona dada tiende a cambiar ligeramente entre evaluaciones consecutivas, por lo que ideamos un esquema que almacena en caché las salidas de las neuronas y las reutiliza cada vez que detecta un cambio pequeño entre el valor de salida actual y el valor previo, lo que evita leer los pesos. Para decidir cuándo usar un cálculo anterior utilizamos una Red Neuronal Binaria (BNN) como predictor de reutilización, dado que su salida está altamente correlacionada con la salida de la RNN. Esta propuesta evita más del 24.2% de los cálculos y reduce el consumo energético promedio en 18.5%. El tamaño de la memoria de los modelos RNN suele reducirse utilizando baja precisión para la evaluación y el almacenamiento de los pesos. En este caso, la precisión mínima utilizada se identifica de forma estática y se establece de manera que la RNN mantenga su exactitud. Normalmente, este método utiliza la misma precisión para todo los cálculos. Sin embargo, observamos que algunos cálculos se pueden evaluar con una precisión menor sin afectar la exactitud. Por eso, ideamos una técnica que selecciona dinámicamente la precisión utilizada para calcular cada time-step. Un reto de esta propuesta es como elegir una precisión menor. Abordamos este problema reconociendo que el resultado de una evaluación previa se puede emplear para determinar la precisión requerida en el time-step actual. Nuestro esquema evalúa el 57% de los cálculos con una precisión menor que la precisión fija empleada por los métodos estáticos. Por último, la evaluación en E-PUR muestra una aceleración de 1.46x con un ahorro de energía promedio de 19.2%
Oyharcabal, Astorga Nicolás. "Convolutional recurrent neural networks for remaining useful life prediction in mechanical systems". Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/168514.
Pełny tekst źródłaLa determinación de la vida útil remanente (RUL del inglés "Remaining Useful Life") de una máquina, equipo, dispositivo o elemento mecánico, es algo en lo que se ha estado trabajando en los últimos años y que es crucial para el futuro de cualquier industria que así lo requiera. El continuo monitoreo de máquinas junto a una buena predicción de la RUL permite la minimización de costos de mantención y menor exposición a fallas. Sin embargo, los datos obtenidos del monitoreo son variados, tienen ruido, poseen un carácter secuencial y no siempre guardan estricta relación con la RUL, por lo que su estimación es un problema difícil. Es por ello que en la actualidad se utilizan distintas clases de Redes Neuronales y en particular, cuando se quiere modelar problemas de carácter secuencial, se utilizan las Redes Neuronales Recurrentes o RNN (del inglés "Recurrent Neural Network") como LSTM (del inglés "Long Short Term Memory") o JANET (del inglés "Just Another NETwork"), por su capacidad para identificar de forma autónoma patrones en secuencias temporales, pero también junto a estas últimas redes, también se utilizan alternativas que incorporan la Convolución como operación para cada célula de las RNN y que se conocen como ConvRNN (del inglés "Convolutional Recurrent Neural Network"). Estas últimas redes son mejores que sus pares convolucional y recurrentes en ciertos casos que requieren procesar secuencias de imágenes, y en el caso particular de este trabajo, series de tiempo de datos de monitoreo que son suavizados por la Convolución y procesados por la Recurrencia. El objetivo general de este trabajo es determinar la mejor opción de ConvRNN para la determinación de la RUL de un turbofan a partir de series de tiempo de la base de datos C-MAPSS. También se estudia cómo editar la base de datos para mejorar la precisión de una ConvRNN y la aplicación de la Convolución como una operación primaria en una serie de tiempo cuyos parámetros muestran el comportamiento de un turbofan. Para ello se programa una LSTM Convolucional, LSTM Convolucional Codificador-Decodificador, JANET Convolucional y JANET Convolucional Codificador-Decodificador. A partir de esto se encuentra que el modelo JANET Convolucional Codificador-Decodificador da los mejores resultados en cuanto a exactitud promedio y cantidad de parámetros necesarios (entre menos mejor pues se necesita menos memoria) para la red, siendo además capaz de asimilar la totalidad de las bases de datos C-MAPSS. Por otro lado, también se encuentra que la RUL de la base de datos puede ser modificada para datos antes de la falla. Para la programación y puesta en marcha de las diferentes redes, se utilizan los computadores del laboratorio de Integración de Confiabilidad y Mantenimiento Inteligente (ICMI) del Departamento de Ingeniería Mecánica de la Universidad de Chile.
Ljubenkov, Davor. "Optimizing Bike Sharing System Flows using Graph Mining, Convolutional and Recurrent Neural Networks". Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-257783.
Pełny tekst źródłaLånecykel avser ett system för uthyrning eller utlåning av cyklar. Systemet används främst i större städer och bekostas huvudsakligen genom tecknande av ett abonnemang.Effektivt hålla cykel andelssystem som balanseras som möjligt huvud problemand därmed förutsäga eller minimera manuell transport av cyklar över staden isthe främsta mål för att spara logistikkostnaderna för drift companies.Syftet med denna avhandling är tvåfaldigt.För det första är det att visualisera cykelflödet med hjälp av datautforskningsmetoder och statistisk analys för att bättre förstå rörlighetskarakteristika med avseende på avstånd, varaktighet, tid på dagen, rumsfördelning, väderförhållanden och andra attribut.För det andra är det vid möjliga flödesvisualiseringar möjligt att fokusera på specifika riktade grafer som endast innehåller de par eller stationer vars ömsesidiga flödesskillnad är den mest asymmetriska.Genom att göra det kan vi anvnda grafmining och maskininlärningsteknik på dessa obalanserade stationer, och använda konjunktionsnurala nätverk (CNN) som tar adjacency matrix snapshots eller obalanserade subgrafer.En genererad struktur från den tidigare metoden används i det långa kortvariga minnet artificiella återkommande neurala nätverket (RNN LSTM) för att hitta och förutsäga dess dynamiska mönster.Som ett resultat förutsäger vi cykelflden för varje nod i den eventuella framtida underkonfigurationen, vilket i sin tur informerar cykeldelningsägare om att planera i enlighet med detta.Denna kombination av metoder meddelar dem vilka framtida områden som bör inriktas på mer och hur många cykelflyttningsfaser som kan förväntas.Metoder utvärderas med hjälp av cross validation (CV), Root mean square error (RMSE) och Mean average error (MAE) metrics.Fördelar identifieras både för stadsplanering och för cykeldelningsföretag genom att spara tid och minimera kostnaderna.
Tan, Ke. "Convolutional and recurrent neural networks for real-time speech separation in the complex domain". The Ohio State University, 2021. http://rave.ohiolink.edu/etdc/view?acc_num=osu1626983471600193.
Pełny tekst źródłaDaliparthi, Venkata Satya Sai Ajay. "Semantic Segmentation of Urban Scene Images Using Recurrent Neural Networks". Thesis, Blekinge Tekniska Högskola, Institutionen för datavetenskap, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-20651.
Pełny tekst źródłaHanson, Jack. "Protein Structure Prediction by Recurrent and Convolutional Deep Neural Network Architectures". Thesis, Griffith University, 2018. http://hdl.handle.net/10072/382722.
Pełny tekst źródłaThesis (PhD Doctorate)
Doctor of Philosophy (PhD)
School of Eng & Built Env
Science, Environment, Engineering and Technology
Full Text
Holm, Noah, i Emil Plynning. "Spatio-temporal prediction of residential burglaries using convolutional LSTM neural networks". Thesis, KTH, Geoinformatik, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-229952.
Pełny tekst źródłaFu, Xinyu. "Context-aware sentence categorisation : word mover's distance and character-level convolutional recurrent neural network". Thesis, University of Nottingham, 2018. http://eprints.nottingham.ac.uk/52054/.
Pełny tekst źródłaKvedaraite, Indre. "Sentiment Analysis of YouTube Public Videos based on their Comments". Thesis, Linnéuniversitetet, Institutionen för datavetenskap och medieteknik (DM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-105754.
Pełny tekst źródłaKsiążki na temat "Convolutional recurrent neural networks"
Salem, Fathi M. Recurrent Neural Networks. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-89929-5.
Pełny tekst źródłaTyagi, Amit Kumar, i Ajith Abraham. Recurrent Neural Networks. Boca Raton: CRC Press, 2022. http://dx.doi.org/10.1201/9781003307822.
Pełny tekst źródłaHu, Xiaolin, i P. Balasubramaniam. Recurrent neural networks. Rijek, Crotia: InTech, 2008.
Znajdź pełny tekst źródłaMou, Lili, i Zhi Jin. Tree-Based Convolutional Neural Networks. Singapore: Springer Singapore, 2018. http://dx.doi.org/10.1007/978-981-13-1870-2.
Pełny tekst źródłaMilosevic, Nemanja. Introduction to Convolutional Neural Networks. Berkeley, CA: Apress, 2020. http://dx.doi.org/10.1007/978-1-4842-5648-0.
Pełny tekst źródłaHabibi Aghdam, Hamed, i Elnaz Jahani Heravi. Guide to Convolutional Neural Networks. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-57550-6.
Pełny tekst źródłaVenkatesan, Ragav, i Baoxin Li. Convolutional Neural Networks in Visual Computing. Boca Raton ; London : Taylor & Francis, CRC Press, 2017.: CRC Press, 2017. http://dx.doi.org/10.4324/9781315154282.
Pełny tekst źródłaTeoh, Teik Toe. Convolutional Neural Networks for Medical Applications. Singapore: Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-19-8814-1.
Pełny tekst źródłaHammer, Barbara. Learning with recurrent neural networks. London: Springer London, 2000. http://dx.doi.org/10.1007/bfb0110016.
Pełny tekst źródłaKoonce, Brett. Convolutional Neural Networks with Swift for Tensorflow. Berkeley, CA: Apress, 2021. http://dx.doi.org/10.1007/978-1-4842-6168-2.
Pełny tekst źródłaCzęści książek na temat "Convolutional recurrent neural networks"
Rajalakshmi, Ratnavel, Abhinav Basil Shinow, Aswin Murali, Kashinadh S. Nair i J. Bhuvana. "An Efficient Convolutional Neural Network with Image Augmentation for Cassava Leaf Disease Detection". W Recurrent Neural Networks, 289–305. Boca Raton: CRC Press, 2022. http://dx.doi.org/10.1201/9781003307822-19.
Pełny tekst źródłaYan, Wei Qi. "Convolutional Neural Networks and Recurrent Neural Networks". W Texts in Computer Science, 69–124. Singapore: Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-99-4823-9_3.
Pełny tekst źródłaMichelucci, Umberto. "Convolutional and Recurrent Neural Networks". W Applied Deep Learning, 323–64. Berkeley, CA: Apress, 2018. http://dx.doi.org/10.1007/978-1-4842-3790-8_8.
Pełny tekst źródłaBorhani, Reza, Soheila Borhani i Aggelos K. Katsaggelos. "Convolutional and Recurrent Neural Networks". W Fundamentals of Machine Learning and Deep Learning in Medicine, 131–63. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-19502-0_7.
Pełny tekst źródłaPattabiraman, V., i R. Maheswari. "Image to Text Processing Using Convolution Neural Networks". W Recurrent Neural Networks, 43–52. Boca Raton: CRC Press, 2022. http://dx.doi.org/10.1201/9781003307822-4.
Pełny tekst źródłaSeo, Youngjoo, Michaël Defferrard, Pierre Vandergheynst i Xavier Bresson. "Structured Sequence Modeling with Graph Convolutional Recurrent Networks". W Neural Information Processing, 362–73. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-030-04167-0_33.
Pełny tekst źródłaBartz, Christian, Tom Herold, Haojin Yang i Christoph Meinel. "Language Identification Using Deep Convolutional Recurrent Neural Networks". W Neural Information Processing, 880–89. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-70136-3_93.
Pełny tekst źródłaNowak, Jakub, Marcin Korytkowski i Rafał Scherer. "Convolutional Recurrent Neural Networks for Computer Network Analysis". W Artificial Neural Networks and Machine Learning – ICANN 2019: Text and Time Series, 747–57. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-30490-4_59.
Pełny tekst źródłaLopez, Diego Manzanas, Sung Woo Choi, Hoang-Dung Tran i Taylor T. Johnson. "NNV 2.0: The Neural Network Verification Tool". W Computer Aided Verification, 397–412. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-37703-7_19.
Pełny tekst źródłaTan, Chuanqi, Fuchun Sun, Wenchang Zhang, Jianhua Chen i Chunfang Liu. "Multimodal Classification with Deep Convolutional-Recurrent Neural Networks for Electroencephalography". W Neural Information Processing, 767–76. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-70096-0_78.
Pełny tekst źródłaStreszczenia konferencji na temat "Convolutional recurrent neural networks"
Chien, Jen-Tzung, i Yu-Min Huang. "Stochastic Convolutional Recurrent Networks". W 2020 International Joint Conference on Neural Networks (IJCNN). IEEE, 2020. http://dx.doi.org/10.1109/ijcnn48605.2020.9206970.
Pełny tekst źródłaWang, Wentao, Canhui Liao, Quan Cheng i Pengju Wang. "Mixed convolutional recurrent neural networks". W the International Conference. New York, New York, USA: ACM Press, 2019. http://dx.doi.org/10.1145/3371425.3371430.
Pełny tekst źródła"Direction Finding Using Convolutional Neural Networks and Convolutional Recurrent Neural Networks". W 2020 28th Signal Processing and Communications Applications Conference (SIU). IEEE, 2020. http://dx.doi.org/10.1109/siu49456.2020.9302448.
Pełny tekst źródłaYang, Yi. "Convolutional Neural Networks with Recurrent Neural Filters". W Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA, USA: Association for Computational Linguistics, 2018. http://dx.doi.org/10.18653/v1/d18-1109.
Pełny tekst źródłaGulshad, Sadaf, i Jong-Hwan Kim. "Deep convolutional and recurrent writer". W 2017 International Joint Conference on Neural Networks (IJCNN). IEEE, 2017. http://dx.doi.org/10.1109/ijcnn.2017.7966206.
Pełny tekst źródłaKadambari, Sai Kiran, i Sundeep Prabhakar Chepuri. "Fast Graph Convolutional Recurrent Neural Networks". W 2019 53rd Asilomar Conference on Signals, Systems, and Computers. IEEE, 2019. http://dx.doi.org/10.1109/ieeeconf44664.2019.9048829.
Pełny tekst źródłaRuiz, Luana, Fernando Gama i Alejandro Ribeiro. "Gated Graph Convolutional Recurrent Neural Networks". W 2019 27th European Signal Processing Conference (EUSIPCO). IEEE, 2019. http://dx.doi.org/10.23919/eusipco.2019.8902995.
Pełny tekst źródłaCalvin, Rachel, i Shravya Suresh. "Image Captioning using Convolutional Neural Networks and Recurrent Neural Network". W 2021 6th International Conference for Convergence in Technology (I2CT). IEEE, 2021. http://dx.doi.org/10.1109/i2ct51068.2021.9418001.
Pełny tekst źródłaWang, Ruishuang, Zhao Li, Jian Cao, Tong Chen i Lei Wang. "Convolutional Recurrent Neural Networks for Text Classification". W 2019 International Joint Conference on Neural Networks (IJCNN). IEEE, 2019. http://dx.doi.org/10.1109/ijcnn.2019.8852406.
Pełny tekst źródłaShankar, Tanmay, Santosha K. Dwivedy i Prithwijit Guha. "Reinforcement Learning via Recurrent Convolutional Neural Networks". W 2016 23rd International Conference on Pattern Recognition (ICPR). IEEE, 2016. http://dx.doi.org/10.1109/icpr.2016.7900026.
Pełny tekst źródłaRaporty organizacyjne na temat "Convolutional recurrent neural networks"
Forrest, Robert. Convolutional Neural Networks for Signal Detection. Office of Scientific and Technical Information (OSTI), listopad 2020. http://dx.doi.org/10.2172/1813655.
Pełny tekst źródłaTarasenko, Andrii O., Yuriy V. Yakimov i Vladimir N. Soloviev. Convolutional neural networks for image classification. [б. в.], luty 2020. http://dx.doi.org/10.31812/123456789/3682.
Pełny tekst źródłaDonahue, Jeff, Lisa A. Hendricks, Sergio Guadarrama, Marcus Rohrbach, Subhashini Venugopalan, Kate Saenko i Trevor Darrell. Long-term Recurrent Convolutional Networks for Visual Recognition and Description. Fort Belvoir, VA: Defense Technical Information Center, listopad 2014. http://dx.doi.org/10.21236/ada623249.
Pełny tekst źródłaYan, Erin, Harleen Sandhu, Saran Bodda, Abhinav Gupta, Xu Wu i Piyush Sabharwall. Structural Health Monitoring of Microreactor Safety Systems Using Convolutional Neural Networks. Office of Scientific and Technical Information (OSTI), lipiec 2021. http://dx.doi.org/10.2172/1824205.
Pełny tekst źródłaLukow, Steven, Ross Lee, David Grow i Jonathan Gigax. Advancing Vision-based Feedback and Convolutional Neural Networks for Visual Outlier Detection. Office of Scientific and Technical Information (OSTI), wrzesień 2022. http://dx.doi.org/10.2172/1889960.
Pełny tekst źródłaFisher, Andmorgan, Timothy Middleton, Jonathan Cotugno, Elena Sava, Laura Clemente-Harding, Joseph Berger, Allistar Smith i Teresa Li. Use of convolutional neural networks for semantic image segmentation across different computing systems. Engineer Research and Development Center (U.S.), marzec 2020. http://dx.doi.org/10.21079/11681/35881.
Pełny tekst źródłaGaron, Isaac. IMAGE CLASSIFICATION USING CONVOLUTIONAL NEURAL NETWORKS TO AUTOMATE VISUAL INSPECTION OF CCO CONTAINERS. Office of Scientific and Technical Information (OSTI), sierpień 2023. http://dx.doi.org/10.2172/1997257.
Pełny tekst źródłaLupo Pasini, Massimiliano, Jong Youl Choi, Pei Zhang i Justin Baker. User Manual - HydraGNN: Distributed PyTorch Implementation of Multi-Headed Graph Convolutional Neural Networks. Office of Scientific and Technical Information (OSTI), listopad 2023. http://dx.doi.org/10.2172/2224153.
Pełny tekst źródłaPearlmutter, Barak A. Learning State Space Trajectories in Recurrent Neural Networks: A preliminary Report. Fort Belvoir, VA: Defense Technical Information Center, lipiec 1988. http://dx.doi.org/10.21236/ada219114.
Pełny tekst źródłaTalathi, S. S. Deep Recurrent Neural Networks for seizure detection and early seizure detection systems. Office of Scientific and Technical Information (OSTI), czerwiec 2017. http://dx.doi.org/10.2172/1366924.
Pełny tekst źródła