Gotowa bibliografia na temat „Long Short-term Memory (LSTM) Networks”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Long Short-term Memory (LSTM) Networks”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Artykuły w czasopismach na temat "Long Short-term Memory (LSTM) Networks"
Singh, Arjun, Shashi Kant Dargar, Amit Gupta, Ashish Kumar, Atul Kumar Srivastava, Mitali Srivastava, Pradeep Kumar Tiwari i Mohammad Aman Ullah. "Evolving Long Short-Term Memory Network-Based Text Classification". Computational Intelligence and Neuroscience 2022 (21.02.2022): 1–11. http://dx.doi.org/10.1155/2022/4725639.
Pełny tekst źródłaHochreiter, Sepp, i Jürgen Schmidhuber. "Long Short-Term Memory". Neural Computation 9, nr 8 (1.11.1997): 1735–80. http://dx.doi.org/10.1162/neco.1997.9.8.1735.
Pełny tekst źródłaXu, Wei, Yanan Jiang, Xiaoli Zhang, Yi Li, Run Zhang i Guangtao Fu. "Using long short-term memory networks for river flow prediction". Hydrology Research 51, nr 6 (5.10.2020): 1358–76. http://dx.doi.org/10.2166/nh.2020.026.
Pełny tekst źródłaSong, Tianyu, Wei Ding, Jian Wu, Haixing Liu, Huicheng Zhou i Jinggang Chu. "Flash Flood Forecasting Based on Long Short-Term Memory Networks". Water 12, nr 1 (29.12.2019): 109. http://dx.doi.org/10.3390/w12010109.
Pełny tekst źródłaShankar, Sonali, P. Vigneswara Ilavarasan, Sushil Punia i Surya Prakash Singh. "Forecasting container throughput with long short-term memory networks". Industrial Management & Data Systems 120, nr 3 (4.12.2019): 425–41. http://dx.doi.org/10.1108/imds-07-2019-0370.
Pełny tekst źródłaNguyen, Sang Thi Thanh, i Bao Duy Tran. "Long Short-Term Memory Based Movie Recommendation". Science & Technology Development Journal - Engineering and Technology 3, SI1 (19.09.2020): SI1—SI9. http://dx.doi.org/10.32508/stdjet.v3isi1.540.
Pełny tekst źródłaTra, Nguyen Ngoc, Ho Phuoc Tien, Nguyen Thanh Dat i Nguyen Ngoc Vu. "VN-INDEX TREND PREDICTION USING LONG-SHORT TERM MEMORY NEURAL NETWORKS". Journal of Science and Technology: Issue on Information and Communications Technology 17, nr 12.2 (9.12.2019): 61. http://dx.doi.org/10.31130/ict-ud.2019.94.
Pełny tekst źródłaChen Wang, Chen Wang, Bingchun Liu Chen Wang, Jiali Chen Bingchun Liu i Xiaogang Yu Jiali Chen. "Air Quality Index Prediction Based on a Long Short-Term Memory Artificial Neural Network Model". 電腦學刊 34, nr 2 (kwiecień 2023): 069–79. http://dx.doi.org/10.53106/199115992023043402006.
Pełny tekst źródłaWang, Jianyong, Lei Zhang, Yuanyuan Chen i Zhang Yi. "A New Delay Connection for Long Short-Term Memory Networks". International Journal of Neural Systems 28, nr 06 (24.06.2018): 1750061. http://dx.doi.org/10.1142/s0129065717500617.
Pełny tekst źródłaLees, Thomas, Steven Reece, Frederik Kratzert, Daniel Klotz, Martin Gauch, Jens De Bruijn, Reetik Kumar Sahu, Peter Greve, Louise Slater i Simon J. Dadson. "Hydrological concept formation inside long short-term memory (LSTM) networks". Hydrology and Earth System Sciences 26, nr 12 (20.06.2022): 3079–101. http://dx.doi.org/10.5194/hess-26-3079-2022.
Pełny tekst źródłaRozprawy doktorskie na temat "Long Short-term Memory (LSTM) Networks"
Shojaee, Ali B. S. "Bacteria Growth Modeling using Long-Short-Term-Memory Networks". University of Cincinnati / OhioLINK, 2021. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1617105038908441.
Pełny tekst źródłaPaschou, Michail. "ASIC implementation of LSTM neural network algorithm". Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-254290.
Pełny tekst źródłaLSTM neurala nätverk har använts för taligenkänning, bildigenkänning och andra artificiella intelligensapplikationer i många år. De flesta applikationer utför LSTM-algoritmen och de nödvändiga beräkningarna i digitala moln. Offline lösningar inkluderar användningen av FPGA och GPU men de mest lovande lösningarna inkluderar ASIC-acceleratorer utformade för endast dettaändamål. Denna rapport presenterar en ASIC-design som kan utföra multipla iterationer av LSTM-algoritmen på en enkelriktad neural nätverksarkitetur utan peepholes. Den föreslagna designed ger aritmetrisk nivå-parallellismalternativ som block som är instansierat baserat på parametrar. Designens inre konstruktion implementerar pipelinerade, parallella, eller seriella lösningar beroende på vilket anternativ som är optimalt till alla fall. Konsekvenserna för dessa beslut diskuteras i detalj i rapporten. Designprocessen beskrivs i detalj och utvärderingen av designen presenteras också för att mäta noggrannheten och felmarginal i designutgången. Resultatet av arbetet från denna rapport är en fullständig syntetiserbar ASIC design som har implementerat ett LSTM-lager, ett fullständigt anslutet lager och ett Softmax-lager som kan utföra klassificering av data baserat på tränade viktmatriser och biasvektorer. Designen använder huvudsakligen 16bitars fast flytpunktsformat med 5 heltal och 11 fraktions bitar men ökade precisionsrepresentationer används i vissa block för att minska felmarginal. Till detta har även en verifieringsmiljö utformats som kan utföra simuleringar, utvärdera designresultatet genom att jämföra det med resultatet som produceras från att utföra samma operationer med 64-bitars flytpunktsprecision på en SystemVerilog testbänk och mäta uppstådda felmarginal. Resultaten avseende noggrannheten och designutgångens felmarginal presenteras i denna rapport.Designen gick genom Logisk och Fysisk syntes och framgångsrikt resulterade i en funktionell nätlista för varje testad konfiguration. Timing, area och effektmätningar på den genererade nätlistorna av olika konfigurationer av designen visar konsistens och rapporteras i denna rapport.
Corni, Gabriele. "A study on the applicability of Long Short-Term Memory networks to industrial OCR". Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.
Znajdź pełny tekst źródłaNawaz, Sabeen. "Analysis of Transactional Data with Long Short-Term Memory Recurrent Neural Networks". Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-281282.
Pełny tekst źródłaObehöriga transaktioner och bedrägerier i betalningar kan leda till stora ekonomiska förluster för banker och myndigheter. Inom maskininlärning har detta problem tidigare hanterats med hjälp av klassifierare via supervised learning. I detta examensarbete föreslår vi en modell som kan användas i ett system för att upptäcka bedrägerier. Modellen appliceras på omärkt data med många olika variabler. Modellen som används är en Long Short-term memory i en auto-encoder decoder nätverk. Datan transformeras med PCA och klustras med K-means. Modellen tränas till att rekonstruera en sekvens av betalningar med hög noggrannhet. Vår resultat visar att LSTM-AED presterar bättre än en modell som endast gissar nästa punkt i sekvensen. Resultatet visar också att mycket information i datan går förlorad när den förbehandlas och transformeras.
Valluru, Aravind-Deshikh. "Realization of LSTM Based Cognitive Radio Network". Thesis, University of North Texas, 2019. https://digital.library.unt.edu/ark:/67531/metadc1538697/.
Pełny tekst źródłaVerner, Alexander. "LSTM Networks for Detection and Classification of Anomalies in Raw Sensor Data". Diss., NSUWorks, 2019. https://nsuworks.nova.edu/gscis_etd/1074.
Pełny tekst źródłaSvanberg, John. "Anomaly detection for non-recurring traffic congestions using Long short-term memory networks (LSTMs)". Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-234465.
Pełny tekst źródłaI den här masteruppsatsen implementerar vi en tvåstegsalgoritm för avvikelsedetektering för icke återkommande trafikstockningar. Data är insamlad från kollektivtrafikbussarna i Stockholm. Vi undersöker användningen av maskininlärning för att modellerna tidsseriedata med hjälp av LSTM-nätverk och evaluerar sedan dessa resultat med en grundmodell. Avvikelsedetekteringsalgoritmen inkluderar både kollektiv och kontextuell uttrycksfullhet, vilket innebär att kollektiva förseningar kan hittas och att även temporaliteten hos datan beaktas. Resultaten visar att prestandan hos avvikelsedetekteringen förbättras av mindre prediktionsfel genererade av LSTM-nätverket i jämförelse med grundmodellen. En regel för avvikelser baserad på snittet av två andra regler reducerar märkbart antalet falska positiva medan den höll kvar antalet sanna positiva på en tillräckligt hög nivå. Prestandan hos avvikelsedetekteringsalgoritmen har setts bero av vilken vägsträcka den tillämpas på, där några vägsträckor är svårare medan andra är lättare för avvikelsedetekteringen. Den bästa varianten av algoritmen hittade 84.3 % av alla avvikelser och 96.0 % av all avvikelsefri data blev markerad som normal data.
Hernandez, Villapol Jorge Luis. "Spectrum Analysis and Prediction Using Long Short Term Memory Neural Networks and Cognitive Radios". Thesis, University of North Texas, 2017. https://digital.library.unt.edu/ark:/67531/metadc1062877/.
Pełny tekst źródłavan, der Westhuizen Jos. "Biological applications, visualizations, and extensions of the long short-term memory network". Thesis, University of Cambridge, 2018. https://www.repository.cam.ac.uk/handle/1810/287476.
Pełny tekst źródłaRacette, Olsén Michael. "Electrocardiographic deviation detection : Using long short-term memory recurrent neural networks to detect deviations within electrocardiographic records". Thesis, Linnéuniversitetet, Institutionen för datavetenskap (DV), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-76411.
Pełny tekst źródłaKsiążki na temat "Long Short-term Memory (LSTM) Networks"
Nobre, Anna C. (Kia), i M.-Marsel Mesulam. Large-scale Networks for Attentional Biases. Redaktorzy Anna C. (Kia) Nobre i Sabine Kastner. Oxford University Press, 2014. http://dx.doi.org/10.1093/oxfordhb/9780199675111.013.035.
Pełny tekst źródłaCzęści książek na temat "Long Short-term Memory (LSTM) Networks"
Hvitfeldt, Emil, i Julia Silge. "Long short-term memory (LSTM) networks". W Supervised Machine Learning for Text Analysis in R, 273–302. Boca Raton: Chapman and Hall/CRC, 2021. http://dx.doi.org/10.1201/9781003093459-14.
Pełny tekst źródłaSalem, Fathi M. "Gated RNN: The Long Short-Term Memory (LSTM) RNN". W Recurrent Neural Networks, 71–82. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-89929-5_4.
Pełny tekst źródłaNandam, Srinivasa Rao, Adouthu Vamshi i Inapanuri Sucharitha. "CAN Intrusion Detection Using Long Short-Term Memory (LSTM)". W Lecture Notes in Networks and Systems, 295–302. Singapore: Springer Nature Singapore, 2022. http://dx.doi.org/10.1007/978-981-19-1976-3_36.
Pełny tekst źródłaBarone, Ben, David Coar, Ashley Shafer, Jinhong K. Guo, Brad Galego i James Allen. "Interpreting Pilot Behavior Using Long Short-Term Memory (LSTM) Models". W Lecture Notes in Networks and Systems, 60–66. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-80624-8_8.
Pełny tekst źródłaWüthrich, Mario V., i Michael Merz. "Recurrent Neural Networks". W Springer Actuarial, 381–406. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-12409-9_8.
Pełny tekst źródłaAnwarsha, A., i T. Narendiranath Babu. "Intelligent Fault Detection of Rotating Machinery Using Long-Short-Term Memory (LSTM) Network". W Lecture Notes in Networks and Systems, 76–83. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-20429-6_8.
Pełny tekst źródłaSai Charan, P. V., T. Gireesh Kumar i P. Mohan Anand. "Advance Persistent Threat Detection Using Long Short Term Memory (LSTM) Neural Networks". W Emerging Technologies in Computer Engineering: Microservices in Big Data Analytics, 45–54. Singapore: Springer Singapore, 2019. http://dx.doi.org/10.1007/978-981-13-8300-7_5.
Pełny tekst źródłaZhang, Nian, Xiangguang Dai, M. A. Ehsan i Tolessa Deksissa. "Development of a Drought Prediction System Based on Long Short-Term Memory Networks (LSTM)". W Advances in Neural Networks – ISNN 2020, 142–53. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-64221-1_13.
Pełny tekst źródłaMyakal, Sabhapathy, Rajarshi Pal i Nekuri Naveen. "A Novel Pixel Value Predictor Using Long Short Term Memory (LSTM) Network". W Lecture Notes in Computer Science, 324–35. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-36402-0_30.
Pełny tekst źródłaJahidul Islam Razin, Md, Md Abdul Karim, M. F. Mridha, S. M. Rafiuddin Rifat i Tahira Alam. "A Long Short-Term Memory (LSTM) Model for Business Sentiment Analysis Based on Recurrent Neural Network". W Sustainable Communication Networks and Application, 1–15. Singapore: Springer Singapore, 2021. http://dx.doi.org/10.1007/978-981-15-8677-4_1.
Pełny tekst źródłaStreszczenia konferencji na temat "Long Short-term Memory (LSTM) Networks"
Lin, Yanbin, Dongliang Duan, Xueming Hong, Xiang Cheng, Liuqing Yang i Shuguang Cui. "Very-Short-Term Solar Forecasting with Long Short-Term Memory (LSTM) Network". W 2020 Asia Energy and Electrical Engineering Symposium (AEEES). IEEE, 2020. http://dx.doi.org/10.1109/aeees48850.2020.9121512.
Pełny tekst źródłaHuang, Ting, Gehui Shen i Zhi-Hong Deng. "Leap-LSTM: Enhancing Long Short-Term Memory for Text Categorization". W Twenty-Eighth International Joint Conference on Artificial Intelligence {IJCAI-19}. California: International Joint Conferences on Artificial Intelligence Organization, 2019. http://dx.doi.org/10.24963/ijcai.2019/697.
Pełny tekst źródłaPérez, José, Rafael Baez, Jose Terrazas, Arturo Rodríguez, Daniel Villanueva, Olac Fuentes, Vinod Kumar, Brandon Paez i Abdiel Cruz. "Physics-Informed Long-Short Term Memory Neural Network Performance on Holloman High-Speed Test Track Sled Study". W ASME 2022 Fluids Engineering Division Summer Meeting. American Society of Mechanical Engineers, 2022. http://dx.doi.org/10.1115/fedsm2022-86953.
Pełny tekst źródłaSingh, Shubhendu Kumar, Ruoyu Yang, Amir Behjat, Rahul Rai, Souma Chowdhury i Ion Matei. "PI-LSTM: Physics-Infused Long Short-Term Memory Network". W 2019 18th IEEE International Conference On Machine Learning And Applications (ICMLA). IEEE, 2019. http://dx.doi.org/10.1109/icmla.2019.00015.
Pełny tekst źródłaC. Lemos Neto, Álvaro, Rodrigo A. Coelho i Cristiano L. de Castro. "An Incremental Learning approach using Long Short-Term Memory Neural Networks". W Congresso Brasileiro de Automática - 2020. sbabra, 2020. http://dx.doi.org/10.48011/asba.v2i1.1491.
Pełny tekst źródłaTongta, Anawat, i Komkrit Chooruang. "Long Short-Term Memory (LSTM) Neural Networks Applied to Energy Disaggregation". W 2020 8th International Electrical Engineering Congress (iEECON). IEEE, 2020. http://dx.doi.org/10.1109/ieecon48109.2020.229559.
Pełny tekst źródłaLu, Yuzhen, i Fathi M. Salem. "Simplified gating in long short-term memory (LSTM) recurrent neural networks". W 2017 IEEE 60th International Midwest Symposium on Circuits and Systems (MWSCAS). IEEE, 2017. http://dx.doi.org/10.1109/mwscas.2017.8053244.
Pełny tekst źródłaYu, Wennian, Chris K. Mechefske i Il Yong Kim. "Cutting Tool Wear Estimation Using a Genetic Algorithm Based Long Short-Term Memory Neural Network". W ASME 2018 International Design Engineering Technical Conferences and Computers and Information in Engineering Conference. American Society of Mechanical Engineers, 2018. http://dx.doi.org/10.1115/detc2018-85253.
Pełny tekst źródłaGaurav, Akshat, Varsha Arya, Kwok Tai Chui, Brij B. Gupta, Chang Choi i O.-Joun Lee. "Long Short-Term Memory Network (LSTM) based Stock Price Prediction". W RACS '23: International Conference on Research in Adaptive and Convergent Systems. New York, NY, USA: ACM, 2023. http://dx.doi.org/10.1145/3599957.3606240.
Pełny tekst źródłaAffonso, Felipe, i Thiago Magela Rodrigues Dias. "Applying Recurrent Neural Networks with Long Short- Term Memory in Clustered Stocks". W XV Encontro Nacional de Inteligência Artificial e Computacional. Sociedade Brasileira de Computação - SBC, 2018. http://dx.doi.org/10.5753/eniac.2018.4421.
Pełny tekst źródłaRaporty organizacyjne na temat "Long Short-term Memory (LSTM) Networks"
Cárdenas-Cárdenas, Julián Alonso, Deicy J. Cristiano-Botia i Nicolás Martínez-Cortés. Colombian inflation forecast using Long Short-Term Memory approach. Banco de la República, czerwiec 2023. http://dx.doi.org/10.32468/be.1241.
Pełny tekst źródłaAnkel, Victoria, Stella Pantopoulou, Matthew Weathered, Darius Lisowski, Anthonie Cilliers i Alexander Heifetz. One-Step Ahead Prediction of Thermal Mixing Tee Sensors with Long Short Term Memory (LSTM) Neural Networks. Office of Scientific and Technical Information (OSTI), grudzień 2020. http://dx.doi.org/10.2172/1760289.
Pełny tekst źródłaKumar, Kaushal, i Yupeng Wei. Attention-Based Data Analytic Models for Traffic Flow Predictions. Mineta Transportation Institute, marzec 2023. http://dx.doi.org/10.31979/mti.2023.2211.
Pełny tekst źródłaLy, Racine, Fousseini Traore i Khadim Dia. Forecasting commodity prices using long-short-term memory neural networks. Washington, DC: International Food Policy Research Institute, 2021. http://dx.doi.org/10.2499/p15738coll2.134265.
Pełny tekst źródła