Добірка наукової літератури з теми "LSTM Neural networks"
Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями
Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "LSTM Neural networks".
Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.
Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.
Статті в журналах з теми "LSTM Neural networks"
Bakir, Houda, Ghassen Chniti, and Hédi Zaher. "E-Commerce Price Forecasting Using LSTM Neural Networks." International Journal of Machine Learning and Computing 8, no. 2 (April 2018): 169–74. http://dx.doi.org/10.18178/ijmlc.2018.8.2.682.
Повний текст джерелаYu, Yong, Xiaosheng Si, Changhua Hu, and Jianxun Zhang. "A Review of Recurrent Neural Networks: LSTM Cells and Network Architectures." Neural Computation 31, no. 7 (July 2019): 1235–70. http://dx.doi.org/10.1162/neco_a_01199.
Повний текст джерелаKalinin, Maxim, Vasiliy Krundyshev, and Evgeny Zubkov. "Estimation of applicability of modern neural network methods for preventing cyberthreats to self-organizing network infrastructures of digital economy platforms,." SHS Web of Conferences 44 (2018): 00044. http://dx.doi.org/10.1051/shsconf/20184400044.
Повний текст джерелаZhang, Chuanwei, Xusheng Xu, Yikun Li, Jing Huang, Chenxi Li, and Weixin Sun. "Research on SOC Estimation Method for Lithium-Ion Batteries Based on Neural Network." World Electric Vehicle Journal 14, no. 10 (October 2, 2023): 275. http://dx.doi.org/10.3390/wevj14100275.
Повний текст джерелаSridhar, C., and Aniruddha Kanhe. "Performance Comparison of Various Neural Networks for Speech Recognition." Journal of Physics: Conference Series 2466, no. 1 (March 1, 2023): 012008. http://dx.doi.org/10.1088/1742-6596/2466/1/012008.
Повний текст джерелаWan, Yingliang, Hong Tao, and Li Ma. "Forecasting Zhejiang Province's GDP Using a CNN-LSTM Model." Frontiers in Business, Economics and Management 13, no. 3 (March 5, 2024): 233–35. http://dx.doi.org/10.54097/bmq2dy63.
Повний текст джерелаLiu, David, and An Wei. "Regulated LSTM Artificial Neural Networks for Option Risks." FinTech 1, no. 2 (June 2, 2022): 180–90. http://dx.doi.org/10.3390/fintech1020014.
Повний текст джерелаPal, Subarno, Soumadip Ghosh, and Amitava Nag. "Sentiment Analysis in the Light of LSTM Recurrent Neural Networks." International Journal of Synthetic Emotions 9, no. 1 (January 2018): 33–39. http://dx.doi.org/10.4018/ijse.2018010103.
Повний текст джерелаKabildjanov, A. S., Ch Z. Okhunboboeva, and S. Yo Ismailov. "Intelligent forecasting of growth and development of fruit trees by deep learning recurrent neural networks." IOP Conference Series: Earth and Environmental Science 1206, no. 1 (June 1, 2023): 012015. http://dx.doi.org/10.1088/1755-1315/1206/1/012015.
Повний текст джерелаYu, Dian, and Shouqian Sun. "A Systematic Exploration of Deep Neural Networks for EDA-Based Emotion Recognition." Information 11, no. 4 (April 15, 2020): 212. http://dx.doi.org/10.3390/info11040212.
Повний текст джерелаДисертації з теми "LSTM Neural networks"
Paschou, Michail. "ASIC implementation of LSTM neural network algorithm." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-254290.
Повний текст джерелаLSTM neurala nätverk har använts för taligenkänning, bildigenkänning och andra artificiella intelligensapplikationer i många år. De flesta applikationer utför LSTM-algoritmen och de nödvändiga beräkningarna i digitala moln. Offline lösningar inkluderar användningen av FPGA och GPU men de mest lovande lösningarna inkluderar ASIC-acceleratorer utformade för endast dettaändamål. Denna rapport presenterar en ASIC-design som kan utföra multipla iterationer av LSTM-algoritmen på en enkelriktad neural nätverksarkitetur utan peepholes. Den föreslagna designed ger aritmetrisk nivå-parallellismalternativ som block som är instansierat baserat på parametrar. Designens inre konstruktion implementerar pipelinerade, parallella, eller seriella lösningar beroende på vilket anternativ som är optimalt till alla fall. Konsekvenserna för dessa beslut diskuteras i detalj i rapporten. Designprocessen beskrivs i detalj och utvärderingen av designen presenteras också för att mäta noggrannheten och felmarginal i designutgången. Resultatet av arbetet från denna rapport är en fullständig syntetiserbar ASIC design som har implementerat ett LSTM-lager, ett fullständigt anslutet lager och ett Softmax-lager som kan utföra klassificering av data baserat på tränade viktmatriser och biasvektorer. Designen använder huvudsakligen 16bitars fast flytpunktsformat med 5 heltal och 11 fraktions bitar men ökade precisionsrepresentationer används i vissa block för att minska felmarginal. Till detta har även en verifieringsmiljö utformats som kan utföra simuleringar, utvärdera designresultatet genom att jämföra det med resultatet som produceras från att utföra samma operationer med 64-bitars flytpunktsprecision på en SystemVerilog testbänk och mäta uppstådda felmarginal. Resultaten avseende noggrannheten och designutgångens felmarginal presenteras i denna rapport.Designen gick genom Logisk och Fysisk syntes och framgångsrikt resulterade i en funktionell nätlista för varje testad konfiguration. Timing, area och effektmätningar på den genererade nätlistorna av olika konfigurationer av designen visar konsistens och rapporteras i denna rapport.
Cavallie, Mester Jon William. "Using LSTM Neural Networks To Predict Daily Stock Returns." Thesis, Linnéuniversitetet, Institutionen för datavetenskap och medieteknik (DM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-106124.
Повний текст джерелаPokhrel, Abhishek <1996>. "Stock Returns Prediction using Recurrent Neural Networks with LSTM." Master's Degree Thesis, Università Ca' Foscari Venezia, 2022. http://hdl.handle.net/10579/22038.
Повний текст джерелаÄrlemalm, Filip. "Harbour Porpoise Click Train Classification with LSTM Recurrent Neural Networks." Thesis, KTH, Teknisk informationsvetenskap, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-215088.
Повний текст джерелаVanlig tumlare är en tandval vars närvaro i Skandinavien är hotad. Ett steg mot att kunnabevara arten i utsatta områden är att studera och observera tumlarbeståndets tillväxt ellertillbakagång i dessa områden. Detta görs idag med hjälp av ljudinspelare för undervattensbruk,så kallade hydrofoner, samt manuella analysverktyg. Den här rapporten beskriver enmetod som moderniserar processen för detektering av vanlig tumlare genom maskininlärning.Detekteringen är baserad på insamlad data från hydrofonen AQUAclick 100. Bearbetning ochklassificering av data har automatiserats genom att använda ett staplat återkopplande neuraltnätverk med långt korttidsminne utarbetat specifikt för detta ändamål.
Li, Edwin. "LSTM Neural Network Models for Market Movement Prediction." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-231627.
Повний текст джерелаAtt förstå och kunna förutsäga hur index varierar med tiden och andra parametrar är ett viktigt problem inom kapitalmarknader. Tidsserieanalys med autoregressiva metoder har funnits sedan årtionden tillbaka, och har oftast gett goda resultat. Dessa metoder saknar dock möjligheten att förklara trender och cykliska variationer i tidsserien, något som kan karaktäriseras av tidsvarierande samband, men även samband mellan parametrar som indexet beror utav. Syftet med denna studie är att undersöka om recurrent neural networks (RNN) med long short-term memory-celler (LSTM) kan användas för att fånga dessa samband, för att slutligen användas som en modell för att komplettera indexhandel. Experimenten är gjorda mot en modifierad S&P-500 datamängd, och två distinkta modeller har tagits fram. Den ena är en multivariat regressionsmodell för att förutspå exakta värden, och den andra modellen är en multivariat klassifierare som förutspår riktningen på nästa dags indexrörelse. Experimenten visar för den konfiguration som presenteras i rapporten att LSTM RNN inte passar för att förutspå exakta värden för indexet, men ger tillfredsställande resultat när modellen ska förutsäga indexets framtida riktning.
Zambezi, Samantha. "Predicting social unrest events in South Africa using LSTM neural networks." Master's thesis, Faculty of Science, 2021. http://hdl.handle.net/11427/33986.
Повний текст джерелаHolm, Noah, and Emil Plynning. "Spatio-temporal prediction of residential burglaries using convolutional LSTM neural networks." Thesis, KTH, Geoinformatik, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-229952.
Повний текст джерелаGraffi, Giacomo. "A novel approach for Credit Scoring using Deep Neural Networks with bank transaction data." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.
Знайти повний текст джерелаXiang, Wenliang. "Anomaly detection by prediction for health monitoring of satellites using LSTM neural networks." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24695/.
Повний текст джерелаLin, Alvin. "Video Based Automatic Speech Recognition Using Neural Networks." DigitalCommons@CalPoly, 2020. https://digitalcommons.calpoly.edu/theses/2343.
Повний текст джерелаКниги з теми "LSTM Neural networks"
Sangeetha, V., and S. Kevin Andrews. Introduction to Artificial Intelligence and Neural Networks. Magestic Technology Solutions (P) Ltd, Chennai, Tamil Nadu, India, 2023. http://dx.doi.org/10.47716/mts/978-93-92090-24-0.
Повний текст джерелаЧастини книг з теми "LSTM Neural networks"
Wüthrich, Mario V., and Michael Merz. "Recurrent Neural Networks." In Springer Actuarial, 381–406. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-12409-9_8.
Повний текст джерелаSalem, Fathi M. "Gated RNN: The Long Short-Term Memory (LSTM) RNN." In Recurrent Neural Networks, 71–82. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-89929-5_4.
Повний текст джерелаZhang, Nan, Wei-Long Zheng, Wei Liu, and Bao-Liang Lu. "Continuous Vigilance Estimation Using LSTM Neural Networks." In Neural Information Processing, 530–37. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-46672-9_59.
Повний текст джерелаAlexandre, Luís A., and J. P. Marques de Sá. "Error Entropy Minimization for LSTM Training." In Artificial Neural Networks – ICANN 2006, 244–53. Berlin, Heidelberg: Springer Berlin Heidelberg, 2006. http://dx.doi.org/10.1007/11840817_26.
Повний текст джерелаYu, Wen, Xiaoou Li, and Jesus Gonzalez. "Fast Training of Deep LSTM Networks." In Advances in Neural Networks – ISNN 2019, 3–10. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-22796-8_1.
Повний текст джерелаKlapper-Rybicka, Magdalena, Nicol N. Schraudolph, and Jürgen Schmidhuber. "Unsupervised Learning in LSTM Recurrent Neural Networks." In Artificial Neural Networks — ICANN 2001, 684–91. Berlin, Heidelberg: Springer Berlin Heidelberg, 2001. http://dx.doi.org/10.1007/3-540-44668-0_95.
Повний текст джерелаHaralabopoulos, Giannis, and Ioannis Anagnostopoulos. "A Custom State LSTM Cell for Text Classification Tasks." In Engineering Applications of Neural Networks, 489–504. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-08223-8_40.
Повний текст джерелаLi, SiLiang, Bin Xu, and Tong Lee Chung. "Definition Extraction with LSTM Recurrent Neural Networks." In Lecture Notes in Computer Science, 177–89. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-47674-2_16.
Повний текст джерелаGers, Felix A., Douglas Eck, and Jürgen Schmidhuber. "Applying LSTM to Time Series Predictable through Time-Window Approaches." In Artificial Neural Networks — ICANN 2001, 669–76. Berlin, Heidelberg: Springer Berlin Heidelberg, 2001. http://dx.doi.org/10.1007/3-540-44668-0_93.
Повний текст джерелаGers, Felix A., Juan Antonio Pérez-Ortiz, Douglas Eck, and Jürgen Schmidhuber. "Learning Context Sensitive Languages with LSTM Trained with Kalman Filters." In Artificial Neural Networks — ICANN 2002, 655–60. Berlin, Heidelberg: Springer Berlin Heidelberg, 2002. http://dx.doi.org/10.1007/3-540-46084-5_107.
Повний текст джерелаТези доповідей конференцій з теми "LSTM Neural networks"
Sun, Qingnan, Marko V. Jankovic, Lia Bally, and Stavroula G. Mougiakakou. "Predicting Blood Glucose with an LSTM and Bi-LSTM Based Deep Neural Network." In 2018 14th Symposium on Neural Networks and Applications (NEUREL). IEEE, 2018. http://dx.doi.org/10.1109/neurel.2018.8586990.
Повний текст джерелаArshi, Sahar, Li Zhang, and Rebecca Strachan. "Prediction Using LSTM Networks." In 2019 International Joint Conference on Neural Networks (IJCNN). IEEE, 2019. http://dx.doi.org/10.1109/ijcnn.2019.8852206.
Повний текст джерелаPérez, José, Rafael Baez, Jose Terrazas, Arturo Rodríguez, Daniel Villanueva, Olac Fuentes, Vinod Kumar, Brandon Paez, and Abdiel Cruz. "Physics-Informed Long-Short Term Memory Neural Network Performance on Holloman High-Speed Test Track Sled Study." In ASME 2022 Fluids Engineering Division Summer Meeting. American Society of Mechanical Engineers, 2022. http://dx.doi.org/10.1115/fedsm2022-86953.
Повний текст джерелаLin, Tao, Tian Guo, and Karl Aberer. "Hybrid Neural Networks for Learning the Trend in Time Series." In Twenty-Sixth International Joint Conference on Artificial Intelligence. California: International Joint Conferences on Artificial Intelligence Organization, 2017. http://dx.doi.org/10.24963/ijcai.2017/316.
Повний текст джерелаPulver, Andrew, and Siwei Lyu. "LSTM with working memory." In 2017 International Joint Conference on Neural Networks (IJCNN). IEEE, 2017. http://dx.doi.org/10.1109/ijcnn.2017.7965940.
Повний текст джерелаMartinez-Garcia, Fernando, and Douglas Down. "E-LSTM: An extension to the LSTM architecture for incorporating long lag dependencies." In 2022 International Joint Conference on Neural Networks (IJCNN). IEEE, 2022. http://dx.doi.org/10.1109/ijcnn55064.2022.9892810.
Повний текст джерелаSundermeyer, Martin, Ralf Schlüter, and Hermann Ney. "LSTM neural networks for language modeling." In Interspeech 2012. ISCA: ISCA, 2012. http://dx.doi.org/10.21437/interspeech.2012-65.
Повний текст джерелаSrivastava, Anitej, and Anto S. "Weather Prediction Using LSTM Neural Networks." In 2022 IEEE 7th International conference for Convergence in Technology (I2CT). IEEE, 2022. http://dx.doi.org/10.1109/i2ct54291.2022.9824268.
Повний текст джерелаYang, Dongdong, Senzhang Wang, and Zhoujun Li. "Ensemble Neural Relation Extraction with Adaptive Boosting." In Twenty-Seventh International Joint Conference on Artificial Intelligence {IJCAI-18}. California: International Joint Conferences on Artificial Intelligence Organization, 2018. http://dx.doi.org/10.24963/ijcai.2018/630.
Повний текст джерелаQin, Yu, Jiajun Du, Xinyao Wang, and Hongtao Lu. "Recurrent Layer Aggregation using LSTM." In 2019 International Joint Conference on Neural Networks (IJCNN). IEEE, 2019. http://dx.doi.org/10.1109/ijcnn.2019.8852077.
Повний текст джерелаЗвіти організацій з теми "LSTM Neural networks"
Cárdenas-Cárdenas, Julián Alonso, Deicy J. Cristiano-Botia, and Nicolás Martínez-Cortés. Colombian inflation forecast using Long Short-Term Memory approach. Banco de la República, June 2023. http://dx.doi.org/10.32468/be.1241.
Повний текст джерелаAnkel, Victoria, Stella Pantopoulou, Matthew Weathered, Darius Lisowski, Anthonie Cilliers, and Alexander Heifetz. One-Step Ahead Prediction of Thermal Mixing Tee Sensors with Long Short Term Memory (LSTM) Neural Networks. Office of Scientific and Technical Information (OSTI), December 2020. http://dx.doi.org/10.2172/1760289.
Повний текст джерела