Artykuły w czasopismach na temat „Artificial Neural Networks and Recurrent Neutral Networks”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 50 najlepszych artykułów w czasopismach naukowych na temat „Artificial Neural Networks and Recurrent Neutral Networks”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj artykuły w czasopismach z różnych dziedzin i twórz odpowiednie bibliografie.
Prathibha, Dr G., Y. Kavya, P. Vinay Jacob i L. Poojita. "Speech Emotion Recognition Using Deep Learning". INTERANTIONAL JOURNAL OF SCIENTIFIC RESEARCH IN ENGINEERING AND MANAGEMENT 08, nr 07 (4.07.2024): 1–13. http://dx.doi.org/10.55041/ijsrem36262.
Pełny tekst źródłaAli, Ayesha, Ateeq Ur Rehman, Ahmad Almogren, Elsayed Tag Eldin i Muhammad Kaleem. "Application of Deep Learning Gated Recurrent Unit in Hybrid Shunt Active Power Filter for Power Quality Enhancement". Energies 15, nr 20 (13.10.2022): 7553. http://dx.doi.org/10.3390/en15207553.
Pełny tekst źródłaPranav Kumar Chaudhary, Aakash Kishore Chotrani, Raja Mohan, Mythili Boopathi, Piyush Ranjan, Madhavi Najana,. "Ai in Fraud Detection: Evaluating the Efficacy of Artificial Intelligence in Preventing Financial Misconduct". Journal of Electrical Systems 20, nr 3s (4.04.2024): 1332–38. http://dx.doi.org/10.52783/jes.1508.
Pełny tekst źródłaNassif, Ali Bou, Ismail Shahin, Mohammed Lataifeh, Ashraf Elnagar i Nawel Nemmour. "Empirical Comparison between Deep and Classical Classifiers for Speaker Verification in Emotional Talking Environments". Information 13, nr 10 (27.09.2022): 456. http://dx.doi.org/10.3390/info13100456.
Pełny tekst źródłaLee, Hong Jae, i Tae Seog Kim. "Comparison and Analysis of SNN and RNN Results for Option Pricing and Deep Hedging Using Artificial Neural Networks (ANN)". Academic Society of Global Business Administration 20, nr 5 (30.10.2023): 146–78. http://dx.doi.org/10.38115/asgba.2023.20.5.146.
Pełny tekst źródłaSutskever, Ilya, i Geoffrey Hinton. "Temporal-Kernel Recurrent Neural Networks". Neural Networks 23, nr 2 (marzec 2010): 239–43. http://dx.doi.org/10.1016/j.neunet.2009.10.009.
Pełny tekst źródłaWang, Rui. "Generalisation of Feed-Forward Neural Networks and Recurrent Neural Networks". Applied and Computational Engineering 40, nr 1 (21.02.2024): 242–46. http://dx.doi.org/10.54254/2755-2721/40/20230659.
Pełny tekst źródłaPoudel, Sushan, i Dr R. Anuradha. "Speech Command Recognition using Artificial Neural Networks". JOIV : International Journal on Informatics Visualization 4, nr 2 (26.05.2020): 73. http://dx.doi.org/10.30630/joiv.4.2.358.
Pełny tekst źródłaTurner, Andrew James, i Julian Francis Miller. "Recurrent Cartesian Genetic Programming of Artificial Neural Networks". Genetic Programming and Evolvable Machines 18, nr 2 (8.08.2016): 185–212. http://dx.doi.org/10.1007/s10710-016-9276-6.
Pełny tekst źródłaZiemke, Tom. "Radar image segmentation using recurrent artificial neural networks". Pattern Recognition Letters 17, nr 4 (kwiecień 1996): 319–34. http://dx.doi.org/10.1016/0167-8655(95)00128-x.
Pełny tekst źródłaMASKARA, ARUN, i ANDREW NOETZEL. "Sequence Recognition with Recurrent Neural Networks". Connection Science 5, nr 2 (styczeń 1993): 139–52. http://dx.doi.org/10.1080/09540099308915692.
Pełny tekst źródłaKawano, Makoto, i Kazuhiro Ueda. "Microblog Geolocation Estimation with Recurrent Neural Networks". Transactions of the Japanese Society for Artificial Intelligence 32, nr 1 (2017): WII—E_1–8. http://dx.doi.org/10.1527/tjsai.wii-e.
Pełny tekst źródłaAliev, R. A., B. G. Guirimov, Bijan Fazlollahi i R. R. Aliev. "Evolutionary algorithm-based learning of fuzzy neural networks. Part 2: Recurrent fuzzy neural networks". Fuzzy Sets and Systems 160, nr 17 (wrzesień 2009): 2553–66. http://dx.doi.org/10.1016/j.fss.2008.12.018.
Pełny tekst źródłaImam, Nabil. "Wiring up recurrent neural networks". Nature Machine Intelligence 3, nr 9 (wrzesień 2021): 740–41. http://dx.doi.org/10.1038/s42256-021-00391-2.
Pełny tekst źródłaDalhoum, Abdel Latif Abu, i Mohammed Al-Rawi. "High-Order Neural Networks are Equivalent to Ordinary Neural Networks". Modern Applied Science 13, nr 2 (27.01.2019): 228. http://dx.doi.org/10.5539/mas.v13n2p228.
Pełny tekst źródłaGoudreau, Mark W., i C. Lee Giles. "Using recurrent neural networks to learn the structure of interconnection networks". Neural Networks 8, nr 5 (styczeń 1995): 793–804. http://dx.doi.org/10.1016/0893-6080(95)00025-u.
Pełny tekst źródłaLalapura, Varsha S., J. Amudha i Hariramn Selvamuruga Satheesh. "Recurrent Neural Networks for Edge Intelligence". ACM Computing Surveys 54, nr 4 (maj 2021): 1–38. http://dx.doi.org/10.1145/3448974.
Pełny tekst źródłaDobnikar, Andrej, i Branko Šter. "Structural Properties of Recurrent Neural Networks". Neural Processing Letters 29, nr 2 (12.02.2009): 75–88. http://dx.doi.org/10.1007/s11063-009-9096-2.
Pełny tekst źródłaSemyonov, E. D., M. Ya Braginsky, D. V. Tarakanov i I. L. Nazarova. "NEURAL NETWORK FORECASTING OF INPUT PARAMETERS IN OIL DEVELOPMENT". PROCEEDINGS IN CYBERNETICS 22, nr 4 (2023): 42–51. http://dx.doi.org/10.35266/1999-7604-2023-4-6.
Pełny tekst źródłaDimopoulos, Nikitas J., John T. Dorocicz, Chris Jubien i Stephen Neville. "Training Asymptotically Stable Recurrent Neural Networks". Intelligent Automation & Soft Computing 2, nr 4 (styczeń 1996): 375–88. http://dx.doi.org/10.1080/10798587.1996.10750681.
Pełny tekst źródłaPhan, Manh Cong, i Martin T. Hagan. "Error Surface of Recurrent Neural Networks". IEEE Transactions on Neural Networks and Learning Systems 24, nr 11 (listopad 2013): 1709–21. http://dx.doi.org/10.1109/tnnls.2013.2258470.
Pełny tekst źródłaValle, Marcos Eduardo. "Complex-Valued Recurrent Correlation Neural Networks". IEEE Transactions on Neural Networks and Learning Systems 25, nr 9 (wrzesień 2014): 1600–1612. http://dx.doi.org/10.1109/tnnls.2014.2341013.
Pełny tekst źródłaGoundar, Sam, Suneet Prakash, Pranil Sadal i Akashdeep Bhardwaj. "Health Insurance Claim Prediction Using Artificial Neural Networks". International Journal of System Dynamics Applications 9, nr 3 (lipiec 2020): 40–57. http://dx.doi.org/10.4018/ijsda.2020070103.
Pełny tekst źródłaWANG, JUN. "ON THE ASYMPTOTIC PROPERTIES OF RECURRENT NEURAL NETWORKS FOR OPTIMIZATION". International Journal of Pattern Recognition and Artificial Intelligence 05, nr 04 (październik 1991): 581–601. http://dx.doi.org/10.1142/s0218001491000338.
Pełny tekst źródłaMartins, T. D., J. M. Annichino-Bizzacchi, A. V. C. Romano i R. Maciel Filho. "Artificial neural networks for prediction of recurrent venous thromboembolism". International Journal of Medical Informatics 141 (wrzesień 2020): 104221. http://dx.doi.org/10.1016/j.ijmedinf.2020.104221.
Pełny tekst źródłaSaleh, Shadi. "Artificial Intelligence & Machine Learning in Computer Vision Applications". Embedded Selforganising Systems 7, nr 1 (20.02.2020): 2–3. http://dx.doi.org/10.14464/ess71432.
Pełny tekst źródłade Vos, N. J. "Echo state networks as an alternative to traditional artificial neural networks in rainfall–runoff modelling". Hydrology and Earth System Sciences 17, nr 1 (22.01.2013): 253–67. http://dx.doi.org/10.5194/hess-17-253-2013.
Pełny tekst źródłaLan, Nur, Michal Geyer, Emmanuel Chemla i Roni Katzir. "Minimum Description Length Recurrent Neural Networks". Transactions of the Association for Computational Linguistics 10 (2022): 785–99. http://dx.doi.org/10.1162/tacl_a_00489.
Pełny tekst źródłaNasr, Mounir Ben, i Mohamed Chtourou. "Training recurrent neural networks using a hybrid algorithm". Neural Computing and Applications 21, nr 3 (31.12.2010): 489–96. http://dx.doi.org/10.1007/s00521-010-0506-1.
Pełny tekst źródłaChen, Z. Y., C. P. Kwong i Z. B. Xu. "Multiple-valued feedback and recurrent correlation neural networks". Neural Computing & Applications 3, nr 4 (grudzień 1995): 242–50. http://dx.doi.org/10.1007/bf01414649.
Pełny tekst źródłaGoulas, Alexandros, Fabrizio Damicelli i Claus C. Hilgetag. "Bio-instantiated recurrent neural networks: Integrating neurobiology-based network topology in artificial networks". Neural Networks 142 (październik 2021): 608–18. http://dx.doi.org/10.1016/j.neunet.2021.07.011.
Pełny tekst źródłaFreitag, Steffen, Wolfgang Graf i Michael Kaliske. "Recurrent neural networks for fuzzy data". Integrated Computer-Aided Engineering 18, nr 3 (17.06.2011): 265–80. http://dx.doi.org/10.3233/ica-2011-0373.
Pełny tekst źródłaCarta, Antonio, Alessandro Sperduti i Davide Bacciu. "Encoding-based memory for recurrent neural networks". Neurocomputing 456 (październik 2021): 407–20. http://dx.doi.org/10.1016/j.neucom.2021.04.051.
Pełny tekst źródłaGraves, Daniel, i Witold Pedrycz. "Fuzzy prediction architecture using recurrent neural networks". Neurocomputing 72, nr 7-9 (marzec 2009): 1668–78. http://dx.doi.org/10.1016/j.neucom.2008.07.009.
Pełny tekst źródłaCruse, Hoik, Jeffrey Dean, Thomas Kindermann, Josef Schmitz i Michael Schumm. "Simulation of Complex Movements Using Artificial Neural Networks". Zeitschrift für Naturforschung C 53, nr 7-8 (1.08.1998): 628–38. http://dx.doi.org/10.1515/znc-1998-7-816.
Pełny tekst źródłaGANCHEV, TODOR. "ENHANCED TRAINING FOR THE LOCALLY RECURRENT PROBABILISTIC NEURAL NETWORKS". International Journal on Artificial Intelligence Tools 18, nr 06 (grudzień 2009): 853–81. http://dx.doi.org/10.1142/s0218213009000433.
Pełny tekst źródłaLeung, Chi-Sing, i Lai-Wan Chan. "Dual extended Kalman filtering in recurrent neural networks". Neural Networks 16, nr 2 (marzec 2003): 223–39. http://dx.doi.org/10.1016/s0893-6080(02)00230-7.
Pełny tekst źródłaParga, N., L. Serrano-Fernández i J. Falcó-Roget. "Emergent computations in trained artificial neural networks and real brains". Journal of Instrumentation 18, nr 02 (1.02.2023): C02060. http://dx.doi.org/10.1088/1748-0221/18/02/c02060.
Pełny tekst źródłaZiemke, Tom. "Radar Image Segmentation Using Self-Adapting Recurrent Networks". International Journal of Neural Systems 08, nr 01 (luty 1997): 47–54. http://dx.doi.org/10.1142/s0129065797000070.
Pełny tekst źródłaFRANKLIN, JUDY A., i KRYSTAL K. LOCKE. "RECURRENT NEURAL NETWORKS FOR MUSICAL PITCH MEMORY AND CLASSIFICATION". International Journal on Artificial Intelligence Tools 14, nr 01n02 (luty 2005): 329–42. http://dx.doi.org/10.1142/s0218213005002120.
Pełny tekst źródłaMa, Tingsong, Ping Kuang i Wenhong Tian. "An improved recurrent neural networks for 3d object reconstruction". Applied Intelligence 50, nr 3 (23.10.2019): 905–23. http://dx.doi.org/10.1007/s10489-019-01523-3.
Pełny tekst źródłaHuang, Chuangxia, Yigang He i Ping Chen. "Dynamic Analysis of Stochastic Recurrent Neural Networks". Neural Processing Letters 27, nr 3 (11.04.2008): 267–76. http://dx.doi.org/10.1007/s11063-008-9075-z.
Pełny tekst źródłaStepchenko, Arthur, i Jurij Chizhov. "NDVI Short-Term Forecasting Using Recurrent Neural Networks". Environment. Technology. Resources. Proceedings of the International Scientific and Practical Conference 3 (16.06.2015): 180. http://dx.doi.org/10.17770/etr2015vol3.167.
Pełny tekst źródłaManfredini, Ricardo Augusto. "Hybrid Artificial Neural Networks for Electricity Consumption Prediction". International Journal of Advanced Engineering Research and Science 9, nr 8 (2022): 292–99. http://dx.doi.org/10.22161/ijaers.98.32.
Pełny tekst źródłaSiriporananon, Somsak, i Boonlert Suechoey. "Power Losses Analysis in a Three-Phase Distribution Transformer Using Artificial Neural Networks". ECTI Transactions on Electrical Engineering, Electronics, and Communications 18, nr 2 (31.08.2020): 130–36. http://dx.doi.org/10.37936/ecti-eec.2020182.223203.
Pełny tekst źródłaBacciu, Davide, i Francesco Crecchi. "Augmenting Recurrent Neural Networks Resilience by Dropout". IEEE Transactions on Neural Networks and Learning Systems 31, nr 1 (styczeń 2020): 345–51. http://dx.doi.org/10.1109/tnnls.2019.2899744.
Pełny tekst źródłaLiu, Shiwei, Iftitahu Ni’mah, Vlado Menkovski, Decebal Constantin Mocanu i Mykola Pechenizkiy. "Efficient and effective training of sparse recurrent neural networks". Neural Computing and Applications 33, nr 15 (26.01.2021): 9625–36. http://dx.doi.org/10.1007/s00521-021-05727-y.
Pełny tekst źródłaZhai, Jun-Yong, Shu-Min Fei i Xiao-Hui Mo. "Multiple models switching control based on recurrent neural networks". Neural Computing and Applications 17, nr 4 (24.08.2007): 365–71. http://dx.doi.org/10.1007/s00521-007-0123-9.
Pełny tekst źródłaKhan, Yaser Daanial, Farooq Ahmed i Sher Afzal Khan. "Situation recognition using image moments and recurrent neural networks". Neural Computing and Applications 24, nr 7-8 (24.03.2013): 1519–29. http://dx.doi.org/10.1007/s00521-013-1372-4.
Pełny tekst źródłaPENG, CHUN-CHENG, i GEORGE D. MAGOULAS. "ADVANCED ADAPTIVE NONMONOTONE CONJUGATE GRADIENT TRAINING ALGORITHM FOR RECURRENT NEURAL NETWORKS". International Journal on Artificial Intelligence Tools 17, nr 05 (październik 2008): 963–84. http://dx.doi.org/10.1142/s0218213008004242.
Pełny tekst źródła