Artykuły w czasopismach na temat „Neural language models”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 50 najlepszych artykułów w czasopismach naukowych na temat „Neural language models”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj artykuły w czasopismach z różnych dziedzin i twórz odpowiednie bibliografie.
Buckman, Jacob, i Graham Neubig. "Neural Lattice Language Models". Transactions of the Association for Computational Linguistics 6 (grudzień 2018): 529–41. http://dx.doi.org/10.1162/tacl_a_00036.
Pełny tekst źródłaBengio, Yoshua. "Neural net language models". Scholarpedia 3, nr 1 (2008): 3881. http://dx.doi.org/10.4249/scholarpedia.3881.
Pełny tekst źródłaDong, Li. "Learning natural language interfaces with neural models". AI Matters 7, nr 2 (czerwiec 2021): 14–17. http://dx.doi.org/10.1145/3478369.3478375.
Pełny tekst źródłaDe Coster, Mathieu, i Joni Dambre. "Leveraging Frozen Pretrained Written Language Models for Neural Sign Language Translation". Information 13, nr 5 (23.04.2022): 220. http://dx.doi.org/10.3390/info13050220.
Pełny tekst źródłaChang, Tyler A., i Benjamin K. Bergen. "Word Acquisition in Neural Language Models". Transactions of the Association for Computational Linguistics 10 (2022): 1–16. http://dx.doi.org/10.1162/tacl_a_00444.
Pełny tekst źródłaMezzoudj, Freha, i Abdelkader Benyettou. "An empirical study of statistical language models: n-gram language models vs. neural network language models". International Journal of Innovative Computing and Applications 9, nr 4 (2018): 189. http://dx.doi.org/10.1504/ijica.2018.095762.
Pełny tekst źródłaMezzoudj, Freha, i Abdelkader Benyettou. "An empirical study of statistical language models: n-gram language models vs. neural network language models". International Journal of Innovative Computing and Applications 9, nr 4 (2018): 189. http://dx.doi.org/10.1504/ijica.2018.10016827.
Pełny tekst źródłaMandy Lau. "Artificial intelligence language models and the false fantasy of participatory language policies". Working papers in Applied Linguistics and Linguistics at York 1 (13.09.2021): 4–15. http://dx.doi.org/10.25071/2564-2855.5.
Pełny tekst źródłaQi, Kunxun, i Jianfeng Du. "Translation-Based Matching Adversarial Network for Cross-Lingual Natural Language Inference". Proceedings of the AAAI Conference on Artificial Intelligence 34, nr 05 (3.04.2020): 8632–39. http://dx.doi.org/10.1609/aaai.v34i05.6387.
Pełny tekst źródłaPark, Myung-Kwan, Keonwoo Koo, Jaemin Lee i Wonil Chung. "Investigating Syntactic Transfer from English to Korean in Neural L2 Language Models". Studies in Modern Grammar 121 (30.03.2024): 177–201. http://dx.doi.org/10.14342/smog.2024.121.177.
Pełny tekst źródłaBayer, Ali Orkan, i Giuseppe Riccardi. "Semantic language models with deep neural networks". Computer Speech & Language 40 (listopad 2016): 1–22. http://dx.doi.org/10.1016/j.csl.2016.04.001.
Pełny tekst źródłaChuchupal, V. Y. "Neural language models for automatic speech Recognition". Речевые технологии, nr 1-2 (2020): 27–47. http://dx.doi.org/10.58633/2305-8129_2020_1-2_27.
Pełny tekst źródłaTian, Yijun, Huan Song, Zichen Wang, Haozhu Wang, Ziqing Hu, Fang Wang, Nitesh V. Chawla i Panpan Xu. "Graph Neural Prompting with Large Language Models". Proceedings of the AAAI Conference on Artificial Intelligence 38, nr 17 (24.03.2024): 19080–88. http://dx.doi.org/10.1609/aaai.v38i17.29875.
Pełny tekst źródłaHale, John T., Luca Campanelli, Jixing Li, Shohini Bhattasali, Christophe Pallier i Jonathan R. Brennan. "Neurocomputational Models of Language Processing". Annual Review of Linguistics 8, nr 1 (14.01.2022): 427–46. http://dx.doi.org/10.1146/annurev-linguistics-051421-020803.
Pełny tekst źródłaKlemen, Matej, i Slavko Zitnik. "Neural coreference resolution for Slovene language". Computer Science and Information Systems, nr 00 (2021): 60. http://dx.doi.org/10.2298/csis201120060k.
Pełny tekst źródłaSchomacker, Thorben, i Marina Tropmann-Frick. "Language Representation Models: An Overview". Entropy 23, nr 11 (28.10.2021): 1422. http://dx.doi.org/10.3390/e23111422.
Pełny tekst źródłaKunchukuttan, Anoop, Mitesh Khapra, Gurneet Singh i Pushpak Bhattacharyya. "Leveraging Orthographic Similarity for Multilingual Neural Transliteration". Transactions of the Association for Computational Linguistics 6 (grudzień 2018): 303–16. http://dx.doi.org/10.1162/tacl_a_00022.
Pełny tekst źródłaTakahashi, Shuntaro, i Kumiko Tanaka-Ishii. "Evaluating Computational Language Models with Scaling Properties of Natural Language". Computational Linguistics 45, nr 3 (wrzesień 2019): 481–513. http://dx.doi.org/10.1162/coli_a_00355.
Pełny tekst źródłaMartin, Andrea E. "A Compositional Neural Architecture for Language". Journal of Cognitive Neuroscience 32, nr 8 (sierpień 2020): 1407–27. http://dx.doi.org/10.1162/jocn_a_01552.
Pełny tekst źródłaMukhamadiyev, Abdinabi, Mukhriddin Mukhiddinov, Ilyos Khujayarov, Mannon Ochilov i Jinsoo Cho. "Development of Language Models for Continuous Uzbek Speech Recognition System". Sensors 23, nr 3 (19.01.2023): 1145. http://dx.doi.org/10.3390/s23031145.
Pełny tekst źródłaOralbekova, Dina, Orken Mamyrbayev, Mohamed Othman, Dinara Kassymova i Kuralai Mukhsina. "Contemporary Approaches in Evolving Language Models". Applied Sciences 13, nr 23 (1.12.2023): 12901. http://dx.doi.org/10.3390/app132312901.
Pełny tekst źródłaHafeez, Rabab, Muhammad Waqas Anwar, Muhammad Hasan Jamal, Tayyaba Fatima, Julio César Martínez Espinosa, Luis Alonso Dzul López, Ernesto Bautista Thompson i Imran Ashraf. "Contextual Urdu Lemmatization Using Recurrent Neural Network Models". Mathematics 11, nr 2 (13.01.2023): 435. http://dx.doi.org/10.3390/math11020435.
Pełny tekst źródłaYogatama, Dani, Cyprien de Masson d’Autume i Lingpeng Kong. "Adaptive Semiparametric Language Models". Transactions of the Association for Computational Linguistics 9 (2021): 362–73. http://dx.doi.org/10.1162/tacl_a_00371.
Pełny tekst źródłaTinn, Robert, Hao Cheng, Yu Gu, Naoto Usuyama, Xiaodong Liu, Tristan Naumann, Jianfeng Gao i Hoifung Poon. "Fine-tuning large neural language models for biomedical natural language processing". Patterns 4, nr 4 (kwiecień 2023): 100729. http://dx.doi.org/10.1016/j.patter.2023.100729.
Pełny tekst źródłaChoi, Sunjoo, Myung-Kwan Park i Euhee Kim. "How are Korean Neural Language Models ‘surprised’ Layerwisely?" Journal of Language Sciences 28, nr 4 (30.11.2021): 301–17. http://dx.doi.org/10.14384/kals.2021.28.4.301.
Pełny tekst źródłaZhang, Peng, Wenjie Hui, Benyou Wang, Donghao Zhao, Dawei Song, Christina Lioma i Jakob Grue Simonsen. "Complex-valued Neural Network-based Quantum Language Models". ACM Transactions on Information Systems 40, nr 4 (31.10.2022): 1–31. http://dx.doi.org/10.1145/3505138.
Pełny tekst źródłaTanaka, Tomohiro, Ryo Masumura i Takanobu Oba. "Neural candidate-aware language models for speech recognition". Computer Speech & Language 66 (marzec 2021): 101157. http://dx.doi.org/10.1016/j.csl.2020.101157.
Pełny tekst źródłaKong, Weirui, Hyeju Jang, Giuseppe Carenini i Thalia S. Field. "Exploring neural models for predicting dementia from language". Computer Speech & Language 68 (lipiec 2021): 101181. http://dx.doi.org/10.1016/j.csl.2020.101181.
Pełny tekst źródłaPhan, Tien D., i Nur Zincir‐Heywood. "User identification via neural network based language models". International Journal of Network Management 29, nr 3 (30.10.2018): e2049. http://dx.doi.org/10.1002/nem.2049.
Pełny tekst źródłaKaryukin, Vladislav, Diana Rakhimova, Aidana Karibayeva, Aliya Turganbayeva i Asem Turarbek. "The neural machine translation models for the low-resource Kazakh–English language pair". PeerJ Computer Science 9 (8.02.2023): e1224. http://dx.doi.org/10.7717/peerj-cs.1224.
Pełny tekst źródłaBudaya, I. Gede Bintang Arya, Made Windu Antara Kesiman i I. Made Gede Sunarya. "The Influence of Word Vectorization for Kawi Language to Indonesian Language Neural Machine Translation". Journal of Information Technology and Computer Science 7, nr 1 (29.09.2022): 81–93. http://dx.doi.org/10.25126/jitecs.202271387.
Pełny tekst źródłaWu, Yi-Chao, Fei Yin i Cheng-Lin Liu. "Improving handwritten Chinese text recognition using neural network language models and convolutional neural network shape models". Pattern Recognition 65 (maj 2017): 251–64. http://dx.doi.org/10.1016/j.patcog.2016.12.026.
Pełny tekst źródłaStudenikina, Kseniia Andreevna. "Evaluation of neural models’ linguistic competence: evidence from Russian predicate agreement". Proceedings of the Institute for System Programming of the RAS 34, nr 6 (2022): 178–84. http://dx.doi.org/10.15514/ispras-2022-34(6)-14.
Pełny tekst źródłaGoldberg, Yoav. "A Primer on Neural Network Models for Natural Language Processing". Journal of Artificial Intelligence Research 57 (20.11.2016): 345–420. http://dx.doi.org/10.1613/jair.4992.
Pełny tekst źródłaBabić, Karlo, Sanda Martinčić-Ipšić i Ana Meštrović. "Survey of Neural Text Representation Models". Information 11, nr 11 (30.10.2020): 511. http://dx.doi.org/10.3390/info11110511.
Pełny tekst źródłaHahn, Michael. "Theoretical Limitations of Self-Attention in Neural Sequence Models". Transactions of the Association for Computational Linguistics 8 (lipiec 2020): 156–71. http://dx.doi.org/10.1162/tacl_a_00306.
Pełny tekst źródłaYoo, YongSuk, i Kang-moon Park. "Developing Language-Specific Models Using a Neural Architecture Search". Applied Sciences 11, nr 21 (3.11.2021): 10324. http://dx.doi.org/10.3390/app112110324.
Pełny tekst źródłaCangelosi, Angelo. "The emergence of language: neural and adaptive agent models". Connection Science 17, nr 3-4 (wrzesień 2005): 185–90. http://dx.doi.org/10.1080/09540090500177471.
Pełny tekst źródłaZamora-Martínez, F., V. Frinken, S. España-Boquera, M. J. Castro-Bleda, A. Fischer i H. Bunke. "Neural network language models for off-line handwriting recognition". Pattern Recognition 47, nr 4 (kwiecień 2014): 1642–52. http://dx.doi.org/10.1016/j.patcog.2013.10.020.
Pełny tekst źródłaShi, Yangyang, Martha Larson, Joris Pelemans, Catholijn M. Jonker, Patrick Wambacq, Pascal Wiggers i Kris Demuynck. "Integrating meta-information into recurrent neural network language models". Speech Communication 73 (październik 2015): 64–80. http://dx.doi.org/10.1016/j.specom.2015.06.006.
Pełny tekst źródłaLalrempuii, Candy, Badal Soni i Partha Pakray. "An Improved English-to-Mizo Neural Machine Translation". ACM Transactions on Asian and Low-Resource Language Information Processing 20, nr 4 (26.05.2021): 1–21. http://dx.doi.org/10.1145/3445974.
Pełny tekst źródłaAnanthanarayana, Tejaswini, Priyanshu Srivastava, Akash Chintha, Akhil Santha, Brian Landy, Joseph Panaro, Andre Webster i in. "Deep Learning Methods for Sign Language Translation". ACM Transactions on Accessible Computing 14, nr 4 (31.12.2021): 1–30. http://dx.doi.org/10.1145/3477498.
Pełny tekst źródłaP., Dr Karrupusamy. "Analysis of Neural Network Based Language Modeling". March 2020 2, nr 1 (30.03.2020): 53–63. http://dx.doi.org/10.36548/jaicn.2020.1.006.
Pełny tekst źródłaP., Dr Karrupusamy. "Analysis of Neural Network Based Language Modeling". March 2020 2, nr 1 (30.03.2020): 53–63. http://dx.doi.org/10.36548/jaicn.2020.3.006.
Pełny tekst źródłaArisoy, Ebru, Stanley F. Chen, Bhuvana Ramabhadran i Abhinav Sethy. "Converting Neural Network Language Models into Back-off Language Models for Efficient Decoding in Automatic Speech Recognition". IEEE/ACM Transactions on Audio, Speech, and Language Processing 22, nr 1 (styczeń 2014): 184–92. http://dx.doi.org/10.1109/taslp.2013.2286919.
Pełny tekst źródłaRijhwani, Shruti, Jiateng Xie, Graham Neubig i Jaime Carbonell. "Zero-Shot Neural Transfer for Cross-Lingual Entity Linking". Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 6924–31. http://dx.doi.org/10.1609/aaai.v33i01.33016924.
Pełny tekst źródłaDemeter, David, i Doug Downey. "Just Add Functions: A Neural-Symbolic Language Model". Proceedings of the AAAI Conference on Artificial Intelligence 34, nr 05 (3.04.2020): 7634–42. http://dx.doi.org/10.1609/aaai.v34i05.6264.
Pełny tekst źródłaKipyatkova, Irina, i Ildar Kagirov. "Deep Models for Low-Resourced Speech Recognition: Livvi-Karelian Case". Mathematics 11, nr 18 (5.09.2023): 3814. http://dx.doi.org/10.3390/math11183814.
Pełny tekst źródłaGerz, Daniela, Ivan Vulić, Edoardo Ponti, Jason Naradowsky, Roi Reichart i Anna Korhonen. "Language Modeling for Morphologically Rich Languages: Character-Aware Modeling for Word-Level Prediction". Transactions of the Association for Computational Linguistics 6 (grudzień 2018): 451–65. http://dx.doi.org/10.1162/tacl_a_00032.
Pełny tekst źródłaJohnson, Melvin, Mike Schuster, Quoc V. Le, Maxim Krikun, Yonghui Wu, Zhifeng Chen, Nikhil Thorat i in. "Google’s Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation". Transactions of the Association for Computational Linguistics 5 (grudzień 2017): 339–51. http://dx.doi.org/10.1162/tacl_a_00065.
Pełny tekst źródła