Książki na temat „Neural language models”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 43 najlepszych książek naukowych na temat „Neural language models”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj książki z różnych dziedzin i twórz odpowiednie bibliografie.
1957-, Houghton George, red. Connectionist models in cognitive psychology. Hove: Psychology Press, 2004.
Znajdź pełny tekst źródłaMiikkulainen, Risto. Subsymbolic natural language processing: An integrated model of scripts, lexicon, and memory. Cambridge, Mass: MIT Press, 1993.
Znajdź pełny tekst źródłaBavaeva, Ol'ga. Metaphorical parallels of the neutral nomination "man" in modern English. ru: INFRA-M Academic Publishing LLC., 2022. http://dx.doi.org/10.12737/1858259.
Pełny tekst źródłaArbib, Michael. Neural Models of Language Processes. Elsevier Science & Technology Books, 2012.
Znajdź pełny tekst źródłaCairns, Paul, Joseph P. Levy, Dimitrios Bairaktaris i John A. Bullinaria. Connectionist Models of Memory and Language. Taylor & Francis Group, 2015.
Znajdź pełny tekst źródłaHoughton, George. Connectionist Models in Cognitive Psychology. Taylor & Francis Group, 2004.
Znajdź pełny tekst źródłaHoughton, George. Connectionist Models in Cognitive Psychology. Taylor & Francis Group, 2004.
Znajdź pełny tekst źródłaHoughton, George. Connectionist Models in Cognitive Psychology. Taylor & Francis Group, 2004.
Znajdź pełny tekst źródłaHoughton, George. Connectionist Models in Cognitive Psychology. Taylor & Francis Group, 2004.
Znajdź pełny tekst źródłaConnectionist Models in Cognitive Psychology. Taylor & Francis Group, 2014.
Znajdź pełny tekst źródłaComputational Neuroscience: Trends in Research, 1997 (Language of Science). Springer, 1997.
Znajdź pełny tekst źródłaHoughton, George. Connectionist Models in Cognitive Psychology. Taylor & Francis Group, 2004.
Znajdź pełny tekst źródłaGomez-Perez, Jose Manuel, Ronald Denaux i Andres Garcia-Silva. Practical Guide to Hybrid Natural Language Processing: Combining Neural Models and Knowledge Graphs for NLP. Springer International Publishing AG, 2021.
Znajdź pełny tekst źródłaGomez-Perez, Jose Manuel, Ronald Denaux i Andres Garcia-Silva. A Practical Guide to Hybrid Natural Language Processing: Combining Neural Models and Knowledge Graphs for NLP. Springer, 2020.
Znajdź pełny tekst źródłaKumar, Rahul, Matthew Lamons i Abhishek Nagaraja. Python Deep Learning Projects: 9 projects demystifying neural network and deep learning models for building intelligent systems. Packt Publishing, 2018.
Znajdź pełny tekst źródłaNeural Control of Speech. MIT Press, 2016.
Znajdź pełny tekst źródłaMishra, Pradeepta. PyTorch Recipes: A Problem-Solution Approach to Build, Train and Deploy Neural Network Models. Apress L. P., 2022.
Znajdź pełny tekst źródłaBali, Raghav, Dipanjan Sarkar i Tamoghna Ghosh. Hands-On Transfer Learning with Python: Implement advanced deep learning and neural network models using TensorFlow and Keras. Packt Publishing, 2018.
Znajdź pełny tekst źródłaReese, Richard M., i AshishSingh Bhatia. Natural Language Processing with Java: Techniques for building machine learning and neural network models for NLP, 2nd Edition. Packt Publishing - ebooks Account, 2018.
Znajdź pełny tekst źródłaKalin, Josh. Generative Adversarial Networks Cookbook: Over 100 recipes to build generative models using Python, TensorFlow, and Keras. Packt Publishing, 2018.
Znajdź pełny tekst źródłaJulian, David. Deep Learning with Pytorch Quick Start Guide: Learn to Train and Deploy Neural Network Models in Python. Packt Publishing, Limited, 2018.
Znajdź pełny tekst źródłaWhitenack, Daniel. Machine Learning With Go: Implement Regression, Classification, Clustering, Time-series Models, Neural Networks, and More using the Go Programming Language. Packt Publishing - ebooks Account, 2017.
Znajdź pełny tekst źródłaHwang, Yoon Hyup. C# Machine Learning Projects: Nine real-world projects to build robust and high-performing machine learning models with C#. Packt Publishing, 2018.
Znajdź pełny tekst źródłaMcNamara, Patrick, i Magda Giordano. Cognitive Neuroscience and Religious Language. Oxford University Press, 2018. http://dx.doi.org/10.1093/oso/9780190636647.003.0005.
Pełny tekst źródłaR Deep Learning Essentials: A step-by-step guide to building deep learning models using TensorFlow, Keras, and MXNet, 2nd Edition. Packt Publishing, 2018.
Znajdź pełny tekst źródłaStrevens, Michael. The Whole Story. Oxford University Press, 2018. http://dx.doi.org/10.1093/oso/9780199685509.003.0005.
Pełny tekst źródłaZerilli, John. The Adaptable Mind. Oxford University Press, 2021. http://dx.doi.org/10.1093/oso/9780190067885.001.0001.
Pełny tekst źródłaRatcliff, Roger, i Philip Smith. Modeling Simple Decisions and Applications Using a Diffusion Model. Redaktorzy Jerome R. Busemeyer, Zheng Wang, James T. Townsend i Ami Eidels. Oxford University Press, 2015. http://dx.doi.org/10.1093/oxfordhb/9780199957996.013.3.
Pełny tekst źródłaPapanicolaou, Andrew C., i Marina Kilintari. Imaging the Networks of Language. Redaktor Andrew C. Papanicolaou. Oxford University Press, 2017. http://dx.doi.org/10.1093/oxfordhb/9780199764228.013.15.
Pełny tekst źródłaBergen, Benjamin, i Nancy Chang. Embodied Construction Grammar. Redaktorzy Thomas Hoffmann i Graeme Trousdale. Oxford University Press, 2013. http://dx.doi.org/10.1093/oxfordhb/9780195396683.013.0010.
Pełny tekst źródłaSeneque, Gareth, i Darrell Chua. Hands-On Deep Learning with Go: A Practical Guide to Building and Implementing Neural Network Models Using Go. Packt Publishing, Limited, 2019.
Znajdź pełny tekst źródłaButz, Martin V., i Esther F. Kutter. Language, Concepts, and Abstract Thought. Oxford University Press, 2017. http://dx.doi.org/10.1093/acprof:oso/9780198739692.003.0013.
Pełny tekst źródłaWiley, Joshua F., Yuxi (Hayden) Liu, Pablo Maldonado i Mark Hodnett. Deep Learning with R for Beginners: Design Neural Network Models in R 3. 5 Using TensorFlow, Keras, and MXNet. Packt Publishing, Limited, 2019.
Znajdź pełny tekst źródłaSangeetha, V., i S. Kevin Andrews. Introduction to Artificial Intelligence and Neural Networks. Magestic Technology Solutions (P) Ltd, Chennai, Tamil Nadu, India, 2023. http://dx.doi.org/10.47716/mts/978-93-92090-24-0.
Pełny tekst źródłaButz, Martin V., i Esther F. Kutter. How the Mind Comes into Being. Oxford University Press, 2017. http://dx.doi.org/10.1093/acprof:oso/9780198739692.001.0001.
Pełny tekst źródłaBourhis, Richard Y., i Annie Montreuil. Acculturation, Vitality, and Bilingual Healthcare. Redaktorzy Seth J. Schwartz i Jennifer Unger. Oxford University Press, 2016. http://dx.doi.org/10.1093/oxfordhb/9780190215217.013.27.
Pełny tekst źródłaMariani, Giorgio. The Rhetorical Equivalent of War. University of Illinois Press, 2017. http://dx.doi.org/10.5406/illinois/9780252039751.003.0003.
Pełny tekst źródłavan der Hulst, Harry. Palatal harmony. Oxford University Press, 2018. http://dx.doi.org/10.1093/oso/9780198813576.003.0004.
Pełny tekst źródłaNolte, David D. Introduction to Modern Dynamics. Oxford University Press, 2019. http://dx.doi.org/10.1093/oso/9780198844624.001.0001.
Pełny tekst źródłaBarañano, Kristin W. Angelman Syndrome. Oxford University Press, 2017. http://dx.doi.org/10.1093/med/9780199937837.003.0055.
Pełny tekst źródłaChilton, Paul, i David Cram. Hoc est corpus. Oxford University Press, 2018. http://dx.doi.org/10.1093/oso/9780190636647.003.0016.
Pełny tekst źródłaBencke, Ida, i Jørgen Bruhn, red. Multispecies Storytelling in Intermedial Practices. punctum books, 2022. http://dx.doi.org/10.53288/0338.1.00.
Pełny tekst źródłaHilgurt, S. Ya, i O. A. Chemerys. Reconfigurable signature-based information security tools of computer systems. PH “Akademperiodyka”, 2022. http://dx.doi.org/10.15407/akademperiodyka.458.297.
Pełny tekst źródła