Articles de revues sur le sujet « Pre-training corpora »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Pre-training corpora ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Sun, Yu, Shuohuan Wang, Yukun Li, Shikun Feng, Hao Tian, Hua Wu et Haifeng Wang. « ERNIE 2.0 : A Continual Pre-Training Framework for Language Understanding ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 05 (3 avril 2020) : 8968–75. http://dx.doi.org/10.1609/aaai.v34i05.6428.
Texte intégralMoodaley, Wayne, et Arnesh Telukdarie. « A Conceptual Framework for Subdomain Specific Pre-Training of Large Language Models for Green Claim Detection ». European Journal of Sustainable Development 12, no 4 (1 octobre 2023) : 319. http://dx.doi.org/10.14207/ejsd.2023.v12n4p319.
Texte intégralLiu, Yinhan, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis et Luke Zettlemoyer. « Multilingual Denoising Pre-training for Neural Machine Translation ». Transactions of the Association for Computational Linguistics 8 (novembre 2020) : 726–42. http://dx.doi.org/10.1162/tacl_a_00343.
Texte intégralDean, Roger Thornton, et Marcus Thomas Pearce. « Algorithmically-generated Corpora that use Serial Compositional Principles Can Contribute to the Modeling of Sequential Pitch Structure in Non-tonal Music ». Empirical Musicology Review 11, no 1 (8 juillet 2016) : 27. http://dx.doi.org/10.18061/emr.v11i1.4900.
Texte intégralYuan, Sha, Hanyu Zhao, Zhengxiao Du, Ming Ding, Xiao Liu, Yukuo Cen, Xu Zou, Zhilin Yang et Jie Tang. « WuDaoCorpora : A super large-scale Chinese corpora for pre-training language models ». AI Open 2 (2021) : 65–68. http://dx.doi.org/10.1016/j.aiopen.2021.06.001.
Texte intégralKreutzer, Julia, Isaac Caswell, Lisa Wang, Ahsan Wahab, Daan van Esch, Nasanbayar Ulzii-Orshikh, Allahsera Tapo et al. « Quality at a Glance : An Audit of Web-Crawled Multilingual Datasets ». Transactions of the Association for Computational Linguistics 10 (2022) : 50–72. http://dx.doi.org/10.1162/tacl_a_00447.
Texte intégralQian, Jing, Yong Yue, Katie Atkinson et Gangmin Li. « Understanding Chinese Moral Stories with Further Pre-Training ». International Journal on Natural Language Computing 12, no 2 (29 avril 2023) : 01–12. http://dx.doi.org/10.5121/ijnlc.2023.12201.
Texte intégralJiang, Xiaoze, Yaobo Liang, Weizhu Chen et Nan Duan. « XLM-K : Improving Cross-Lingual Language Model Pre-training with Multilingual Knowledge ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 10 (28 juin 2022) : 10840–48. http://dx.doi.org/10.1609/aaai.v36i10.21330.
Texte intégralKajiwara, Tomoyuki, Biwa Miura et Yuki Arase. « Monolingual Transfer Learning via Bilingual Translators for Style-Sensitive Paraphrase Generation ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 05 (3 avril 2020) : 8042–49. http://dx.doi.org/10.1609/aaai.v34i05.6314.
Texte intégralKryeziu, Labehat, et Visar Shehu. « Pre-Training MLM Using Bert for the Albanian Language ». SEEU Review 18, no 1 (1 juin 2023) : 52–62. http://dx.doi.org/10.2478/seeur-2023-0035.
Texte intégralShi, Peng, Patrick Ng, Zhiguo Wang, Henghui Zhu, Alexander Hanbo Li, Jun Wang, Cicero Nogueira dos Santos et Bing Xiang. « Learning Contextual Representations for Semantic Parsing with Generation-Augmented Pre-Training ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 15 (18 mai 2021) : 13806–14. http://dx.doi.org/10.1609/aaai.v35i15.17627.
Texte intégralAlruwaili, Awatif. « An online training course on the use of corpora for teachers in public schools ». JALT CALL Journal 19, no 1 (avril 2023) : 53–70. http://dx.doi.org/10.29140/jaltcall.v19n1.675.
Texte intégralLuo, Da, Yanglei Gan, Rui Hou, Run Lin, Qiao Liu, Yuxiang Cai et Wannian Gao. « Synergistic Anchored Contrastive Pre-training for Few-Shot Relation Extraction ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 17 (24 mars 2024) : 18742–50. http://dx.doi.org/10.1609/aaai.v38i17.29838.
Texte intégralLi, Zhen, Dan Qu, Chaojie Xie, Wenlin Zhang et Yanxia Li. « Language Model Pre-training Method in Machine Translation Based on Named Entity Recognition ». International Journal on Artificial Intelligence Tools 29, no 07n08 (30 novembre 2020) : 2040021. http://dx.doi.org/10.1142/s0218213020400217.
Texte intégralLiu, Peng, Lemei Zhang et Jon Atle Gulla. « Pre-train, Prompt, and Recommendation : A Comprehensive Survey of Language Modeling Paradigm Adaptations in Recommender Systems ». Transactions of the Association for Computational Linguistics 11 (2023) : 1553–71. http://dx.doi.org/10.1162/tacl_a_00619.
Texte intégralMaruyama, Takumi, et Kazuhide Yamamoto. « Extremely Low-Resource Text Simplification with Pre-trained Transformer Language Model ». International Journal of Asian Language Processing 30, no 01 (mars 2020) : 2050001. http://dx.doi.org/10.1142/s2717554520500010.
Texte intégralZheng, Yinhe, Rongsheng Zhang, Minlie Huang et Xiaoxi Mao. « A Pre-Training Based Personalized Dialogue Generation Model with Persona-Sparse Data ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 05 (3 avril 2020) : 9693–700. http://dx.doi.org/10.1609/aaai.v34i05.6518.
Texte intégralMao, Zhuoyuan, Chenhui Chu et Sadao Kurohashi. « Linguistically Driven Multi-Task Pre-Training for Low-Resource Neural Machine Translation ». ACM Transactions on Asian and Low-Resource Language Information Processing 21, no 4 (31 juillet 2022) : 1–29. http://dx.doi.org/10.1145/3491065.
Texte intégralAi, Xi, et Bin Fang. « Empirical Regularization for Synthetic Sentence Pairs in Unsupervised Neural Machine Translation ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 14 (18 mai 2021) : 12471–79. http://dx.doi.org/10.1609/aaai.v35i14.17479.
Texte intégralFromont, Robert, et Kevin Watson. « Factors influencing automatic segmental alignment of sociophonetic corpora ». Corpora 11, no 3 (novembre 2016) : 401–31. http://dx.doi.org/10.3366/cor.2016.0101.
Texte intégralZhu, Quan, Xiaoyin Wang, Xuan Liu, Wanru Du et Xingxing Ding. « Multi-task learning for aspect level semantic classification combining complex aspect target semantic enhancement and adaptive local focus ». Mathematical Biosciences and Engineering 20, no 10 (2023) : 18566–91. http://dx.doi.org/10.3934/mbe.2023824.
Texte intégralSiddhant, Aditya, Anuj Goyal et Angeliki Metallinou. « Unsupervised Transfer Learning for Spoken Language Understanding in Intelligent Agents ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 4959–66. http://dx.doi.org/10.1609/aaai.v33i01.33014959.
Texte intégralGao, Yunfan, Yun Xiong, Siqi Wang et Haofen Wang. « GeoBERT : Pre-Training Geospatial Representation Learning on Point-of-Interest ». Applied Sciences 12, no 24 (16 décembre 2022) : 12942. http://dx.doi.org/10.3390/app122412942.
Texte intégralChiang, Cheng-Han, et Hung-yi Lee. « On the Transferability of Pre-trained Language Models : A Study from Artificial Datasets ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 10 (28 juin 2022) : 10518–25. http://dx.doi.org/10.1609/aaai.v36i10.21295.
Texte intégralLi, Yucheng, Frank Guerin et Chenghua Lin. « LatestEval : Addressing Data Contamination in Language Model Evaluation through Dynamic and Time-Sensitive Test Construction ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 17 (24 mars 2024) : 18600–18607. http://dx.doi.org/10.1609/aaai.v38i17.29822.
Texte intégralKarimzadeh, Morteza, et Alan MacEachren. « GeoAnnotator : A Collaborative Semi-Automatic Platform for Constructing Geo-Annotated Text Corpora ». ISPRS International Journal of Geo-Information 8, no 4 (27 mars 2019) : 161. http://dx.doi.org/10.3390/ijgi8040161.
Texte intégralBae, Jae Kwon. « A Study on Application of the Artificial Intelligence-Based Pre-trained Language Model ». Academic Society of Global Business Administration 21, no 2 (30 avril 2024) : 64–83. http://dx.doi.org/10.38115/asgba.2024.21.2.64.
Texte intégralFang, Liuqin, Qing Ma et Jiahao Yan. « The effectiveness of corpus-based training on collocation use in L2 writing for Chinese senior secondary school students ». Journal of China Computer-Assisted Language Learning 1, no 1 (1 août 2021) : 80–109. http://dx.doi.org/10.1515/jccall-2021-2004.
Texte intégralKang, Yu, Tianqiao Liu, Hang Li, Yang Hao et Wenbiao Ding. « Self-Supervised Audio-and-Text Pre-training with Extremely Low-Resource Parallel Data ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 10 (28 juin 2022) : 10875–83. http://dx.doi.org/10.1609/aaai.v36i10.21334.
Texte intégralHe, Wanwei, Yinpei Dai, Yinhe Zheng, Yuchuan Wu, Zheng Cao, Dermot Liu, Peng Jiang et al. « GALAXY : A Generative Pre-trained Model for Task-Oriented Dialog with Semi-supervised Learning and Explicit Policy Injection ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 10 (28 juin 2022) : 10749–57. http://dx.doi.org/10.1609/aaai.v36i10.21320.
Texte intégralGarrido-Muñoz , Ismael, Arturo Montejo-Ráez , Fernando Martínez-Santiago et L. Alfonso Ureña-López . « A Survey on Bias in Deep NLP ». Applied Sciences 11, no 7 (2 avril 2021) : 3184. http://dx.doi.org/10.3390/app11073184.
Texte intégralPerkowski, Ernest, Rui Pan, Tuan Dung Nguyen, Yuan-Sen Ting, Sandor Kruk, Tong Zhang, Charlie O’Neill et al. « AstroLLaMA-Chat : Scaling AstroLLaMA with Conversational and Diverse Datasets ». Research Notes of the AAS 8, no 1 (8 janvier 2024) : 7. http://dx.doi.org/10.3847/2515-5172/ad1abe.
Texte intégralWang, Ke, Xiutian Zhao et Wei Peng. « Learning from Failure : Improving Meeting Summarization without Good Samples ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 17 (24 mars 2024) : 19153–61. http://dx.doi.org/10.1609/aaai.v38i17.29883.
Texte intégralPota, Marco, Mirko Ventura, Rosario Catelli et Massimo Esposito. « An Effective BERT-Based Pipeline for Twitter Sentiment Analysis : A Case Study in Italian ». Sensors 21, no 1 (28 décembre 2020) : 133. http://dx.doi.org/10.3390/s21010133.
Texte intégralGonzález-Docasal, Ander, et Aitor Álvarez. « Enhancing Voice Cloning Quality through Data Selection and Alignment-Based Metrics ». Applied Sciences 13, no 14 (10 juillet 2023) : 8049. http://dx.doi.org/10.3390/app13148049.
Texte intégralVu, Dang Thanh, Gwanghyun Yu, Chilwoo Lee et Jinyoung Kim. « Text Data Augmentation for the Korean Language ». Applied Sciences 12, no 7 (28 mars 2022) : 3425. http://dx.doi.org/10.3390/app12073425.
Texte intégralQi, Kunxun, et Jianfeng Du. « Translation-Based Matching Adversarial Network for Cross-Lingual Natural Language Inference ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 05 (3 avril 2020) : 8632–39. http://dx.doi.org/10.1609/aaai.v34i05.6387.
Texte intégralA. Brenes, Jose, Javier Ferrández-Pastor, José M. Cámara-Zapata et Gabriela Marín-Raventós. « Use of Hough Transform and Homography for the Creation of Image Corpora for Smart Agriculture ». International Journal on Cybernetics & ; Informatics 12, no 6 (7 octobre 2023) : 09–19. http://dx.doi.org/10.5121/ijci.2023.120602.
Texte intégralYang, Tiancheng, Ilia Sucholutsky, Kuang-Yu Jen et Matthias Schonlau. « exKidneyBERT : a language model for kidney transplant pathology reports and the crucial role of extended vocabularies ». PeerJ Computer Science 10 (28 février 2024) : e1888. http://dx.doi.org/10.7717/peerj-cs.1888.
Texte intégralLi, Lei, Yongfeng Zhang et Li Chen. « Personalized Prompt Learning for Explainable Recommendation ». ACM Transactions on Information Systems 41, no 4 (23 mars 2023) : 1–26. http://dx.doi.org/10.1145/3580488.
Texte intégralPanboonyuen, Teerapong, Kulsawasd Jitkajornwanich, Siam Lawawirojwong, Panu Srestasathiern et Peerapon Vateekul. « Semantic Segmentation on Remotely Sensed Images Using an Enhanced Global Convolutional Network with Channel Attention and Domain Specific Transfer Learning ». Remote Sensing 11, no 1 (4 janvier 2019) : 83. http://dx.doi.org/10.3390/rs11010083.
Texte intégralPanboonyuen, Teerapong, Kulsawasd Jitkajornwanich, Siam Lawawirojwong, Panu Srestasathiern et Peerapon Vateekul. « Transformer-Based Decoder Designs for Semantic Segmentation on Remotely Sensed Images ». Remote Sensing 13, no 24 (15 décembre 2021) : 5100. http://dx.doi.org/10.3390/rs13245100.
Texte intégralLiu, Rui, et Barzan Mozafari. « Transformer with Memory Replay ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 7 (28 juin 2022) : 7567–75. http://dx.doi.org/10.1609/aaai.v36i7.20722.
Texte intégralLiu, Weijie, Peng Zhou, Zhe Zhao, Zhiruo Wang, Qi Ju, Haotang Deng et Ping Wang. « K-BERT : Enabling Language Representation with Knowledge Graph ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 03 (3 avril 2020) : 2901–8. http://dx.doi.org/10.1609/aaai.v34i03.5681.
Texte intégralPeng, Baolin, Chunyuan Li, Jinchao Li, Shahin Shayandeh, Lars Liden et Jianfeng Gao. « Soloist : BuildingTask Bots at Scale with Transfer Learning and Machine Teaching ». Transactions of the Association for Computational Linguistics 9 (2021) : 807–24. http://dx.doi.org/10.1162/tacl_a_00399.
Texte intégralPalagin, O. V., V. Yu Velychko, K. S. Malakhov et O. S. Shchurov. « Distributional semantic modeling : a revised technique to train term/word vector space models applying the ontology-related approach ». PROBLEMS IN PROGRAMMING, no 2-3 (septembre 2020) : 341–51. http://dx.doi.org/10.15407/pp2020.02-03.341.
Texte intégralChoi, Yong-Seok, Yo-Han Park, Seung Yun, Sang-Hun Kim et Kong-Joo Lee. « Factors Behind the Effectiveness of an Unsupervised Neural Machine Translation System between Korean and Japanese ». Applied Sciences 11, no 16 (21 août 2021) : 7662. http://dx.doi.org/10.3390/app11167662.
Texte intégralZayed, Abdelrahman, Prasanna Parthasarathi, Gonçalo Mordido, Hamid Palangi, Samira Shabanian et Sarath Chandar. « Deep Learning on a Healthy Data Diet : Finding Important Examples for Fairness ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 12 (26 juin 2023) : 14593–601. http://dx.doi.org/10.1609/aaai.v37i12.26706.
Texte intégralKeung, Phillip, Julian Salazar, Yichao Lu et Noah A. Smith. « Unsupervised Bitext Mining and Translation via Self-Trained Contextual Embeddings ». Transactions of the Association for Computational Linguistics 8 (décembre 2020) : 828–41. http://dx.doi.org/10.1162/tacl_a_00348.
Texte intégralLaucis, Rolands, et Gints Jēkabsons. « Evaluation of Word Embedding Models in Latvian NLP Tasks Based on Publicly Available Corpora ». Applied Computer Systems 26, no 2 (1 décembre 2021) : 132–38. http://dx.doi.org/10.2478/acss-2021-0016.
Texte intégral