Zeitschriftenartikel zum Thema „Non-autoregressive Machine Translation“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-31 Zeitschriftenartikel für die Forschung zum Thema "Non-autoregressive Machine Translation" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Wang, Yiren, Fei Tian, Di He, Tao Qin, ChengXiang Zhai und Tie-Yan Liu. „Non-Autoregressive Machine Translation with Auxiliary Regularization“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 5377–84. http://dx.doi.org/10.1609/aaai.v33i01.33015377.
Der volle Inhalt der QuelleWang, Shuheng, Shumin Shi, Heyan Huang und Wei Zhang. „Improving Non-Autoregressive Machine Translation via Autoregressive Training“. Journal of Physics: Conference Series 2031, Nr. 1 (01.09.2021): 012045. http://dx.doi.org/10.1088/1742-6596/2031/1/012045.
Der volle Inhalt der QuelleShao, Chenze, Jinchao Zhang, Jie Zhou und Yang Feng. „Rephrasing the Reference for Non-autoregressive Machine Translation“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 11 (26.06.2023): 13538–46. http://dx.doi.org/10.1609/aaai.v37i11.26587.
Der volle Inhalt der QuelleRan, Qiu, Yankai Lin, Peng Li und Jie Zhou. „Guiding Non-Autoregressive Neural Machine Translation Decoding with Reordering Information“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 15 (18.05.2021): 13727–35. http://dx.doi.org/10.1609/aaai.v35i15.17618.
Der volle Inhalt der QuelleWang, Shuheng, Shumin Shi und Heyan Huang. „Enhanced encoder for non-autoregressive machine translation“. Machine Translation 35, Nr. 4 (16.11.2021): 595–609. http://dx.doi.org/10.1007/s10590-021-09285-x.
Der volle Inhalt der QuelleShao, Chenze, Jinchao Zhang, Yang Feng, Fandong Meng und Jie Zhou. „Minimizing the Bag-of-Ngrams Difference for Non-Autoregressive Neural Machine Translation“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 01 (03.04.2020): 198–205. http://dx.doi.org/10.1609/aaai.v34i01.5351.
Der volle Inhalt der QuelleLi, Feng, Jingxian Chen und Xuejun Zhang. „A Survey of Non-Autoregressive Neural Machine Translation“. Electronics 12, Nr. 13 (06.07.2023): 2980. http://dx.doi.org/10.3390/electronics12132980.
Der volle Inhalt der QuelleLiu, Min, Yu Bao, Chengqi Zhao und Shujian Huang. „Selective Knowledge Distillation for Non-Autoregressive Neural Machine Translation“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 11 (26.06.2023): 13246–54. http://dx.doi.org/10.1609/aaai.v37i11.26555.
Der volle Inhalt der QuelleDu, Quan, Kai Feng, Chen Xu, Tong Xiao und Jingbo Zhu. „Non-autoregressive neural machine translation with auxiliary representation fusion“. Journal of Intelligent & Fuzzy Systems 41, Nr. 6 (16.12.2021): 7229–39. http://dx.doi.org/10.3233/jifs-211105.
Der volle Inhalt der QuelleXinlu, Zhang, Wu Hongguan, Ma Beijiao und Zhai Zhengang. „Research on Low Resource Neural Machine Translation Based on Non-autoregressive Model“. Journal of Physics: Conference Series 2171, Nr. 1 (01.01.2022): 012045. http://dx.doi.org/10.1088/1742-6596/2171/1/012045.
Der volle Inhalt der QuelleHuang, Chenyang, Hao Zhou, Osmar R. Zaïane, Lili Mou und Lei Li. „Non-autoregressive Translation with Layer-Wise Prediction and Deep Supervision“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 10 (28.06.2022): 10776–84. http://dx.doi.org/10.1609/aaai.v36i10.21323.
Der volle Inhalt der QuelleGuo, Junliang, Xu Tan, Linli Xu, Tao Qin, Enhong Chen und Tie-Yan Liu. „Fine-Tuning by Curriculum Learning for Non-Autoregressive Neural Machine Translation“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 05 (03.04.2020): 7839–46. http://dx.doi.org/10.1609/aaai.v34i05.6289.
Der volle Inhalt der QuelleGuo, Junliang, Xu Tan, Di He, Tao Qin, Linli Xu und Tie-Yan Liu. „Non-Autoregressive Neural Machine Translation with Enhanced Decoder Input“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 3723–30. http://dx.doi.org/10.1609/aaai.v33i01.33013723.
Der volle Inhalt der QuelleShu, Raphael, Jason Lee, Hideki Nakayama und Kyunghyun Cho. „Latent-Variable Non-Autoregressive Neural Machine Translation with Deterministic Inference Using a Delta Posterior“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 05 (03.04.2020): 8846–53. http://dx.doi.org/10.1609/aaai.v34i05.6413.
Der volle Inhalt der QuelleWang, Shuheng, Heyan Huang und Shumin Shi. „Improving Non-Autoregressive Machine Translation Using Sentence-Level Semantic Agreement“. Applied Sciences 12, Nr. 10 (16.05.2022): 5003. http://dx.doi.org/10.3390/app12105003.
Der volle Inhalt der QuelleGuo, Pei, Yisheng Xiao, Juntao Li und Min Zhang. „RenewNAT: Renewing Potential Translation for Non-autoregressive Transformer“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 11 (26.06.2023): 12854–62. http://dx.doi.org/10.1609/aaai.v37i11.26511.
Der volle Inhalt der QuelleWeng, Rongxiang, Heng Yu, Weihua Luo und Min Zhang. „Deep Fusing Pre-trained Models into Neural Machine Translation“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 10 (28.06.2022): 11468–76. http://dx.doi.org/10.1609/aaai.v36i10.21399.
Der volle Inhalt der QuelleHuang, Fei, Pei Ke und Minlie Huang. „Directed Acyclic Transformer Pre-training for High-quality Non-autoregressive Text Generation“. Transactions of the Association for Computational Linguistics 11 (2023): 941–59. http://dx.doi.org/10.1162/tacl_a_00582.
Der volle Inhalt der QuelleXiao, Yisheng, Ruiyang Xu, Lijun Wu, Juntao Li, Tao Qin, Tie-Yan Liu und Min Zhang. „AMOM: Adaptive Masking over Masking for Conditional Masked Language Model“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 11 (26.06.2023): 13789–97. http://dx.doi.org/10.1609/aaai.v37i11.26615.
Der volle Inhalt der QuelleDong, Qianqian, Feng Wang, Zhen Yang, Wei Chen, Shuang Xu und Bo Xu. „Adapting Translation Models for Transcript Disfluency Detection“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 6351–58. http://dx.doi.org/10.1609/aaai.v33i01.33016351.
Der volle Inhalt der QuelleXu, Weijia, und Marine Carpuat. „EDITOR: An Edit-Based Transformer with Repositioning for Neural Machine Translation with Soft Lexical Constraints“. Transactions of the Association for Computational Linguistics 9 (2021): 311–28. http://dx.doi.org/10.1162/tacl_a_00368.
Der volle Inhalt der QuelleS, Tarun. „Bridging Languages through Images: A Multilingual Text-to-Image Synthesis Approach“. INTERANTIONAL JOURNAL OF SCIENTIFIC RESEARCH IN ENGINEERING AND MANAGEMENT 08, Nr. 05 (11.05.2024): 1–5. http://dx.doi.org/10.55041/ijsrem33773.
Der volle Inhalt der QuelleWelleck, Sean, und Kyunghyun Cho. „MLE-Guided Parameter Search for Task Loss Minimization in Neural Sequence Modeling“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 16 (18.05.2021): 14032–40. http://dx.doi.org/10.1609/aaai.v35i16.17652.
Der volle Inhalt der QuelleLiu, Chuanming, und Jingqi Yu. „Uncertainty-aware non-autoregressive neural machine translation“. Computer Speech & Language, August 2022, 101444. http://dx.doi.org/10.1016/j.csl.2022.101444.
Der volle Inhalt der QuelleShao, Chenze, Yang Feng, Jinchao Zhang, Fandong Meng und Jie Zhou. „Sequence-Level Training for Non-Autoregressive Neural Machine Translation“. Computational Linguistics, 06.09.2021, 1–36. http://dx.doi.org/10.1162/coli_a_00421.
Der volle Inhalt der QuelleWang, Shuheng, Heyan Huang und Shumin Shi. „Incorporating history and future into non-autoregressive machine translation“. Computer Speech & Language, Juli 2022, 101439. http://dx.doi.org/10.1016/j.csl.2022.101439.
Der volle Inhalt der QuelleSheshadri, Shailashree K., und Deepa Gupta. „KasNAT: Non-autoregressive machine translation for Kashmiri to English using knowledge distillation“. Journal of Intelligent & Fuzzy Systems, 26.04.2024, 1–15. http://dx.doi.org/10.3233/jifs-219383.
Der volle Inhalt der QuelleXie, Pan, Zexian Li, Zheng Zhao, Jiaqi Liu und Xiaohui Hu. „MvSR-NAT: Multi-view Subset Regularization for Non-Autoregressive Machine Translation“. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2022, 1–10. http://dx.doi.org/10.1109/taslp.2022.3221043.
Der volle Inhalt der QuelleWang, Shuheng, Shumin Shi und Heyan Huang. „Alleviating repetitive tokens in non-autoregressive machine translation with unlikelihood training“. Soft Computing, 03.01.2024. http://dx.doi.org/10.1007/s00500-023-09490-1.
Der volle Inhalt der QuelleXiao, Yisheng, Lijun Wu, Junliang Guo, Juntao Li, Min Zhang, Tao Qin und Tie-Yan Liu. „A Survey on Non-Autoregressive Generation for Neural Machine Translation and Beyond“. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2023, 1–20. http://dx.doi.org/10.1109/tpami.2023.3277122.
Der volle Inhalt der QuelleLim, Yeon-Soo, Eun-Ju Park, Hyun-Je Song und Seong-Bae Park. „A Non-Autoregressive Neural Machine Translation Model with Iterative Length Update of Target Sentence“. IEEE Access, 2022, 1. http://dx.doi.org/10.1109/access.2022.3169419.
Der volle Inhalt der Quelle