Artykuły w czasopismach na temat „Non-autoregressive Machine Translation”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 31 najlepszych artykułów w czasopismach naukowych na temat „Non-autoregressive Machine Translation”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj artykuły w czasopismach z różnych dziedzin i twórz odpowiednie bibliografie.
Wang, Yiren, Fei Tian, Di He, Tao Qin, ChengXiang Zhai i Tie-Yan Liu. "Non-Autoregressive Machine Translation with Auxiliary Regularization". Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 5377–84. http://dx.doi.org/10.1609/aaai.v33i01.33015377.
Pełny tekst źródłaWang, Shuheng, Shumin Shi, Heyan Huang i Wei Zhang. "Improving Non-Autoregressive Machine Translation via Autoregressive Training". Journal of Physics: Conference Series 2031, nr 1 (1.09.2021): 012045. http://dx.doi.org/10.1088/1742-6596/2031/1/012045.
Pełny tekst źródłaShao, Chenze, Jinchao Zhang, Jie Zhou i Yang Feng. "Rephrasing the Reference for Non-autoregressive Machine Translation". Proceedings of the AAAI Conference on Artificial Intelligence 37, nr 11 (26.06.2023): 13538–46. http://dx.doi.org/10.1609/aaai.v37i11.26587.
Pełny tekst źródłaRan, Qiu, Yankai Lin, Peng Li i Jie Zhou. "Guiding Non-Autoregressive Neural Machine Translation Decoding with Reordering Information". Proceedings of the AAAI Conference on Artificial Intelligence 35, nr 15 (18.05.2021): 13727–35. http://dx.doi.org/10.1609/aaai.v35i15.17618.
Pełny tekst źródłaWang, Shuheng, Shumin Shi i Heyan Huang. "Enhanced encoder for non-autoregressive machine translation". Machine Translation 35, nr 4 (16.11.2021): 595–609. http://dx.doi.org/10.1007/s10590-021-09285-x.
Pełny tekst źródłaShao, Chenze, Jinchao Zhang, Yang Feng, Fandong Meng i Jie Zhou. "Minimizing the Bag-of-Ngrams Difference for Non-Autoregressive Neural Machine Translation". Proceedings of the AAAI Conference on Artificial Intelligence 34, nr 01 (3.04.2020): 198–205. http://dx.doi.org/10.1609/aaai.v34i01.5351.
Pełny tekst źródłaLi, Feng, Jingxian Chen i Xuejun Zhang. "A Survey of Non-Autoregressive Neural Machine Translation". Electronics 12, nr 13 (6.07.2023): 2980. http://dx.doi.org/10.3390/electronics12132980.
Pełny tekst źródłaLiu, Min, Yu Bao, Chengqi Zhao i Shujian Huang. "Selective Knowledge Distillation for Non-Autoregressive Neural Machine Translation". Proceedings of the AAAI Conference on Artificial Intelligence 37, nr 11 (26.06.2023): 13246–54. http://dx.doi.org/10.1609/aaai.v37i11.26555.
Pełny tekst źródłaDu, Quan, Kai Feng, Chen Xu, Tong Xiao i Jingbo Zhu. "Non-autoregressive neural machine translation with auxiliary representation fusion". Journal of Intelligent & Fuzzy Systems 41, nr 6 (16.12.2021): 7229–39. http://dx.doi.org/10.3233/jifs-211105.
Pełny tekst źródłaXinlu, Zhang, Wu Hongguan, Ma Beijiao i Zhai Zhengang. "Research on Low Resource Neural Machine Translation Based on Non-autoregressive Model". Journal of Physics: Conference Series 2171, nr 1 (1.01.2022): 012045. http://dx.doi.org/10.1088/1742-6596/2171/1/012045.
Pełny tekst źródłaHuang, Chenyang, Hao Zhou, Osmar R. Zaïane, Lili Mou i Lei Li. "Non-autoregressive Translation with Layer-Wise Prediction and Deep Supervision". Proceedings of the AAAI Conference on Artificial Intelligence 36, nr 10 (28.06.2022): 10776–84. http://dx.doi.org/10.1609/aaai.v36i10.21323.
Pełny tekst źródłaGuo, Junliang, Xu Tan, Linli Xu, Tao Qin, Enhong Chen i Tie-Yan Liu. "Fine-Tuning by Curriculum Learning for Non-Autoregressive Neural Machine Translation". Proceedings of the AAAI Conference on Artificial Intelligence 34, nr 05 (3.04.2020): 7839–46. http://dx.doi.org/10.1609/aaai.v34i05.6289.
Pełny tekst źródłaGuo, Junliang, Xu Tan, Di He, Tao Qin, Linli Xu i Tie-Yan Liu. "Non-Autoregressive Neural Machine Translation with Enhanced Decoder Input". Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 3723–30. http://dx.doi.org/10.1609/aaai.v33i01.33013723.
Pełny tekst źródłaShu, Raphael, Jason Lee, Hideki Nakayama i Kyunghyun Cho. "Latent-Variable Non-Autoregressive Neural Machine Translation with Deterministic Inference Using a Delta Posterior". Proceedings of the AAAI Conference on Artificial Intelligence 34, nr 05 (3.04.2020): 8846–53. http://dx.doi.org/10.1609/aaai.v34i05.6413.
Pełny tekst źródłaWang, Shuheng, Heyan Huang i Shumin Shi. "Improving Non-Autoregressive Machine Translation Using Sentence-Level Semantic Agreement". Applied Sciences 12, nr 10 (16.05.2022): 5003. http://dx.doi.org/10.3390/app12105003.
Pełny tekst źródłaGuo, Pei, Yisheng Xiao, Juntao Li i Min Zhang. "RenewNAT: Renewing Potential Translation for Non-autoregressive Transformer". Proceedings of the AAAI Conference on Artificial Intelligence 37, nr 11 (26.06.2023): 12854–62. http://dx.doi.org/10.1609/aaai.v37i11.26511.
Pełny tekst źródłaWeng, Rongxiang, Heng Yu, Weihua Luo i Min Zhang. "Deep Fusing Pre-trained Models into Neural Machine Translation". Proceedings of the AAAI Conference on Artificial Intelligence 36, nr 10 (28.06.2022): 11468–76. http://dx.doi.org/10.1609/aaai.v36i10.21399.
Pełny tekst źródłaHuang, Fei, Pei Ke i Minlie Huang. "Directed Acyclic Transformer Pre-training for High-quality Non-autoregressive Text Generation". Transactions of the Association for Computational Linguistics 11 (2023): 941–59. http://dx.doi.org/10.1162/tacl_a_00582.
Pełny tekst źródłaXiao, Yisheng, Ruiyang Xu, Lijun Wu, Juntao Li, Tao Qin, Tie-Yan Liu i Min Zhang. "AMOM: Adaptive Masking over Masking for Conditional Masked Language Model". Proceedings of the AAAI Conference on Artificial Intelligence 37, nr 11 (26.06.2023): 13789–97. http://dx.doi.org/10.1609/aaai.v37i11.26615.
Pełny tekst źródłaDong, Qianqian, Feng Wang, Zhen Yang, Wei Chen, Shuang Xu i Bo Xu. "Adapting Translation Models for Transcript Disfluency Detection". Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 6351–58. http://dx.doi.org/10.1609/aaai.v33i01.33016351.
Pełny tekst źródłaXu, Weijia, i Marine Carpuat. "EDITOR: An Edit-Based Transformer with Repositioning for Neural Machine Translation with Soft Lexical Constraints". Transactions of the Association for Computational Linguistics 9 (2021): 311–28. http://dx.doi.org/10.1162/tacl_a_00368.
Pełny tekst źródłaS, Tarun. "Bridging Languages through Images: A Multilingual Text-to-Image Synthesis Approach". INTERANTIONAL JOURNAL OF SCIENTIFIC RESEARCH IN ENGINEERING AND MANAGEMENT 08, nr 05 (11.05.2024): 1–5. http://dx.doi.org/10.55041/ijsrem33773.
Pełny tekst źródłaWelleck, Sean, i Kyunghyun Cho. "MLE-Guided Parameter Search for Task Loss Minimization in Neural Sequence Modeling". Proceedings of the AAAI Conference on Artificial Intelligence 35, nr 16 (18.05.2021): 14032–40. http://dx.doi.org/10.1609/aaai.v35i16.17652.
Pełny tekst źródłaLiu, Chuanming, i Jingqi Yu. "Uncertainty-aware non-autoregressive neural machine translation". Computer Speech & Language, sierpień 2022, 101444. http://dx.doi.org/10.1016/j.csl.2022.101444.
Pełny tekst źródłaShao, Chenze, Yang Feng, Jinchao Zhang, Fandong Meng i Jie Zhou. "Sequence-Level Training for Non-Autoregressive Neural Machine Translation". Computational Linguistics, 6.09.2021, 1–36. http://dx.doi.org/10.1162/coli_a_00421.
Pełny tekst źródłaWang, Shuheng, Heyan Huang i Shumin Shi. "Incorporating history and future into non-autoregressive machine translation". Computer Speech & Language, lipiec 2022, 101439. http://dx.doi.org/10.1016/j.csl.2022.101439.
Pełny tekst źródłaSheshadri, Shailashree K., i Deepa Gupta. "KasNAT: Non-autoregressive machine translation for Kashmiri to English using knowledge distillation". Journal of Intelligent & Fuzzy Systems, 26.04.2024, 1–15. http://dx.doi.org/10.3233/jifs-219383.
Pełny tekst źródłaXie, Pan, Zexian Li, Zheng Zhao, Jiaqi Liu i Xiaohui Hu. "MvSR-NAT: Multi-view Subset Regularization for Non-Autoregressive Machine Translation". IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2022, 1–10. http://dx.doi.org/10.1109/taslp.2022.3221043.
Pełny tekst źródłaWang, Shuheng, Shumin Shi i Heyan Huang. "Alleviating repetitive tokens in non-autoregressive machine translation with unlikelihood training". Soft Computing, 3.01.2024. http://dx.doi.org/10.1007/s00500-023-09490-1.
Pełny tekst źródłaXiao, Yisheng, Lijun Wu, Junliang Guo, Juntao Li, Min Zhang, Tao Qin i Tie-Yan Liu. "A Survey on Non-Autoregressive Generation for Neural Machine Translation and Beyond". IEEE Transactions on Pattern Analysis and Machine Intelligence, 2023, 1–20. http://dx.doi.org/10.1109/tpami.2023.3277122.
Pełny tekst źródłaLim, Yeon-Soo, Eun-Ju Park, Hyun-Je Song i Seong-Bae Park. "A Non-Autoregressive Neural Machine Translation Model with Iterative Length Update of Target Sentence". IEEE Access, 2022, 1. http://dx.doi.org/10.1109/access.2022.3169419.
Pełny tekst źródła