Добірка наукової літератури з теми "SELF-ATTENTION MECHANISM"
Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями
Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "SELF-ATTENTION MECHANISM".
Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.
Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.
Статті в журналах з теми "SELF-ATTENTION MECHANISM"
Yang, Kehua, Yaodong Wang, Wei Zhang, Jiqing Yao, and Yuquan Le. "Keyphrase Generation Based on Self-Attention Mechanism." Computers, Materials & Continua 61, no. 2 (2019): 569–81. http://dx.doi.org/10.32604/cmc.2019.05952.
Повний текст джерелаLiu, Siqi, Jiangshu Wei, Gang Liu, and Bei Zhou. "Image classification model based on large kernel attention mechanism and relative position self-attention mechanism." PeerJ Computer Science 9 (April 21, 2023): e1344. http://dx.doi.org/10.7717/peerj-cs.1344.
Повний текст джерелаZhu, Hu, Ze Wang, Yu Shi, Yingying Hua, Guoxia Xu, and Lizhen Deng. "Multimodal Fusion Method Based on Self-Attention Mechanism." Wireless Communications and Mobile Computing 2020 (September 23, 2020): 1–8. http://dx.doi.org/10.1155/2020/8843186.
Повний текст джерелаCao, Fude, Chunguang Zheng, Limin Huang, Aihua Wang, Jiong Zhang, Feng Zhou, Haoxue Ju, Haitao Guo, and Yuxia Du. "Research of Self-Attention in Image Segmentation." Journal of Information Technology Research 15, no. 1 (January 2022): 1–12. http://dx.doi.org/10.4018/jitr.298619.
Повний текст джерелаWu, Hongqiu, Ruixue Ding, Hai Zhao, Pengjun Xie, Fei Huang, and Min Zhang. "Adversarial Self-Attention for Language Understanding." Proceedings of the AAAI Conference on Artificial Intelligence 37, no. 11 (June 26, 2023): 13727–35. http://dx.doi.org/10.1609/aaai.v37i11.26608.
Повний текст джерелаXie, Fei, Dalong Zhang, and Chengming Liu. "Global–Local Self-Attention Based Transformer for Speaker Verification." Applied Sciences 12, no. 19 (October 10, 2022): 10154. http://dx.doi.org/10.3390/app121910154.
Повний текст джерелаWang, Duofeng, Haifeng Hu, and Dihu Chen. "Transformer with sparse self‐attention mechanism for image captioning." Electronics Letters 56, no. 15 (July 2020): 764–66. http://dx.doi.org/10.1049/el.2020.0635.
Повний текст джерелаLi, Yujie, and Jintong Cai. "Point cloud classification network based on self-attention mechanism." Computers and Electrical Engineering 104 (December 2022): 108451. http://dx.doi.org/10.1016/j.compeleceng.2022.108451.
Повний текст джерелаBrotchie, James, Wei Shao, Wenchao Li, and Allison Kealy. "Leveraging Self-Attention Mechanism for Attitude Estimation in Smartphones." Sensors 22, no. 22 (November 21, 2022): 9011. http://dx.doi.org/10.3390/s22229011.
Повний текст джерелаFan, Zhongkui, and Ye-Peng Guan. "Pedestrian attribute recognition based on dual self-attention mechanism." Computer Science and Information Systems, no. 00 (2023): 16. http://dx.doi.org/10.2298/csis220815016f.
Повний текст джерелаДисертації з теми "SELF-ATTENTION MECHANISM"
Raykos, Bronwyn C. "Attentional and interpretive biases : independent dimensions of individual difference or expressions of a common selective processing mechanism?" University of Western Australia. School of Psychology, 2007. http://theses.library.uwa.edu.au/adt-WU2007.0018.
Повний текст джерелаRaykos, Bronwyn C. "Attentional and interpretive biases : independent dimensions of individual difference or expressions of a common selective processing mechanism? /." Connect to this title, 2006. http://theses.library.uwa.edu.au/adt-WU2007.0018.
Повний текст джерелаSACHDEVA, NITIN. "CYBERBULLYING DETECTION ON SOCIAL MEDIA USING DEEP LEARNING MODELS." Thesis, DELHI TECHNOLOGICAL UNIVERSITY, 2021. http://dspace.dtu.ac.in:8080/jspui/handle/repository/18914.
Повний текст джерелаGovindarajan, Hariprasath. "Self-Supervised Representation Learning for Content Based Image Retrieval." Thesis, Linköpings universitet, Statistik och maskininlärning, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-166223.
Повний текст джерелаMoadab, Ida. "The Role of Mindfulness and Self-Compassion in the Neural Mechanisms of Attention and Self-Monitoring." Thesis, University of Oregon, 2013. http://hdl.handle.net/1794/13402.
Повний текст джерелаBakkali, Souhail. "Multimodal Document Understanding with Unified Vision and Language Cross-Modal Learning." Electronic Thesis or Diss., La Rochelle, 2022. http://www.theses.fr/2022LAROS046.
Повний текст джерелаThe frameworks developed in this thesis were the outcome of an iterative process of analysis and synthesis between existing theories and our performed studies. More specifically, we wish to study cross-modality learning for contextualized comprehension on document components across language and vision. The main idea is to leverage multimodal information from document images into a common semantic space. This thesis focuses on advancing the research on cross-modality learning and makes contributions on four fronts: (i) to proposing a cross-modal approach with deep networks to jointly leverage visual and textual information into a common semantic representation space to automatically perform and make predictions about multimodal documents (i.e., the subject matter they are about); (ii) to investigating competitive strategies to address the tasks of cross-modal document classification, content-based retrieval and few-shot document classification; (iii) to addressing data-related issues like learning when data is not annotated, by proposing a network that learns generic representations from a collection of unlabeled documents; and (iv) to exploiting few-shot learning settings when data contains only few examples
Yeh, Han-Yun, and 葉瀚允. "End-to-end Pinyin to Character Language Model using Self-Attention Mechanism." Thesis, 2019. http://ndltd.ncl.edu.tw/handle/vk3zt8.
Повний текст джерела國立交通大學
電信工程研究所
107
Deep nerual network with conventional automatic speech recognition structure has achieved huge improvement. Similarly, end-to-end speech recongnition structure got close performance in these two years, but with huge amout of data and computing resources. This study attempt to focus on end-to-end language model, training an end-to-end language model by sequence labeling method and self-attention seq2seq model (Transformer) which are common method in some NLP task, with syllable sequence converted from 440 million words chinese corpus through a proposed G2P system. And the syllable to character model with transformer achieved lower character error rate than the baseline trigram model in our outside test set.
Sarzedas, João Pereira. "The impact of hallucination predisposition on vocal perception mechanisms : an ERP study of attention, identity and emotion." Master's thesis, 2020. http://hdl.handle.net/10451/45746.
Повний текст джерелаIn recent years, a more dimensional view of psychotic disorders has been supported by several epidemiological studies showing the existence of a continuum of psychotic like-experiences in the general population. Reported similarities between the cognitive and neural mechanisms underpinning hallucinatory experiences in psychotic and in individuals with high hallucination predisposition provide further support for this psychosis continuum model. In the auditory domain, schizophrenic patients show altered perception of vocal information with negative content, as well as of voice identity. Whether the same voice processing mechanisms are similarly altered in individuals with high hallucination predisposition remains to be clarified. In the current study, thirty nonclinical participants with different scores on the Launay-Slade Hallucination Scale (a measure of hallucination predisposition) listened to prerecorded words varying in identity (self vs. non-self-voice) and emotional quality (negative vs. neutral vs. positive), while electroencephalographic data were recorded. Two tasks with a different attentional focus (identity focus task vs. emotional focus task) were conducted. In the identity focus task, participants attended to the identity of the voice and decided whether the voice they heard was their own voice, the voice of another person or if they were unsure. In the emotional focus task, they evaluated the emotional quality of the words. The N1, P2 and late positive potential (LPP) components were analyzed. We found a larger N1 in response to self-voice in the identity focus task and a larger LPP for the self-voice, irrespective of the attention focus. Furthermore, in the emotional focus task, we observed an association between high hallucination predisposition and a trend for a reduced LPP amplitude in response to the self-voice. The LPP result suggests the existence of an altered perception of voice identity, dependent of the attention focus, in individuals with high hallucination predisposition. Overall, the current findings partially support the psychosis continuum model.
Nas últimas décadas, uma abordagem mais dimensional das perturbações psicóticas tem ganho força com base em vários estudos epidemiológicos que demostram a existência de um continuum de experiências psicóticas na população em geral. O modelo do continuum de psicose advoga a existência de vários fenótipos de psicose num continuum que engloba indivíduos com um diagnóstico psiquiátrico (e.g., esquizofrenia) mas também indivíduos sem diagnóstico clínico que manifestam experiências do tipo psicótico. O modelo do continuum de psicose é suportado por estudos que mostram semelhanças entre os mecanismos cognitivos e neuronais que estão na base das experiências alucinatórias de pacientes psicóticos e de indivíduos sem diagnóstico clínico. As alucinações (i.e., experiências percetuais que ocorrem na ausência de estimulação externa correspondente) são um sintoma característicos das perturbações psicóticas. Contudo, também são reportadas experiências alucinatórias em pacientes com outras perturbações psiquiátricas e em indivíduos sem diagnóstico que não necessitam de apoio clínico. Os indivíduos sem diagnóstico clínico que experienciam alucinações auditivas verbais breves ou outras experiências alucinatórias são descritos na literatura como indivíduos com alta predisposição alucinatória. Numa amostra de 84711 participantes foi encontrada uma taxa de prevalência de 9.6 % de experiências alucinatórias, o que demonstra que este não é um fenómeno incomum na população em geral. A maioria das experiências alucinatórias são transitórias, mas em alguns casos persistem e aumentam o risco de transição para psicose. O estudo de experiências alucinatórias em indivíduos com predisposição alucinatória pode contribuir para uma melhor compreensão e tratamento de perturbações clínicas. Existe evidência que demonstra a existência de uma associação entre alucinações auditivas verbais e défices específicos de processamento vocal. Os modelos neurocognitivos de processamento de voz postulam que a identidade, a emoção e a fala são processados por regiões corticais funcionalmente distintas. Em indivíduos com esquizofrenia têm sido consistentemente reportadas alterações no processamento vocal da identidade, da fala e da emoção. Contudo, ainda não é claro qual o impacto destas alterações de processamento vocal no desencadear de sintomas psicóticos específicos. Examinar a existência destas alterações em indivíduos com alta predisposição alucinatória pode ser um passo útil para uma melhor compreensão da influência que estes processos têm no desencadear de experiências alucinatórias. Os escassos estudos que testaram simultaneamente o processamento de identidade, discurso e emoção parecem demonstrar diferenças de processamento vocal entre indivíduos com esquizofrenia e indivíduos com alta predisposição alucinatória. Em comparação com grupos de controlo e pacientes sem alucinações auditivas verbais, os pacientes com alucinações auditivas verbais demonstraram uma maior dificuldade no reconhecimento da sua própria voz quando esta apresentava um conteúdo negativo. Por outro lado, em indivíduos com alta predisposição alucinatória, as dificuldades no reconhecimento da própria voz não parecem estar relacionadas com o conteúdo emocional da fala. Uma das técnicas que tem vindo a demonstrar a sua utilidade para a investigação de mecanismos de perceção vocal é a técnica de potenciais evocados por eventos (event related potentials – ERP), caracterizada por elevada resolução temporal. Um dos estudos que investigou o processamento vocal da identidade, discurso e emoção com ERP encontrou efeitos de interação entre identidade (voz própria vs. voz de um desconhecido) e emoção (palavras negativas vs. neutras vs. positivas) em três componentes: N1, P2 e late positive potential (LPP). O N1 é um componente associado ao processamento sensorial da voz. O P2 é um componente associado a uma deteção precoce de saliência emocional de um estímulo. O LPP está associado a processos de atenção sustentada e de avaliação do conteúdo emocional da voz. Um estudo subsequente, utilizando um paradigma idêntico, encontrou alterações de processamento vocal, nos componentes P2 e LPP, em indivíduos com esquizofrenia. Nestes dois estudos, o conteúdo emocional foi processado implicitamente, uma vez que os participantes foram instruídos a focarem a sua atenção na identidade da voz e avaliarem se as gravações que ouviam pertenciam a eles próprios ou a outra pessoa. Alguns estudos demonstram que alterar o foco atencional de uma tarefa influencia o modo como os estímulos são processados neurofisiologicamente. Deste modo, é possível que sejam encontrados resultados diferentes numa condição onde os participantes são instruídos a focarem a sua atenção no conteúdo emocional do estímulo (i.e., avaliarem se o estímulo é negativo, neutro ou positivo). Tanto em indivíduos com esquizofrenia como em indivíduos com alta predisposição alucinatória, têm vindo a ser reportadas alterações de processos atencionais. Por conseguinte, é possível que o foco atencional module o presumível impacto da predisposição alucinatória em mecanismos de perceção de voz. No presente estudo foi explorado, através de ERPs: 1) o impacto do foco atencional na interação entre o processamento vocal da identidade e da emoção; 2) o impacto da predisposição alucinatória nestes mecanismos (foco atencional, identidade e emoção). Para esse propósito, foram realizadas duas tarefas. Em ambas as tarefas, os participantes ouviram gravações de uma voz (própria voz vs. voz de um desconhecido) a proferir palavras com conteúdo negativo, neutro ou positivo. Enquanto que na primeira tarefa (tarefa do foco na identidade) os participantes tinham de identificar a identidade da voz, na segunda tarefa (tarefa do foco na emoção) eram instruídos a avaliar o conteúdo emocional das palavras proferidas. Na tarefa de foco na identidade, procurámos replicar resultados de estudos anteriores que observaram efeitos de interação entre identidade e emoção e efeitos principais de identidade, bem como uma associação entre altos níveis de predisposição alucinatória e uma maior dificuldade no reconhecimento da própria voz. Ainda para esta tarefa, foi explorada a hipótese de que altos níveis de predisposição alucinatória predizessem um padrão neurofisiológico semelhante ao dos pacientes com esquizofrenia, uma observação que serviria de suporte para a hipótese do continuum de psicose. Na tarefa de foco na emoção era esperada uma maior amplitude de LPP em resposta a palavras negativas e positivas, em comparação com palavras neutras e, em termos exploratórios, era esperado uma influência do foco atencional no presumível impacto da predisposição alucinatória em mecanismos de perceção de voz. Foram recrutados 30 participantes “saudáveis”, sendo que o grau de predisposição alucinatória de cada individuo foi avaliado através da Launay-Slade Hallucination Scale (LSHS). No presente estudo não foram observadas interações entre identidade e emoção, nem efeitos principais de emoção. É possível que este resultado se deva a diferenças linguísticas existentes entre os estímulos usados neste estudo e os estímulos usados em estudos anteriores. Contudo, em comparação com uma voz desconhecida, a voz dos participantes elicitou uma maior amplitude de N1 na tarefa de foco na identidade e uma maior amplitude de LPP em ambas as tarefas. Estes resultados parecem sugerir que, em termos neurofisiológicos, a própria voz de uma pessoa é mais saliente do que a voz de um desconhecido. Na tarefa do foco na emoção foi também encontrada uma associação entre altos níveis de predisposição alucinatória e uma tendência para uma menor amplitude de LPP em reposta a gravações da própria voz. Este resultado sugere que o foco atencional modela o presumível impacto da predisposição alucinatória em mecanismos de perceção de voz. Ao contrário do observado em pacientes com esquizofrenia (menor amplitude de LPP em resposta a gravações da própria voz e de vozes desconhecidas com conteúdo negativo), o presumível défice de processamento vocal em indivíduos com predisposição alucinatória parece não depender do conteúdo emocional e parece ser menos marcado, uma vez que é observado apenas em resposta a gravações da própria voz e numa condição onde a identidade não está a ser explicitamente processada. Em suma, os resultados encontrados parecem servir de suporte parcial para o modelo de continuum de psicose.
Книги з теми "SELF-ATTENTION MECHANISM"
Mironova, Svetlana. The doctrine of the financial and legal status of municipalities in the Russian Federation and its implementation. ru: INFRA-M Academic Publishing LLC., 2021. http://dx.doi.org/10.12737/1819040.
Повний текст джерелаAvhadeev, V., L. Bitkova, C. Bogolyubov, I. Bondarchuk, A. Vinokurov, E. Galinovskaya, D. Gorohov, et al. Implementation of the Law on Responsible Treatment of Animals: from the quality of norms to effective law enforcement. ru: INFRA-M Academic Publishing LLC., 2021. http://dx.doi.org/10.12737/1410760.
Повний текст джерелаAndrichenko, Lyudmila, A. Postnikov, L. Vasil'eva, Zh Gaunova, E. Nikitina, and Inna Plyugina. Reform of the organization of public power: the main directions of implementation. ru: INFRA-M Academic Publishing LLC., 2021. http://dx.doi.org/10.12737/1839416.
Повний текст джерелаSazhina, Muza, Anna Kashirova, Stanislav Makarov, and Egor Osiop. The social wealth of the innovation system. ru: INFRA-M Academic Publishing LLC., 2022. http://dx.doi.org/10.12737/1875920.
Повний текст джерелаCrowell, Sheila E., Mona Yaptangco, and Sara L. Turner. Coercion, Invalidation, and Risk for Self-Injury and Borderline Personality Traits. Edited by Thomas J. Dishion and James Snyder. Oxford University Press, 2015. http://dx.doi.org/10.1093/oxfordhb/9780199324552.013.16.
Повний текст джерелаO'Callaghan, Claire, and Muireann Irish. Candidate Mechanisms of Spontaneous Cognition as Revealed by Dementia Syndromes. Edited by Kalina Christoff and Kieran C. R. Fox. Oxford University Press, 2018. http://dx.doi.org/10.1093/oxfordhb/9780190464745.013.6.
Повний текст джерелаHasenkamp, Wendy. Catching the Wandering Mind. Edited by Kalina Christoff and Kieran C. R. Fox. Oxford University Press, 2018. http://dx.doi.org/10.1093/oxfordhb/9780190464745.013.12.
Повний текст джерелаBlackmore, Susan. Consciousness: A Very Short Introduction. Oxford University Press, 2017. http://dx.doi.org/10.1093/actrade/9780198794738.001.0001.
Повний текст джерелаHan, Shihui. Cultural diversity. Oxford University Press, 2017. http://dx.doi.org/10.1093/acprof:oso/9780198743194.003.0001.
Повний текст джерелаFerguson, Robert, and Karen Gillock. Memory and Attention Adaptation Training. Oxford University Press, 2021. http://dx.doi.org/10.1093/med/9780197521526.001.0001.
Повний текст джерелаЧастини книг з теми "SELF-ATTENTION MECHANISM"
Hossain, Syed Md Minhaz, Anik Sen, and Kaushik Deb. "Detecting Spam SMS Using Self Attention Mechanism." In Intelligent Computing & Optimization, 175–84. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-19958-5_17.
Повний текст джерелаDaanouni, Othmane, Bouchaib Cherradi, and Amal Tmiri. "Self-Attention Mechanism for Diabetic Retinopathy Detection." In Emerging Trends in ICT for Sustainable Development, 79–88. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-53440-0_10.
Повний текст джерелаZhang, Jiaxin, Yinshan Jia, and Hongfei Yu. "Application Research of YOLOv3 Incorporating Self-attention Mechanism." In Lecture Notes in Electrical Engineering, 454–61. Singapore: Springer Nature Singapore, 2022. http://dx.doi.org/10.1007/978-981-19-3927-3_45.
Повний текст джерелаKanno, Satoki, and Mamoru Mimura. "Detection of Malware Using Self-Attention Mechanism and Strings." In Network and System Security, 46–60. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-39828-5_3.
Повний текст джерелаYuan, Genji, Jianbo Li, Yue Wang, and Xianglong Meng. "Incorporating Self Attention Mechanism into Semantic Segmentation for Lane Detection." In Wireless Algorithms, Systems, and Applications, 441–49. Cham: Springer Nature Switzerland, 2022. http://dx.doi.org/10.1007/978-3-031-19214-2_37.
Повний текст джерелаCvitanović, Ivana, and Marina Bagić Babac. "Deep Learning with Self-Attention Mechanism for Fake News Detection." In Studies in Computational Intelligence, 205–29. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-90087-8_10.
Повний текст джерелаZhang, Rui, Binbin Chen, and Hongbo Tang. "A Novel Sentiment Classification Architecture Based on Self-attention Mechanism." In 2020 International Conference on Data Processing Techniques and Applications for Cyber-Physical Systems, 685–92. Singapore: Springer Singapore, 2021. http://dx.doi.org/10.1007/978-981-16-1726-3_85.
Повний текст джерелаLi, Xiang, Ning Sun, Jixin Liu, Lei Chai, and Haian Sun. "Multi-modal Scene Recognition Based on Global Self-attention Mechanism." In Advances in Natural Computation, Fuzzy Systems and Knowledge Discovery, 109–21. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-20738-9_14.
Повний текст джерелаSinh, Vu Trong, and Nguyen Le Minh. "A Study on Self-attention Mechanism for AMR-to-text Generation." In Natural Language Processing and Information Systems, 321–28. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-23281-8_27.
Повний текст джерелаYu, Xu, Fayang Wan, Bin Tang, Dingjia Zhan, Qinglong Peng, Miao Yu, Zhaozhe Wang, and Shuang Cui. "Deep Bug Triage Model Based on Multi-head Self-attention Mechanism." In Computer Supported Cooperative Work and Social Computing, 107–19. Singapore: Springer Nature Singapore, 2022. http://dx.doi.org/10.1007/978-981-19-4549-6_9.
Повний текст джерелаТези доповідей конференцій з теми "SELF-ATTENTION MECHANISM"
Shang, Yunhao, Ning Xu, Zhenzhou Jin, and Xiao Yao. "Capsule Network Based on Self-Attention Mechanism." In 2021 13th International Conference on Wireless Communications and Signal Processing (WCSP). IEEE, 2021. http://dx.doi.org/10.1109/wcsp52459.2021.9613717.
Повний текст джерелаXu, Yichong, Chenguang Zhu, Shuohang Wang, Siqi Sun, Hao Cheng, Xiaodong Liu, Jianfeng Gao, Pengcheng He, Michael Zeng, and Xuedong Huang. "Human Parity on CommonsenseQA: Augmenting Self-Attention with External Attention." In Thirty-First International Joint Conference on Artificial Intelligence {IJCAI-22}. California: International Joint Conferences on Artificial Intelligence Organization, 2022. http://dx.doi.org/10.24963/ijcai.2022/383.
Повний текст джерелаPan, Yunyi, Yuan Gan, Kun Liu, and Yan Zhang. "Progressive Scene Segmentation Based on Self-Attention Mechanism." In 2020 25th International Conference on Pattern Recognition (ICPR). IEEE, 2021. http://dx.doi.org/10.1109/icpr48806.2021.9412021.
Повний текст джерелаCui, Baiyun, Yingming Li, Ming Chen, and Zhongfei Zhang. "Fine-tune BERT with Sparse Self-Attention Mechanism." In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). Stroudsburg, PA, USA: Association for Computational Linguistics, 2019. http://dx.doi.org/10.18653/v1/d19-1361.
Повний текст джерелаChen, Yanmin, Hao Wang, Ruijun Sun, and Enhong Chen. "Context-Aware Semantic Matching with Self Attention Mechanism." In 2022 5th International Conference on Pattern Recognition and Artificial Intelligence (PRAI). IEEE, 2022. http://dx.doi.org/10.1109/prai55851.2022.9904084.
Повний текст джерелаMandhana, Vedang, and Rutuja Taware. "De novo drug design using self attention mechanism." In SAC '20: The 35th ACM/SIGAPP Symposium on Applied Computing. New York, NY, USA: ACM, 2020. http://dx.doi.org/10.1145/3341105.3374024.
Повний текст джерелаXu, Song, Haoran Li, Peng Yuan, Youzheng Wu, Xiaodong He, and Bowen Zhou. "Self-Attention Guided Copy Mechanism for Abstractive Summarization." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics, 2020. http://dx.doi.org/10.18653/v1/2020.acl-main.125.
Повний текст джерелаGeng, Xinwei, Longyue Wang, Xing Wang, Bing Qin, Ting Liu, and Zhaopeng Tu. "How Does Selective Mechanism Improve Self-Attention Networks?" In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics, 2020. http://dx.doi.org/10.18653/v1/2020.acl-main.269.
Повний текст джерелаGu, Zongyun, Qing Wang, Fangfang Li, and Junling Kan. "Salient Object Detection Based on Self-attention Mechanism." In 2021 IEEE 5th Information Technology,Networking,Electronic and Automation Control Conference (ITNEC). IEEE, 2021. http://dx.doi.org/10.1109/itnec52019.2021.9587108.
Повний текст джерелаLi, Xinyi, Ying Qian, and Liang Dou. "BERT Named Entity Recognition with Self-attention Mechanism." In 2021 IEEE Conference on Telecommunications, Optics and Computer Science (TOCS). IEEE, 2021. http://dx.doi.org/10.1109/tocs53301.2021.9688590.
Повний текст джерелаЗвіти організацій з теми "SELF-ATTENTION MECHANISM"
Chornodon, Myroslava. FEAUTURES OF GENDER IN MODERN MASS MEDIA. Ivan Franko National University of Lviv, February 2021. http://dx.doi.org/10.30970/vjo.2021.49.11064.
Повний текст джерела