Gotowa bibliografia na temat „SELF-ATTENTION MECHANISM”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „SELF-ATTENTION MECHANISM”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Artykuły w czasopismach na temat "SELF-ATTENTION MECHANISM"
Yang, Kehua, Yaodong Wang, Wei Zhang, Jiqing Yao i Yuquan Le. "Keyphrase Generation Based on Self-Attention Mechanism". Computers, Materials & Continua 61, nr 2 (2019): 569–81. http://dx.doi.org/10.32604/cmc.2019.05952.
Pełny tekst źródłaLiu, Siqi, Jiangshu Wei, Gang Liu i Bei Zhou. "Image classification model based on large kernel attention mechanism and relative position self-attention mechanism". PeerJ Computer Science 9 (21.04.2023): e1344. http://dx.doi.org/10.7717/peerj-cs.1344.
Pełny tekst źródłaZhu, Hu, Ze Wang, Yu Shi, Yingying Hua, Guoxia Xu i Lizhen Deng. "Multimodal Fusion Method Based on Self-Attention Mechanism". Wireless Communications and Mobile Computing 2020 (23.09.2020): 1–8. http://dx.doi.org/10.1155/2020/8843186.
Pełny tekst źródłaCao, Fude, Chunguang Zheng, Limin Huang, Aihua Wang, Jiong Zhang, Feng Zhou, Haoxue Ju, Haitao Guo i Yuxia Du. "Research of Self-Attention in Image Segmentation". Journal of Information Technology Research 15, nr 1 (styczeń 2022): 1–12. http://dx.doi.org/10.4018/jitr.298619.
Pełny tekst źródłaWu, Hongqiu, Ruixue Ding, Hai Zhao, Pengjun Xie, Fei Huang i Min Zhang. "Adversarial Self-Attention for Language Understanding". Proceedings of the AAAI Conference on Artificial Intelligence 37, nr 11 (26.06.2023): 13727–35. http://dx.doi.org/10.1609/aaai.v37i11.26608.
Pełny tekst źródłaXie, Fei, Dalong Zhang i Chengming Liu. "Global–Local Self-Attention Based Transformer for Speaker Verification". Applied Sciences 12, nr 19 (10.10.2022): 10154. http://dx.doi.org/10.3390/app121910154.
Pełny tekst źródłaWang, Duofeng, Haifeng Hu i Dihu Chen. "Transformer with sparse self‐attention mechanism for image captioning". Electronics Letters 56, nr 15 (lipiec 2020): 764–66. http://dx.doi.org/10.1049/el.2020.0635.
Pełny tekst źródłaLi, Yujie, i Jintong Cai. "Point cloud classification network based on self-attention mechanism". Computers and Electrical Engineering 104 (grudzień 2022): 108451. http://dx.doi.org/10.1016/j.compeleceng.2022.108451.
Pełny tekst źródłaBrotchie, James, Wei Shao, Wenchao Li i Allison Kealy. "Leveraging Self-Attention Mechanism for Attitude Estimation in Smartphones". Sensors 22, nr 22 (21.11.2022): 9011. http://dx.doi.org/10.3390/s22229011.
Pełny tekst źródłaFan, Zhongkui, i Ye-Peng Guan. "Pedestrian attribute recognition based on dual self-attention mechanism". Computer Science and Information Systems, nr 00 (2023): 16. http://dx.doi.org/10.2298/csis220815016f.
Pełny tekst źródłaRozprawy doktorskie na temat "SELF-ATTENTION MECHANISM"
Raykos, Bronwyn C. "Attentional and interpretive biases : independent dimensions of individual difference or expressions of a common selective processing mechanism?" University of Western Australia. School of Psychology, 2007. http://theses.library.uwa.edu.au/adt-WU2007.0018.
Pełny tekst źródłaRaykos, Bronwyn C. "Attentional and interpretive biases : independent dimensions of individual difference or expressions of a common selective processing mechanism? /". Connect to this title, 2006. http://theses.library.uwa.edu.au/adt-WU2007.0018.
Pełny tekst źródłaSACHDEVA, NITIN. "CYBERBULLYING DETECTION ON SOCIAL MEDIA USING DEEP LEARNING MODELS". Thesis, DELHI TECHNOLOGICAL UNIVERSITY, 2021. http://dspace.dtu.ac.in:8080/jspui/handle/repository/18914.
Pełny tekst źródłaGovindarajan, Hariprasath. "Self-Supervised Representation Learning for Content Based Image Retrieval". Thesis, Linköpings universitet, Statistik och maskininlärning, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-166223.
Pełny tekst źródłaMoadab, Ida. "The Role of Mindfulness and Self-Compassion in the Neural Mechanisms of Attention and Self-Monitoring". Thesis, University of Oregon, 2013. http://hdl.handle.net/1794/13402.
Pełny tekst źródłaBakkali, Souhail. "Multimodal Document Understanding with Unified Vision and Language Cross-Modal Learning". Electronic Thesis or Diss., La Rochelle, 2022. http://www.theses.fr/2022LAROS046.
Pełny tekst źródłaThe frameworks developed in this thesis were the outcome of an iterative process of analysis and synthesis between existing theories and our performed studies. More specifically, we wish to study cross-modality learning for contextualized comprehension on document components across language and vision. The main idea is to leverage multimodal information from document images into a common semantic space. This thesis focuses on advancing the research on cross-modality learning and makes contributions on four fronts: (i) to proposing a cross-modal approach with deep networks to jointly leverage visual and textual information into a common semantic representation space to automatically perform and make predictions about multimodal documents (i.e., the subject matter they are about); (ii) to investigating competitive strategies to address the tasks of cross-modal document classification, content-based retrieval and few-shot document classification; (iii) to addressing data-related issues like learning when data is not annotated, by proposing a network that learns generic representations from a collection of unlabeled documents; and (iv) to exploiting few-shot learning settings when data contains only few examples
Yeh, Han-Yun, i 葉瀚允. "End-to-end Pinyin to Character Language Model using Self-Attention Mechanism". Thesis, 2019. http://ndltd.ncl.edu.tw/handle/vk3zt8.
Pełny tekst źródła國立交通大學
電信工程研究所
107
Deep nerual network with conventional automatic speech recognition structure has achieved huge improvement. Similarly, end-to-end speech recongnition structure got close performance in these two years, but with huge amout of data and computing resources. This study attempt to focus on end-to-end language model, training an end-to-end language model by sequence labeling method and self-attention seq2seq model (Transformer) which are common method in some NLP task, with syllable sequence converted from 440 million words chinese corpus through a proposed G2P system. And the syllable to character model with transformer achieved lower character error rate than the baseline trigram model in our outside test set.
Sarzedas, João Pereira. "The impact of hallucination predisposition on vocal perception mechanisms : an ERP study of attention, identity and emotion". Master's thesis, 2020. http://hdl.handle.net/10451/45746.
Pełny tekst źródłaIn recent years, a more dimensional view of psychotic disorders has been supported by several epidemiological studies showing the existence of a continuum of psychotic like-experiences in the general population. Reported similarities between the cognitive and neural mechanisms underpinning hallucinatory experiences in psychotic and in individuals with high hallucination predisposition provide further support for this psychosis continuum model. In the auditory domain, schizophrenic patients show altered perception of vocal information with negative content, as well as of voice identity. Whether the same voice processing mechanisms are similarly altered in individuals with high hallucination predisposition remains to be clarified. In the current study, thirty nonclinical participants with different scores on the Launay-Slade Hallucination Scale (a measure of hallucination predisposition) listened to prerecorded words varying in identity (self vs. non-self-voice) and emotional quality (negative vs. neutral vs. positive), while electroencephalographic data were recorded. Two tasks with a different attentional focus (identity focus task vs. emotional focus task) were conducted. In the identity focus task, participants attended to the identity of the voice and decided whether the voice they heard was their own voice, the voice of another person or if they were unsure. In the emotional focus task, they evaluated the emotional quality of the words. The N1, P2 and late positive potential (LPP) components were analyzed. We found a larger N1 in response to self-voice in the identity focus task and a larger LPP for the self-voice, irrespective of the attention focus. Furthermore, in the emotional focus task, we observed an association between high hallucination predisposition and a trend for a reduced LPP amplitude in response to the self-voice. The LPP result suggests the existence of an altered perception of voice identity, dependent of the attention focus, in individuals with high hallucination predisposition. Overall, the current findings partially support the psychosis continuum model.
Nas últimas décadas, uma abordagem mais dimensional das perturbações psicóticas tem ganho força com base em vários estudos epidemiológicos que demostram a existência de um continuum de experiências psicóticas na população em geral. O modelo do continuum de psicose advoga a existência de vários fenótipos de psicose num continuum que engloba indivíduos com um diagnóstico psiquiátrico (e.g., esquizofrenia) mas também indivíduos sem diagnóstico clínico que manifestam experiências do tipo psicótico. O modelo do continuum de psicose é suportado por estudos que mostram semelhanças entre os mecanismos cognitivos e neuronais que estão na base das experiências alucinatórias de pacientes psicóticos e de indivíduos sem diagnóstico clínico. As alucinações (i.e., experiências percetuais que ocorrem na ausência de estimulação externa correspondente) são um sintoma característicos das perturbações psicóticas. Contudo, também são reportadas experiências alucinatórias em pacientes com outras perturbações psiquiátricas e em indivíduos sem diagnóstico que não necessitam de apoio clínico. Os indivíduos sem diagnóstico clínico que experienciam alucinações auditivas verbais breves ou outras experiências alucinatórias são descritos na literatura como indivíduos com alta predisposição alucinatória. Numa amostra de 84711 participantes foi encontrada uma taxa de prevalência de 9.6 % de experiências alucinatórias, o que demonstra que este não é um fenómeno incomum na população em geral. A maioria das experiências alucinatórias são transitórias, mas em alguns casos persistem e aumentam o risco de transição para psicose. O estudo de experiências alucinatórias em indivíduos com predisposição alucinatória pode contribuir para uma melhor compreensão e tratamento de perturbações clínicas. Existe evidência que demonstra a existência de uma associação entre alucinações auditivas verbais e défices específicos de processamento vocal. Os modelos neurocognitivos de processamento de voz postulam que a identidade, a emoção e a fala são processados por regiões corticais funcionalmente distintas. Em indivíduos com esquizofrenia têm sido consistentemente reportadas alterações no processamento vocal da identidade, da fala e da emoção. Contudo, ainda não é claro qual o impacto destas alterações de processamento vocal no desencadear de sintomas psicóticos específicos. Examinar a existência destas alterações em indivíduos com alta predisposição alucinatória pode ser um passo útil para uma melhor compreensão da influência que estes processos têm no desencadear de experiências alucinatórias. Os escassos estudos que testaram simultaneamente o processamento de identidade, discurso e emoção parecem demonstrar diferenças de processamento vocal entre indivíduos com esquizofrenia e indivíduos com alta predisposição alucinatória. Em comparação com grupos de controlo e pacientes sem alucinações auditivas verbais, os pacientes com alucinações auditivas verbais demonstraram uma maior dificuldade no reconhecimento da sua própria voz quando esta apresentava um conteúdo negativo. Por outro lado, em indivíduos com alta predisposição alucinatória, as dificuldades no reconhecimento da própria voz não parecem estar relacionadas com o conteúdo emocional da fala. Uma das técnicas que tem vindo a demonstrar a sua utilidade para a investigação de mecanismos de perceção vocal é a técnica de potenciais evocados por eventos (event related potentials – ERP), caracterizada por elevada resolução temporal. Um dos estudos que investigou o processamento vocal da identidade, discurso e emoção com ERP encontrou efeitos de interação entre identidade (voz própria vs. voz de um desconhecido) e emoção (palavras negativas vs. neutras vs. positivas) em três componentes: N1, P2 e late positive potential (LPP). O N1 é um componente associado ao processamento sensorial da voz. O P2 é um componente associado a uma deteção precoce de saliência emocional de um estímulo. O LPP está associado a processos de atenção sustentada e de avaliação do conteúdo emocional da voz. Um estudo subsequente, utilizando um paradigma idêntico, encontrou alterações de processamento vocal, nos componentes P2 e LPP, em indivíduos com esquizofrenia. Nestes dois estudos, o conteúdo emocional foi processado implicitamente, uma vez que os participantes foram instruídos a focarem a sua atenção na identidade da voz e avaliarem se as gravações que ouviam pertenciam a eles próprios ou a outra pessoa. Alguns estudos demonstram que alterar o foco atencional de uma tarefa influencia o modo como os estímulos são processados neurofisiologicamente. Deste modo, é possível que sejam encontrados resultados diferentes numa condição onde os participantes são instruídos a focarem a sua atenção no conteúdo emocional do estímulo (i.e., avaliarem se o estímulo é negativo, neutro ou positivo). Tanto em indivíduos com esquizofrenia como em indivíduos com alta predisposição alucinatória, têm vindo a ser reportadas alterações de processos atencionais. Por conseguinte, é possível que o foco atencional module o presumível impacto da predisposição alucinatória em mecanismos de perceção de voz. No presente estudo foi explorado, através de ERPs: 1) o impacto do foco atencional na interação entre o processamento vocal da identidade e da emoção; 2) o impacto da predisposição alucinatória nestes mecanismos (foco atencional, identidade e emoção). Para esse propósito, foram realizadas duas tarefas. Em ambas as tarefas, os participantes ouviram gravações de uma voz (própria voz vs. voz de um desconhecido) a proferir palavras com conteúdo negativo, neutro ou positivo. Enquanto que na primeira tarefa (tarefa do foco na identidade) os participantes tinham de identificar a identidade da voz, na segunda tarefa (tarefa do foco na emoção) eram instruídos a avaliar o conteúdo emocional das palavras proferidas. Na tarefa de foco na identidade, procurámos replicar resultados de estudos anteriores que observaram efeitos de interação entre identidade e emoção e efeitos principais de identidade, bem como uma associação entre altos níveis de predisposição alucinatória e uma maior dificuldade no reconhecimento da própria voz. Ainda para esta tarefa, foi explorada a hipótese de que altos níveis de predisposição alucinatória predizessem um padrão neurofisiológico semelhante ao dos pacientes com esquizofrenia, uma observação que serviria de suporte para a hipótese do continuum de psicose. Na tarefa de foco na emoção era esperada uma maior amplitude de LPP em resposta a palavras negativas e positivas, em comparação com palavras neutras e, em termos exploratórios, era esperado uma influência do foco atencional no presumível impacto da predisposição alucinatória em mecanismos de perceção de voz. Foram recrutados 30 participantes “saudáveis”, sendo que o grau de predisposição alucinatória de cada individuo foi avaliado através da Launay-Slade Hallucination Scale (LSHS). No presente estudo não foram observadas interações entre identidade e emoção, nem efeitos principais de emoção. É possível que este resultado se deva a diferenças linguísticas existentes entre os estímulos usados neste estudo e os estímulos usados em estudos anteriores. Contudo, em comparação com uma voz desconhecida, a voz dos participantes elicitou uma maior amplitude de N1 na tarefa de foco na identidade e uma maior amplitude de LPP em ambas as tarefas. Estes resultados parecem sugerir que, em termos neurofisiológicos, a própria voz de uma pessoa é mais saliente do que a voz de um desconhecido. Na tarefa do foco na emoção foi também encontrada uma associação entre altos níveis de predisposição alucinatória e uma tendência para uma menor amplitude de LPP em reposta a gravações da própria voz. Este resultado sugere que o foco atencional modela o presumível impacto da predisposição alucinatória em mecanismos de perceção de voz. Ao contrário do observado em pacientes com esquizofrenia (menor amplitude de LPP em resposta a gravações da própria voz e de vozes desconhecidas com conteúdo negativo), o presumível défice de processamento vocal em indivíduos com predisposição alucinatória parece não depender do conteúdo emocional e parece ser menos marcado, uma vez que é observado apenas em resposta a gravações da própria voz e numa condição onde a identidade não está a ser explicitamente processada. Em suma, os resultados encontrados parecem servir de suporte parcial para o modelo de continuum de psicose.
Książki na temat "SELF-ATTENTION MECHANISM"
Mironova, Svetlana. The doctrine of the financial and legal status of municipalities in the Russian Federation and its implementation. ru: INFRA-M Academic Publishing LLC., 2021. http://dx.doi.org/10.12737/1819040.
Pełny tekst źródłaAvhadeev, V., L. Bitkova, C. Bogolyubov, I. Bondarchuk, A. Vinokurov, E. Galinovskaya, D. Gorohov i in. Implementation of the Law on Responsible Treatment of Animals: from the quality of norms to effective law enforcement. ru: INFRA-M Academic Publishing LLC., 2021. http://dx.doi.org/10.12737/1410760.
Pełny tekst źródłaAndrichenko, Lyudmila, A. Postnikov, L. Vasil'eva, Zh Gaunova, E. Nikitina i Inna Plyugina. Reform of the organization of public power: the main directions of implementation. ru: INFRA-M Academic Publishing LLC., 2021. http://dx.doi.org/10.12737/1839416.
Pełny tekst źródłaSazhina, Muza, Anna Kashirova, Stanislav Makarov i Egor Osiop. The social wealth of the innovation system. ru: INFRA-M Academic Publishing LLC., 2022. http://dx.doi.org/10.12737/1875920.
Pełny tekst źródłaCrowell, Sheila E., Mona Yaptangco i Sara L. Turner. Coercion, Invalidation, and Risk for Self-Injury and Borderline Personality Traits. Redaktorzy Thomas J. Dishion i James Snyder. Oxford University Press, 2015. http://dx.doi.org/10.1093/oxfordhb/9780199324552.013.16.
Pełny tekst źródłaO'Callaghan, Claire, i Muireann Irish. Candidate Mechanisms of Spontaneous Cognition as Revealed by Dementia Syndromes. Redaktorzy Kalina Christoff i Kieran C. R. Fox. Oxford University Press, 2018. http://dx.doi.org/10.1093/oxfordhb/9780190464745.013.6.
Pełny tekst źródłaHasenkamp, Wendy. Catching the Wandering Mind. Redaktorzy Kalina Christoff i Kieran C. R. Fox. Oxford University Press, 2018. http://dx.doi.org/10.1093/oxfordhb/9780190464745.013.12.
Pełny tekst źródłaBlackmore, Susan. Consciousness: A Very Short Introduction. Oxford University Press, 2017. http://dx.doi.org/10.1093/actrade/9780198794738.001.0001.
Pełny tekst źródłaHan, Shihui. Cultural diversity. Oxford University Press, 2017. http://dx.doi.org/10.1093/acprof:oso/9780198743194.003.0001.
Pełny tekst źródłaFerguson, Robert, i Karen Gillock. Memory and Attention Adaptation Training. Oxford University Press, 2021. http://dx.doi.org/10.1093/med/9780197521526.001.0001.
Pełny tekst źródłaCzęści książek na temat "SELF-ATTENTION MECHANISM"
Hossain, Syed Md Minhaz, Anik Sen i Kaushik Deb. "Detecting Spam SMS Using Self Attention Mechanism". W Intelligent Computing & Optimization, 175–84. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-19958-5_17.
Pełny tekst źródłaDaanouni, Othmane, Bouchaib Cherradi i Amal Tmiri. "Self-Attention Mechanism for Diabetic Retinopathy Detection". W Emerging Trends in ICT for Sustainable Development, 79–88. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-53440-0_10.
Pełny tekst źródłaZhang, Jiaxin, Yinshan Jia i Hongfei Yu. "Application Research of YOLOv3 Incorporating Self-attention Mechanism". W Lecture Notes in Electrical Engineering, 454–61. Singapore: Springer Nature Singapore, 2022. http://dx.doi.org/10.1007/978-981-19-3927-3_45.
Pełny tekst źródłaKanno, Satoki, i Mamoru Mimura. "Detection of Malware Using Self-Attention Mechanism and Strings". W Network and System Security, 46–60. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-39828-5_3.
Pełny tekst źródłaYuan, Genji, Jianbo Li, Yue Wang i Xianglong Meng. "Incorporating Self Attention Mechanism into Semantic Segmentation for Lane Detection". W Wireless Algorithms, Systems, and Applications, 441–49. Cham: Springer Nature Switzerland, 2022. http://dx.doi.org/10.1007/978-3-031-19214-2_37.
Pełny tekst źródłaCvitanović, Ivana, i Marina Bagić Babac. "Deep Learning with Self-Attention Mechanism for Fake News Detection". W Studies in Computational Intelligence, 205–29. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-90087-8_10.
Pełny tekst źródłaZhang, Rui, Binbin Chen i Hongbo Tang. "A Novel Sentiment Classification Architecture Based on Self-attention Mechanism". W 2020 International Conference on Data Processing Techniques and Applications for Cyber-Physical Systems, 685–92. Singapore: Springer Singapore, 2021. http://dx.doi.org/10.1007/978-981-16-1726-3_85.
Pełny tekst źródłaLi, Xiang, Ning Sun, Jixin Liu, Lei Chai i Haian Sun. "Multi-modal Scene Recognition Based on Global Self-attention Mechanism". W Advances in Natural Computation, Fuzzy Systems and Knowledge Discovery, 109–21. Cham: Springer International Publishing, 2023. http://dx.doi.org/10.1007/978-3-031-20738-9_14.
Pełny tekst źródłaSinh, Vu Trong, i Nguyen Le Minh. "A Study on Self-attention Mechanism for AMR-to-text Generation". W Natural Language Processing and Information Systems, 321–28. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-23281-8_27.
Pełny tekst źródłaYu, Xu, Fayang Wan, Bin Tang, Dingjia Zhan, Qinglong Peng, Miao Yu, Zhaozhe Wang i Shuang Cui. "Deep Bug Triage Model Based on Multi-head Self-attention Mechanism". W Computer Supported Cooperative Work and Social Computing, 107–19. Singapore: Springer Nature Singapore, 2022. http://dx.doi.org/10.1007/978-981-19-4549-6_9.
Pełny tekst źródłaStreszczenia konferencji na temat "SELF-ATTENTION MECHANISM"
Shang, Yunhao, Ning Xu, Zhenzhou Jin i Xiao Yao. "Capsule Network Based on Self-Attention Mechanism". W 2021 13th International Conference on Wireless Communications and Signal Processing (WCSP). IEEE, 2021. http://dx.doi.org/10.1109/wcsp52459.2021.9613717.
Pełny tekst źródłaXu, Yichong, Chenguang Zhu, Shuohang Wang, Siqi Sun, Hao Cheng, Xiaodong Liu, Jianfeng Gao, Pengcheng He, Michael Zeng i Xuedong Huang. "Human Parity on CommonsenseQA: Augmenting Self-Attention with External Attention". W Thirty-First International Joint Conference on Artificial Intelligence {IJCAI-22}. California: International Joint Conferences on Artificial Intelligence Organization, 2022. http://dx.doi.org/10.24963/ijcai.2022/383.
Pełny tekst źródłaPan, Yunyi, Yuan Gan, Kun Liu i Yan Zhang. "Progressive Scene Segmentation Based on Self-Attention Mechanism". W 2020 25th International Conference on Pattern Recognition (ICPR). IEEE, 2021. http://dx.doi.org/10.1109/icpr48806.2021.9412021.
Pełny tekst źródłaCui, Baiyun, Yingming Li, Ming Chen i Zhongfei Zhang. "Fine-tune BERT with Sparse Self-Attention Mechanism". W Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). Stroudsburg, PA, USA: Association for Computational Linguistics, 2019. http://dx.doi.org/10.18653/v1/d19-1361.
Pełny tekst źródłaChen, Yanmin, Hao Wang, Ruijun Sun i Enhong Chen. "Context-Aware Semantic Matching with Self Attention Mechanism". W 2022 5th International Conference on Pattern Recognition and Artificial Intelligence (PRAI). IEEE, 2022. http://dx.doi.org/10.1109/prai55851.2022.9904084.
Pełny tekst źródłaMandhana, Vedang, i Rutuja Taware. "De novo drug design using self attention mechanism". W SAC '20: The 35th ACM/SIGAPP Symposium on Applied Computing. New York, NY, USA: ACM, 2020. http://dx.doi.org/10.1145/3341105.3374024.
Pełny tekst źródłaXu, Song, Haoran Li, Peng Yuan, Youzheng Wu, Xiaodong He i Bowen Zhou. "Self-Attention Guided Copy Mechanism for Abstractive Summarization". W Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics, 2020. http://dx.doi.org/10.18653/v1/2020.acl-main.125.
Pełny tekst źródłaGeng, Xinwei, Longyue Wang, Xing Wang, Bing Qin, Ting Liu i Zhaopeng Tu. "How Does Selective Mechanism Improve Self-Attention Networks?" W Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics, 2020. http://dx.doi.org/10.18653/v1/2020.acl-main.269.
Pełny tekst źródłaGu, Zongyun, Qing Wang, Fangfang Li i Junling Kan. "Salient Object Detection Based on Self-attention Mechanism". W 2021 IEEE 5th Information Technology,Networking,Electronic and Automation Control Conference (ITNEC). IEEE, 2021. http://dx.doi.org/10.1109/itnec52019.2021.9587108.
Pełny tekst źródłaLi, Xinyi, Ying Qian i Liang Dou. "BERT Named Entity Recognition with Self-attention Mechanism". W 2021 IEEE Conference on Telecommunications, Optics and Computer Science (TOCS). IEEE, 2021. http://dx.doi.org/10.1109/tocs53301.2021.9688590.
Pełny tekst źródłaRaporty organizacyjne na temat "SELF-ATTENTION MECHANISM"
Chornodon, Myroslava. FEAUTURES OF GENDER IN MODERN MASS MEDIA. Ivan Franko National University of Lviv, luty 2021. http://dx.doi.org/10.30970/vjo.2021.49.11064.
Pełny tekst źródła