Articles de revues sur le sujet « Self-attention mechanisms »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Self-attention mechanisms ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Makarov, Ilya, Maria Bakhanova, Sergey Nikolenko et Olga Gerasimova. « Self-supervised recurrent depth estimation with attention mechanisms ». PeerJ Computer Science 8 (31 janvier 2022) : e865. http://dx.doi.org/10.7717/peerj-cs.865.
Texte intégralBae, Ara, et Wooil Kim. « Speaker Verification Employing Combinations of Self-Attention Mechanisms ». Electronics 9, no 12 (21 décembre 2020) : 2201. http://dx.doi.org/10.3390/electronics9122201.
Texte intégralCao, Fude, Chunguang Zheng, Limin Huang, Aihua Wang, Jiong Zhang, Feng Zhou, Haoxue Ju, Haitao Guo et Yuxia Du. « Research of Self-Attention in Image Segmentation ». Journal of Information Technology Research 15, no 1 (janvier 2022) : 1–12. http://dx.doi.org/10.4018/jitr.298619.
Texte intégralDai, Biyun, Jinlong Li et Ruoyi Xu. « Multiple Positional Self-Attention Network for Text Classification ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 05 (3 avril 2020) : 7610–17. http://dx.doi.org/10.1609/aaai.v34i05.6261.
Texte intégralXie, Fei, Dalong Zhang et Chengming Liu. « Global–Local Self-Attention Based Transformer for Speaker Verification ». Applied Sciences 12, no 19 (10 octobre 2022) : 10154. http://dx.doi.org/10.3390/app121910154.
Texte intégralIshizuka, Ryoto, Ryo Nishikimi et Kazuyoshi Yoshii. « Global Structure-Aware Drum Transcription Based on Self-Attention Mechanisms ». Signals 2, no 3 (13 août 2021) : 508–26. http://dx.doi.org/10.3390/signals2030031.
Texte intégralZhu, Hu, Ze Wang, Yu Shi, Yingying Hua, Guoxia Xu et Lizhen Deng. « Multimodal Fusion Method Based on Self-Attention Mechanism ». Wireless Communications and Mobile Computing 2020 (23 septembre 2020) : 1–8. http://dx.doi.org/10.1155/2020/8843186.
Texte intégralPOSNER, MICHAEL I., et MARY K. ROTHBART. « Developing mechanisms of self-regulation ». Development and Psychopathology 12, no 3 (septembre 2000) : 427–41. http://dx.doi.org/10.1017/s0954579400003096.
Texte intégralTiwari, Prayag, Amit Kumar Jaiswal, Sahil Garg et Ilsun You. « SANTM : Efficient Self-attention-driven Network for Text Matching ». ACM Transactions on Internet Technology 22, no 3 (31 août 2022) : 1–21. http://dx.doi.org/10.1145/3426971.
Texte intégralNg, Hu, Glenn Jun Weng Chia, Timothy Tzen Vun Yap et Vik Tor Goh. « Modelling sentiments based on objectivity and subjectivity with self-attention mechanisms ». F1000Research 10 (17 mai 2022) : 1001. http://dx.doi.org/10.12688/f1000research.73131.2.
Texte intégralLin, Hung-Hsiang, Jiun-Da Lin, Jose Jaena Mari Ople, Jun-Cheng Chen et Kai-Lung Hua. « Social Media Popularity Prediction Based on Multi-Modal Self-Attention Mechanisms ». IEEE Access 10 (2022) : 4448–55. http://dx.doi.org/10.1109/access.2021.3136552.
Texte intégralNg, Hu, Glenn Jun Weng Chia, Timothy Tzen Vun Yap et Vik Tor Goh. « Modelling sentiments based on objectivity and subjectivity with self-attention mechanisms ». F1000Research 10 (4 octobre 2021) : 1001. http://dx.doi.org/10.12688/f1000research.73131.1.
Texte intégralBaer, Ruth A. « Self-Focused Attention and Mechanisms of Change in Mindfulness-Based Treatment ». Cognitive Behaviour Therapy 38, sup1 (janvier 2009) : 15–20. http://dx.doi.org/10.1080/16506070902980703.
Texte intégralLo, Ronda F., Andy H. Ng, Adam S. Cohen et Joni Y. Sasaki. « Does self-construal shape automatic social attention ? » PLOS ONE 16, no 2 (10 février 2021) : e0246577. http://dx.doi.org/10.1371/journal.pone.0246577.
Texte intégralKaiser, Roselinde H., Hannah R. Snyder, Franziska Goer, Rachel Clegg, Manon Ironside et Diego A. Pizzagalli. « Attention Bias in Rumination and Depression : Cognitive Mechanisms and Brain Networks ». Clinical Psychological Science 6, no 6 (21 septembre 2018) : 765–82. http://dx.doi.org/10.1177/2167702618797935.
Texte intégralChen, Shouyan, Mingyan Zhang, Xiaofen Yang, Zhijia Zhao, Tao Zou et Xinqi Sun. « The Impact of Attention Mechanisms on Speech Emotion Recognition ». Sensors 21, no 22 (12 novembre 2021) : 7530. http://dx.doi.org/10.3390/s21227530.
Texte intégralSpringer, Anne, Juliane Beyer, Jan Derrfuss, Kirsten G. Volz et Bettina Hannover. « Seeing You or the Scene ? Self-Construals Modulate Inhibitory Mechanisms of Attention ». Social Cognition 30, no 2 (avril 2012) : 133–52. http://dx.doi.org/10.1521/soco.2012.30.2.133.
Texte intégralSun, Yange, Meng Li, Huaping Guo et Li Zhang. « MSGSA : Multi-Scale Guided Self-Attention Network for Crowd Counting ». Electronics 12, no 12 (11 juin 2023) : 2631. http://dx.doi.org/10.3390/electronics12122631.
Texte intégralWang, Mei, Yu Yao, Hongbin Qiu et Xiyu Song. « Adaptive Memory-Controlled Self-Attention for Polyphonic Sound Event Detection ». Symmetry 14, no 2 (12 février 2022) : 366. http://dx.doi.org/10.3390/sym14020366.
Texte intégralZhou, Qian, Hua Zou et Huanhuan Wu. « LGViT : A Local and Global Vision Transformer with Dynamic Contextual Position Bias Using Overlapping Windows ». Applied Sciences 13, no 3 (3 février 2023) : 1993. http://dx.doi.org/10.3390/app13031993.
Texte intégralPosner, Michael I., Mary K. Rothbart, Brad E. Sheese et Pascale Voelker. « Developing Attention : Behavioral and Brain Mechanisms ». Advances in Neuroscience 2014 (8 mai 2014) : 1–9. http://dx.doi.org/10.1155/2014/405094.
Texte intégralLin, Zhicheng, et Shihui Han. « Self-construal priming modulates the scope of visual attention ». Quarterly Journal of Experimental Psychology 62, no 4 (avril 2009) : 802–13. http://dx.doi.org/10.1080/17470210802271650.
Texte intégralHan, Suk Won, et Cheol Hwan Kim. « Neurocognitive Mechanisms Underlying Internet/Smartphone Addiction : A Preliminary fMRI Study ». Tomography 8, no 4 (11 juillet 2022) : 1781–90. http://dx.doi.org/10.3390/tomography8040150.
Texte intégralNagai, Yukie, Koh Hosoda, Akio Morita et Minoru Asada. « Emergence of Joint Attention through Bootstrap Learning based on the Mechanisms of Visual Attention and Learning with Self-evaluation ». Transactions of the Japanese Society for Artificial Intelligence 19 (2004) : 10–19. http://dx.doi.org/10.1527/tjsai.19.10.
Texte intégralRen, Xudie, Jialve Wang et Shenghong Li. « MAM : Multiple Attention Mechanism Neural Networks for Cross-Age Face Recognition ». Wireless Communications and Mobile Computing 2022 (30 avril 2022) : 1–11. http://dx.doi.org/10.1155/2022/8546029.
Texte intégralKuo, Yu-Chen, Ching-Bang Yao et Chen-Yu Wu. « A Strategy for Enhancing English Learning Achievement, Based on the Eye-Tracking Technology with Self-Regulated Learning ». Sustainability 14, no 23 (6 décembre 2022) : 16286. http://dx.doi.org/10.3390/su142316286.
Texte intégralZhu, Yuhua, Hang Li, Tong Zhen et Zhihui Li. « Integrating Self-Attention Mechanisms and ResNet for Grain Storage Ventilation Decision Making : A Study ». Applied Sciences 13, no 13 (28 juin 2023) : 7655. http://dx.doi.org/10.3390/app13137655.
Texte intégralDiao, Zhifeng, et Fanglei Sun. « Visual Object Tracking Based on Deep Neural Network ». Mathematical Problems in Engineering 2022 (12 juillet 2022) : 1–9. http://dx.doi.org/10.1155/2022/2154463.
Texte intégralGao, Yue, Di Li, Xiangjian Chen et Junwu Zhu. « Attention-Based Mechanisms for Cognitive Reinforcement Learning ». Applied Sciences 13, no 13 (21 juin 2023) : 7361. http://dx.doi.org/10.3390/app13137361.
Texte intégralWang, Wanru, Yuwei Lv, Yonggang Wen et Xuemei Sun. « Rumor Detection Based on Knowledge Enhancement and Graph Attention Network ». Discrete Dynamics in Nature and Society 2022 (6 octobre 2022) : 1–12. http://dx.doi.org/10.1155/2022/6257658.
Texte intégralNiu, Jinxing, Shuo Liu, Hanbing Li, Tao Zhang et Lijun Wang. « Grasp Detection Combining Self-Attention with CNN in Complex Scenes ». Applied Sciences 13, no 17 (25 août 2023) : 9655. http://dx.doi.org/10.3390/app13179655.
Texte intégralMa, Suling. « A Study of Two-Way Short- and Long-Term Memory Network Intelligent Computing IoT Model-Assisted Home Education Attention Mechanism ». Computational Intelligence and Neuroscience 2021 (21 décembre 2021) : 1–11. http://dx.doi.org/10.1155/2021/3587884.
Texte intégralKardakis, Spyridon, Isidoros Perikos, Foteini Grivokostopoulou et Ioannis Hatzilygeroudis. « Examining Attention Mechanisms in Deep Learning Models for Sentiment Analysis ». Applied Sciences 11, no 9 (25 avril 2021) : 3883. http://dx.doi.org/10.3390/app11093883.
Texte intégralHendricks, Lisa Anne, John Mellor, Rosalia Schneider, Jean-Baptiste Alayrac et Aida Nematzadeh. « Decoupling the Role of Data, Attention, and Losses in Multimodal Transformers ». Transactions of the Association for Computational Linguistics 9 (2021) : 570–85. http://dx.doi.org/10.1162/tacl_a_00385.
Texte intégralZhang, Shugang, Mingjian Jiang, Shuang Wang, Xiaofeng Wang, Zhiqiang Wei et Zhen Li. « SAG-DTA : Prediction of Drug–Target Affinity Using Self-Attention Graph Network ». International Journal of Molecular Sciences 22, no 16 (20 août 2021) : 8993. http://dx.doi.org/10.3390/ijms22168993.
Texte intégralReimann, Jan Niclas, Andreas Schwung et Steven X. Ding. « Adopting attention-mechanisms for Neural Logic Rule Layers ». at - Automatisierungstechnik 70, no 3 (1 mars 2022) : 257–66. http://dx.doi.org/10.1515/auto-2021-0136.
Texte intégralSchäfer, Sarah, Dirk Wentura et Christian Frings. « Creating a network of importance : The particular effects of self-relevance on stimulus processing ». Attention, Perception, & ; Psychophysics 82, no 7 (17 juin 2020) : 3750–66. http://dx.doi.org/10.3758/s13414-020-02070-7.
Texte intégralZhou, Wei, Zhongwei Qu, Lianen Qu, Xupeng Wang, Yilin Shi, De Zhang et Zhenlin Hui. « Radar Echo Maps Prediction Using an Improved MIM with Self-Attention Memory Module ». Journal of Sensors 2023 (18 juillet 2023) : 1–12. http://dx.doi.org/10.1155/2023/8876971.
Texte intégralLi, Yabei, Minjun Liang, Mingyang Wei, Ge Wang et Yanan Li. « Mechanisms and Applications of Attention in Medical Image Segmentation : A Review ». Academic Journal of Science and Technology 5, no 3 (5 mai 2023) : 237–43. http://dx.doi.org/10.54097/ajst.v5i3.8021.
Texte intégralZhang, Rongkai, Ying Zeng, Li Tong et Bin Yan. « Specific Neural Mechanisms of Self-Cognition and the Application of Brainprint Recognition ». Biology 12, no 3 (22 mars 2023) : 486. http://dx.doi.org/10.3390/biology12030486.
Texte intégralMörtberg, Ewa, Asle Hoffart, Benjamin Boecking et David M. Clark. « Shifting the Focus of One's Attention Mediates Improvement in Cognitive Therapy for Social Anxiety Disorder ». Behavioural and Cognitive Psychotherapy 43, no 1 (28 août 2013) : 63–73. http://dx.doi.org/10.1017/s1352465813000738.
Texte intégralFichten, Catherine S., Harriet Lennox, Kristen Robillard, John Wright, Stéphane Sabourin et Rhonda Amsel. « Attentional Focus and Attitudes Toward Peers with Disabilities : Self Focusing and A Comparison of Modeling and Self-Disclosure ». Journal of Applied Rehabilitation Counseling 27, no 4 (1 décembre 1996) : 30–39. http://dx.doi.org/10.1891/0047-2220.27.4.30.
Texte intégralZhijian, Lyu, Jiang Shaohua et Tan Yonghao. « DSAGLSTM-DTA : Prediction of Drug-Target Affinity using Dual Self-Attention and LSTM ». Machine Learning and Applications : An International Journal 9, no 02 (30 juin 2022) : 1–19. http://dx.doi.org/10.5121/mlaij.2022.9201.
Texte intégralSong, Jiang, Jianguo Qian, Zhengjun Liu, Yang Jiao, Jiahui Zhou, Yongrong Li, Yiming Chen, Jie Guo et Zhiqiang Wang. « Research on Arc Sag Measurement Methods for Transmission Lines Based on Deep Learning and Photogrammetry Technology ». Remote Sensing 15, no 10 (11 mai 2023) : 2533. http://dx.doi.org/10.3390/rs15102533.
Texte intégralGilboa-Schechtman, E., et R. Azoulay. « Treatment of Social Anxiety Disorder : Mechanisms, Techniques, and Empirically Supported Interventions ». Клиническая и специальная психология 11, no 2 (2022) : 1–21. http://dx.doi.org/10.17759/cpse.2022110201.
Texte intégralWu, Sitong, Tianyi Wu, Haoru Tan et Guodong Guo. « Pale Transformer : A General Vision Transformer Backbone with Pale-Shaped Attention ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 3 (28 juin 2022) : 2731–39. http://dx.doi.org/10.1609/aaai.v36i3.20176.
Texte intégralYan, Wenhui, Wending Tang, Lihua Wang, Yannan Bin et Junfeng Xia. « PrMFTP : Multi-functional therapeutic peptides prediction based on multi-head self-attention mechanism and class weight optimization ». PLOS Computational Biology 18, no 9 (12 septembre 2022) : e1010511. http://dx.doi.org/10.1371/journal.pcbi.1010511.
Texte intégralYou, Yujie, Le Zhang, Peng Tao, Suran Liu et Luonan Chen. « Spatiotemporal Transformer Neural Network for Time-Series Forecasting ». Entropy 24, no 11 (14 novembre 2022) : 1651. http://dx.doi.org/10.3390/e24111651.
Texte intégralElster, Jon. « Self-poisoning of the mind ». Philosophical Transactions of the Royal Society B : Biological Sciences 365, no 1538 (27 janvier 2010) : 221–26. http://dx.doi.org/10.1098/rstb.2009.0176.
Texte intégralMarmolejo-Martínez-Artesero, Sara, Caty Casas et David Romeo-Guitart. « Endogenous Mechanisms of Neuroprotection : To Boost or Not to Be ». Cells 10, no 2 (10 février 2021) : 370. http://dx.doi.org/10.3390/cells10020370.
Texte intégral