Articles de revues sur le sujet « SELF-ATTENTION MECHANISM »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « SELF-ATTENTION MECHANISM ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Yang, Kehua, Yaodong Wang, Wei Zhang, Jiqing Yao et Yuquan Le. « Keyphrase Generation Based on Self-Attention Mechanism ». Computers, Materials & ; Continua 61, no 2 (2019) : 569–81. http://dx.doi.org/10.32604/cmc.2019.05952.
Texte intégralLiu, Siqi, Jiangshu Wei, Gang Liu et Bei Zhou. « Image classification model based on large kernel attention mechanism and relative position self-attention mechanism ». PeerJ Computer Science 9 (21 avril 2023) : e1344. http://dx.doi.org/10.7717/peerj-cs.1344.
Texte intégralZhu, Hu, Ze Wang, Yu Shi, Yingying Hua, Guoxia Xu et Lizhen Deng. « Multimodal Fusion Method Based on Self-Attention Mechanism ». Wireless Communications and Mobile Computing 2020 (23 septembre 2020) : 1–8. http://dx.doi.org/10.1155/2020/8843186.
Texte intégralCao, Fude, Chunguang Zheng, Limin Huang, Aihua Wang, Jiong Zhang, Feng Zhou, Haoxue Ju, Haitao Guo et Yuxia Du. « Research of Self-Attention in Image Segmentation ». Journal of Information Technology Research 15, no 1 (janvier 2022) : 1–12. http://dx.doi.org/10.4018/jitr.298619.
Texte intégralWu, Hongqiu, Ruixue Ding, Hai Zhao, Pengjun Xie, Fei Huang et Min Zhang. « Adversarial Self-Attention for Language Understanding ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 11 (26 juin 2023) : 13727–35. http://dx.doi.org/10.1609/aaai.v37i11.26608.
Texte intégralXie, Fei, Dalong Zhang et Chengming Liu. « Global–Local Self-Attention Based Transformer for Speaker Verification ». Applied Sciences 12, no 19 (10 octobre 2022) : 10154. http://dx.doi.org/10.3390/app121910154.
Texte intégralWang, Duofeng, Haifeng Hu et Dihu Chen. « Transformer with sparse self‐attention mechanism for image captioning ». Electronics Letters 56, no 15 (juillet 2020) : 764–66. http://dx.doi.org/10.1049/el.2020.0635.
Texte intégralLi, Yujie, et Jintong Cai. « Point cloud classification network based on self-attention mechanism ». Computers and Electrical Engineering 104 (décembre 2022) : 108451. http://dx.doi.org/10.1016/j.compeleceng.2022.108451.
Texte intégralBrotchie, James, Wei Shao, Wenchao Li et Allison Kealy. « Leveraging Self-Attention Mechanism for Attitude Estimation in Smartphones ». Sensors 22, no 22 (21 novembre 2022) : 9011. http://dx.doi.org/10.3390/s22229011.
Texte intégralFan, Zhongkui, et Ye-Peng Guan. « Pedestrian attribute recognition based on dual self-attention mechanism ». Computer Science and Information Systems, no 00 (2023) : 16. http://dx.doi.org/10.2298/csis220815016f.
Texte intégralLuo, Youtao, et Xiaoming Gao. « Lightweight Human Pose Estimation Based on Self-Attention Mechanism ». Advances in Engineering Technology Research 4, no 1 (21 mars 2023) : 253. http://dx.doi.org/10.56028/aetr.4.1.253.2023.
Texte intégralRendón-Segador, Fernando J., Juan A. Álvarez-García et Angel Jesús Varela-Vaca. « Paying attention to cyber-attacks : A multi-layer perceptron with self-attention mechanism ». Computers & ; Security 132 (septembre 2023) : 103318. http://dx.doi.org/10.1016/j.cose.2023.103318.
Texte intégralDai, Biyun, Jinlong Li et Ruoyi Xu. « Multiple Positional Self-Attention Network for Text Classification ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 05 (3 avril 2020) : 7610–17. http://dx.doi.org/10.1609/aaai.v34i05.6261.
Texte intégralLin, Zhihui, Maomao Li, Zhuobin Zheng, Yangyang Cheng et Chun Yuan. « Self-Attention ConvLSTM for Spatiotemporal Prediction ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 07 (3 avril 2020) : 11531–38. http://dx.doi.org/10.1609/aaai.v34i07.6819.
Texte intégralNakata, Haruki, Kanji Tanaka et Koji Takeda. « Exploring Self-Attention for Visual Intersection Classification ». Journal of Advanced Computational Intelligence and Intelligent Informatics 27, no 3 (20 mai 2023) : 386–93. http://dx.doi.org/10.20965/jaciii.2023.p0386.
Texte intégralBae, Ara, et Wooil Kim. « Speaker Verification Employing Combinations of Self-Attention Mechanisms ». Electronics 9, no 12 (21 décembre 2020) : 2201. http://dx.doi.org/10.3390/electronics9122201.
Texte intégralWang, Yu, Liang Hu, Yang Wu et Wanfu Gao. « Graph Multihead Attention Pooling with Self-Supervised Learning ». Entropy 24, no 12 (29 novembre 2022) : 1745. http://dx.doi.org/10.3390/e24121745.
Texte intégralZheng, Jianming, Fei Cai, Taihua Shao et Honghui Chen. « Self-Interaction Attention Mechanism-Based Text Representation for Document Classification ». Applied Sciences 8, no 4 (12 avril 2018) : 613. http://dx.doi.org/10.3390/app8040613.
Texte intégralWang, Yue, Guanci Yang, Shaobo Li, Yang Li, Ling He et Dan Liu. « Arrhythmia classification algorithm based on multi-head self-attention mechanism ». Biomedical Signal Processing and Control 79 (janvier 2023) : 104206. http://dx.doi.org/10.1016/j.bspc.2022.104206.
Texte intégralChun, Yutong, Chuansheng Wang et Mingke He. « A Novel Clothing Attribute Representation Network-Based Self-Attention Mechanism ». IEEE Access 8 (2020) : 201762–69. http://dx.doi.org/10.1109/access.2020.3035781.
Texte intégralHu, Wanting, Lu Cao, Qunsheng Ruan et Qingfeng Wu. « Research on Anomaly Network Detection Based on Self-Attention Mechanism ». Sensors 23, no 11 (25 mai 2023) : 5059. http://dx.doi.org/10.3390/s23115059.
Texte intégralChen, Ziye, Mingming Gong, Yanwu Xu, Chaohui Wang, Kun Zhang et Bo Du. « Compressed Self-Attention for Deep Metric Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 3561–68. http://dx.doi.org/10.1609/aaai.v34i04.5762.
Texte intégralZhang, Zhiqin, Bo Zhang, Fen Li et Dehua Kong. « Multihead Self Attention Hand Pose Estimation ». E3S Web of Conferences 218 (2020) : 03023. http://dx.doi.org/10.1051/e3sconf/202021803023.
Texte intégralJi, Mingi, Weonyoung Joo, Kyungwoo Song, Yoon-Yeong Kim et Il-Chul Moon. « Sequential Recommendation with Relation-Aware Kernelized Self-Attention ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 4304–11. http://dx.doi.org/10.1609/aaai.v34i04.5854.
Texte intégralZhao Ning, 赵宁, et 刘立波 Liu Libo. « 融合自注意力机制的人物姿态迁移生成模型 ». Laser & ; Optoelectronics Progress 59, no 4 (2022) : 0410014. http://dx.doi.org/10.3788/lop202259.0410014.
Texte intégralDaihong, Jiang, Hu yuanzheng, Dai Lei et Peng Jin. « Facial Expression Recognition Based on Attention Mechanism ». Scientific Programming 2021 (2 mars 2021) : 1–10. http://dx.doi.org/10.1155/2021/6624251.
Texte intégralTiwari, Prayag, Amit Kumar Jaiswal, Sahil Garg et Ilsun You. « SANTM : Efficient Self-attention-driven Network for Text Matching ». ACM Transactions on Internet Technology 22, no 3 (31 août 2022) : 1–21. http://dx.doi.org/10.1145/3426971.
Texte intégralYang, Zuoxi, et Shoubin Dong. « HSRec : Hierarchical self-attention incorporating knowledge graph for sequential recommendation ». Journal of Intelligent & ; Fuzzy Systems 42, no 4 (4 mars 2022) : 3749–60. http://dx.doi.org/10.3233/jifs-211953.
Texte intégralMa, Xin, Zhanzhan Liu, Mingxing Zheng et Youqing Wang. « Application and exploration of self-attention mechanism in dynamic process monitoring ». IFAC-PapersOnLine 55, no 6 (2022) : 139–44. http://dx.doi.org/10.1016/j.ifacol.2022.07.119.
Texte intégralLiang, Hong, Hui Zhou, Qian Zhang et Ting Wu. « Object Detection Algorithm Based on Context Information and Self-Attention Mechanism ». Symmetry 14, no 5 (28 avril 2022) : 904. http://dx.doi.org/10.3390/sym14050904.
Texte intégralZhang, Ru, Xinjian Zhao, Jiaqi Li, Song Zhang et Zhijie Shang. « A malicious code family classification method based on self-attention mechanism ». Journal of Physics : Conference Series 2010, no 1 (1 septembre 2021) : 012066. http://dx.doi.org/10.1088/1742-6596/2010/1/012066.
Texte intégralYE, Rui-da, Wei-jie WANG, Liang HE, Xiao-cen CHEN et Yue XUE. « RUL prediction of aero-engine based on residual self-attention mechanism ». Optics and Precision Engineering 29, no 6 (2021) : 1482–90. http://dx.doi.org/10.37188/ope.20212906.1482.
Texte intégralLi, Jinsong, Jianhua Peng, Shuxin Liu, Lintianran Weng et Cong Li. « Temporal link prediction in directed networks based on self-attention mechanism ». Intelligent Data Analysis 26, no 1 (13 janvier 2022) : 173–88. http://dx.doi.org/10.3233/ida-205524.
Texte intégralCheng, Kefei, Yanan Yue et Zhiwen Song. « Sentiment Classification Based on Part-of-Speech and Self-Attention Mechanism ». IEEE Access 8 (2020) : 16387–96. http://dx.doi.org/10.1109/access.2020.2967103.
Texte intégralLiao, Fei, Liangli Ma, Jingjing Pei et Linshan Tan. « Combined Self-Attention Mechanism for Chinese Named Entity Recognition in Military ». Future Internet 11, no 8 (18 août 2019) : 180. http://dx.doi.org/10.3390/fi11080180.
Texte intégralPeng, Dunlu, Weiwei Yuan et Cong Liu. « HARSAM : A Hybrid Model for Recommendation Supported by Self-Attention Mechanism ». IEEE Access 7 (2019) : 12620–29. http://dx.doi.org/10.1109/access.2019.2892565.
Texte intégralZhou, Yuhang, Xiaoli Huo, Zhiqun Gu, Jiawei Zhang, Yi Ding, Rentao Gu et Yuefeng Ji. « Self-Attention Mechanism-Based Multi-Channel QoT Estimation in Optical Networks ». Photonics 10, no 1 (6 janvier 2023) : 63. http://dx.doi.org/10.3390/photonics10010063.
Texte intégralWu, Peiyang, Zongxu Pan, Hairong Tang et Yuxin Hu. « Cloudformer : A Cloud-Removal Network Combining Self-Attention Mechanism and Convolution ». Remote Sensing 14, no 23 (3 décembre 2022) : 6132. http://dx.doi.org/10.3390/rs14236132.
Texte intégralWang, Mei, Yu Yao, Hongbin Qiu et Xiyu Song. « Adaptive Memory-Controlled Self-Attention for Polyphonic Sound Event Detection ». Symmetry 14, no 2 (12 février 2022) : 366. http://dx.doi.org/10.3390/sym14020366.
Texte intégralLiu, Guangjie, Xin Ma, Jinlong Zhu, Yu Zhang, Danyang Yang, Jianfeng Wang et Yi Wang. « Individualized tourism recommendation based on self-attention ». PLOS ONE 17, no 8 (25 août 2022) : e0272319. http://dx.doi.org/10.1371/journal.pone.0272319.
Texte intégralWei, Yupeng, Dazhong Wu et Janis Terpenny. « Bearing remaining useful life prediction using self-adaptive graph convolutional networks with self-attention mechanism ». Mechanical Systems and Signal Processing 188 (avril 2023) : 110010. http://dx.doi.org/10.1016/j.ymssp.2022.110010.
Texte intégralMa, Suling. « A Study of Two-Way Short- and Long-Term Memory Network Intelligent Computing IoT Model-Assisted Home Education Attention Mechanism ». Computational Intelligence and Neuroscience 2021 (21 décembre 2021) : 1–11. http://dx.doi.org/10.1155/2021/3587884.
Texte intégralJiang, Cheng, Yuanxi Peng, Xuebin Tang, Chunchao Li et Teng Li. « PointSwin : Modeling Self-Attention with Shifted Window on Point Cloud ». Applied Sciences 12, no 24 (9 décembre 2022) : 12616. http://dx.doi.org/10.3390/app122412616.
Texte intégralPan, Wenxia. « English Machine Translation Model Based on an Improved Self-Attention Technology ». Scientific Programming 2021 (23 décembre 2021) : 1–11. http://dx.doi.org/10.1155/2021/2601480.
Texte intégralIshizuka, Ryoto, Ryo Nishikimi et Kazuyoshi Yoshii. « Global Structure-Aware Drum Transcription Based on Self-Attention Mechanisms ». Signals 2, no 3 (13 août 2021) : 508–26. http://dx.doi.org/10.3390/signals2030031.
Texte intégralHu, Gensheng, Lidong Qian, Dong Liang et Mingzhu Wan. « Self-adversarial Training and Attention for Multi-task Wheat Phenotyping ». Applied Engineering in Agriculture 35, no 6 (2019) : 1009–14. http://dx.doi.org/10.13031/aea.13406.
Texte intégralFang, Yong, Shaoshuai Yang, Bin Zhao et Cheng Huang. « Cyberbullying Detection in Social Networks Using Bi-GRU with Self-Attention Mechanism ». Information 12, no 4 (16 avril 2021) : 171. http://dx.doi.org/10.3390/info12040171.
Texte intégralFernández-Llaneza, Daniel, Silas Ulander, Dea Gogishvili, Eva Nittinger, Hongtao Zhao et Christian Tyrchan. « Siamese Recurrent Neural Network with a Self-Attention Mechanism for Bioactivity Prediction ». ACS Omega 6, no 16 (15 avril 2021) : 11086–94. http://dx.doi.org/10.1021/acsomega.1c01266.
Texte intégralChen, Shuai, Lin Luo, Qilei Xia et Lunjie Wang. « Self-attention Mechanism based Dynamic Fault Diagnosis and Classification for Chemical Processes ». Journal of Physics : Conference Series 1914, no 1 (1 mai 2021) : 012046. http://dx.doi.org/10.1088/1742-6596/1914/1/012046.
Texte intégralNkabiti, Kabo Poloko, et Yueyun Chen. « Application of solely self-attention mechanism in CSI-fingerprinting-based indoor localization ». Neural Computing and Applications 33, no 15 (18 janvier 2021) : 9185–98. http://dx.doi.org/10.1007/s00521-020-05681-1.
Texte intégral