Zeitschriftenartikel zum Thema „Attention based models“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Attention based models" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Qin, Chu-Xiong, und Dan Qu. „Towards Understanding Attention-Based Speech Recognition Models“. IEEE Access 8 (2020): 24358–69. http://dx.doi.org/10.1109/access.2020.2970758.
Der volle Inhalt der QuelleSteelman, Kelly S., Jason S. McCarley und Christopher D. Wickens. „Theory-based Models of Attention in Visual Workspaces“. International Journal of Human–Computer Interaction 33, Nr. 1 (16.09.2016): 35–43. http://dx.doi.org/10.1080/10447318.2016.1232228.
Der volle Inhalt der QuelleHashemi, Seyyed Mohammad Reza. „A Survey of Visual Attention Models“. Ciência e Natura 37 (19.12.2015): 297. http://dx.doi.org/10.5902/2179460x20786.
Der volle Inhalt der QuelleZhou, Qifeng, Xiang Liu und Qing Wang. „Interpretable duplicate question detection models based on attention mechanism“. Information Sciences 543 (Januar 2021): 259–72. http://dx.doi.org/10.1016/j.ins.2020.07.048.
Der volle Inhalt der QuelleKramer, Arthur F., und Andrew Jacobson. „A comparison of Space-Based and Object-Based Models of Visual Attention“. Proceedings of the Human Factors Society Annual Meeting 34, Nr. 19 (Oktober 1990): 1489–93. http://dx.doi.org/10.1177/154193129003401915.
Der volle Inhalt der QuelleWang, Lei, Ed X. Wu und Fei Chen. „EEG-based auditory attention decoding using speech-level-based segmented computational models“. Journal of Neural Engineering 18, Nr. 4 (25.05.2021): 046066. http://dx.doi.org/10.1088/1741-2552/abfeba.
Der volle Inhalt der QuelleRosenberg, Monica D., Wei-Ting Hsu, Dustin Scheinost, R. Todd Constable und Marvin M. Chun. „Connectome-based Models Predict Separable Components of Attention in Novel Individuals“. Journal of Cognitive Neuroscience 30, Nr. 2 (Februar 2018): 160–73. http://dx.doi.org/10.1162/jocn_a_01197.
Der volle Inhalt der QuelleKristensen, Terje. „Towards Spike based Models of Visual Attention in the Brain“. International Journal of Adaptive, Resilient and Autonomic Systems 6, Nr. 2 (Juli 2015): 117–38. http://dx.doi.org/10.4018/ijaras.2015070106.
Der volle Inhalt der QuelleTiawongsombat, Prasertsak, Mun-Ho Jeong, Alongkorn Pirayawaraporn, Joong-Jae Lee und Joo-Seop Yun. „Vision-Based Attentiveness Determination Using Scalable HMM Based on Relevance Theory“. Sensors 19, Nr. 23 (03.12.2019): 5331. http://dx.doi.org/10.3390/s19235331.
Der volle Inhalt der QuelleSi, Nianwen, Wenlin Zhang, Dan Qu, Xiangyang Luo, Heyu Chang und Tong Niu. „Spatial-Channel Attention-Based Class Activation Mapping for Interpreting CNN-Based Image Classification Models“. Security and Communication Networks 2021 (31.05.2021): 1–13. http://dx.doi.org/10.1155/2021/6682293.
Der volle Inhalt der QuelleCheng, Yepeng, Zuren Liu und Yasuhiko Morimoto. „Attention-Based SeriesNet: An Attention-Based Hybrid Neural Network Model for Conditional Time Series Forecasting“. Information 11, Nr. 6 (05.06.2020): 305. http://dx.doi.org/10.3390/info11060305.
Der volle Inhalt der QuelleSun, Zhaohong, Wei Dong, Jinlong Shi, Kunlun He und Zhengxing Huang. „Attention-Based Deep Recurrent Model for Survival Prediction“. ACM Transactions on Computing for Healthcare 2, Nr. 4 (31.10.2021): 1–18. http://dx.doi.org/10.1145/3466782.
Der volle Inhalt der QuelleGao, Tianyu, Xu Han, Zhiyuan Liu und Maosong Sun. „Hybrid Attention-Based Prototypical Networks for Noisy Few-Shot Relation Classification“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 6407–14. http://dx.doi.org/10.1609/aaai.v33i01.33016407.
Der volle Inhalt der QuelleSu, Jinsong, Jialong Tang, Hui Jiang, Ziyao Lu, Yubin Ge, Linfeng Song, Deyi Xiong, Le Sun und Jiebo Luo. „Enhanced aspect-based sentiment analysis models with progressive self-supervised attention learning“. Artificial Intelligence 296 (Juli 2021): 103477. http://dx.doi.org/10.1016/j.artint.2021.103477.
Der volle Inhalt der QuelleRasoulidanesh, Maryamsadat, Srishti Yadav, Sachini Herath, Yasaman Vaghei und Shahram Payandeh. „Deep Attention Models for Human Tracking Using RGBD“. Sensors 19, Nr. 4 (13.02.2019): 750. http://dx.doi.org/10.3390/s19040750.
Der volle Inhalt der QuelleZhang, Su Xian, Dong Zhang, Su Xiang Zhang, Bing Zhen Zhao und Lin Yan Xie. „Topic Detection Research Based on Multi-Models“. Applied Mechanics and Materials 740 (März 2015): 866–70. http://dx.doi.org/10.4028/www.scientific.net/amm.740.866.
Der volle Inhalt der QuelleCai, Wenjie, Zheng Xiong, Xianfang Sun, Paul L. Rosin, Longcun Jin und Xinyi Peng. „Panoptic Segmentation-Based Attention for Image Captioning“. Applied Sciences 10, Nr. 1 (04.01.2020): 391. http://dx.doi.org/10.3390/app10010391.
Der volle Inhalt der QuelleLi, Wenkuan, Dongyuan Li, Hongxia Yin, Lindong Zhang, Zhenfang Zhu und Peiyu Liu. „Lexicon-Enhanced Attention Network Based on Text Representation for Sentiment Classification“. Applied Sciences 9, Nr. 18 (06.09.2019): 3717. http://dx.doi.org/10.3390/app9183717.
Der volle Inhalt der QuelleKohlhas, Alexandre N., und Ansgar Walther. „Asymmetric Attention“. American Economic Review 111, Nr. 9 (01.09.2021): 2879–925. http://dx.doi.org/10.1257/aer.20191432.
Der volle Inhalt der QuelleChen, Xu, Yongfeng Zhang und Zheng Qin. „Dynamic Explainable Recommendation Based on Neural Attentive Models“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 53–60. http://dx.doi.org/10.1609/aaai.v33i01.330153.
Der volle Inhalt der QuelleKardakis, Spyridon, Isidoros Perikos, Foteini Grivokostopoulou und Ioannis Hatzilygeroudis. „Examining Attention Mechanisms in Deep Learning Models for Sentiment Analysis“. Applied Sciences 11, Nr. 9 (25.04.2021): 3883. http://dx.doi.org/10.3390/app11093883.
Der volle Inhalt der QuelleZachary, Wayne. „A Context-Based Model of Attention Switching in Computer-Human Interaction Domains“. Proceedings of the Human Factors Society Annual Meeting 33, Nr. 5 (Oktober 1989): 286–90. http://dx.doi.org/10.1177/154193128903300511.
Der volle Inhalt der QuelleXue, Lanqing, Xiaopeng Li und Nevin L. Zhang. „Not All Attention Is Needed: Gated Attention Network for Sequence Data“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 04 (03.04.2020): 6550–57. http://dx.doi.org/10.1609/aaai.v34i04.6129.
Der volle Inhalt der QuelleQi, Feng, Debin Zhao, Xiaopeng Fan und Tingting Jiang. „Stereoscopic video quality assessment based on visual attention and just-noticeable difference models“. Signal, Image and Video Processing 10, Nr. 4 (06.08.2015): 737–44. http://dx.doi.org/10.1007/s11760-015-0802-4.
Der volle Inhalt der QuelleSchneider, W. X. „Space-based visual attention models and object selection: Constraints, problems, and possible solutions“. Psychological Research 56, Nr. 1 (1993): 35–43. http://dx.doi.org/10.1007/bf00572131.
Der volle Inhalt der QuelleBarić, Domjan, Petar Fumić, Davor Horvatić und Tomislav Lipic. „Benchmarking Attention-Based Interpretability of Deep Learning in Multivariate Time Series Predictions“. Entropy 23, Nr. 2 (25.01.2021): 143. http://dx.doi.org/10.3390/e23020143.
Der volle Inhalt der QuelleHu, Feng, Jin-Li Guo, Fa-Xu Li und Hai-Xing Zhao. „Hypernetwork models based on random hypergraphs“. International Journal of Modern Physics C 30, Nr. 08 (August 2019): 1950052. http://dx.doi.org/10.1142/s0129183119500529.
Der volle Inhalt der QuelleAbdallah, Abdelrahman, Mohamed Hamada und Daniyar Nurseitov. „Attention-Based Fully Gated CNN-BGRU for Russian Handwritten Text“. Journal of Imaging 6, Nr. 12 (18.12.2020): 141. http://dx.doi.org/10.3390/jimaging6120141.
Der volle Inhalt der QuelleXu, Jie, Haoliang Wei, Linke Li, Qiuru Fu und Jinhong Guo. „Video Description Model Based on Temporal-Spatial and Channel Multi-Attention Mechanisms“. Applied Sciences 10, Nr. 12 (23.06.2020): 4312. http://dx.doi.org/10.3390/app10124312.
Der volle Inhalt der QuelleDemiris, Yiannis, und Bassam Khadhouri. „Content-based control of goal-directed attention during human action perception“. Interaction Studies 9, Nr. 2 (26.05.2008): 353–76. http://dx.doi.org/10.1075/is.9.2.10dem.
Der volle Inhalt der QuelleLiu, Chen, Feng Li, Xian Sun und Hongzhe Han. „Attention-Based Joint Entity Linking with Entity Embedding“. Information 10, Nr. 2 (01.02.2019): 46. http://dx.doi.org/10.3390/info10020046.
Der volle Inhalt der QuelleHong, Huiting, Hantao Guo, Yucheng Lin, Xiaoqing Yang, Zang Li und Jieping Ye. „An Attention-Based Graph Neural Network for Heterogeneous Structural Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 04 (03.04.2020): 4132–39. http://dx.doi.org/10.1609/aaai.v34i04.5833.
Der volle Inhalt der QuelleXia, Hongbin, Yang Luo und Yuan Liu. „Attention neural collaboration filtering based on GRU for recommender systems“. Complex & Intelligent Systems 7, Nr. 3 (30.01.2021): 1367–79. http://dx.doi.org/10.1007/s40747-021-00274-4.
Der volle Inhalt der QuelleBlair, R. J. R., und D. G. V. Mitchell. „Psychopathy, attention and emotion“. Psychological Medicine 39, Nr. 4 (14.08.2008): 543–55. http://dx.doi.org/10.1017/s0033291708003991.
Der volle Inhalt der QuelleLi, Shengwen, Renyao Chen, Bo Wan, Junfang Gong, Lin Yang und Hong Yao. „DAWE: A Double Attention-Based Word Embedding Model with Sememe Structure Information“. Applied Sciences 10, Nr. 17 (21.08.2020): 5804. http://dx.doi.org/10.3390/app10175804.
Der volle Inhalt der QuelleTian, Jinkai, Peifeng Yan und Da Huang. „Kernel Analysis Based on Dirichlet Processes Mixture Models“. Entropy 21, Nr. 9 (02.09.2019): 857. http://dx.doi.org/10.3390/e21090857.
Der volle Inhalt der QuelleZou, Xiaochun, Xinbo Zhao, Jian Wang und Yongjia Yang. „Learning to Model Task-Oriented Attention“. Computational Intelligence and Neuroscience 2016 (2016): 1–12. http://dx.doi.org/10.1155/2016/2381451.
Der volle Inhalt der QuelleNahmias-Biran, Bat-hen, Yafei Han, Shlomo Bekhor, Fang Zhao, Christopher Zegras und Moshe Ben-Akiva. „Enriching Activity-Based Models using Smartphone-Based Travel Surveys“. Transportation Research Record: Journal of the Transportation Research Board 2672, Nr. 42 (19.10.2018): 280–91. http://dx.doi.org/10.1177/0361198118798475.
Der volle Inhalt der QuelleMarkevičiūtė, Jurgita, Jolita Bernatavičienė, Rūta Levulienė, Viktor Medvedev, Povilas Treigys und Julius Venskus. „Attention-Based and Time Series Models for Short-Term Forecasting of COVID-19 Spread“. Computers, Materials & Continua 70, Nr. 1 (2022): 695–714. http://dx.doi.org/10.32604/cmc.2022.018735.
Der volle Inhalt der QuelleChen, Lei, und Li Sun. „Self-Attention-Based Real-Time Signal Detector for Communication Systems With Unknown Channel Models“. IEEE Communications Letters 25, Nr. 8 (August 2021): 2639–43. http://dx.doi.org/10.1109/lcomm.2021.3082708.
Der volle Inhalt der QuelleShi, Jiaqi, Chaoran Liu, Carlos Toshinori Ishi und Hiroshi Ishiguro. „Skeleton-Based Emotion Recognition Based on Two-Stream Self-Attention Enhanced Spatial-Temporal Graph Convolutional Network“. Sensors 21, Nr. 1 (30.12.2020): 205. http://dx.doi.org/10.3390/s21010205.
Der volle Inhalt der QuelleKaldy, Joanne. „Population Health: An Old Idea Gets New Attention“. Senior Care Pharmacist 34, Nr. 5 (01.05.2019): 293–301. http://dx.doi.org/10.4140/tcp.n.2019.293.
Der volle Inhalt der QuelleLu, Huimin, Rui Yang, Zhenrong Deng, Yonglin Zhang, Guangwei Gao und Rushi Lan. „Chinese Image Captioning via Fuzzy Attention-based DenseNet-BiLSTM“. ACM Transactions on Multimedia Computing, Communications, and Applications 17, Nr. 1s (31.03.2021): 1–18. http://dx.doi.org/10.1145/3422668.
Der volle Inhalt der QuelleRoy, Aurko, Mohammad Saffar, Ashish Vaswani und David Grangier. „Efficient Content-Based Sparse Attention with Routing Transformers“. Transactions of the Association for Computational Linguistics 9 (Februar 2021): 53–68. http://dx.doi.org/10.1162/tacl_a_00353.
Der volle Inhalt der QuelleMa, Jiajia, Chao Che und Qiang Zhang. „Medical Answer Selection Based on Two Attention Mechanisms with BiRNN“. MATEC Web of Conferences 176 (2018): 01024. http://dx.doi.org/10.1051/matecconf/201817601024.
Der volle Inhalt der QuelleTan, Zhen, Bo Li, Peixin Huang, Bin Ge und Weidong Xiao. „Neural Relation Classification Using Selective Attention and Symmetrical Directional Instances“. Symmetry 10, Nr. 9 (21.08.2018): 357. http://dx.doi.org/10.3390/sym10090357.
Der volle Inhalt der QuelleWan, Haifeng, Lei Gao, Manman Su, Qirun Sun und Lei Huang. „Attention-Based Convolutional Neural Network for Pavement Crack Detection“. Advances in Materials Science and Engineering 2021 (07.04.2021): 1–13. http://dx.doi.org/10.1155/2021/5520515.
Der volle Inhalt der QuelleZhang, Jinsong, Yongtao Peng, Bo Ren und Taoying Li. „PM2.5 Concentration Prediction Based on CNN-BiLSTM and Attention Mechanism“. Algorithms 14, Nr. 7 (13.07.2021): 208. http://dx.doi.org/10.3390/a14070208.
Der volle Inhalt der QuellePark, Sangmin, Eum Han, Sungho Park, Harim Jeong und Ilsoo Yun. „Deep Q-network-based traffic signal control models“. PLOS ONE 16, Nr. 9 (02.09.2021): e0256405. http://dx.doi.org/10.1371/journal.pone.0256405.
Der volle Inhalt der QuelleWang, Yingying, Yibin Li, Yong Song und Xuewen Rong. „Facial Expression Recognition Based on Auxiliary Models“. Algorithms 12, Nr. 11 (31.10.2019): 227. http://dx.doi.org/10.3390/a12110227.
Der volle Inhalt der Quelle