Zeitschriftenartikel zum Thema „Visual and semantic embedding“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Visual and semantic embedding" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Zhang, Yuanpeng, Jingye Guan, Haobo Wang, Kaiming Li, Ying Luo und Qun Zhang. „Generalized Zero-Shot Space Target Recognition Based on Global-Local Visual Feature Embedding Network“. Remote Sensing 15, Nr. 21 (28.10.2023): 5156. http://dx.doi.org/10.3390/rs15215156.
Der volle Inhalt der QuelleYeh, Mei-Chen, und Yi-Nan Li. „Multilabel Deep Visual-Semantic Embedding“. IEEE Transactions on Pattern Analysis and Machine Intelligence 42, Nr. 6 (01.06.2020): 1530–36. http://dx.doi.org/10.1109/tpami.2019.2911065.
Der volle Inhalt der QuelleMerkx, Danny, und Stefan L. Frank. „Learning semantic sentence representations from visually grounded language without lexical knowledge“. Natural Language Engineering 25, Nr. 4 (Juli 2019): 451–66. http://dx.doi.org/10.1017/s1351324919000196.
Der volle Inhalt der QuelleZhou, Mo, Zhenxing Niu, Le Wang, Zhanning Gao, Qilin Zhang und Gang Hua. „Ladder Loss for Coherent Visual-Semantic Embedding“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 07 (03.04.2020): 13050–57. http://dx.doi.org/10.1609/aaai.v34i07.7006.
Der volle Inhalt der QuelleGe, Jiannan, Hongtao Xie, Shaobo Min und Yongdong Zhang. „Semantic-guided Reinforced Region Embedding for Generalized Zero-Shot Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 2 (18.05.2021): 1406–14. http://dx.doi.org/10.1609/aaai.v35i2.16230.
Der volle Inhalt der QuelleNguyen, Huy Manh, Tomo Miyazaki, Yoshihiro Sugaya und Shinichiro Omachi. „Multiple Visual-Semantic Embedding for Video Retrieval from Query Sentence“. Applied Sciences 11, Nr. 7 (03.04.2021): 3214. http://dx.doi.org/10.3390/app11073214.
Der volle Inhalt der QuelleMATSUBARA, Takashi. „Target-Oriented Deformation of Visual-Semantic Embedding Space“. IEICE Transactions on Information and Systems E104.D, Nr. 1 (01.01.2021): 24–33. http://dx.doi.org/10.1587/transinf.2020mup0003.
Der volle Inhalt der QuelleTang, Qi, Yao Zhao, Meiqin Liu, Jian Jin und Chao Yao. „Semantic Lens: Instance-Centric Semantic Alignment for Video Super-resolution“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 6 (24.03.2024): 5154–61. http://dx.doi.org/10.1609/aaai.v38i6.28321.
Der volle Inhalt der QuelleKeller, Patrick, Abdoul Kader Kaboré, Laura Plein, Jacques Klein, Yves Le Traon und Tegawendé F. Bissyandé. „What You See is What it Means! Semantic Representation Learning of Code based on Visualization and Transfer Learning“. ACM Transactions on Software Engineering and Methodology 31, Nr. 2 (30.04.2022): 1–34. http://dx.doi.org/10.1145/3485135.
Der volle Inhalt der QuelleHe, Hai, und Haibo Yang. „Deep Visual Semantic Embedding with Text Data Augmentation and Word Embedding Initialization“. Mathematical Problems in Engineering 2021 (28.05.2021): 1–8. http://dx.doi.org/10.1155/2021/6654071.
Der volle Inhalt der QuelleChen, Shiming, Ziming Hong, Yang Liu, Guo-Sen Xie, Baigui Sun, Hao Li, Qinmu Peng, Ke Lu und Xinge You. „TransZero: Attribute-Guided Transformer for Zero-Shot Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 1 (28.06.2022): 330–38. http://dx.doi.org/10.1609/aaai.v36i1.19909.
Der volle Inhalt der QuelleSeo, Sanghyun, und Juntae Kim. „Hierarchical Semantic Loss and Confidence Estimator for Visual-Semantic Embedding-Based Zero-Shot Learning“. Applied Sciences 9, Nr. 15 (02.08.2019): 3133. http://dx.doi.org/10.3390/app9153133.
Der volle Inhalt der QuelleLiu, Huixia, und Zhihong Qin. „Deep quantization network with visual-semantic alignment for zero-shot image retrieval“. Electronic Research Archive 31, Nr. 7 (2023): 4232–47. http://dx.doi.org/10.3934/era.2023215.
Der volle Inhalt der QuelleGorniak, P., und D. Roy. „Grounded Semantic Composition for Visual Scenes“. Journal of Artificial Intelligence Research 21 (01.04.2004): 429–70. http://dx.doi.org/10.1613/jair.1327.
Der volle Inhalt der QuelleMa, Peirong, und Xiao Hu. „A Variational Autoencoder with Deep Embedding Model for Generalized Zero-Shot Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 07 (03.04.2020): 11733–40. http://dx.doi.org/10.1609/aaai.v34i07.6844.
Der volle Inhalt der QuelleK. Dinesh Kumar, Et al. „Visual Storytelling: A Generative Adversarial Networks (GANs) and Graph Embedding Framework“. International Journal on Recent and Innovation Trends in Computing and Communication 11, Nr. 9 (05.11.2023): 1899–906. http://dx.doi.org/10.17762/ijritcc.v11i9.9184.
Der volle Inhalt der QuelleLiu, Fangyu, Rongtian Ye, Xun Wang und Shuaipeng Li. „HAL: Improved Text-Image Matching by Mitigating Visual Semantic Hubs“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 07 (03.04.2020): 11563–71. http://dx.doi.org/10.1609/aaai.v34i07.6823.
Der volle Inhalt der QuelleWan, Ziyu, Yan Li, Min Yang und Junge Zhang. „Transductive Zero-Shot Learning via Visual Center Adaptation“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 10059–60. http://dx.doi.org/10.1609/aaai.v33i01.330110059.
Der volle Inhalt der QuelleDeutsch, Shay, Andrea Bertozzi und Stefano Soatto. „Zero Shot Learning with the Isoperimetric Loss“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 07 (03.04.2020): 10704–12. http://dx.doi.org/10.1609/aaai.v34i07.6698.
Der volle Inhalt der QuelleZhang, Weifeng, Hua Hu und Haiyang Hu. „Training Visual-Semantic Embedding Network for Boosting Automatic Image Annotation“. Neural Processing Letters 48, Nr. 3 (11.01.2018): 1503–19. http://dx.doi.org/10.1007/s11063-017-9753-9.
Der volle Inhalt der QuelleAn, Rongqiao, Zhenjiang Miao, Qingyu Li, Wanru Xu und Qiang Zhang. „Spatiotemporal visual-semantic embedding network for zero-shot action recognition“. Journal of Electronic Imaging 28, Nr. 02 (08.03.2019): 1. http://dx.doi.org/10.1117/1.jei.28.2.023007.
Der volle Inhalt der QuelleYang, Guan, Ayou Han, Xiaoming Liu, Yang Liu, Tao Wei und Zhiyuan Zhang. „Enhancing Semantic-Consistent Features and Transforming Discriminative Features for Generalized Zero-Shot Classifications“. Applied Sciences 12, Nr. 24 (09.12.2022): 12642. http://dx.doi.org/10.3390/app122412642.
Der volle Inhalt der QuelleZhang, Linhai, Deyu Zhou, Yulan He und Zeng Yang. „MERL: Multimodal Event Representation Learning in Heterogeneous Embedding Spaces“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 16 (18.05.2021): 14420–27. http://dx.doi.org/10.1609/aaai.v35i16.17695.
Der volle Inhalt der QuelleBi, Bei, Yaojun Wang, Haicang Zhang und Yang Gao. „Microblog-HAN: A micro-blog rumor detection model based on heterogeneous graph attention network“. PLOS ONE 17, Nr. 4 (12.04.2022): e0266598. http://dx.doi.org/10.1371/journal.pone.0266598.
Der volle Inhalt der QuelleBai, Haoyue, Haofeng Zhang und Qiong Wang. „Dual discriminative auto-encoder network for zero shot image recognition“. Journal of Intelligent & Fuzzy Systems 40, Nr. 3 (02.03.2021): 5159–70. http://dx.doi.org/10.3233/jifs-201920.
Der volle Inhalt der QuelleHuang, Yan, Yang Long und Liang Wang. „Few-Shot Image and Sentence Matching via Gated Visual-Semantic Embedding“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 8489–96. http://dx.doi.org/10.1609/aaai.v33i01.33018489.
Der volle Inhalt der QuelleLuo, Minnan, Xiaojun Chang und Chen Gong. „Reliable shot identification for complex event detection via visual-semantic embedding“. Computer Vision and Image Understanding 213 (Dezember 2021): 103300. http://dx.doi.org/10.1016/j.cviu.2021.103300.
Der volle Inhalt der QuelleYu, Beibei, Cheng Xie, Peng Tang und Bin Li. „Semantic-visual shared knowledge graph for zero-shot learning“. PeerJ Computer Science 9 (22.03.2023): e1260. http://dx.doi.org/10.7717/peerj-cs.1260.
Der volle Inhalt der QuelleLi, Qiaozhe, Xin Zhao, Ran He und Kaiqi Huang. „Visual-Semantic Graph Reasoning for Pedestrian Attribute Recognition“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 8634–41. http://dx.doi.org/10.1609/aaai.v33i01.33018634.
Der volle Inhalt der QuelleSuo, Xinhua, Bing Guo, Yan Shen, Wei Wang, Yaosen Chen und Zhen Zhang. „Embodying the Number of an Entity’s Relations for Knowledge Representation Learning“. International Journal of Software Engineering and Knowledge Engineering 31, Nr. 10 (Oktober 2021): 1495–515. http://dx.doi.org/10.1142/s0218194021500509.
Der volle Inhalt der QuelleYe, Jingwen, Ruonan Yu, Songhua Liu und Xinchao Wang. „Mutual-Modality Adversarial Attack with Semantic Perturbation“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 7 (24.03.2024): 6657–65. http://dx.doi.org/10.1609/aaai.v38i7.28488.
Der volle Inhalt der QuelleBai, Jing, Mengjie Wang und Dexin Kong. „Deep Common Semantic Space Embedding for Sketch-Based 3D Model Retrieval“. Entropy 21, Nr. 4 (04.04.2019): 369. http://dx.doi.org/10.3390/e21040369.
Der volle Inhalt der QuelleXiao, Linlin, Huahu Xu, Junsheng Xiao und Yuzhe Huang. „Few-Shot Object Detection with Memory Contrastive Proposal Based on Semantic Priors“. Electronics 12, Nr. 18 (11.09.2023): 3835. http://dx.doi.org/10.3390/electronics12183835.
Der volle Inhalt der QuelleWei, Longhui, Lingxi Xie, Jianzhong He, Xiaopeng Zhang und Qi Tian. „Can Semantic Labels Assist Self-Supervised Visual Representation Learning?“ Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 3 (28.06.2022): 2642–50. http://dx.doi.org/10.1609/aaai.v36i3.20166.
Der volle Inhalt der QuelleCai, Jiyan, Libing Wu, Dan Wu, Jianxin Li und Xianfeng Wu. „Multi-Dimensional Information Alignment in Different Modalities for Generalized Zero-Shot and Few-Shot Learning“. Information 14, Nr. 3 (24.02.2023): 148. http://dx.doi.org/10.3390/info14030148.
Der volle Inhalt der QuelleChen, J., X. Du, J. Zhang, Y. Wan und W. Zhao. „SEMANTIC KNOWLEDGE EMBEDDING DEEP LEARNING NETWORK FOR LAND COVER CLASSIFICATION“. International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLVIII-1/W2-2023 (13.12.2023): 85–90. http://dx.doi.org/10.5194/isprs-archives-xlviii-1-w2-2023-85-2023.
Der volle Inhalt der QuelleGong, Yan, Georgina Cosma und Hui Fang. „On the Limitations of Visual-Semantic Embedding Networks for Image-to-Text Information Retrieval“. Journal of Imaging 7, Nr. 8 (26.07.2021): 125. http://dx.doi.org/10.3390/jimaging7080125.
Der volle Inhalt der QuelleYang, Guang, Manling Li, Jiajie Zhang, Xudong Lin, Heng Ji und Shih-Fu Chang. „Video Event Extraction via Tracking Visual States of Arguments“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 3 (26.06.2023): 3136–44. http://dx.doi.org/10.1609/aaai.v37i3.25418.
Der volle Inhalt der QuelleEyharabide, Victoria, Imad Eddine Ibrahim Bekkouch und Nicolae Dragoș Constantin. „Knowledge Graph Embedding-Based Domain Adaptation for Musical Instrument Recognition“. Computers 10, Nr. 8 (03.08.2021): 94. http://dx.doi.org/10.3390/computers10080094.
Der volle Inhalt der QuelleJadhav, Mrunal, und Matthew Guzdial. „Tile Embedding: A General Representation for Level Generation“. Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment 17, Nr. 1 (04.10.2021): 34–41. http://dx.doi.org/10.1609/aiide.v17i1.18888.
Der volle Inhalt der QuelleLi, Wei, Haiyu Song, Hongda Zhang, Houjie Li und Pengjie Wang. „The Image Annotation Refinement in Embedding Feature Space based on Mutual Information“. International Journal of Circuits, Systems and Signal Processing 16 (10.01.2022): 191–201. http://dx.doi.org/10.46300/9106.2022.16.23.
Der volle Inhalt der QuelleMonka, Sebastian, Lavdim Halilaj und Achim Rettinger. „A survey on visual transfer learning using knowledge graphs“. Semantic Web 13, Nr. 3 (06.04.2022): 477–510. http://dx.doi.org/10.3233/sw-212959.
Der volle Inhalt der QuelleLiu, Bo, Qiulei Dong und Zhanyi Hu. „Zero-Shot Learning from Adversarial Feature Residual to Compact Visual Feature“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 07 (03.04.2020): 11547–54. http://dx.doi.org/10.1609/aaai.v34i07.6821.
Der volle Inhalt der QuelleWang, Zhecheng, Haoyuan Li und Ram Rajagopal. „Urban2Vec: Incorporating Street View Imagery and POIs for Multi-Modal Urban Neighborhood Embedding“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 01 (03.04.2020): 1013–20. http://dx.doi.org/10.1609/aaai.v34i01.5450.
Der volle Inhalt der QuelleWang, Chaoqun, Xuejin Chen, Shaobo Min, Xiaoyan Sun und Houqiang Li. „Task-Independent Knowledge Makes for Transferable Representations for Generalized Zero-Shot Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 3 (18.05.2021): 2710–18. http://dx.doi.org/10.1609/aaai.v35i3.16375.
Der volle Inhalt der QuelleWang, Yiqi, und Yingjie Tian. „Exploring Zero-Shot Semantic Segmentation with No Supervision Leakage“. Electronics 12, Nr. 16 (15.08.2023): 3452. http://dx.doi.org/10.3390/electronics12163452.
Der volle Inhalt der QuelleWang, Feng, Wan-Lei Zhao, Chong-Wah Ngo und Bernard Merialdo. „A Hamming Embedding Kernel with Informative Bag-of-Visual Words for Video Semantic Indexing“. ACM Transactions on Multimedia Computing, Communications, and Applications 10, Nr. 3 (April 2014): 1–20. http://dx.doi.org/10.1145/2535938.
Der volle Inhalt der QuelleXu, Tong, Peilun Zhou, Linkang Hu, Xiangnan He, Yao Hu und Enhong Chen. „Socializing the Videos: A Multimodal Approach for Social Relation Recognition“. ACM Transactions on Multimedia Computing, Communications, and Applications 17, Nr. 1 (16.04.2021): 1–23. http://dx.doi.org/10.1145/3416493.
Der volle Inhalt der QuelleChang, Doo Soo, Gun Hee Cho und Yong Suk Choi. „Zero-Shot Recognition Enhancement by Distance-Weighted Contextual Inference“. Applied Sciences 10, Nr. 20 (16.10.2020): 7234. http://dx.doi.org/10.3390/app10207234.
Der volle Inhalt der QuelleYan, Shipeng, Songyang Zhang und Xuming He. „A Dual Attention Network with Semantic Embedding for Few-Shot Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 9079–86. http://dx.doi.org/10.1609/aaai.v33i01.33019079.
Der volle Inhalt der Quelle