Zeitschriftenartikel zum Thema „Multimodal embedding and retrieval“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Multimodal embedding and retrieval" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Kim, Donghyun, Kuniaki Saito, Kate Saenko, Stan Sclaroff und Bryan Plummer. „MULE: Multimodal Universal Language Embedding“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 07 (03.04.2020): 11254–61. http://dx.doi.org/10.1609/aaai.v34i07.6785.
Der volle Inhalt der QuelleKim, Jongseok, Youngjae Yu, Hoeseong Kim und Gunhee Kim. „Dual Compositional Learning in Interactive Image Retrieval“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 2 (18.05.2021): 1771–79. http://dx.doi.org/10.1609/aaai.v35i2.16271.
Der volle Inhalt der QuelleWang, Di, Xinbo Gao, Xiumei Wang, Lihuo He und Bo Yuan. „Multimodal Discriminative Binary Embedding for Large-Scale Cross-Modal Retrieval“. IEEE Transactions on Image Processing 25, Nr. 10 (Oktober 2016): 4540–54. http://dx.doi.org/10.1109/tip.2016.2592800.
Der volle Inhalt der QuelleMerkx, Danny, und Stefan L. Frank. „Learning semantic sentence representations from visually grounded language without lexical knowledge“. Natural Language Engineering 25, Nr. 4 (Juli 2019): 451–66. http://dx.doi.org/10.1017/s1351324919000196.
Der volle Inhalt der QuelleOta, Kosuke, Keiichiro Shirai, Hidetoshi Miyao und Minoru Maruyama. „Multimodal Analogy-Based Image Retrieval by Improving Semantic Embeddings“. Journal of Advanced Computational Intelligence and Intelligent Informatics 26, Nr. 6 (20.11.2022): 995–1003. http://dx.doi.org/10.20965/jaciii.2022.p0995.
Der volle Inhalt der QuelleQi, Jidong. „Neurophysiological and psychophysical references for trends in supervised VQA multimodal deep learning: An interdisciplinary meta-analysis“. Applied and Computational Engineering 30, Nr. 1 (22.01.2024): 189–201. http://dx.doi.org/10.54254/2755-2721/30/20230096.
Der volle Inhalt der QuelleLin, Kaiyi, Xing Xu, Lianli Gao, Zheng Wang und Heng Tao Shen. „Learning Cross-Aligned Latent Embeddings for Zero-Shot Cross-Modal Retrieval“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 07 (03.04.2020): 11515–22. http://dx.doi.org/10.1609/aaai.v34i07.6817.
Der volle Inhalt der QuelleMithun, Niluthpol C., Juncheng Li, Florian Metze und Amit K. Roy-Chowdhury. „Joint embeddings with multimodal cues for video-text retrieval“. International Journal of Multimedia Information Retrieval 8, Nr. 1 (12.01.2019): 3–18. http://dx.doi.org/10.1007/s13735-018-00166-3.
Der volle Inhalt der QuelleYang, Bang, Yong Dai, Xuxin Cheng, Yaowei Li, Asif Raza und Yuexian Zou. „Embracing Language Inclusivity and Diversity in CLIP through Continual Language Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 6 (24.03.2024): 6458–66. http://dx.doi.org/10.1609/aaai.v38i6.28466.
Der volle Inhalt der QuelleXu, Tong, Peilun Zhou, Linkang Hu, Xiangnan He, Yao Hu und Enhong Chen. „Socializing the Videos: A Multimodal Approach for Social Relation Recognition“. ACM Transactions on Multimedia Computing, Communications, and Applications 17, Nr. 1 (16.04.2021): 1–23. http://dx.doi.org/10.1145/3416493.
Der volle Inhalt der QuelleXu, Xing, Jialin Tian, Kaiyi Lin, Huimin Lu, Jie Shao und Heng Tao Shen. „Zero-shot Cross-modal Retrieval by Assembling AutoEncoder and Generative Adversarial Network“. ACM Transactions on Multimedia Computing, Communications, and Applications 17, Nr. 1s (31.03.2021): 1–17. http://dx.doi.org/10.1145/3424341.
Der volle Inhalt der QuellePeng, Min, Chongyang Wang, Yu Shi und Xiang-Dong Zhou. „Efficient End-to-End Video Question Answering with Pyramidal Multimodal Transformer“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 2 (26.06.2023): 2038–46. http://dx.doi.org/10.1609/aaai.v37i2.25296.
Der volle Inhalt der QuelleKhan, Arijit. „Knowledge Graphs Querying“. ACM SIGMOD Record 52, Nr. 2 (10.08.2023): 18–29. http://dx.doi.org/10.1145/3615952.3615956.
Der volle Inhalt der QuelleChen, Weijia, Zhijun Lu, Lijue You, Lingling Zhou, Jie Xu und Ken Chen. „Artificial Intelligence–Based Multimodal Risk Assessment Model for Surgical Site Infection (AMRAMS): Development and Validation Study“. JMIR Medical Informatics 8, Nr. 6 (15.06.2020): e18186. http://dx.doi.org/10.2196/18186.
Der volle Inhalt der QuelleRomberg, Stefan, Rainer Lienhart und Eva Hörster. „Multimodal Image Retrieval“. International Journal of Multimedia Information Retrieval 1, Nr. 1 (07.03.2012): 31–44. http://dx.doi.org/10.1007/s13735-012-0006-4.
Der volle Inhalt der QuelleZou, Zhuo. „Performance analysis of using multimodal embedding and word embedding transferred to sentiment classification“. Applied and Computational Engineering 5, Nr. 1 (14.06.2023): 417–22. http://dx.doi.org/10.54254/2755-2721/5/20230610.
Der volle Inhalt der QuelleDash, Sandeep Kumar, Saurav Saha, Partha Pakray und Alexander Gelbukh. „Generating image captions through multimodal embedding“. Journal of Intelligent & Fuzzy Systems 36, Nr. 5 (14.05.2019): 4787–96. http://dx.doi.org/10.3233/jifs-179027.
Der volle Inhalt der QuelleQi, Fan, Xiaoshan Yang, Tianzhu Zhang und Changsheng Xu. „Discriminative multimodal embedding for event classification“. Neurocomputing 395 (Juni 2020): 160–69. http://dx.doi.org/10.1016/j.neucom.2017.11.078.
Der volle Inhalt der QuelleLee, Jin Young. „Deep multimodal embedding for video captioning“. Multimedia Tools and Applications 78, Nr. 22 (24.07.2019): 31793–805. http://dx.doi.org/10.1007/s11042-019-08011-3.
Der volle Inhalt der QuelleKitanovski, Ivan, Gjorgji Strezoski, Ivica Dimitrovski, Gjorgji Madjarov und Suzana Loskovska. „Multimodal medical image retrieval system“. Multimedia Tools and Applications 76, Nr. 2 (25.01.2016): 2955–78. http://dx.doi.org/10.1007/s11042-016-3261-1.
Der volle Inhalt der QuelleXu, Hong. „Multimodal bird information retrieval system“. Applied and Computational Engineering 53, Nr. 1 (28.03.2024): 96–102. http://dx.doi.org/10.54254/2755-2721/53/20241282.
Der volle Inhalt der QuelleYang, Xi, Xinbo Gao und Qi Tian. „Polar Embedding for Aurora Image Retrieval“. IEEE Transactions on Image Processing 24, Nr. 11 (November 2015): 3332–44. http://dx.doi.org/10.1109/tip.2015.2442913.
Der volle Inhalt der QuelleTam, G. K. L., und R. W. H. Lau. „Embedding Retrieval of Articulated Geometry Models“. IEEE Transactions on Pattern Analysis and Machine Intelligence 34, Nr. 11 (November 2012): 2134–46. http://dx.doi.org/10.1109/tpami.2012.17.
Der volle Inhalt der QuelleZhou, Wengang, Houqiang Li, Jian Sun und Qi Tian. „Collaborative Index Embedding for Image Retrieval“. IEEE Transactions on Pattern Analysis and Machine Intelligence 40, Nr. 5 (01.05.2018): 1154–66. http://dx.doi.org/10.1109/tpami.2017.2676779.
Der volle Inhalt der QuelleWang, Can, Jun Zhao, Xiaofei He, Chun Chen und Jiajun Bu. „Image retrieval using nonlinear manifold embedding“. Neurocomputing 72, Nr. 16-18 (Oktober 2009): 3922–29. http://dx.doi.org/10.1016/j.neucom.2009.04.011.
Der volle Inhalt der QuelleKulvinder Singh, Et al. „Enhancing Multimodal Information Retrieval Through Integrating Data Mining and Deep Learning Techniques“. International Journal on Recent and Innovation Trends in Computing and Communication 11, Nr. 9 (30.10.2023): 560–69. http://dx.doi.org/10.17762/ijritcc.v11i9.8844.
Der volle Inhalt der QuelleTang, Zhenchao, Jiehui Huang, Guanxing Chen und Calvin Yu-Chian Chen. „Comprehensive View Embedding Learning for Single-Cell Multimodal Integration“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 14 (24.03.2024): 15292–300. http://dx.doi.org/10.1609/aaai.v38i14.29453.
Der volle Inhalt der QuelleWang, Shiping, und Wenzhong Guo. „Sparse Multigraph Embedding for Multimodal Feature Representation“. IEEE Transactions on Multimedia 19, Nr. 7 (Juli 2017): 1454–66. http://dx.doi.org/10.1109/tmm.2017.2663324.
Der volle Inhalt der QuelleHama, Kenta, Takashi Matsubara, Kuniaki Uehara und Jianfei Cai. „Exploring Uncertainty Measures for Image-caption Embedding-and-retrieval Task“. ACM Transactions on Multimedia Computing, Communications, and Applications 17, Nr. 2 (Juni 2021): 1–19. http://dx.doi.org/10.1145/3425663.
Der volle Inhalt der QuelleCao, Yu, Shawn Steffey, Jianbiao He, Degui Xiao, Cui Tao, Ping Chen und Henning Müller. „Medical Image Retrieval: A Multimodal Approach“. Cancer Informatics 13s3 (Januar 2014): CIN.S14053. http://dx.doi.org/10.4137/cin.s14053.
Der volle Inhalt der QuelleRafailidis, D., S. Manolopoulou und P. Daras. „A unified framework for multimodal retrieval“. Pattern Recognition 46, Nr. 12 (Dezember 2013): 3358–70. http://dx.doi.org/10.1016/j.patcog.2013.05.023.
Der volle Inhalt der QuelleQiu, Dong, Haihuan Jiang und Shuqiao Chen. „Fuzzy Information Retrieval Based on Continuous Bag-of-Words Model“. Symmetry 12, Nr. 2 (03.02.2020): 225. http://dx.doi.org/10.3390/sym12020225.
Der volle Inhalt der QuelleNguyen, Huy Manh, Tomo Miyazaki, Yoshihiro Sugaya und Shinichiro Omachi. „Multiple Visual-Semantic Embedding for Video Retrieval from Query Sentence“. Applied Sciences 11, Nr. 7 (03.04.2021): 3214. http://dx.doi.org/10.3390/app11073214.
Der volle Inhalt der QuelleHuang, Chuan Bo, und Li Xiang. „Image Retrieval Based on Semi-Supervised Orthogonal Discriminant Embedding“. Applied Mechanics and Materials 347-350 (August 2013): 3532–36. http://dx.doi.org/10.4028/www.scientific.net/amm.347-350.3532.
Der volle Inhalt der QuelleKumari, Sneha, Rajiv Pandey, Amit Singh und Himanshu Pathak. „SPARQL: Semantic Information Retrieval by Embedding Prepositions“. International Journal of Network Security & Its Applications 6, Nr. 1 (31.01.2014): 49–57. http://dx.doi.org/10.5121/ijnsa.2014.6105.
Der volle Inhalt der QuelleYu, Mengyang, Li Liu und Ling Shao. „Binary Set Embedding for Cross-Modal Retrieval“. IEEE Transactions on Neural Networks and Learning Systems 28, Nr. 12 (Dezember 2017): 2899–910. http://dx.doi.org/10.1109/tnnls.2016.2609463.
Der volle Inhalt der QuelleAlmasri, Feras, und Olivier Debeir. „Schematics Retrieval Using Whole-Graph Embedding Similarity“. Electronics 13, Nr. 7 (22.03.2024): 1176. http://dx.doi.org/10.3390/electronics13071176.
Der volle Inhalt der QuelleMollenhauer, Hilton H. „Stain contamination and embedding in electron microscopy“. Proceedings, annual meeting, Electron Microscopy Society of America 44 (August 1986): 50–53. http://dx.doi.org/10.1017/s0424820100141986.
Der volle Inhalt der QuelleQiao, Ya-nan, Qinghe Du und Di-fang Wan. „A study on query terms proximity embedding for information retrieval“. International Journal of Distributed Sensor Networks 13, Nr. 2 (Februar 2017): 155014771769489. http://dx.doi.org/10.1177/1550147717694891.
Der volle Inhalt der QuelleP. Bhopale, Bhopale, und Ashish Tiwari. „LEVERAGING NEURAL NETWORK PHRASE EMBEDDING MODEL FOR QUERY REFORMULATION IN AD-HOC BIOMEDICAL INFORMATION RETRIEVAL“. Malaysian Journal of Computer Science 34, Nr. 2 (30.04.2021): 151–70. http://dx.doi.org/10.22452/mjcs.vol34no2.2.
Der volle Inhalt der QuelleDong, Bin, Songlei Jian und Kai Lu. „Learning Multimodal Representations by Symmetrically Transferring Local Structures“. Symmetry 12, Nr. 9 (13.09.2020): 1504. http://dx.doi.org/10.3390/sym12091504.
Der volle Inhalt der QuelleWang, Zhen, Liu Liu, Yiqun Duan und Dacheng Tao. „Continual Learning through Retrieval and Imagination“. Proceedings of the AAAI Conference on Artificial Intelligence 36, Nr. 8 (28.06.2022): 8594–602. http://dx.doi.org/10.1609/aaai.v36i8.20837.
Der volle Inhalt der QuelleZhang, Guihao, und Jiangzhong Cao. „Feature Fusion Based on Transformer for Cross-modal Retrieval“. Journal of Physics: Conference Series 2558, Nr. 1 (01.08.2023): 012012. http://dx.doi.org/10.1088/1742-6596/2558/1/012012.
Der volle Inhalt der QuelleMoon, Jucheol, Nhat Anh Le, Nelson Hebert Minaya und Sang-Il Choi. „Multimodal Few-Shot Learning for Gait Recognition“. Applied Sciences 10, Nr. 21 (29.10.2020): 7619. http://dx.doi.org/10.3390/app10217619.
Der volle Inhalt der QuelleZhuang, Yueting, Jun Song, Fei Wu, Xi Li, Zhongfei Zhang und Yong Rui. „Multimodal Deep Embedding via Hierarchical Grounded Compositional Semantics“. IEEE Transactions on Circuits and Systems for Video Technology 28, Nr. 1 (Januar 2018): 76–89. http://dx.doi.org/10.1109/tcsvt.2016.2606648.
Der volle Inhalt der QuelleHuang, Feiran, Xiaoming Zhang, Jie Xu, Chaozhuo Li und Zhoujun Li. „Network embedding by fusing multimodal contents and links“. Knowledge-Based Systems 171 (Mai 2019): 44–55. http://dx.doi.org/10.1016/j.knosys.2019.02.003.
Der volle Inhalt der QuelleKompus, Kristiina, Tom Eichele, Kenneth Hugdahl und Lars Nyberg. „Multimodal Imaging of Incidental Retrieval: The Low Route to Memory“. Journal of Cognitive Neuroscience 23, Nr. 4 (April 2011): 947–60. http://dx.doi.org/10.1162/jocn.2010.21494.
Der volle Inhalt der QuelleUbaidullahBokhari, Mohammad, und Faraz Hasan. „Multimodal Information Retrieval: Challenges and Future Trends“. International Journal of Computer Applications 74, Nr. 14 (26.07.2013): 9–12. http://dx.doi.org/10.5120/12951-9967.
Der volle Inhalt der QuelleYamaguchi, Masataka. „2. Multimodal Retrieval between Vision and Language“. Journal of The Institute of Image Information and Television Engineers 72, Nr. 9 (2018): 655–58. http://dx.doi.org/10.3169/itej.72.655.
Der volle Inhalt der QuelleCalumby, Rodrigo Tripodi. „Diversity-oriented Multimodal and Interactive Information Retrieval“. ACM SIGIR Forum 50, Nr. 1 (27.06.2016): 86. http://dx.doi.org/10.1145/2964797.2964811.
Der volle Inhalt der Quelle