Zeitschriftenartikel zum Thema „Multimodal embedding space“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Multimodal embedding space" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Tyshchuk, Kirill, Polina Karpikova, Andrew Spiridonov, Anastasiia Prutianova, Anton Razzhigaev und Alexander Panchenko. „On Isotropy of Multimodal Embeddings“. Information 14, Nr. 7 (10.07.2023): 392. http://dx.doi.org/10.3390/info14070392.
Der volle Inhalt der QuelleMai, Sijie, Haifeng Hu und Songlong Xing. „Modality to Modality Translation: An Adversarial Representation Learning and Graph Fusion Network for Multimodal Fusion“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 01 (03.04.2020): 164–72. http://dx.doi.org/10.1609/aaai.v34i01.5347.
Der volle Inhalt der QuelleZhang, Linhai, Deyu Zhou, Yulan He und Zeng Yang. „MERL: Multimodal Event Representation Learning in Heterogeneous Embedding Spaces“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 16 (18.05.2021): 14420–27. http://dx.doi.org/10.1609/aaai.v35i16.17695.
Der volle Inhalt der QuelleGuo, Zhiqiang, Jianjun Li, Guohui Li, Chaoyang Wang, Si Shi und Bin Ruan. „LGMRec: Local and Global Graph Learning for Multimodal Recommendation“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 8 (24.03.2024): 8454–62. http://dx.doi.org/10.1609/aaai.v38i8.28688.
Der volle Inhalt der QuelleMoon, Jucheol, Nhat Anh Le, Nelson Hebert Minaya und Sang-Il Choi. „Multimodal Few-Shot Learning for Gait Recognition“. Applied Sciences 10, Nr. 21 (29.10.2020): 7619. http://dx.doi.org/10.3390/app10217619.
Der volle Inhalt der QuelleZhang, Rongchao, Yiwei Lou, Dexuan Xu, Yongzhi Cao, Hanpin Wang und Yu Huang. „A Learnable Discrete-Prior Fusion Autoencoder with Contrastive Learning for Tabular Data Synthesis“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 15 (24.03.2024): 16803–11. http://dx.doi.org/10.1609/aaai.v38i15.29621.
Der volle Inhalt der QuelleMerkx, Danny, und Stefan L. Frank. „Learning semantic sentence representations from visually grounded language without lexical knowledge“. Natural Language Engineering 25, Nr. 4 (Juli 2019): 451–66. http://dx.doi.org/10.1017/s1351324919000196.
Der volle Inhalt der QuelleFan, Yunpeng, Wenyou Du, Yingwei Zhang und Xiaogang Wang. „Fault Detection for Multimodal Process Using Quality-Relevant Kernel Neighborhood Preserving Embedding“. Mathematical Problems in Engineering 2015 (2015): 1–15. http://dx.doi.org/10.1155/2015/210125.
Der volle Inhalt der QuelleOta, Kosuke, Keiichiro Shirai, Hidetoshi Miyao und Minoru Maruyama. „Multimodal Analogy-Based Image Retrieval by Improving Semantic Embeddings“. Journal of Advanced Computational Intelligence and Intelligent Informatics 26, Nr. 6 (20.11.2022): 995–1003. http://dx.doi.org/10.20965/jaciii.2022.p0995.
Der volle Inhalt der QuelleKim, Jongseok, Youngjae Yu, Hoeseong Kim und Gunhee Kim. „Dual Compositional Learning in Interactive Image Retrieval“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 2 (18.05.2021): 1771–79. http://dx.doi.org/10.1609/aaai.v35i2.16271.
Der volle Inhalt der QuelleAbiyev, Rahib H., Mohamad Ziad Altabel, Manal Darwish und Abdulkader Helwan. „A Multimodal Transformer Model for Recognition of Images from Complex Laparoscopic Surgical Videos“. Diagnostics 14, Nr. 7 (23.03.2024): 681. http://dx.doi.org/10.3390/diagnostics14070681.
Der volle Inhalt der QuelleSkantze, Gabriel, und Bram Willemsen. „CoLLIE: Continual Learning of Language Grounding from Language-Image Embeddings“. Journal of Artificial Intelligence Research 74 (09.07.2022): 1201–23. http://dx.doi.org/10.1613/jair.1.13689.
Der volle Inhalt der QuelleZhang, Linhao, Li Jin, Xian Sun, Guangluan Xu, Zequn Zhang, Xiaoyu Li, Nayu Liu, Qing Liu und Shiyao Yan. „TOT:Topology-Aware Optimal Transport for Multimodal Hate Detection“. Proceedings of the AAAI Conference on Artificial Intelligence 37, Nr. 4 (26.06.2023): 4884–92. http://dx.doi.org/10.1609/aaai.v37i4.25614.
Der volle Inhalt der QuelleLiang, Meiyu, Junping Du, Zhengyang Liang, Yongwang Xing, Wei Huang und Zhe Xue. „Self-Supervised Multi-Modal Knowledge Graph Contrastive Hashing for Cross-Modal Search“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 12 (24.03.2024): 13744–53. http://dx.doi.org/10.1609/aaai.v38i12.29280.
Der volle Inhalt der QuelleZhang, Yachao, Runze Hu, Ronghui Li, Yanyun Qu, Yuan Xie und Xiu Li. „Cross-Modal Match for Language Conditioned 3D Object Grounding“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 7 (24.03.2024): 7359–67. http://dx.doi.org/10.1609/aaai.v38i7.28566.
Der volle Inhalt der QuelleAkalya, Devi C., Renuka D. Karthika, T. Harisudhan, V. K. Jeevanantham, J. Jhanani und Varshini S. Kavi. „Text emotion recognition using fast text word embedding in bi-directional gated recurrent unit“. i-manager's Journal on Information Technology 11, Nr. 4 (2022): 1. http://dx.doi.org/10.26634/jit.11.4.19119.
Der volle Inhalt der QuelleHnini, Ghizlane, Jamal Riffi, Mohamed Adnane Mahraz, Ali Yahyaouy und Hamid Tairi. „MMPC-RF: A Deep Multimodal Feature-Level Fusion Architecture for Hybrid Spam E-mail Detection“. Applied Sciences 11, Nr. 24 (16.12.2021): 11968. http://dx.doi.org/10.3390/app112411968.
Der volle Inhalt der QuelleWang, Kaijie, Tiejun Wang, Xiaoran Guo, Kui Xu und Jiao Wu. „Thangka Image—Text Matching Based on Adaptive Pooling Layer and Improved Transformer“. Applied Sciences 14, Nr. 2 (17.01.2024): 807. http://dx.doi.org/10.3390/app14020807.
Der volle Inhalt der QuelleMeo, Giuseppe, Pilar M. Ferraro, Marta Cillerai, Chiara Gemelli, Corrado Cabona, Federico Zaottini, Luca Roccatagliata, Flavio Villani, Angelo Schenone und Claudia Caponnetto. „MND Phenotypes Differentiation: The Role of Multimodal Characterization at the Time of Diagnosis“. Life 12, Nr. 10 (27.09.2022): 1506. http://dx.doi.org/10.3390/life12101506.
Der volle Inhalt der QuelleBiswas, Rajarshi, Michael Barz und Daniel Sonntag. „Towards Explanatory Interactive Image Captioning Using Top-Down and Bottom-Up Features, Beam Search and Re-ranking“. KI - Künstliche Intelligenz 34, Nr. 4 (08.07.2020): 571–84. http://dx.doi.org/10.1007/s13218-020-00679-2.
Der volle Inhalt der QuelleBalabin, Helena, Charles Tapley Hoyt, Colin Birkenbihl, Benjamin M. Gyori, John Bachman, Alpha Tom Kodamullil, Paul G. Plöger, Martin Hofmann-Apitius und Daniel Domingo-Fernández. „STonKGs: a sophisticated transformer trained on biomedical text and knowledge graphs“. Bioinformatics 38, Nr. 6 (05.01.2022): 1648–56. http://dx.doi.org/10.1093/bioinformatics/btac001.
Der volle Inhalt der QuelleYuan, Xinpan, Xinxin Mao, Wei Xia, Zhiqi Zhang, Shaojun Xie und Chengyuan Zhang. „PTF-SimCM: A Simple Contrastive Model with Polysemous Text Fusion for Visual Similarity Metric“. Complexity 2022 (16.09.2022): 1–14. http://dx.doi.org/10.1155/2022/2343707.
Der volle Inhalt der QuelleTang, Zhenchao, Jiehui Huang, Guanxing Chen und Calvin Yu-Chian Chen. „Comprehensive View Embedding Learning for Single-Cell Multimodal Integration“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 14 (24.03.2024): 15292–300. http://dx.doi.org/10.1609/aaai.v38i14.29453.
Der volle Inhalt der QuelleChen, Ziwei, Shaokun An, Xiangqi Bai, Fuzhou Gong, Liang Ma und Lin Wan. „DensityPath: an algorithm to visualize and reconstruct cell state-transition path on density landscape for single-cell RNA sequencing data“. Bioinformatics 35, Nr. 15 (07.12.2018): 2593–601. http://dx.doi.org/10.1093/bioinformatics/bty1009.
Der volle Inhalt der QuelleYin, Ziyi, Muchao Ye, Tianrong Zhang, Jiaqi Wang, Han Liu, Jinghui Chen, Ting Wang und Fenglong Ma. „VQAttack: Transferable Adversarial Attacks on Visual Question Answering via Pre-trained Models“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 7 (24.03.2024): 6755–63. http://dx.doi.org/10.1609/aaai.v38i7.28499.
Der volle Inhalt der QuelleLin, Kaiyi, Xing Xu, Lianli Gao, Zheng Wang und Heng Tao Shen. „Learning Cross-Aligned Latent Embeddings for Zero-Shot Cross-Modal Retrieval“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 07 (03.04.2020): 11515–22. http://dx.doi.org/10.1609/aaai.v34i07.6817.
Der volle Inhalt der QuelleXu, Xing, Jialin Tian, Kaiyi Lin, Huimin Lu, Jie Shao und Heng Tao Shen. „Zero-shot Cross-modal Retrieval by Assembling AutoEncoder and Generative Adversarial Network“. ACM Transactions on Multimedia Computing, Communications, and Applications 17, Nr. 1s (31.03.2021): 1–17. http://dx.doi.org/10.1145/3424341.
Der volle Inhalt der QuelleVijaya Kamble. „Design of an Iterative Method for Enhanced Multimodal Time Series Analysis Using Graph Attention Networks, Variational Graph Autoencoders, and Transfer Learning“. Journal of Electrical Systems 20, Nr. 5s (13.04.2024): 2579–98. http://dx.doi.org/10.52783/jes.2699.
Der volle Inhalt der QuelleHan, Kezhen, Shaohang Lu, Zhengce Liu und Zipeng Wang. „Active Fault Isolation for Multimode Fault Systems Based on a Set Separation Indicator“. Entropy 25, Nr. 6 (30.05.2023): 876. http://dx.doi.org/10.3390/e25060876.
Der volle Inhalt der QuelleWeiner, Pascal, Caterina Neef, Yoshihisa Shibata, Yoshihiko Nakamura und Tamim Asfour. „An Embedded, Multi-Modal Sensor System for Scalable Robotic and Prosthetic Hand Fingers“. Sensors 20, Nr. 1 (23.12.2019): 101. http://dx.doi.org/10.3390/s20010101.
Der volle Inhalt der QuelleMyles, David, David Milne und Jonathan D. Shephard. „Scanned Mask Imaging Ablative DPSS UV Laser Process for 2μm L/S RDL“. Additional Conferences (Device Packaging, HiTEC, HiTEN, and CICMT) 2015, DPC (01.01.2015): 000554–89. http://dx.doi.org/10.4071/2015dpc-tp21.
Der volle Inhalt der QuelleSuguitan, Michael, Nick DePalma, Guy Hoffman und Jessica Hodgins. „Face2Gesture: Translating Facial Expressions Into Robot Movements Through Shared Latent Space Neural Networks“. ACM Transactions on Human-Robot Interaction, 04.10.2023. http://dx.doi.org/10.1145/3623386.
Der volle Inhalt der QuelleWen, Jun, Xiang Zhang, Everett Rush, Vidul A. Panickan, Xingyu Li, Tianrun Cai, Doudou Zhou et al. „Multimodal representation learning for predicting molecule–disease relations“. Bioinformatics 39, Nr. 2 (01.02.2023). http://dx.doi.org/10.1093/bioinformatics/btad085.
Der volle Inhalt der QuelleChang, Jun Qing, Deepu Rajan und Nicholas Vun. „Multimodal few-shot classification without attribute embedding“. EURASIP Journal on Image and Video Processing 2024, Nr. 1 (10.01.2024). http://dx.doi.org/10.1186/s13640-024-00620-9.
Der volle Inhalt der QuelleElhoseiny, Mohamed, Jingen Liu, Hui Cheng, Harpreet Sawhney und Ahmed Elgammal. „Zero-Shot Event Detection by Multimodal Distributional Semantic Embedding of Videos“. Proceedings of the AAAI Conference on Artificial Intelligence 30, Nr. 1 (05.03.2016). http://dx.doi.org/10.1609/aaai.v30i1.10458.
Der volle Inhalt der QuelleFeng, Duoduo, Xiangteng He und Yuxin Peng. „MKVSE: Multimodal Knowledge Enhanced Visual-Semantic Embedding for Image-Text Retrieval“. ACM Transactions on Multimedia Computing, Communications, and Applications, 19.01.2023. http://dx.doi.org/10.1145/3580501.
Der volle Inhalt der QuelleRivas, Ryan, Sudipta Paul, Vagelis Hristidis, Evangelos E. Papalexakis und Amit K. Roy-Chowdhury. „Task-agnostic representation learning of multimodal twitter data for downstream applications“. Journal of Big Data 9, Nr. 1 (10.02.2022). http://dx.doi.org/10.1186/s40537-022-00570-x.
Der volle Inhalt der QuelleDong, Shanshan, Tianzi Niu, Xin Luo, Wu Liu und Xin-Shun Xu. „Semantic Embedding Guided Attention with Explicit Visual Feature Fusion for Video Captioning“. ACM Transactions on Multimedia Computing, Communications, and Applications, 22.07.2022. http://dx.doi.org/10.1145/3550276.
Der volle Inhalt der QuelleChang, Jinho, und Jong Chul Ye. „Bidirectional generation of structure and properties through a single molecular foundation model“. Nature Communications 15, Nr. 1 (14.03.2024). http://dx.doi.org/10.1038/s41467-024-46440-3.
Der volle Inhalt der QuelleGhodsizad, Talayeh, Hamid Behnam, Emad Fatemizadeh, Taraneh Faghihi Langroudi und Fariba Bayat. „Temporal Registration of Cardiac Multimodal Images Using Locally Linear Embedding Algorithm“. Frontiers in Biomedical Technologies, 15.11.2021. http://dx.doi.org/10.18502/fbt.v8i4.7757.
Der volle Inhalt der QuelleIkegawa, Yuya, Ryohei Fukuma, Hidenori Sugano, Satoru Oshino, Naoki Tani, Kentaro Tamura, Yasushi Iimura et al. „Text and image generation from intracranial electroencephalography using an embedding space for text and images“. Journal of Neural Engineering, 22.04.2024. http://dx.doi.org/10.1088/1741-2552/ad417a.
Der volle Inhalt der QuelleHu, Yue, Ghalia Rehawi, Lambert Moyon, Nathalie Gerstner, Christoph Ogris, Janine Knauer-Arloth, Florian Bittner, Annalisa Marsico und Nikola S. Mueller. „Network Embedding Across Multiple Tissues and Data Modalities Elucidates the Context of Host Factors Important for COVID-19 Infection“. Frontiers in Genetics 13 (08.07.2022). http://dx.doi.org/10.3389/fgene.2022.909714.
Der volle Inhalt der QuelleAxås, Joar, und George Haller. „Model reduction for nonlinearizable dynamics via delay-embedded spectral submanifolds“. Nonlinear Dynamics, 16.07.2023. http://dx.doi.org/10.1007/s11071-023-08705-2.
Der volle Inhalt der QuelleDeng, Li. „Deep learning: from speech recognition to language and multimodal processing“. APSIPA Transactions on Signal and Information Processing 5 (2016). http://dx.doi.org/10.1017/atsip.2015.22.
Der volle Inhalt der QuelleQayyum, Abdul, Imran Razzak, M. Tanveer und Moona Mazher. „Spontaneous Facial Behavior Analysis using Deep Transformer Based Framework for Child–Computer Interaction“. ACM Transactions on Multimedia Computing, Communications, and Applications, 26.05.2022. http://dx.doi.org/10.1145/3539577.
Der volle Inhalt der QuelleZhang, Qing, Jing Zhang, Xiangdong Su, Feilong Bao und Guanglai Gao. „Contour detection network for zero-shot sketch-based image retrieval“. Complex & Intelligent Systems, 02.06.2023. http://dx.doi.org/10.1007/s40747-023-01096-2.
Der volle Inhalt der QuelleShickel, Benjamin, Brandon Silva, Tezcan Ozrazgat-Baslanti, Yuanfang Ren, Kia Khezeli, Ziyuan Guan, Patrick J. Tighe, Azra Bihorac und Parisa Rashidi. „Multi-dimensional patient acuity estimation with longitudinal EHR tokenization and flexible transformer networks“. Frontiers in Digital Health 4 (09.11.2022). http://dx.doi.org/10.3389/fdgth.2022.1029191.
Der volle Inhalt der QuelleGkikas, Stefanos, Nikolaos S. Tachos, Stelios Andreadis, Vasileios C. Pezoulas, Dimitrios Zaridis, George Gkois, Anastasia Matonaki, Thanos G. Stavropoulos und Dimitrios I. Fotiadis. „Multimodal automatic assessment of acute pain through facial videos and heart rate signals utilizing transformer-based architectures“. Frontiers in Pain Research 5 (27.03.2024). http://dx.doi.org/10.3389/fpain.2024.1372814.
Der volle Inhalt der QuelleDu, Jin-Hong, Zhanrui Cai und Kathryn Roeder. „Robust probabilistic modeling for single-cell multimodal mosaic integration and imputation via scVAEIT“. Proceedings of the National Academy of Sciences 119, Nr. 49 (02.12.2022). http://dx.doi.org/10.1073/pnas.2214414119.
Der volle Inhalt der QuelleLu, Shanghui, Yong Liang, Le Li, Shuilin Liao, Yongfu Zou, Chengjun Yang und Dong Ouyang. „Inferring circRNA-drug sensitivity associations via dual hierarchical attention networks and multiple kernel fusion“. BMC Genomics 24, Nr. 1 (21.12.2023). http://dx.doi.org/10.1186/s12864-023-09899-w.
Der volle Inhalt der Quelle