Articles de revues sur le sujet « Multi-Modal representations »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Multi-Modal representations ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Wu, Lianlong, Seewon Choi, Daniel Raggi, Aaron Stockdill, Grecia Garcia Garcia, Fiorenzo Colarusso, Peter C. H. Cheng et Mateja Jamnik. « Generation of Visual Representations for Multi-Modal Mathematical Knowledge ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 21 (24 mars 2024) : 23850–52. http://dx.doi.org/10.1609/aaai.v38i21.30586.
Texte intégralZhang, Yi, Mingyuan Chen, Jundong Shen et Chongjun Wang. « Tailor Versatile Multi-Modal Learning for Multi-Label Emotion Recognition ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 8 (28 juin 2022) : 9100–9108. http://dx.doi.org/10.1609/aaai.v36i8.20895.
Texte intégralZhang, Dong, Suzhong Wei, Shoushan Li, Hanqian Wu, Qiaoming Zhu et Guodong Zhou. « Multi-modal Graph Fusion for Named Entity Recognition with Targeted Visual Guidance ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 16 (18 mai 2021) : 14347–55. http://dx.doi.org/10.1609/aaai.v35i16.17687.
Texte intégralLiu, Hao, Jindong Han, Yanjie Fu, Jingbo Zhou, Xinjiang Lu et Hui Xiong. « Multi-modal transportation recommendation with unified route representation learning ». Proceedings of the VLDB Endowment 14, no 3 (novembre 2020) : 342–50. http://dx.doi.org/10.14778/3430915.3430924.
Texte intégralWang, Huansha, Qinrang Liu, Ruiyang Huang et Jianpeng Zhang. « Multi-Modal Entity Alignment Method Based on Feature Enhancement ». Applied Sciences 13, no 11 (1 juin 2023) : 6747. http://dx.doi.org/10.3390/app13116747.
Texte intégralWu, Tianxing, Chaoyu Gao, Lin Li et Yuxiang Wang. « Leveraging Multi-Modal Information for Cross-Lingual Entity Matching across Knowledge Graphs ». Applied Sciences 12, no 19 (8 octobre 2022) : 10107. http://dx.doi.org/10.3390/app121910107.
Texte intégralHan, Ning, Jingjing Chen, Hao Zhang, Huanwen Wang et Hao Chen. « Adversarial Multi-Grained Embedding Network for Cross-Modal Text-Video Retrieval ». ACM Transactions on Multimedia Computing, Communications, and Applications 18, no 2 (31 mai 2022) : 1–23. http://dx.doi.org/10.1145/3483381.
Texte intégralYing, Qichao, Xiaoxiao Hu, Yangming Zhou, Zhenxing Qian, Dan Zeng et Shiming Ge. « Bootstrapping Multi-View Representations for Fake News Detection ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 4 (26 juin 2023) : 5384–92. http://dx.doi.org/10.1609/aaai.v37i4.25670.
Texte intégralHuang, Yufeng, Jiji Tang, Zhuo Chen, Rongsheng Zhang, Xinfeng Zhang, Weijie Chen, Zeng Zhao et al. « Structure-CLIP : Towards Scene Graph Knowledge to Enhance Multi-Modal Structured Representations ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 3 (24 mars 2024) : 2417–25. http://dx.doi.org/10.1609/aaai.v38i3.28017.
Texte intégralvan Tulder, Gijs, et Marleen de Bruijne. « Learning Cross-Modality Representations From Multi-Modal Images ». IEEE Transactions on Medical Imaging 38, no 2 (février 2019) : 638–48. http://dx.doi.org/10.1109/tmi.2018.2868977.
Texte intégralKiela, Douwe, et Stephen Clark. « Learning Neural Audio Embeddings for Grounding Semantics in Auditory Perception ». Journal of Artificial Intelligence Research 60 (26 décembre 2017) : 1003–30. http://dx.doi.org/10.1613/jair.5665.
Texte intégralCui, Xiaohui, Xiaolong Qu, Dongmei Li, Yu Yang, Yuxun Li et Xiaoping Zhang. « MKGCN : Multi-Modal Knowledge Graph Convolutional Network for Music Recommender Systems ». Electronics 12, no 12 (15 juin 2023) : 2688. http://dx.doi.org/10.3390/electronics12122688.
Texte intégralDong, Bin, Songlei Jian et Kai Lu. « Learning Multimodal Representations by Symmetrically Transferring Local Structures ». Symmetry 12, no 9 (13 septembre 2020) : 1504. http://dx.doi.org/10.3390/sym12091504.
Texte intégralLi, Yehao, Jiahao Fan, Yingwei Pan, Ting Yao, Weiyao Lin et Tao Mei. « Uni-EDEN : Universal Encoder-Decoder Network by Multi-Granular Vision-Language Pre-training ». ACM Transactions on Multimedia Computing, Communications, and Applications 18, no 2 (31 mai 2022) : 1–16. http://dx.doi.org/10.1145/3473140.
Texte intégralGu, Zhihao, Jiangning Zhang, Liang Liu, Xu Chen, Jinlong Peng, Zhenye Gan, Guannan Jiang, Annan Shu, Yabiao Wang et Lizhuang Ma. « Rethinking Reverse Distillation for Multi-Modal Anomaly Detection ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 8 (24 mars 2024) : 8445–53. http://dx.doi.org/10.1609/aaai.v38i8.28687.
Texte intégralWang, Zi, Chenglong Li, Aihua Zheng, Ran He et Jin Tang. « Interact, Embed, and EnlargE : Boosting Modality-Specific Representations for Multi-Modal Person Re-identification ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 3 (28 juin 2022) : 2633–41. http://dx.doi.org/10.1609/aaai.v36i3.20165.
Texte intégralWróblewska, Anna, Jacek Dąbrowski, Michał Pastuszak, Andrzej Michałowski, Michał Daniluk, Barbara Rychalska, Mikołaj Wieczorek et Sylwia Sysko-Romańczuk. « Designing Multi-Modal Embedding Fusion-Based Recommender ». Electronics 11, no 9 (27 avril 2022) : 1391. http://dx.doi.org/10.3390/electronics11091391.
Texte intégralHe, Qibin. « Prompting Multi-Modal Image Segmentation with Semantic Grouping ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 3 (24 mars 2024) : 2094–102. http://dx.doi.org/10.1609/aaai.v38i3.27981.
Texte intégralLiang, Meiyu, Junping Du, Zhengyang Liang, Yongwang Xing, Wei Huang et Zhe Xue. « Self-Supervised Multi-Modal Knowledge Graph Contrastive Hashing for Cross-Modal Search ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 12 (24 mars 2024) : 13744–53. http://dx.doi.org/10.1609/aaai.v38i12.29280.
Texte intégralBodapati, Jyostna Devi, Veeranjaneyulu Naralasetti, Shaik Nagur Shareef, Saqib Hakak, Muhammad Bilal, Praveen Kumar Reddy Maddikunta et Ohyun Jo. « Blended Multi-Modal Deep ConvNet Features for Diabetic Retinopathy Severity Prediction ». Electronics 9, no 6 (30 mai 2020) : 914. http://dx.doi.org/10.3390/electronics9060914.
Texte intégralLiu, Hao, Ting Li, Renjun Hu, Yanjie Fu, Jingjing Gu et Hui Xiong. « Joint Representation Learning for Multi-Modal Transportation Recommendation ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 1036–43. http://dx.doi.org/10.1609/aaai.v33i01.33011036.
Texte intégralYang, Fan, Wei Li, Menglong Yang, Binbin Liang et Jianwei Zhang. « Multi-Modal Disordered Representation Learning Network for Description-Based Person Search ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 15 (24 mars 2024) : 16316–24. http://dx.doi.org/10.1609/aaai.v38i15.29567.
Texte intégralJüttner, Martin, et Ingo Rentschler. « Imagery in multi-modal object learning ». Behavioral and Brain Sciences 25, no 2 (avril 2002) : 197–98. http://dx.doi.org/10.1017/s0140525x0238004x.
Texte intégralTao, Rui, Meng Zhu, Haiyan Cao et Honge Ren. « Fine-Grained Cross-Modal Semantic Consistency in Natural Conservation Image Data from a Multi-Task Perspective ». Sensors 24, no 10 (14 mai 2024) : 3130. http://dx.doi.org/10.3390/s24103130.
Texte intégralPugeault, Nicolas, Florentin Wörgötter et Norbert Krüger. « Disambiguating Multi–Modal Scene Representations Using Perceptual Grouping Constraints ». PLoS ONE 5, no 6 (9 juin 2010) : e10663. http://dx.doi.org/10.1371/journal.pone.0010663.
Texte intégralLara, Bruno, Juan Manuel Rendon-Mancha et Marcos A. Capistran. « Prediction of Undesired Situations based on Multi-Modal Representations ». IEEE Latin America Transactions 5, no 2 (mai 2007) : 103–8. http://dx.doi.org/10.1109/tla.2007.4381351.
Texte intégralGeng, Shijie, Peng Gao, Moitreya Chatterjee, Chiori Hori, Jonathan Le Roux, Yongfeng Zhang, Hongsheng Li et Anoop Cherian. « Dynamic Graph Representation Learning for Video Dialog via Multi-Modal Shuffled Transformers ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 2 (18 mai 2021) : 1415–23. http://dx.doi.org/10.1609/aaai.v35i2.16231.
Texte intégralYan, Facheng, Mingshu Zhang et Bin Wei. « Multimodal integration for fake news detection on social media platforms ». MATEC Web of Conferences 395 (2024) : 01013. http://dx.doi.org/10.1051/matecconf/202439501013.
Texte intégralEscobar-Grisales, Daniel, Cristian David Ríos-Urrego et Juan Rafael Orozco-Arroyave. « Deep Learning and Artificial Intelligence Applied to Model Speech and Language in Parkinson’s Disease ». Diagnostics 13, no 13 (25 juin 2023) : 2163. http://dx.doi.org/10.3390/diagnostics13132163.
Texte intégralZhai, Hanming, Xiaojun Lv, Zhiwen Hou, Xin Tong et Fanliang Bu. « MLSFF : Multi-level structural features fusion for multi-modal knowledge graph completion ». Mathematical Biosciences and Engineering 20, no 8 (2023) : 14096–116. http://dx.doi.org/10.3934/mbe.2023630.
Texte intégralHua, Yan, Yingyun Yang et Jianhe Du. « Deep Multi-Modal Metric Learning with Multi-Scale Correlation for Image-Text Retrieval ». Electronics 9, no 3 (10 mars 2020) : 466. http://dx.doi.org/10.3390/electronics9030466.
Texte intégralYang, Yiying, Fukun Yin, Wen Liu, Jiayuan Fan, Xin Chen, Gang Yu et Tao Chen. « PM-INR : Prior-Rich Multi-Modal Implicit Large-Scale Scene Neural Representation ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 7 (24 mars 2024) : 6594–602. http://dx.doi.org/10.1609/aaai.v38i7.28481.
Texte intégralHu, Lianyu, Liqing Gao, Zekang Liu, Chi-Man Pun et Wei Feng. « COMMA : Co-articulated Multi-Modal Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 3 (24 mars 2024) : 2238–46. http://dx.doi.org/10.1609/aaai.v38i3.27997.
Texte intégralHill, Felix, Roi Reichart et Anna Korhonen. « Multi-Modal Models for Concrete and Abstract Concept Meaning ». Transactions of the Association for Computational Linguistics 2 (décembre 2014) : 285–96. http://dx.doi.org/10.1162/tacl_a_00183.
Texte intégralLiu, Xuanwu, Guoxian Yu, Carlotta Domeniconi, Jun Wang, Yazhou Ren et Maozu Guo. « Ranking-Based Deep Cross-Modal Hashing ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 4400–4407. http://dx.doi.org/10.1609/aaai.v33i01.33014400.
Texte intégralSezerer, Erhan, et Selma Tekir. « Incorporating Concreteness in Multi-Modal Language Models with Curriculum Learning ». Applied Sciences 11, no 17 (6 septembre 2021) : 8241. http://dx.doi.org/10.3390/app11178241.
Texte intégralGou, Yingdong, Kexin Wang, Siwen Wei et Changxin Shi. « GMDA : GCN-Based Multi-Modal Domain Adaptation for Real-Time Disaster Detection ». International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems 31, no 06 (décembre 2023) : 957–73. http://dx.doi.org/10.1142/s0218488523500435.
Texte intégralJang, Jiho, Chaerin Kong, DongHyeon Jeon, Seonhoon Kim et Nojun Kwak. « Unifying Vision-Language Representation Space with Single-Tower Transformer ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 1 (26 juin 2023) : 980–88. http://dx.doi.org/10.1609/aaai.v37i1.25178.
Texte intégralKabir, Anowarul, et Amarda Shehu. « GOProFormer : A Multi-Modal Transformer Method for Gene Ontology Protein Function Prediction ». Biomolecules 12, no 11 (18 novembre 2022) : 1709. http://dx.doi.org/10.3390/biom12111709.
Texte intégralAlam, Mohammad Arif Ul. « College Student Retention Risk Analysis from Educational Database Using Multi-Task Multi-Modal Neural Fusion ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 11 (28 juin 2022) : 12689–97. http://dx.doi.org/10.1609/aaai.v36i11.21545.
Texte intégralQian, Shengsheng, Dizhan Xue, Huaiwen Zhang, Quan Fang et Changsheng Xu. « Dual Adversarial Graph Neural Networks for Multi-label Cross-modal Retrieval ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 3 (18 mai 2021) : 2440–48. http://dx.doi.org/10.1609/aaai.v35i3.16345.
Texte intégralLu, Lyujian, Saad Elbeleidy, Lauren Zoe Baker et Hua Wang. « Learning Multi-Modal Biomarker Representations via Globally Aligned Longitudinal Enrichments ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 01 (3 avril 2020) : 817–24. http://dx.doi.org/10.1609/aaai.v34i01.5426.
Texte intégralZhang, Heng, Vishal M. Patel et Rama Chellappa. « Low-Rank and Joint Sparse Representations for Multi-Modal Recognition ». IEEE Transactions on Image Processing 26, no 10 (octobre 2017) : 4741–52. http://dx.doi.org/10.1109/tip.2017.2721838.
Texte intégralBlown, Eric, et Tom G. K. Bryce. « Conceptual Coherence Revealed in Multi‐Modal Representations of Astronomy Knowledge ». International Journal of Science Education 32, no 1 (30 juin 2009) : 31–67. http://dx.doi.org/10.1080/09500690902974207.
Texte intégralTorasso, Pietro. « Multiple representations and multi-modal reasoning in medical diagnostic systems ». Artificial Intelligence in Medicine 23, no 1 (août 2001) : 49–69. http://dx.doi.org/10.1016/s0933-3657(01)00075-6.
Texte intégralWachinger, Christian, et Nassir Navab. « Entropy and Laplacian images : Structural representations for multi-modal registration ». Medical Image Analysis 16, no 1 (janvier 2012) : 1–17. http://dx.doi.org/10.1016/j.media.2011.03.001.
Texte intégralFang, Feiyi, Tao Zhou, Zhenbo Song et Jianfeng Lu. « MMCAN : Multi-Modal Cross-Attention Network for Free-Space Detection with Uncalibrated Hyperspectral Sensors ». Remote Sensing 15, no 4 (20 février 2023) : 1142. http://dx.doi.org/10.3390/rs15041142.
Texte intégralGao, Jingsheng, Jiacheng Ruan, Suncheng Xiang, Zefang Yu, Ke Ji, Mingye Xie, Ting Liu et Yuzhuo Fu. « LAMM : Label Alignment for Multi-Modal Prompt Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 3 (24 mars 2024) : 1815–23. http://dx.doi.org/10.1609/aaai.v38i3.27950.
Texte intégralBao, Peijun, Wenhan Yang, Boon Poh Ng, Meng Hwa Er et Alex C. Kot. « Cross-Modal Label Contrastive Learning for Unsupervised Audio-Visual Event Localization ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 1 (26 juin 2023) : 215–22. http://dx.doi.org/10.1609/aaai.v37i1.25093.
Texte intégralLiu, Shuang, Mei Li, Zhong Zhang, Baihua Xiao et Tariq S. Durrani. « Multi-Evidence and Multi-Modal Fusion Network for Ground-Based Cloud Recognition ». Remote Sensing 12, no 3 (2 février 2020) : 464. http://dx.doi.org/10.3390/rs12030464.
Texte intégral