Articles de revues sur le sujet « Transformers Multimodaux »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Transformers Multimodaux ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Jaiswal, Sushma, Harikumar Pallthadka, Rajesh P. Chinchewadi et Tarun Jaiswal. « Optimized Image Captioning : Hybrid Transformers Vision Transformers and Convolutional Neural Networks : Enhanced with Beam Search ». International Journal of Intelligent Systems and Applications 16, no 2 (8 avril 2024) : 53–61. http://dx.doi.org/10.5815/ijisa.2024.02.05.
Texte intégralBayat, Nasrin, Jong-Hwan Kim, Renoa Choudhury, Ibrahim F. Kadhim, Zubaidah Al-Mashhadani, Mark Aldritz Dela Virgen, Reuben Latorre, Ricardo De La Paz et Joon-Hyuk Park. « Vision Transformer Customized for Environment Detection and Collision Prediction to Assist the Visually Impaired ». Journal of Imaging 9, no 8 (15 août 2023) : 161. http://dx.doi.org/10.3390/jimaging9080161.
Texte intégralShao, Zilei. « A literature review on multimodal deep learning models for detecting mental disorders in conversational data : Pre-transformer and transformer-based approaches ». Applied and Computational Engineering 18, no 1 (23 octobre 2023) : 215–24. http://dx.doi.org/10.54254/2755-2721/18/20230993.
Texte intégralHendricks, Lisa Anne, John Mellor, Rosalia Schneider, Jean-Baptiste Alayrac et Aida Nematzadeh. « Decoupling the Role of Data, Attention, and Losses in Multimodal Transformers ». Transactions of the Association for Computational Linguistics 9 (2021) : 570–85. http://dx.doi.org/10.1162/tacl_a_00385.
Texte intégralChen, Yu, Ming Yin, Yu Li et Qian Cai. « CSU-Net : A CNN-Transformer Parallel Network for Multimodal Brain Tumour Segmentation ». Electronics 11, no 14 (16 juillet 2022) : 2226. http://dx.doi.org/10.3390/electronics11142226.
Texte intégralSun, Qixuan, Nianhua Fang, Zhuo Liu, Liang Zhao, Youpeng Wen et Hongxiang Lin. « HybridCTrm : Bridging CNN and Transformer for Multimodal Brain Image Segmentation ». Journal of Healthcare Engineering 2021 (1 octobre 2021) : 1–10. http://dx.doi.org/10.1155/2021/7467261.
Texte intégralYu Tian, Qiyang Zhao, Zine el abidine Kherroubi, Fouzi Boukhalfa, Kebin Wu et Faouzi Bader. « Multimodal transformers for wireless communications : A case study in beam prediction ». ITU Journal on Future and Evolving Technologies 4, no 3 (5 septembre 2023) : 461–71. http://dx.doi.org/10.52953/jwra8095.
Texte intégralXu, Yifan, Huapeng Wei, Minxuan Lin, Yingying Deng, Kekai Sheng, Mengdan Zhang, Fan Tang, Weiming Dong, Feiyue Huang et Changsheng Xu. « Transformers in computational visual media : A survey ». Computational Visual Media 8, no 1 (27 octobre 2021) : 33–62. http://dx.doi.org/10.1007/s41095-021-0247-3.
Texte intégralZhong, Enmin, Carlos R. del-Blanco, Daniel Berjón, Fernando Jaureguizar et Narciso García. « Real-Time Monocular Skeleton-Based Hand Gesture Recognition Using 3D-Jointsformer ». Sensors 23, no 16 (10 août 2023) : 7066. http://dx.doi.org/10.3390/s23167066.
Texte intégralNia, Zahra Movahedi, Ali Ahmadi, Bruce Mellado, Jianhong Wu, James Orbinski, Ali Asgary et Jude D. Kong. « Twitter-based gender recognition using transformers ». Mathematical Biosciences and Engineering 20, no 9 (2023) : 15957–77. http://dx.doi.org/10.3934/mbe.2023711.
Texte intégralLiang, Yi, Turdi Tohti et Askar Hamdulla. « False Information Detection via Multimodal Feature Fusion and Multi-Classifier Hybrid Prediction ». Algorithms 15, no 4 (29 mars 2022) : 119. http://dx.doi.org/10.3390/a15040119.
Texte intégralDesai, Poorav, Tanmoy Chakraborty et Md Shad Akhtar. « Nice Perfume. How Long Did You Marinate in It ? Multimodal Sarcasm Explanation ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 10 (28 juin 2022) : 10563–71. http://dx.doi.org/10.1609/aaai.v36i10.21300.
Texte intégralShan, Qishang, Xiangsen Wei et Ziyun Cai. « Modality-Invariant and -Specific Representations with Crossmodal Transformer for Multimodal Sentiment Analysis ». Journal of Physics : Conference Series 2224, no 1 (1 avril 2022) : 012024. http://dx.doi.org/10.1088/1742-6596/2224/1/012024.
Texte intégralGupta, Arpit, Himanshu Goyal et Ishita Kohli. « Synthesis of Vision and Language : Multifaceted Image Captioning Application ». INTERANTIONAL JOURNAL OF SCIENTIFIC RESEARCH IN ENGINEERING AND MANAGEMENT 07, no 12 (23 décembre 2023) : 1–10. http://dx.doi.org/10.55041/ijsrem27770.
Texte intégralLiu, Bo, Lejian He, Yafei Liu, Tianyao Yu, Yuejia Xiang, Li Zhu et Weijian Ruan. « Transformer-Based Multimodal Infusion Dialogue Systems ». Electronics 11, no 20 (20 octobre 2022) : 3409. http://dx.doi.org/10.3390/electronics11203409.
Texte intégralWang, LeiChen, Simon Giebenhain, Carsten Anklam et Bastian Goldluecke. « Radar Ghost Target Detection via Multimodal Transformers ». IEEE Robotics and Automation Letters 6, no 4 (octobre 2021) : 7758–65. http://dx.doi.org/10.1109/lra.2021.3100176.
Texte intégralSalin, Emmanuelle, Badreddine Farah, Stéphane Ayache et Benoit Favre. « Are Vision-Language Transformers Learning Multimodal Representations ? A Probing Perspective ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 10 (28 juin 2022) : 11248–57. http://dx.doi.org/10.1609/aaai.v36i10.21375.
Texte intégralZhao, Bin, Maoguo Gong et Xuelong Li. « Hierarchical multimodal transformer to summarize videos ». Neurocomputing 468 (janvier 2022) : 360–69. http://dx.doi.org/10.1016/j.neucom.2021.10.039.
Texte intégralDing, Lan. « Online teaching emotion analysis based on GRU and nonlinear transformer algorithm ». PeerJ Computer Science 9 (21 novembre 2023) : e1696. http://dx.doi.org/10.7717/peerj-cs.1696.
Texte intégralWang, Zhaokai, Renda Bao, Qi Wu et Si Liu. « Confidence-aware Non-repetitive Multimodal Transformers for TextCaps ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 4 (18 mai 2021) : 2835–43. http://dx.doi.org/10.1609/aaai.v35i4.16389.
Texte intégralXiang, Yunfan, Xiangyu Tian, Yue Xu, Xiaokun Guan et Zhengchao Chen. « EGMT-CD : Edge-Guided Multimodal Transformers Change Detection from Satellite and Aerial Images ». Remote Sensing 16, no 1 (25 décembre 2023) : 86. http://dx.doi.org/10.3390/rs16010086.
Texte intégralLi, Ning, Jie Chen, Nanxin Fu, Wenzhuo Xiao, Tianrun Ye, Chunming Gao et Ping Zhang. « Leveraging Dual Variational Autoencoders and Generative Adversarial Networks for Enhanced Multimodal Interaction in Zero-Shot Learning ». Electronics 13, no 3 (29 janvier 2024) : 539. http://dx.doi.org/10.3390/electronics13030539.
Texte intégralAbdine, Hadi, Michail Chatzianastasis, Costas Bouyioukos et Michalis Vazirgiannis. « Prot2Text : Multimodal Protein’s Function Generation with GNNs and Transformers ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 10 (24 mars 2024) : 10757–65. http://dx.doi.org/10.1609/aaai.v38i10.28948.
Texte intégralLi, Zuhe, Qingbing Guo, Chengyao Feng, Lujuan Deng, Qiuwen Zhang, Jianwei Zhang, Fengqin Wang et Qian Sun. « Multimodal Sentiment Analysis Based on Interactive Transformer and Soft Mapping ». Wireless Communications and Mobile Computing 2022 (3 février 2022) : 1–12. http://dx.doi.org/10.1155/2022/6243347.
Texte intégralZhang, Yinshuo, Lei Chen et Yuan Yuan. « Multimodal Fine-Grained Transformer Model for Pest Recognition ». Electronics 12, no 12 (10 juin 2023) : 2620. http://dx.doi.org/10.3390/electronics12122620.
Texte intégralZhang, Tianze. « Investigation on task effect analysis and optimization strategy of multimodal large model based on Transformers architecture for various languages ». Applied and Computational Engineering 47, no 1 (15 mars 2024) : 213–24. http://dx.doi.org/10.54254/2755-2721/47/20241374.
Texte intégralWang, Zhecan, Haoxuan You, Liunian Harold Li, Alireza Zareian, Suji Park, Yiqing Liang, Kai-Wei Chang et Shih-Fu Chang. « SGEITL : Scene Graph Enhanced Image-Text Learning for Visual Commonsense Reasoning ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 5 (28 juin 2022) : 5914–22. http://dx.doi.org/10.1609/aaai.v36i5.20536.
Texte intégralWei, Jiaqi, Bin Jiang et Yanxia Zhang. « Identification of Blue Horizontal Branch Stars with Multimodal Fusion ». Publications of the Astronomical Society of the Pacific 135, no 1050 (1 août 2023) : 084501. http://dx.doi.org/10.1088/1538-3873/acea43.
Texte intégralSams, Andrew Steven, et Amalia Zahra. « Multimodal music emotion recognition in Indonesian songs based on CNN-LSTM, XLNet transformers ». Bulletin of Electrical Engineering and Informatics 12, no 1 (1 février 2023) : 355–64. http://dx.doi.org/10.11591/eei.v12i1.4231.
Texte intégralNayak, Roshan, B. S. Ullas Kannantha, Kruthi S et C. Gururaj. « Multimodal Offensive Meme Classification u sing Transformers and BiLSTM ». International Journal of Engineering and Advanced Technology 11, no 3 (28 février 2022) : 96–102. http://dx.doi.org/10.35940/ijeat.c3392.0211322.
Texte intégralNadal, Clement, et Francois Pigache. « Multimodal electromechanical model of piezoelectric transformers by Hamilton's principle ». IEEE Transactions on Ultrasonics, Ferroelectrics, and Frequency Control 56, no 11 (novembre 2009) : 2530–43. http://dx.doi.org/10.1109/tuffc.2009.1340.
Texte intégralChen, Yunfan, Jinxing Ye et Xiangkui Wan. « TF-YOLO : A Transformer–Fusion-Based YOLO Detector for Multimodal Pedestrian Detection in Autonomous Driving Scenes ». World Electric Vehicle Journal 14, no 12 (18 décembre 2023) : 352. http://dx.doi.org/10.3390/wevj14120352.
Texte intégralPezzelle, Sandro, Ece Takmaz et Raquel Fernández. « Word Representation Learning in Multimodal Pre-Trained Transformers : An Intrinsic Evaluation ». Transactions of the Association for Computational Linguistics 9 (2021) : 1563–79. http://dx.doi.org/10.1162/tacl_a_00443.
Texte intégralZhang, Yingjie. « The current status and prospects of transformer in multimodality ». Applied and Computational Engineering 11, no 1 (25 septembre 2023) : 224–30. http://dx.doi.org/10.54254/2755-2721/11/20230240.
Texte intégralHasan, Md Kamrul, Sangwu Lee, Wasifur Rahman, Amir Zadeh, Rada Mihalcea, Louis-Philippe Morency et Ehsan Hoque. « Humor Knowledge Enriched Transformer for Understanding Multimodal Humor ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 14 (18 mai 2021) : 12972–80. http://dx.doi.org/10.1609/aaai.v35i14.17534.
Texte intégralZhang, Xiaojuan, Yongxiu Zhou, Peihao Peng et Guoyan Wang. « A Novel Multimodal Species Distribution Model Fusing Remote Sensing Images and Environmental Features ». Sustainability 14, no 21 (28 octobre 2022) : 14034. http://dx.doi.org/10.3390/su142114034.
Texte intégralZhang, Guihao, et Jiangzhong Cao. « Feature Fusion Based on Transformer for Cross-modal Retrieval ». Journal of Physics : Conference Series 2558, no 1 (1 août 2023) : 012012. http://dx.doi.org/10.1088/1742-6596/2558/1/012012.
Texte intégralPark, Junhee, et Nammee Moon. « Design and Implementation of Attention Depression Detection Model Based on Multimodal Analysis ». Sustainability 14, no 6 (18 mars 2022) : 3569. http://dx.doi.org/10.3390/su14063569.
Texte intégralQi, Qingfu, Liyuan Lin, Rui Zhang et Chengrong Xue. « MEDT : Using Multimodal Encoding-Decoding Network as in Transformer for Multimodal Sentiment Analysis ». IEEE Access 10 (2022) : 28750–59. http://dx.doi.org/10.1109/access.2022.3157712.
Texte intégralLi, Lei, Xiang Chen, Shuofei Qiao, Feiyu Xiong, Huajun Chen et Ningyu Zhang. « On Analyzing the Role of Image for Visual-Enhanced Relation Extraction (Student Abstract) ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 13 (26 juin 2023) : 16254–55. http://dx.doi.org/10.1609/aaai.v37i13.26987.
Texte intégralZhang, Junyan. « Research on transformer and attention in applied algorithms ». Applied and Computational Engineering 13, no 1 (23 octobre 2023) : 221–28. http://dx.doi.org/10.54254/2755-2721/13/20230737.
Texte intégralGao, Jialin, Jianyu Chen, Jiaqi Wei, Bin Jiang et A.-Li Luo. « Deep Multimodal Networks for M-type Star Classification with Paired Spectrum and Photometric Image ». Publications of the Astronomical Society of the Pacific 135, no 1046 (1 avril 2023) : 044503. http://dx.doi.org/10.1088/1538-3873/acc7ca.
Texte intégralZong, Daoming, et Shiliang Sun. « McOmet : Multimodal Fusion Transformer for Physical Audiovisual Commonsense Reasoning ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 5 (26 juin 2023) : 6621–29. http://dx.doi.org/10.1609/aaai.v37i5.25813.
Texte intégralJayaLakshmi, Gundabathina, Abburi Madhuri, Deepak Vasudevan, Balamuralikrishna Thati, Uddagiri Sirisha et Surapaneni Phani Praveen. « Effective Disaster Management Through Transformer-Based Multimodal Tweet Classification ». Revue d'Intelligence Artificielle 37, no 5 (31 octobre 2023) : 1263–72. http://dx.doi.org/10.18280/ria.370519.
Texte intégralLiu, Biyuan, Huaixin Chen, Kun Li et Michael Ying Yang. « Transformer-based multimodal change detection with multitask consistency constraints ». Information Fusion 108 (août 2024) : 102358. http://dx.doi.org/10.1016/j.inffus.2024.102358.
Texte intégralAbiyev, Rahib H., Mohamad Ziad Altabel, Manal Darwish et Abdulkader Helwan. « A Multimodal Transformer Model for Recognition of Images from Complex Laparoscopic Surgical Videos ». Diagnostics 14, no 7 (23 mars 2024) : 681. http://dx.doi.org/10.3390/diagnostics14070681.
Texte intégralChaudhari, Aayushi, Chintan Bhatt, Achyut Krishna et Carlos M. Travieso-González. « Facial Emotion Recognition with Inter-Modality-Attention-Transformer-Based Self-Supervised Learning ». Electronics 12, no 2 (5 janvier 2023) : 288. http://dx.doi.org/10.3390/electronics12020288.
Texte intégralXu, Zhen, David R. So et Andrew M. Dai. « MUFASA : Multimodal Fusion Architecture Search for Electronic Health Records ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 12 (18 mai 2021) : 10532–40. http://dx.doi.org/10.1609/aaai.v35i12.17260.
Texte intégralIlmi, Yuslimu, Pratiwi Retnaningdyah et Ahmad Munir. « Exploring Digital Multimodal Text in EFL Classroom : Transformed Practice in Multiliteracies Pedagogy ». Linguistic, English Education and Art (LEEA) Journal 4, no 1 (28 décembre 2020) : 99–108. http://dx.doi.org/10.31539/leea.v4i1.1416.
Texte intégralAmmour, Nassim, Yakoub Bazi et Naif Alajlan. « Multimodal Approach for Enhancing Biometric Authentication ». Journal of Imaging 9, no 9 (22 août 2023) : 168. http://dx.doi.org/10.3390/jimaging9090168.
Texte intégral