Articles de revues sur le sujet « Multimodal Transformers »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Multimodal Transformers ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Jaiswal, Sushma, Harikumar Pallthadka, Rajesh P. Chinchewadi et Tarun Jaiswal. « Optimized Image Captioning : Hybrid Transformers Vision Transformers and Convolutional Neural Networks : Enhanced with Beam Search ». International Journal of Intelligent Systems and Applications 16, no 2 (8 avril 2024) : 53–61. http://dx.doi.org/10.5815/ijisa.2024.02.05.
Texte intégralBayat, Nasrin, Jong-Hwan Kim, Renoa Choudhury, Ibrahim F. Kadhim, Zubaidah Al-Mashhadani, Mark Aldritz Dela Virgen, Reuben Latorre, Ricardo De La Paz et Joon-Hyuk Park. « Vision Transformer Customized for Environment Detection and Collision Prediction to Assist the Visually Impaired ». Journal of Imaging 9, no 8 (15 août 2023) : 161. http://dx.doi.org/10.3390/jimaging9080161.
Texte intégralHendricks, Lisa Anne, John Mellor, Rosalia Schneider, Jean-Baptiste Alayrac et Aida Nematzadeh. « Decoupling the Role of Data, Attention, and Losses in Multimodal Transformers ». Transactions of the Association for Computational Linguistics 9 (2021) : 570–85. http://dx.doi.org/10.1162/tacl_a_00385.
Texte intégralShao, Zilei. « A literature review on multimodal deep learning models for detecting mental disorders in conversational data : Pre-transformer and transformer-based approaches ». Applied and Computational Engineering 18, no 1 (23 octobre 2023) : 215–24. http://dx.doi.org/10.54254/2755-2721/18/20230993.
Texte intégralWang, LeiChen, Simon Giebenhain, Carsten Anklam et Bastian Goldluecke. « Radar Ghost Target Detection via Multimodal Transformers ». IEEE Robotics and Automation Letters 6, no 4 (octobre 2021) : 7758–65. http://dx.doi.org/10.1109/lra.2021.3100176.
Texte intégralSalin, Emmanuelle, Badreddine Farah, Stéphane Ayache et Benoit Favre. « Are Vision-Language Transformers Learning Multimodal Representations ? A Probing Perspective ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 10 (28 juin 2022) : 11248–57. http://dx.doi.org/10.1609/aaai.v36i10.21375.
Texte intégralSun, Qixuan, Nianhua Fang, Zhuo Liu, Liang Zhao, Youpeng Wen et Hongxiang Lin. « HybridCTrm : Bridging CNN and Transformer for Multimodal Brain Image Segmentation ». Journal of Healthcare Engineering 2021 (1 octobre 2021) : 1–10. http://dx.doi.org/10.1155/2021/7467261.
Texte intégralYu Tian, Qiyang Zhao, Zine el abidine Kherroubi, Fouzi Boukhalfa, Kebin Wu et Faouzi Bader. « Multimodal transformers for wireless communications : A case study in beam prediction ». ITU Journal on Future and Evolving Technologies 4, no 3 (5 septembre 2023) : 461–71. http://dx.doi.org/10.52953/jwra8095.
Texte intégralChen, Yu, Ming Yin, Yu Li et Qian Cai. « CSU-Net : A CNN-Transformer Parallel Network for Multimodal Brain Tumour Segmentation ». Electronics 11, no 14 (16 juillet 2022) : 2226. http://dx.doi.org/10.3390/electronics11142226.
Texte intégralWang, Zhaokai, Renda Bao, Qi Wu et Si Liu. « Confidence-aware Non-repetitive Multimodal Transformers for TextCaps ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 4 (18 mai 2021) : 2835–43. http://dx.doi.org/10.1609/aaai.v35i4.16389.
Texte intégralXu, Yifan, Huapeng Wei, Minxuan Lin, Yingying Deng, Kekai Sheng, Mengdan Zhang, Fan Tang, Weiming Dong, Feiyue Huang et Changsheng Xu. « Transformers in computational visual media : A survey ». Computational Visual Media 8, no 1 (27 octobre 2021) : 33–62. http://dx.doi.org/10.1007/s41095-021-0247-3.
Texte intégralAbdine, Hadi, Michail Chatzianastasis, Costas Bouyioukos et Michalis Vazirgiannis. « Prot2Text : Multimodal Protein’s Function Generation with GNNs and Transformers ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 10 (24 mars 2024) : 10757–65. http://dx.doi.org/10.1609/aaai.v38i10.28948.
Texte intégralSams, Andrew Steven, et Amalia Zahra. « Multimodal music emotion recognition in Indonesian songs based on CNN-LSTM, XLNet transformers ». Bulletin of Electrical Engineering and Informatics 12, no 1 (1 février 2023) : 355–64. http://dx.doi.org/10.11591/eei.v12i1.4231.
Texte intégralNayak, Roshan, B. S. Ullas Kannantha, Kruthi S et C. Gururaj. « Multimodal Offensive Meme Classification u sing Transformers and BiLSTM ». International Journal of Engineering and Advanced Technology 11, no 3 (28 février 2022) : 96–102. http://dx.doi.org/10.35940/ijeat.c3392.0211322.
Texte intégralNadal, Clement, et Francois Pigache. « Multimodal electromechanical model of piezoelectric transformers by Hamilton's principle ». IEEE Transactions on Ultrasonics, Ferroelectrics, and Frequency Control 56, no 11 (novembre 2009) : 2530–43. http://dx.doi.org/10.1109/tuffc.2009.1340.
Texte intégralPezzelle, Sandro, Ece Takmaz et Raquel Fernández. « Word Representation Learning in Multimodal Pre-Trained Transformers : An Intrinsic Evaluation ». Transactions of the Association for Computational Linguistics 9 (2021) : 1563–79. http://dx.doi.org/10.1162/tacl_a_00443.
Texte intégralLiang, Yi, Turdi Tohti et Askar Hamdulla. « False Information Detection via Multimodal Feature Fusion and Multi-Classifier Hybrid Prediction ». Algorithms 15, no 4 (29 mars 2022) : 119. http://dx.doi.org/10.3390/a15040119.
Texte intégralZhang, Tianze. « Investigation on task effect analysis and optimization strategy of multimodal large model based on Transformers architecture for various languages ». Applied and Computational Engineering 47, no 1 (15 mars 2024) : 213–24. http://dx.doi.org/10.54254/2755-2721/47/20241374.
Texte intégralNia, Zahra Movahedi, Ali Ahmadi, Bruce Mellado, Jianhong Wu, James Orbinski, Ali Asgary et Jude D. Kong. « Twitter-based gender recognition using transformers ». Mathematical Biosciences and Engineering 20, no 9 (2023) : 15957–77. http://dx.doi.org/10.3934/mbe.2023711.
Texte intégralPark, Junhee, et Nammee Moon. « Design and Implementation of Attention Depression Detection Model Based on Multimodal Analysis ». Sustainability 14, no 6 (18 mars 2022) : 3569. http://dx.doi.org/10.3390/su14063569.
Texte intégralXiang, Yunfan, Xiangyu Tian, Yue Xu, Xiaokun Guan et Zhengchao Chen. « EGMT-CD : Edge-Guided Multimodal Transformers Change Detection from Satellite and Aerial Images ». Remote Sensing 16, no 1 (25 décembre 2023) : 86. http://dx.doi.org/10.3390/rs16010086.
Texte intégralAmmour, Nassim, Yakoub Bazi et Naif Alajlan. « Multimodal Approach for Enhancing Biometric Authentication ». Journal of Imaging 9, no 9 (22 août 2023) : 168. http://dx.doi.org/10.3390/jimaging9090168.
Texte intégralSegura-Bedmar, Isabel, et Santiago Alonso-Bartolome. « Multimodal Fake News Detection ». Information 13, no 6 (2 juin 2022) : 284. http://dx.doi.org/10.3390/info13060284.
Texte intégralMingyu, Ji, Zhou Jiawei et Wei Ning. « AFR-BERT : Attention-based mechanism feature relevance fusion multimodal sentiment analysis model ». PLOS ONE 17, no 9 (9 septembre 2022) : e0273936. http://dx.doi.org/10.1371/journal.pone.0273936.
Texte intégralArgade, Dakshata, Vaishali Khairnar, Deepali Vora, Shruti Patil, Ketan Kotecha et Sultan Alfarhood. « Multimodal Abstractive Summarization using bidirectional encoder representations from transformers with attention mechanism ». Heliyon 10, no 4 (février 2024) : e26162. http://dx.doi.org/10.1016/j.heliyon.2024.e26162.
Texte intégralGupta, Arpit, Himanshu Goyal et Ishita Kohli. « Synthesis of Vision and Language : Multifaceted Image Captioning Application ». INTERANTIONAL JOURNAL OF SCIENTIFIC RESEARCH IN ENGINEERING AND MANAGEMENT 07, no 12 (23 décembre 2023) : 1–10. http://dx.doi.org/10.55041/ijsrem27770.
Texte intégralZhong, Enmin, Carlos R. del-Blanco, Daniel Berjón, Fernando Jaureguizar et Narciso García. « Real-Time Monocular Skeleton-Based Hand Gesture Recognition Using 3D-Jointsformer ». Sensors 23, no 16 (10 août 2023) : 7066. http://dx.doi.org/10.3390/s23167066.
Texte intégralNikzad-Khasmakhi, N., M. A. Balafar, M. Reza Feizi-Derakhshi et Cina Motamed. « BERTERS : Multimodal representation learning for expert recommendation system with transformers and graph embeddings ». Chaos, Solitons & ; Fractals 151 (octobre 2021) : 111260. http://dx.doi.org/10.1016/j.chaos.2021.111260.
Texte intégralHazmoune, Samira, et Fateh Bougamouza. « Using transformers for multimodal emotion recognition : Taxonomies and state of the art review ». Engineering Applications of Artificial Intelligence 133 (juillet 2024) : 108339. http://dx.doi.org/10.1016/j.engappai.2024.108339.
Texte intégralPerifanos, Konstantinos, et Dionysis Goutsos. « Multimodal Hate Speech Detection in Greek Social Media ». Multimodal Technologies and Interaction 5, no 7 (29 juin 2021) : 34. http://dx.doi.org/10.3390/mti5070034.
Texte intégralLi, Ning, Jie Chen, Nanxin Fu, Wenzhuo Xiao, Tianrun Ye, Chunming Gao et Ping Zhang. « Leveraging Dual Variational Autoencoders and Generative Adversarial Networks for Enhanced Multimodal Interaction in Zero-Shot Learning ». Electronics 13, no 3 (29 janvier 2024) : 539. http://dx.doi.org/10.3390/electronics13030539.
Texte intégralMeng, Yiwen, William Speier, Michael K. Ong et Corey W. Arnold. « Bidirectional Representation Learning From Transformers Using Multimodal Electronic Health Record Data to Predict Depression ». IEEE Journal of Biomedical and Health Informatics 25, no 8 (août 2021) : 3121–29. http://dx.doi.org/10.1109/jbhi.2021.3063721.
Texte intégralZhang, Mengna, Qisong Huang et Hua Liu. « A Multimodal Data Analysis Approach to Social Media during Natural Disasters ». Sustainability 14, no 9 (5 mai 2022) : 5536. http://dx.doi.org/10.3390/su14095536.
Texte intégralMacfadyen, Craig, Ajay Duraiswamy et David Harris-Birtill. « Classification of hyper-scale multimodal imaging datasets ». PLOS Digital Health 2, no 12 (13 décembre 2023) : e0000191. http://dx.doi.org/10.1371/journal.pdig.0000191.
Texte intégralSvyatov, Kirill V., Daniil P. Kanin et Sergey V. Sukhov. « THE CONTROL SYSTEM FOR UNMANNED VEHICLES BASED ON MULTIMODAL DATA AND IDENTIFIED FEATURE HIERARCHY ». Автоматизация процессов управления 1, no 67 (2022) : 52–59. http://dx.doi.org/10.35752/1991-2927-2022-1-67-52-59.
Texte intégralWatson, Eleanor, Thiago Viana et Shujun Zhang. « Augmented Behavioral Annotation Tools, with Application to Multimodal Datasets and Models : A Systematic Review ». AI 4, no 1 (28 janvier 2023) : 128–71. http://dx.doi.org/10.3390/ai4010007.
Texte intégralZhang, Ke, Shunmin Wang et Yuyuan Yu. « A TBGAV-Based Image-Text Multimodal Sentiment Analysis Method for Tourism Reviews ». International Journal of Information Technology and Web Engineering 18, no 1 (7 décembre 2023) : 1–17. http://dx.doi.org/10.4018/ijitwe.334595.
Texte intégralLuna-Jiménez, Cristina, Ricardo Kleinlein, David Griol, Zoraida Callejas, Juan M. Montero et Fernando Fernández-Martínez. « A Proposal for Multimodal Emotion Recognition Using Aural Transformers and Action Units on RAVDESS Dataset ». Applied Sciences 12, no 1 (30 décembre 2021) : 327. http://dx.doi.org/10.3390/app12010327.
Texte intégralSingh, Aman, Ankit Gautam, Deepanshu, Gautam Kumar, Lokesh Kumar Meena et Shashank Saroop. « Automated Minutes of Meeting Using a Multimodal Approach ». International Journal for Research in Applied Science and Engineering Technology 11, no 12 (31 décembre 2023) : 2059–63. http://dx.doi.org/10.22214/ijraset.2023.57787.
Texte intégralWang, Zhecan, Haoxuan You, Liunian Harold Li, Alireza Zareian, Suji Park, Yiqing Liang, Kai-Wei Chang et Shih-Fu Chang. « SGEITL : Scene Graph Enhanced Image-Text Learning for Visual Commonsense Reasoning ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 5 (28 juin 2022) : 5914–22. http://dx.doi.org/10.1609/aaai.v36i5.20536.
Texte intégralLi, Weisheng, Yin Zhang, Guofen Wang, Yuping Huang et Ruyue Li. « DFENet : A dual-branch feature enhanced network integrating transformers and convolutional feature learning for multimodal medical image fusion ». Biomedical Signal Processing and Control 80 (février 2023) : 104402. http://dx.doi.org/10.1016/j.bspc.2022.104402.
Texte intégralLiu, Mingfei, Bin Zhou, Jie Li, Xinyu Li et Jinsong Bao. « A Knowledge Graph-Based Approach for Assembly Sequence Recommendations for Wind Turbines ». Machines 11, no 10 (27 septembre 2023) : 930. http://dx.doi.org/10.3390/machines11100930.
Texte intégralKalra, Sakshi, Chitneedi Hemanth Sai Kumar, Yashvardhan Sharma et Gajendra Singh Chauhan. « FakeExpose : Uncovering the falsity of news by targeting the multimodality via transfer learning ». Journal of Information and Optimization Sciences 44, no 3 (2023) : 301–14. http://dx.doi.org/10.47974/jios-1342.
Texte intégralColeman, Matthew, Joanna F. Dipnall, Myong Jung et Lan Du. « PreRadE : Pretraining Tasks on Radiology Images and Reports Evaluation Framework ». Mathematics 10, no 24 (8 décembre 2022) : 4661. http://dx.doi.org/10.3390/math10244661.
Texte intégralSriram, K., S. P. Mangaiyarkarasi, S. Sakthivel et L. Jebaraj. « An Extensive Study Using the Beetle Swarm Method to Optimize Single and Multiple Objectives of Various Optimal Power Flow Problems ». International Transactions on Electrical Energy Systems 2023 (30 mars 2023) : 1–33. http://dx.doi.org/10.1155/2023/5779700.
Texte intégralBoehm, Kevin M., Antonio Marra, Jorge S. Reis-Filho, Sarat Chandarlapaty, Fresia Pareja et Sohrab P. Shah. « Abstract 890 : Multimodal modeling of digitized histopathology slides improves risk stratification in hormone receptor-positive breast cancer patients ». Cancer Research 84, no 6_Supplement (22 mars 2024) : 890. http://dx.doi.org/10.1158/1538-7445.am2024-890.
Texte intégralAlam, Mohammad Arif Ul. « College Student Retention Risk Analysis from Educational Database Using Multi-Task Multi-Modal Neural Fusion ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 11 (28 juin 2022) : 12689–97. http://dx.doi.org/10.1609/aaai.v36i11.21545.
Texte intégralWu, Di, Lihua Cao, Pengji Zhou, Ning Li, Yi Li et Dejun Wang. « Infrared Small-Target Detection Based on Radiation Characteristics with a Multimodal Feature Fusion Network ». Remote Sensing 14, no 15 (25 juillet 2022) : 3570. http://dx.doi.org/10.3390/rs14153570.
Texte intégralde Hond, Anne, Marieke van Buchem, Claudio Fanconi, Mohana Roy, Douglas Blayney, Ilse Kant, Ewout Steyerberg et Tina Hernandez-Boussard. « Predicting Depression Risk in Patients With Cancer Using Multimodal Data : Algorithm Development Study ». JMIR Medical Informatics 12 (18 janvier 2024) : e51925. http://dx.doi.org/10.2196/51925.
Texte intégralNooralahzadeh, Farhad, et Rico Sennrich. « Improving the Cross-Lingual Generalisation in Visual Question Answering ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 11 (26 juin 2023) : 13419–27. http://dx.doi.org/10.1609/aaai.v37i11.26574.
Texte intégral