Articles de revues sur le sujet « Video Vision Transformer »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Video Vision Transformer ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Naikwadi, Sanket Shashikant. « Video Summarization Using Vision and Language Transformer Models ». International Journal of Research Publication and Reviews 6, no 6 (janvier 2025) : 5217–21. https://doi.org/10.55248/gengpi.6.0125.0654.
Texte intégralMoutik, Oumaima, Hiba Sekkat, Smail Tigani, Abdellah Chehri, Rachid Saadane, Taha Ait Tchakoucht et Anand Paul. « Convolutional Neural Networks or Vision Transformers : Who Will Win the Race for Action Recognitions in Visual Data ? » Sensors 23, no 2 (9 janvier 2023) : 734. http://dx.doi.org/10.3390/s23020734.
Texte intégralYuan, Hongchun, Zhenyu Cai, Hui Zhou, Yue Wang et Xiangzhi Chen. « TransAnomaly : Video Anomaly Detection Using Video Vision Transformer ». IEEE Access 9 (2021) : 123977–86. http://dx.doi.org/10.1109/access.2021.3109102.
Texte intégralSarraf, Saman, et Milton Kabia. « Optimal Topology of Vision Transformer for Real-Time Video Action Recognition in an End-To-End Cloud Solution ». Machine Learning and Knowledge Extraction 5, no 4 (29 septembre 2023) : 1320–39. http://dx.doi.org/10.3390/make5040067.
Texte intégralZhao, Hong, Zhiwen Chen, Lan Guo et Zeyu Han. « Video captioning based on vision transformer and reinforcement learning ». PeerJ Computer Science 8 (16 mars 2022) : e916. http://dx.doi.org/10.7717/peerj-cs.916.
Texte intégralIm, Heeju, et Yong Suk Choi. « A Full Transformer Video Captioning Model via Vision Transformer ». KIISE Transactions on Computing Practices 29, no 8 (31 août 2023) : 378–83. http://dx.doi.org/10.5626/ktcp.2023.29.8.378.
Texte intégralUgile, Tukaram, et Dr Nilesh Uke. « TRANSFORMER ARCHITECTURES FOR COMPUTER VISION : A COMPREHENSIVE REVIEW AND FUTURE RESEARCH DIRECTIONS ». Journal of Dynamics and Control 9, no 3 (15 mars 2025) : 70–79. https://doi.org/10.71058/jodac.v9i3005.
Texte intégralWu, Pengfei, Le Wang, Sanping Zhou, Gang Hua et Changyin Sun. « Temporal Correlation Vision Transformer for Video Person Re-Identification ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 6 (24 mars 2024) : 6083–91. http://dx.doi.org/10.1609/aaai.v38i6.28424.
Texte intégralJin, Yanxiu, et Rulin Ma. « Applications of transformers in computer vision ». Applied and Computational Engineering 16, no 1 (23 octobre 2023) : 234–41. http://dx.doi.org/10.54254/2755-2721/16/20230898.
Texte intégralPei, Pengfei, Xianfeng Zhao, Jinchuan Li, Yun Cao et Xuyuan Lai. « Vision Transformer-Based Video Hashing Retrieval for Tracing the Source of Fake Videos ». Security and Communication Networks 2023 (28 juin 2023) : 1–16. http://dx.doi.org/10.1155/2023/5349392.
Texte intégralWang, Hao, Wenjia Zhang et Guohua Liu. « TSNet : Token Sparsification for Efficient Video Transformer ». Applied Sciences 13, no 19 (24 septembre 2023) : 10633. http://dx.doi.org/10.3390/app131910633.
Texte intégralKim, Dahyun, et Myung Hwan Na. « Rice yield prediction and self-attention visualization using Video Vision Transformer ». Korean Data Analysis Society 25, no 4 (31 août 2023) : 1249–59. http://dx.doi.org/10.37727/jkdas.2023.25.4.1249.
Texte intégralLee, Jaewoo, Sungjun Lee, Wonki Cho, Zahid Ali Siddiqui et Unsang Park. « Vision Transformer-Based Tailing Detection in Videos ». Applied Sciences 11, no 24 (7 décembre 2021) : 11591. http://dx.doi.org/10.3390/app112411591.
Texte intégralAbdlrazg, Bassma A. Awad, Sumaia Masoud et Mnal M. Ali. « Human Action Detection Using A hybrid Architecture of CNN and Transformer ». International Science and Technology Journal 34, no 1 (25 janvier 2024) : 1–15. http://dx.doi.org/10.62341/bsmh2119.
Texte intégralLi, Xue, Huibo Zhou et Ming Zhao. « Transformer-based cascade networks with spatial and channel reconstruction convolution for deepfake detection ». Mathematical Biosciences and Engineering 21, no 3 (2024) : 4142–64. http://dx.doi.org/10.3934/mbe.2024183.
Texte intégralZhou, Siyuan, Chunru Zhan, Biao Wang, Tiezheng Ge, Yuning Jiang et Li Niu. « Video Object of Interest Segmentation ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 3 (26 juin 2023) : 3805–13. http://dx.doi.org/10.1609/aaai.v37i3.25493.
Texte intégralHuo, Hua, et Bingjie Li. « MgMViT : Multi-Granularity and Multi-Scale Vision Transformer for Efficient Action Recognition ». Electronics 13, no 5 (29 février 2024) : 948. http://dx.doi.org/10.3390/electronics13050948.
Texte intégralKumar, Pavan. « Revolutionizing Deepfake Detection and Realtime Video Vision with CNN-based Deep Learning Model ». International Journal of Innovative Research in Information Security 10, no 04 (8 mai 2024) : 173–77. http://dx.doi.org/10.26562/ijiris.2024.v1004.10.
Texte intégralReddy, Sai Krishna. « Advancements in Video Deblurring : A Comprehensive Review ». INTERANTIONAL JOURNAL OF SCIENTIFIC RESEARCH IN ENGINEERING AND MANAGEMENT 08, no 05 (7 mai 2024) : 1–5. http://dx.doi.org/10.55041/ijsrem32759.
Texte intégralIm, Heeju, et Yong-Suk Choi. « UAT : Universal Attention Transformer for Video Captioning ». Sensors 22, no 13 (25 juin 2022) : 4817. http://dx.doi.org/10.3390/s22134817.
Texte intégralYamazaki, Kashu, Khoa Vo, Quang Sang Truong, Bhiksha Raj et Ngan Le. « VLTinT : Visual-Linguistic Transformer-in-Transformer for Coherent Video Paragraph Captioning ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 3 (26 juin 2023) : 3081–90. http://dx.doi.org/10.1609/aaai.v37i3.25412.
Texte intégralChoksi, Sarah, Sanjeev Narasimhan, Mattia Ballo, Mehmet Turkcan, Yiran Hu, Chengbo Zang, Alex Farrell et al. « Automatic assessment of robotic suturing utilizing computer vision in a dry-lab simulation ». Artificial Intelligence Surgery 5, no 2 (1 avril 2025) : 160–9. https://doi.org/10.20517/ais.2024.84.
Texte intégralNarsina, Deekshith, Nicholas Richardson, Arjun Kamisetty, Jaya Chandra Srikanth Gummadi et Krishna Devarapu. « Neural Network Architectures for Real-Time Image and Video Processing Applications ». Engineering International 10, no 2 (2022) : 131–44. https://doi.org/10.18034/ei.v10i2.735.
Texte intégralHan, Xiao, Yongbin Wang, Shouxun Liu et Cong Jin. « Online Multiplayer Tracking by Extracting Temporal Contexts with Transformer ». Wireless Communications and Mobile Computing 2022 (11 octobre 2022) : 1–10. http://dx.doi.org/10.1155/2022/6177973.
Texte intégralZhang, Fan, Jiawei Tian, Jianhao Wang, Guanyou Liu et Ying Liu. « ECViST : Mine Intelligent Monitoring Based on Edge Computing and Vision Swin Transformer-YOLOv5 ». Energies 15, no 23 (29 novembre 2022) : 9015. http://dx.doi.org/10.3390/en15239015.
Texte intégralMardani, Konstantina, Nicholas Vretos et Petros Daras. « Transformer-Based Fire Detection in Videos ». Sensors 23, no 6 (11 mars 2023) : 3035. http://dx.doi.org/10.3390/s23063035.
Texte intégralPeng, Pengfei, Guoqing Liang et Tao Luan. « Multi-View Inconsistency Analysis for Video Object-Level Splicing Localization ». International Journal of Emerging Technologies and Advanced Applications 1, no 3 (24 avril 2024) : 1–5. http://dx.doi.org/10.62677/ijetaa.2403111.
Texte intégralWang, Jing, et ZongJu Yang. « Transformer-Guided Video Inpainting Algorithm Based on Local Spatial-Temporal joint ». EAI Endorsed Transactions on e-Learning 8, no 4 (15 août 2023) : e2. http://dx.doi.org/10.4108/eetel.3156.
Texte intégralLe, Viet-Tuan, Kiet Tran-Trung et Vinh Truong Hoang. « A Comprehensive Review of Recent Deep Learning Techniques for Human Activity Recognition ». Computational Intelligence and Neuroscience 2022 (20 avril 2022) : 1–17. http://dx.doi.org/10.1155/2022/8323962.
Texte intégralHong, Jiuk, Chaehyeon Lee et Heechul Jung. « Late Fusion-Based Video Transformer for Facial Micro-Expression Recognition ». Applied Sciences 12, no 3 (23 janvier 2022) : 1169. http://dx.doi.org/10.3390/app12031169.
Texte intégralD, Mrs Srivalli, et Divya Sri V. « Video Inpainting with Local and Global Refinement ». INTERANTIONAL JOURNAL OF SCIENTIFIC RESEARCH IN ENGINEERING AND MANAGEMENT 08, no 03 (17 mars 2024) : 1–5. http://dx.doi.org/10.55041/ijsrem29385.
Texte intégralHabeb, Mohamed H., May Salama et Lamiaa A. Elrefaei. « Enhancing Video Anomaly Detection Using a Transformer Spatiotemporal Attention Unsupervised Framework for Large Datasets ». Algorithms 17, no 7 (1 juillet 2024) : 286. http://dx.doi.org/10.3390/a17070286.
Texte intégralUsmani, Shaheen, Sunil Kumar et Debanjan Sadhya. « Spatio-temporal knowledge distilled video vision transformer (STKD-VViT) for multimodal deepfake detection ». Neurocomputing 620 (mars 2025) : 129256. https://doi.org/10.1016/j.neucom.2024.129256.
Texte intégralKumar, Yulia, Kuan Huang, Chin-Chien Lin, Annaliese Watson, J. Jenny Li, Patricia Morreale et Justin Delgado. « Applying Swin Architecture to Diverse Sign Language Datasets ». Electronics 13, no 8 (16 avril 2024) : 1509. http://dx.doi.org/10.3390/electronics13081509.
Texte intégralLi, Yixiao, Lixiang Li, Zirui Zhuang, Yuan Fang, Haipeng Peng et Nam Ling. « Transformer-Based Data-Driven Video Coding Acceleration for Industrial Applications ». Mathematical Problems in Engineering 2022 (27 septembre 2022) : 1–11. http://dx.doi.org/10.1155/2022/1440323.
Texte intégralNikulina, Olena, Valerii Severyn, Oleksii Kondratov et Oleksii Olhovoy. « MODELS OF REMOTE IDENTIFICATION OF PARAMETERS OF DYNAMIC OBJECTS USING DETECTION TRANSFORMERS AND OPTICAL FLOW ». Bulletin of National Technical University "KhPI". Series : System Analysis, Control and Information Technologies, no 1 (11) (30 juillet 2024) : 52–57. http://dx.doi.org/10.20998/2079-0023.2024.01.08.
Texte intégralEl Moaqet, Hisham, Rami Janini, Tamer Abdulbaki Alshirbaji, Nour Aldeen Jalal et Knut Möller. « Using Vision Transformers for Classifying Surgical Tools in Computer Aided Surgeries ». Current Directions in Biomedical Engineering 10, no 4 (1 décembre 2024) : 232–35. https://doi.org/10.1515/cdbme-2024-2056.
Texte intégralJang, Hee-Deok, Seokjoon Kwon, Hyunwoo Nam et Dong Eui Chang. « Chemical Gas Source Localization with Synthetic Time Series Diffusion Data Using Video Vision Transformer ». Applied Sciences 14, no 11 (23 mai 2024) : 4451. http://dx.doi.org/10.3390/app14114451.
Texte intégralMozaffari, M. Hamed, Yuchuan Li, Niloofar Hooshyaripour et Yoon Ko. « Vision-Based Prediction of Flashover Using Transformers and Convolutional Long Short-Term Memory Model ». Electronics 13, no 23 (3 décembre 2024) : 4776. https://doi.org/10.3390/electronics13234776.
Texte intégralGeng, Xiaozhong, Cheng Chen, Ping Yu, Baijin Liu, Weixin Hu, Qipeng Liang et Xintong Zhang. « OM-VST : A video action recognition model based on optimized downsampling module combined with multi-scale feature fusion ». PLOS ONE 20, no 3 (6 mars 2025) : e0318884. https://doi.org/10.1371/journal.pone.0318884.
Texte intégralKim, Nayeon, Sukhee Cho et Byungjun Bae. « SMaTE : A Segment-Level Feature Mixing and Temporal Encoding Framework for Facial Expression Recognition ». Sensors 22, no 15 (1 août 2022) : 5753. http://dx.doi.org/10.3390/s22155753.
Texte intégralLai, Derek Ka-Hei, Ethan Shiu-Wang Cheng, Bryan Pak-Hei So, Ye-Jiao Mao, Sophia Ming-Yan Cheung, Daphne Sze Ki Cheung, Duo Wai-Chi Wong et James Chung-Wai Cheung. « Transformer Models and Convolutional Networks with Different Activation Functions for Swallow Classification Using Depth Video Data ». Mathematics 11, no 14 (12 juillet 2023) : 3081. http://dx.doi.org/10.3390/math11143081.
Texte intégralLiu, Yuqi, Luhui Xu, Pengfei Xiong et Qin Jin. « Token Mixing : Parameter-Efficient Transfer Learning from Image-Language to Video-Language ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 2 (26 juin 2023) : 1781–89. http://dx.doi.org/10.1609/aaai.v37i2.25267.
Texte intégralLorenzo, Javier, Ignacio Parra Alonso, Rubén Izquierdo, Augusto Luis Ballardini, Álvaro Hernández Saz, David Fernández Llorca et Miguel Ángel Sotelo. « CAPformer : Pedestrian Crossing Action Prediction Using Transformer ». Sensors 21, no 17 (24 août 2021) : 5694. http://dx.doi.org/10.3390/s21175694.
Texte intégralGuo, Zizhao, et Sancong Ying. « Whole-Body Keypoint and Skeleton Augmented RGB Networks for Video Action Recognition ». Applied Sciences 12, no 12 (18 juin 2022) : 6215. http://dx.doi.org/10.3390/app12126215.
Texte intégralZhang, Renhong, Tianheng Cheng, Shusheng Yang, Haoyi Jiang, Shuai Zhang, Jiancheng Lyu, Xin Li et al. « MobileInst : Video Instance Segmentation on the Mobile ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 7 (24 mars 2024) : 7260–68. http://dx.doi.org/10.1609/aaai.v38i7.28555.
Texte intégralZang, Chengbo, Mehmet Kerem Turkcan, Sanjeev Narasimhan, Yuqing Cao, Kaan Yarali, Zixuan Xiang, Skyler Szot et al. « Surgical Phase Recognition in Inguinal Hernia Repair—AI-Based Confirmatory Baseline and Exploration of Competitive Models ». Bioengineering 10, no 6 (27 mai 2023) : 654. http://dx.doi.org/10.3390/bioengineering10060654.
Texte intégralLiu, Hao, Jiwen Lu, Jianjiang Feng et Jie Zhou. « Two-Stream Transformer Networks for Video-Based Face Alignment ». IEEE Transactions on Pattern Analysis and Machine Intelligence 40, no 11 (1 novembre 2018) : 2546–54. http://dx.doi.org/10.1109/tpami.2017.2734779.
Texte intégralKhan, Salman, Muzammal Naseer, Munawar Hayat, Syed Waqas Zamir, Fahad Shahbaz Khan et Mubarak Shah. « Transformers in Vision : A Survey ». ACM Computing Surveys, 6 janvier 2022. http://dx.doi.org/10.1145/3505244.
Texte intégralHsu, Tzu-Chun, Yi-Sheng Liao et Chun-Rong Huang. « Video Summarization With Spatiotemporal Vision Transformer ». IEEE Transactions on Image Processing, 2023, 1. http://dx.doi.org/10.1109/tip.2023.3275069.
Texte intégral