Articles de revues sur le sujet « Deep Video Representations »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Deep Video Representations ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Feichtenhofer, Christoph, Axel Pinz, Richard P. Wildes et Andrew Zisserman. « Deep Insights into Convolutional Networks for Video Recognition ». International Journal of Computer Vision 128, no 2 (29 octobre 2019) : 420–37. http://dx.doi.org/10.1007/s11263-019-01225-w.
Texte intégralPandeya, Yagya Raj, Bhuwan Bhattarai et Joonwhoan Lee. « Deep-Learning-Based Multimodal Emotion Classification for Music Videos ». Sensors 21, no 14 (20 juillet 2021) : 4927. http://dx.doi.org/10.3390/s21144927.
Texte intégralLjubešić, Nikola. « ‟Deep lexicography” – Fad or Opportunity ? » Rasprave Instituta za hrvatski jezik i jezikoslovlje 46, no 2 (30 octobre 2020) : 839–52. http://dx.doi.org/10.31724/rihjj.46.2.21.
Texte intégralKumar, Vidit, Vikas Tripathi et Bhaskar Pant. « Learning Unsupervised Visual Representations using 3D Convolutional Autoencoder with Temporal Contrastive Modeling for Video Retrieval ». International Journal of Mathematical, Engineering and Management Sciences 7, no 2 (14 mars 2022) : 272–87. http://dx.doi.org/10.33889/ijmems.2022.7.2.018.
Texte intégralVihlman, Mikko, et Arto Visala. « Optical Flow in Deep Visual Tracking ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 07 (3 avril 2020) : 12112–19. http://dx.doi.org/10.1609/aaai.v34i07.6890.
Texte intégralRouast, Philipp V., et Marc T. P. Adam. « Learning Deep Representations for Video-Based Intake Gesture Detection ». IEEE Journal of Biomedical and Health Informatics 24, no 6 (juin 2020) : 1727–37. http://dx.doi.org/10.1109/jbhi.2019.2942845.
Texte intégralLi, Jialu, Aishwarya Padmakumar, Gaurav Sukhatme et Mohit Bansal. « VLN-Video : Utilizing Driving Videos for Outdoor Vision-and-Language Navigation ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 17 (24 mars 2024) : 18517–26. http://dx.doi.org/10.1609/aaai.v38i17.29813.
Texte intégralHu, Yueyue, Shiliang Sun, Xin Xu et Jing Zhao. « Multi-View Deep Attention Network for Reinforcement Learning (Student Abstract) ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 10 (3 avril 2020) : 13811–12. http://dx.doi.org/10.1609/aaai.v34i10.7177.
Texte intégralDong, Zhen, Chenchen Jing, Mingtao Pei et Yunde Jia. « Deep CNN based binary hash video representations for face retrieval ». Pattern Recognition 81 (septembre 2018) : 357–69. http://dx.doi.org/10.1016/j.patcog.2018.04.014.
Texte intégralPsallidas, Theodoros, et Evaggelos Spyrou. « Video Summarization Based on Feature Fusion and Data Augmentation ». Computers 12, no 9 (15 septembre 2023) : 186. http://dx.doi.org/10.3390/computers12090186.
Texte intégralLiu, Shangdong, Puming Cao, Yujian Feng, Yimu Ji, Jiayuan Chen, Xuedong Xie et Longji Wu. « NRVC : Neural Representation for Video Compression with Implicit Multiscale Fusion Network ». Entropy 25, no 8 (4 août 2023) : 1167. http://dx.doi.org/10.3390/e25081167.
Texte intégralPan, Haixia, Jiahua Lan, Hongqiang Wang, Yanan Li, Meng Zhang, Mojie Ma, Dongdong Zhang et Xiaoran Zhao. « UWV-Yolox : A Deep Learning Model for Underwater Video Object Detection ». Sensors 23, no 10 (18 mai 2023) : 4859. http://dx.doi.org/10.3390/s23104859.
Texte intégralGad, Gad, Eyad Gad, Korhan Cengiz, Zubair Fadlullah et Bassem Mokhtar. « Deep Learning-Based Context-Aware Video Content Analysis on IoT Devices ». Electronics 11, no 11 (4 juin 2022) : 1785. http://dx.doi.org/10.3390/electronics11111785.
Texte intégralLin, Jie, Ling-Yu Duan, Shiqi Wang, Yan Bai, Yihang Lou, Vijay Chandrasekhar, Tiejun Huang, Alex Kot et Wen Gao. « HNIP : Compact Deep Invariant Representations for Video Matching, Localization, and Retrieval ». IEEE Transactions on Multimedia 19, no 9 (septembre 2017) : 1968–83. http://dx.doi.org/10.1109/tmm.2017.2713410.
Texte intégralZhang, Huijun, Ling Feng, Ningyun Li, Zhanyu Jin et Lei Cao. « Video-Based Stress Detection through Deep Learning ». Sensors 20, no 19 (28 septembre 2020) : 5552. http://dx.doi.org/10.3390/s20195552.
Texte intégralJiang, Pin, et Yahong Han. « Reasoning with Heterogeneous Graph Alignment for Video Question Answering ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 07 (3 avril 2020) : 11109–16. http://dx.doi.org/10.1609/aaai.v34i07.6767.
Texte intégralMumtaz, Nadia, Naveed Ejaz, Suliman Aladhadh, Shabana Habib et Mi Young Lee. « Deep Multi-Scale Features Fusion for Effective Violence Detection and Control Charts Visualization ». Sensors 22, no 23 (1 décembre 2022) : 9383. http://dx.doi.org/10.3390/s22239383.
Texte intégralWu, Lin, Yang Wang, Ling Shao et Meng Wang. « 3-D PersonVLAD : Learning Deep Global Representations for Video-Based Person Reidentification ». IEEE Transactions on Neural Networks and Learning Systems 30, no 11 (novembre 2019) : 3347–59. http://dx.doi.org/10.1109/tnnls.2019.2891244.
Texte intégralMeshchaninov, Viacheslav Pavlovich, Ivan Andreevich Molodetskikh, Dmitriy Sergeevich Vatolin et Alexey Gennadievich Voloboy. « Combining contrastive and supervised learning for video super-resolution detection ». Keldysh Institute Preprints, no 80 (2022) : 1–13. http://dx.doi.org/10.20948/prepr-2022-80.
Texte intégralHuang, Shaonian, Dongjun Huang et Xinmin Zhou. « Learning Multimodal Deep Representations for Crowd Anomaly Event Detection ». Mathematical Problems in Engineering 2018 (2018) : 1–13. http://dx.doi.org/10.1155/2018/6323942.
Texte intégralKumar, Vidit, Vikas Tripathi, Bhaskar Pant, Sultan S. Alshamrani, Ankur Dumka, Anita Gehlot, Rajesh Singh, Mamoon Rashid, Abdullah Alshehri et Ahmed Saeed AlGhamdi. « Hybrid Spatiotemporal Contrastive Representation Learning for Content-Based Surgical Video Retrieval ». Electronics 11, no 9 (24 avril 2022) : 1353. http://dx.doi.org/10.3390/electronics11091353.
Texte intégralXu, Ming, Xiaosheng Yu, Dongyue Chen, Chengdong Wu et Yang Jiang. « An Efficient Anomaly Detection System for Crowded Scenes Using Variational Autoencoders ». Applied Sciences 9, no 16 (14 août 2019) : 3337. http://dx.doi.org/10.3390/app9163337.
Texte intégralBohunicky, Kyle Matthew. « Dear Punchy ». Animal Crossing Special Issue 13, no 22 (16 février 2021) : 39–58. http://dx.doi.org/10.7202/1075262ar.
Texte intégralRezaei, Fariba, et Mehran Yazdi. « A New Semantic and Statistical Distance-Based Anomaly Detection in Crowd Video Surveillance ». Wireless Communications and Mobile Computing 2021 (15 mai 2021) : 1–9. http://dx.doi.org/10.1155/2021/5513582.
Texte intégralDong, Wenkai, Zhaoxiang Zhang et Tieniu Tan. « Attention-Aware Sampling via Deep Reinforcement Learning for Action Recognition ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 8247–54. http://dx.doi.org/10.1609/aaai.v33i01.33018247.
Texte intégralNida, Nudrat, Muhammad Haroon Yousaf, Aun Irtaza et Sergio A. Velastin. « Instructor Activity Recognition through Deep Spatiotemporal Features and Feedforward Extreme Learning Machines ». Mathematical Problems in Engineering 2019 (30 avril 2019) : 1–13. http://dx.doi.org/10.1155/2019/2474865.
Texte intégralHe, Dongliang, Zhichao Zhou, Chuang Gan, Fu Li, Xiao Liu, Yandong Li, Limin Wang et Shilei Wen. « StNet : Local and Global Spatial-Temporal Modeling for Action Recognition ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 8401–8. http://dx.doi.org/10.1609/aaai.v33i01.33018401.
Texte intégralSwinney, Carolyn J., et John C. Woods. « Unmanned Aerial Vehicle Operating Mode Classification Using Deep Residual Learning Feature Extraction ». Aerospace 8, no 3 (16 mars 2021) : 79. http://dx.doi.org/10.3390/aerospace8030079.
Texte intégralZhao, Hu, Yanyun Shen, Zhipan Wang et Qingling Zhang. « MFACNet : A Multi-Frame Feature Aggregating and Inter-Feature Correlation Framework for Multi-Object Tracking in Satellite Videos ». Remote Sensing 16, no 9 (30 avril 2024) : 1604. http://dx.doi.org/10.3390/rs16091604.
Texte intégralKulvinder Singh, Et al. « Enhancing Multimodal Information Retrieval Through Integrating Data Mining and Deep Learning Techniques ». International Journal on Recent and Innovation Trends in Computing and Communication 11, no 9 (30 octobre 2023) : 560–69. http://dx.doi.org/10.17762/ijritcc.v11i9.8844.
Texte intégralGovender, Divina, et Jules-Raymond Tapamo. « Spatio-Temporal Scale Coded Bag-of-Words ». Sensors 20, no 21 (9 novembre 2020) : 6380. http://dx.doi.org/10.3390/s20216380.
Texte intégralHuang, Haofeng, Wenhan Yang, Lingyu Duan et Jiaying Liu. « Seeing Dark Videos via Self-Learned Bottleneck Neural Representation ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 3 (24 mars 2024) : 2321–29. http://dx.doi.org/10.1609/aaai.v38i3.28006.
Texte intégralDhar, Moloy. « Object Detection using Deep Learning Approach ». International Journal for Research in Applied Science and Engineering Technology 10, no 6 (30 juin 2022) : 2963–69. http://dx.doi.org/10.22214/ijraset.2022.44417.
Texte intégralMishra,, Vaishnavi. « Synthetic Media Analysis Using Deep Learning ». INTERANTIONAL JOURNAL OF SCIENTIFIC RESEARCH IN ENGINEERING AND MANAGEMENT 08, no 05 (7 mai 2024) : 1–5. http://dx.doi.org/10.55041/ijsrem32494.
Texte intégralThakur, Amey. « Generative Adversarial Networks ». International Journal for Research in Applied Science and Engineering Technology 9, no 8 (31 août 2021) : 2307–25. http://dx.doi.org/10.22214/ijraset.2021.37723.
Texte intégralWang, Bokun, Caiqian Yang et Yaojing Chen. « Detection Anomaly in Video Based on Deep Support Vector Data Description ». Computational Intelligence and Neuroscience 2022 (4 mai 2022) : 1–6. http://dx.doi.org/10.1155/2022/5362093.
Texte intégralChen, Shuang, Zengcai Wang et Wenxin Chen. « Driver Drowsiness Estimation Based on Factorized Bilinear Feature Fusion and a Long-Short-Term Recurrent Convolutional Network ». Information 12, no 1 (22 décembre 2020) : 3. http://dx.doi.org/10.3390/info12010003.
Texte intégralRezaei, Behnaz, Yiorgos Christakis, Bryan Ho, Kevin Thomas, Kelley Erb, Sarah Ostadabbas et Shyamal Patel. « Target-Specific Action Classification for Automated Assessment of Human Motor Behavior from Video ». Sensors 19, no 19 (1 octobre 2019) : 4266. http://dx.doi.org/10.3390/s19194266.
Texte intégralBourai, Nour, Hayet Farida Merouani et Akila Djebbar. « Advanced Image Compression Techniques for Medical Applications : Survey ». All Sciences Abstracts 1, no 1 (16 avril 2023) : 1. http://dx.doi.org/10.59287/as-abstracts.444.
Texte intégralMai Magdy, Fahima A. Maghraby et Mohamed Waleed Fakhr. « A 4D Convolutional Neural Networks for Video Violence Detection ». Journal of Advanced Research in Applied Sciences and Engineering Technology 36, no 1 (24 décembre 2023) : 16–25. http://dx.doi.org/10.37934/araset.36.1.1625.
Texte intégralChoi, Jinsoo, et Tae-Hyun Oh. « Joint Video Super-Resolution and Frame Interpolation via Permutation Invariance ». Sensors 23, no 5 (24 février 2023) : 2529. http://dx.doi.org/10.3390/s23052529.
Texte intégralKulkarni, Dr Shrinivasrao B., Abhishek Kuppelur, Akash Shetty, Shashank ,. Bidarakatti et Taranath Sangresakoppa. « Analysis of Physiotherapy Practices using Deep Learning ». International Journal for Research in Applied Science and Engineering Technology 12, no 4 (30 avril 2024) : 5084–89. http://dx.doi.org/10.22214/ijraset.2024.61194.
Texte intégralLiu, Daizong, Dongdong Yu, Changhu Wang et Pan Zhou. « F2Net : Learning to Focus on the Foreground for Unsupervised Video Object Segmentation ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 3 (18 mai 2021) : 2109–17. http://dx.doi.org/10.1609/aaai.v35i3.16308.
Texte intégralSun, Zheng, Andrew W. Sumsion, Shad A. Torrie et Dah-Jye Lee. « Learning Facial Motion Representation with a Lightweight Encoder for Identity Verification ». Electronics 11, no 13 (22 juin 2022) : 1946. http://dx.doi.org/10.3390/electronics11131946.
Texte intégralWagner, Travis L., et Ashley Blewer. « “The Word Real Is No Longer Real” : Deepfakes, Gender, and the Challenges of AI-Altered Video ». Open Information Science 3, no 1 (1 janvier 2019) : 32–46. http://dx.doi.org/10.1515/opis-2019-0003.
Texte intégralSharif, Md Haidar, Lei Jiao et Christian W. Omlin. « CNN-ViT Supported Weakly-Supervised Video Segment Level Anomaly Detection ». Sensors 23, no 18 (7 septembre 2023) : 7734. http://dx.doi.org/10.3390/s23187734.
Texte intégralJeon, DaeHyeon, et Min-Suk Kim. « Deep-Learning-Based Sequence Causal Long-Term Recurrent Convolutional Network for Data Fusion Using Video Data ». Electronics 12, no 5 (24 février 2023) : 1115. http://dx.doi.org/10.3390/electronics12051115.
Texte intégralWu, Sijie, Kai Zhang, Shaoyi Li et Jie Yan. « Learning to Track Aircraft in Infrared Imagery ». Remote Sensing 12, no 23 (6 décembre 2020) : 3995. http://dx.doi.org/10.3390/rs12233995.
Texte intégralKong, Weiqi. « Research Advanced in Multimodal Emotion Recognition Based on Deep Learning ». Highlights in Science, Engineering and Technology 85 (13 mars 2024) : 602–8. http://dx.doi.org/10.54097/p3yprn36.
Texte intégralTøttrup, Daniel, Stinus Lykke Skovgaard, Jonas le Fevre Sejersen et Rui Pimentel de Figueiredo. « A Fast and Accurate Approach to Multiple-Vehicle Localization and Tracking from Monocular Aerial Images ». Journal of Imaging 7, no 12 (8 décembre 2021) : 270. http://dx.doi.org/10.3390/jimaging7120270.
Texte intégral