Zeitschriftenartikel zum Thema „Deep Video Representations“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Deep Video Representations" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Feichtenhofer, Christoph, Axel Pinz, Richard P. Wildes und Andrew Zisserman. „Deep Insights into Convolutional Networks for Video Recognition“. International Journal of Computer Vision 128, Nr. 2 (29.10.2019): 420–37. http://dx.doi.org/10.1007/s11263-019-01225-w.
Der volle Inhalt der QuellePandeya, Yagya Raj, Bhuwan Bhattarai und Joonwhoan Lee. „Deep-Learning-Based Multimodal Emotion Classification for Music Videos“. Sensors 21, Nr. 14 (20.07.2021): 4927. http://dx.doi.org/10.3390/s21144927.
Der volle Inhalt der QuelleLjubešić, Nikola. „‟Deep lexicography” – Fad or Opportunity?“ Rasprave Instituta za hrvatski jezik i jezikoslovlje 46, Nr. 2 (30.10.2020): 839–52. http://dx.doi.org/10.31724/rihjj.46.2.21.
Der volle Inhalt der QuelleKumar, Vidit, Vikas Tripathi und Bhaskar Pant. „Learning Unsupervised Visual Representations using 3D Convolutional Autoencoder with Temporal Contrastive Modeling for Video Retrieval“. International Journal of Mathematical, Engineering and Management Sciences 7, Nr. 2 (14.03.2022): 272–87. http://dx.doi.org/10.33889/ijmems.2022.7.2.018.
Der volle Inhalt der QuelleVihlman, Mikko, und Arto Visala. „Optical Flow in Deep Visual Tracking“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 07 (03.04.2020): 12112–19. http://dx.doi.org/10.1609/aaai.v34i07.6890.
Der volle Inhalt der QuelleRouast, Philipp V., und Marc T. P. Adam. „Learning Deep Representations for Video-Based Intake Gesture Detection“. IEEE Journal of Biomedical and Health Informatics 24, Nr. 6 (Juni 2020): 1727–37. http://dx.doi.org/10.1109/jbhi.2019.2942845.
Der volle Inhalt der QuelleLi, Jialu, Aishwarya Padmakumar, Gaurav Sukhatme und Mohit Bansal. „VLN-Video: Utilizing Driving Videos for Outdoor Vision-and-Language Navigation“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 17 (24.03.2024): 18517–26. http://dx.doi.org/10.1609/aaai.v38i17.29813.
Der volle Inhalt der QuelleHu, Yueyue, Shiliang Sun, Xin Xu und Jing Zhao. „Multi-View Deep Attention Network for Reinforcement Learning (Student Abstract)“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 10 (03.04.2020): 13811–12. http://dx.doi.org/10.1609/aaai.v34i10.7177.
Der volle Inhalt der QuelleDong, Zhen, Chenchen Jing, Mingtao Pei und Yunde Jia. „Deep CNN based binary hash video representations for face retrieval“. Pattern Recognition 81 (September 2018): 357–69. http://dx.doi.org/10.1016/j.patcog.2018.04.014.
Der volle Inhalt der QuellePsallidas, Theodoros, und Evaggelos Spyrou. „Video Summarization Based on Feature Fusion and Data Augmentation“. Computers 12, Nr. 9 (15.09.2023): 186. http://dx.doi.org/10.3390/computers12090186.
Der volle Inhalt der QuelleLiu, Shangdong, Puming Cao, Yujian Feng, Yimu Ji, Jiayuan Chen, Xuedong Xie und Longji Wu. „NRVC: Neural Representation for Video Compression with Implicit Multiscale Fusion Network“. Entropy 25, Nr. 8 (04.08.2023): 1167. http://dx.doi.org/10.3390/e25081167.
Der volle Inhalt der QuellePan, Haixia, Jiahua Lan, Hongqiang Wang, Yanan Li, Meng Zhang, Mojie Ma, Dongdong Zhang und Xiaoran Zhao. „UWV-Yolox: A Deep Learning Model for Underwater Video Object Detection“. Sensors 23, Nr. 10 (18.05.2023): 4859. http://dx.doi.org/10.3390/s23104859.
Der volle Inhalt der QuelleGad, Gad, Eyad Gad, Korhan Cengiz, Zubair Fadlullah und Bassem Mokhtar. „Deep Learning-Based Context-Aware Video Content Analysis on IoT Devices“. Electronics 11, Nr. 11 (04.06.2022): 1785. http://dx.doi.org/10.3390/electronics11111785.
Der volle Inhalt der QuelleLin, Jie, Ling-Yu Duan, Shiqi Wang, Yan Bai, Yihang Lou, Vijay Chandrasekhar, Tiejun Huang, Alex Kot und Wen Gao. „HNIP: Compact Deep Invariant Representations for Video Matching, Localization, and Retrieval“. IEEE Transactions on Multimedia 19, Nr. 9 (September 2017): 1968–83. http://dx.doi.org/10.1109/tmm.2017.2713410.
Der volle Inhalt der QuelleZhang, Huijun, Ling Feng, Ningyun Li, Zhanyu Jin und Lei Cao. „Video-Based Stress Detection through Deep Learning“. Sensors 20, Nr. 19 (28.09.2020): 5552. http://dx.doi.org/10.3390/s20195552.
Der volle Inhalt der QuelleJiang, Pin, und Yahong Han. „Reasoning with Heterogeneous Graph Alignment for Video Question Answering“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 07 (03.04.2020): 11109–16. http://dx.doi.org/10.1609/aaai.v34i07.6767.
Der volle Inhalt der QuelleMumtaz, Nadia, Naveed Ejaz, Suliman Aladhadh, Shabana Habib und Mi Young Lee. „Deep Multi-Scale Features Fusion for Effective Violence Detection and Control Charts Visualization“. Sensors 22, Nr. 23 (01.12.2022): 9383. http://dx.doi.org/10.3390/s22239383.
Der volle Inhalt der QuelleWu, Lin, Yang Wang, Ling Shao und Meng Wang. „3-D PersonVLAD: Learning Deep Global Representations for Video-Based Person Reidentification“. IEEE Transactions on Neural Networks and Learning Systems 30, Nr. 11 (November 2019): 3347–59. http://dx.doi.org/10.1109/tnnls.2019.2891244.
Der volle Inhalt der QuelleMeshchaninov, Viacheslav Pavlovich, Ivan Andreevich Molodetskikh, Dmitriy Sergeevich Vatolin und Alexey Gennadievich Voloboy. „Combining contrastive and supervised learning for video super-resolution detection“. Keldysh Institute Preprints, Nr. 80 (2022): 1–13. http://dx.doi.org/10.20948/prepr-2022-80.
Der volle Inhalt der QuelleHuang, Shaonian, Dongjun Huang und Xinmin Zhou. „Learning Multimodal Deep Representations for Crowd Anomaly Event Detection“. Mathematical Problems in Engineering 2018 (2018): 1–13. http://dx.doi.org/10.1155/2018/6323942.
Der volle Inhalt der QuelleKumar, Vidit, Vikas Tripathi, Bhaskar Pant, Sultan S. Alshamrani, Ankur Dumka, Anita Gehlot, Rajesh Singh, Mamoon Rashid, Abdullah Alshehri und Ahmed Saeed AlGhamdi. „Hybrid Spatiotemporal Contrastive Representation Learning for Content-Based Surgical Video Retrieval“. Electronics 11, Nr. 9 (24.04.2022): 1353. http://dx.doi.org/10.3390/electronics11091353.
Der volle Inhalt der QuelleXu, Ming, Xiaosheng Yu, Dongyue Chen, Chengdong Wu und Yang Jiang. „An Efficient Anomaly Detection System for Crowded Scenes Using Variational Autoencoders“. Applied Sciences 9, Nr. 16 (14.08.2019): 3337. http://dx.doi.org/10.3390/app9163337.
Der volle Inhalt der QuelleBohunicky, Kyle Matthew. „Dear Punchy“. Animal Crossing Special Issue 13, Nr. 22 (16.02.2021): 39–58. http://dx.doi.org/10.7202/1075262ar.
Der volle Inhalt der QuelleRezaei, Fariba, und Mehran Yazdi. „A New Semantic and Statistical Distance-Based Anomaly Detection in Crowd Video Surveillance“. Wireless Communications and Mobile Computing 2021 (15.05.2021): 1–9. http://dx.doi.org/10.1155/2021/5513582.
Der volle Inhalt der QuelleDong, Wenkai, Zhaoxiang Zhang und Tieniu Tan. „Attention-Aware Sampling via Deep Reinforcement Learning for Action Recognition“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 8247–54. http://dx.doi.org/10.1609/aaai.v33i01.33018247.
Der volle Inhalt der QuelleNida, Nudrat, Muhammad Haroon Yousaf, Aun Irtaza und Sergio A. Velastin. „Instructor Activity Recognition through Deep Spatiotemporal Features and Feedforward Extreme Learning Machines“. Mathematical Problems in Engineering 2019 (30.04.2019): 1–13. http://dx.doi.org/10.1155/2019/2474865.
Der volle Inhalt der QuelleHe, Dongliang, Zhichao Zhou, Chuang Gan, Fu Li, Xiao Liu, Yandong Li, Limin Wang und Shilei Wen. „StNet: Local and Global Spatial-Temporal Modeling for Action Recognition“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 8401–8. http://dx.doi.org/10.1609/aaai.v33i01.33018401.
Der volle Inhalt der QuelleSwinney, Carolyn J., und John C. Woods. „Unmanned Aerial Vehicle Operating Mode Classification Using Deep Residual Learning Feature Extraction“. Aerospace 8, Nr. 3 (16.03.2021): 79. http://dx.doi.org/10.3390/aerospace8030079.
Der volle Inhalt der QuelleZhao, Hu, Yanyun Shen, Zhipan Wang und Qingling Zhang. „MFACNet: A Multi-Frame Feature Aggregating and Inter-Feature Correlation Framework for Multi-Object Tracking in Satellite Videos“. Remote Sensing 16, Nr. 9 (30.04.2024): 1604. http://dx.doi.org/10.3390/rs16091604.
Der volle Inhalt der QuelleKulvinder Singh, Et al. „Enhancing Multimodal Information Retrieval Through Integrating Data Mining and Deep Learning Techniques“. International Journal on Recent and Innovation Trends in Computing and Communication 11, Nr. 9 (30.10.2023): 560–69. http://dx.doi.org/10.17762/ijritcc.v11i9.8844.
Der volle Inhalt der QuelleGovender, Divina, und Jules-Raymond Tapamo. „Spatio-Temporal Scale Coded Bag-of-Words“. Sensors 20, Nr. 21 (09.11.2020): 6380. http://dx.doi.org/10.3390/s20216380.
Der volle Inhalt der QuelleHuang, Haofeng, Wenhan Yang, Lingyu Duan und Jiaying Liu. „Seeing Dark Videos via Self-Learned Bottleneck Neural Representation“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 3 (24.03.2024): 2321–29. http://dx.doi.org/10.1609/aaai.v38i3.28006.
Der volle Inhalt der QuelleDhar, Moloy. „Object Detection using Deep Learning Approach“. International Journal for Research in Applied Science and Engineering Technology 10, Nr. 6 (30.06.2022): 2963–69. http://dx.doi.org/10.22214/ijraset.2022.44417.
Der volle Inhalt der QuelleMishra,, Vaishnavi. „Synthetic Media Analysis Using Deep Learning“. INTERANTIONAL JOURNAL OF SCIENTIFIC RESEARCH IN ENGINEERING AND MANAGEMENT 08, Nr. 05 (07.05.2024): 1–5. http://dx.doi.org/10.55041/ijsrem32494.
Der volle Inhalt der QuelleThakur, Amey. „Generative Adversarial Networks“. International Journal for Research in Applied Science and Engineering Technology 9, Nr. 8 (31.08.2021): 2307–25. http://dx.doi.org/10.22214/ijraset.2021.37723.
Der volle Inhalt der QuelleWang, Bokun, Caiqian Yang und Yaojing Chen. „Detection Anomaly in Video Based on Deep Support Vector Data Description“. Computational Intelligence and Neuroscience 2022 (04.05.2022): 1–6. http://dx.doi.org/10.1155/2022/5362093.
Der volle Inhalt der QuelleChen, Shuang, Zengcai Wang und Wenxin Chen. „Driver Drowsiness Estimation Based on Factorized Bilinear Feature Fusion and a Long-Short-Term Recurrent Convolutional Network“. Information 12, Nr. 1 (22.12.2020): 3. http://dx.doi.org/10.3390/info12010003.
Der volle Inhalt der QuelleRezaei, Behnaz, Yiorgos Christakis, Bryan Ho, Kevin Thomas, Kelley Erb, Sarah Ostadabbas und Shyamal Patel. „Target-Specific Action Classification for Automated Assessment of Human Motor Behavior from Video“. Sensors 19, Nr. 19 (01.10.2019): 4266. http://dx.doi.org/10.3390/s19194266.
Der volle Inhalt der QuelleBourai, Nour, Hayet Farida Merouani und Akila Djebbar. „Advanced Image Compression Techniques for Medical Applications: Survey“. All Sciences Abstracts 1, Nr. 1 (16.04.2023): 1. http://dx.doi.org/10.59287/as-abstracts.444.
Der volle Inhalt der QuelleMai Magdy, Fahima A. Maghraby und Mohamed Waleed Fakhr. „A 4D Convolutional Neural Networks for Video Violence Detection“. Journal of Advanced Research in Applied Sciences and Engineering Technology 36, Nr. 1 (24.12.2023): 16–25. http://dx.doi.org/10.37934/araset.36.1.1625.
Der volle Inhalt der QuelleChoi, Jinsoo, und Tae-Hyun Oh. „Joint Video Super-Resolution and Frame Interpolation via Permutation Invariance“. Sensors 23, Nr. 5 (24.02.2023): 2529. http://dx.doi.org/10.3390/s23052529.
Der volle Inhalt der QuelleKulkarni, Dr Shrinivasrao B., Abhishek Kuppelur, Akash Shetty, Shashank ,. Bidarakatti und Taranath Sangresakoppa. „Analysis of Physiotherapy Practices using Deep Learning“. International Journal for Research in Applied Science and Engineering Technology 12, Nr. 4 (30.04.2024): 5084–89. http://dx.doi.org/10.22214/ijraset.2024.61194.
Der volle Inhalt der QuelleLiu, Daizong, Dongdong Yu, Changhu Wang und Pan Zhou. „F2Net: Learning to Focus on the Foreground for Unsupervised Video Object Segmentation“. Proceedings of the AAAI Conference on Artificial Intelligence 35, Nr. 3 (18.05.2021): 2109–17. http://dx.doi.org/10.1609/aaai.v35i3.16308.
Der volle Inhalt der QuelleSun, Zheng, Andrew W. Sumsion, Shad A. Torrie und Dah-Jye Lee. „Learning Facial Motion Representation with a Lightweight Encoder for Identity Verification“. Electronics 11, Nr. 13 (22.06.2022): 1946. http://dx.doi.org/10.3390/electronics11131946.
Der volle Inhalt der QuelleWagner, Travis L., und Ashley Blewer. „“The Word Real Is No Longer Real”: Deepfakes, Gender, and the Challenges of AI-Altered Video“. Open Information Science 3, Nr. 1 (01.01.2019): 32–46. http://dx.doi.org/10.1515/opis-2019-0003.
Der volle Inhalt der QuelleSharif, Md Haidar, Lei Jiao und Christian W. Omlin. „CNN-ViT Supported Weakly-Supervised Video Segment Level Anomaly Detection“. Sensors 23, Nr. 18 (07.09.2023): 7734. http://dx.doi.org/10.3390/s23187734.
Der volle Inhalt der QuelleJeon, DaeHyeon, und Min-Suk Kim. „Deep-Learning-Based Sequence Causal Long-Term Recurrent Convolutional Network for Data Fusion Using Video Data“. Electronics 12, Nr. 5 (24.02.2023): 1115. http://dx.doi.org/10.3390/electronics12051115.
Der volle Inhalt der QuelleWu, Sijie, Kai Zhang, Shaoyi Li und Jie Yan. „Learning to Track Aircraft in Infrared Imagery“. Remote Sensing 12, Nr. 23 (06.12.2020): 3995. http://dx.doi.org/10.3390/rs12233995.
Der volle Inhalt der QuelleKong, Weiqi. „Research Advanced in Multimodal Emotion Recognition Based on Deep Learning“. Highlights in Science, Engineering and Technology 85 (13.03.2024): 602–8. http://dx.doi.org/10.54097/p3yprn36.
Der volle Inhalt der QuelleTøttrup, Daniel, Stinus Lykke Skovgaard, Jonas le Fevre Sejersen und Rui Pimentel de Figueiredo. „A Fast and Accurate Approach to Multiple-Vehicle Localization and Tracking from Monocular Aerial Images“. Journal of Imaging 7, Nr. 12 (08.12.2021): 270. http://dx.doi.org/10.3390/jimaging7120270.
Der volle Inhalt der Quelle