Zeitschriftenartikel zum Thema „Deep multi-Modal learning“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Deep multi-Modal learning" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Shetty D S, Radhika. „Multi-Modal Fusion Techniques in Deep Learning“. International Journal of Science and Research (IJSR) 12, Nr. 9 (05.09.2023): 526–32. http://dx.doi.org/10.21275/sr23905100554.
Der volle Inhalt der QuelleRoostaiyan, Seyed Mahdi, Ehsan Imani und Mahdieh Soleymani Baghshah. „Multi-modal deep distance metric learning“. Intelligent Data Analysis 21, Nr. 6 (15.11.2017): 1351–69. http://dx.doi.org/10.3233/ida-163196.
Der volle Inhalt der QuelleZhu, Xinghui, Liewu Cai, Zhuoyang Zou und Lei Zhu. „Deep Multi-Semantic Fusion-Based Cross-Modal Hashing“. Mathematics 10, Nr. 3 (29.01.2022): 430. http://dx.doi.org/10.3390/math10030430.
Der volle Inhalt der QuelleDu, Lin, Xiong You, Ke Li, Liqiu Meng, Gong Cheng, Liyang Xiong und Guangxia Wang. „Multi-modal deep learning for landform recognition“. ISPRS Journal of Photogrammetry and Remote Sensing 158 (Dezember 2019): 63–75. http://dx.doi.org/10.1016/j.isprsjprs.2019.09.018.
Der volle Inhalt der QuelleWang, Wei, Xiaoyan Yang, Beng Chin Ooi, Dongxiang Zhang und Yueting Zhuang. „Effective deep learning-based multi-modal retrieval“. VLDB Journal 25, Nr. 1 (19.07.2015): 79–101. http://dx.doi.org/10.1007/s00778-015-0391-4.
Der volle Inhalt der QuelleJeong, Changhoon, Sung-Eun Jang, Sanghyuck Na und Juntae Kim. „Korean Tourist Spot Multi-Modal Dataset for Deep Learning Applications“. Data 4, Nr. 4 (12.10.2019): 139. http://dx.doi.org/10.3390/data4040139.
Der volle Inhalt der QuelleYang, Yang, Yi-Feng Wu, De-Chuan Zhan, Zhi-Bin Liu und Yuan Jiang. „Deep Robust Unsupervised Multi-Modal Network“. Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 5652–59. http://dx.doi.org/10.1609/aaai.v33i01.33015652.
Der volle Inhalt der QuelleHua, Yan, Yingyun Yang und Jianhe Du. „Deep Multi-Modal Metric Learning with Multi-Scale Correlation for Image-Text Retrieval“. Electronics 9, Nr. 3 (10.03.2020): 466. http://dx.doi.org/10.3390/electronics9030466.
Der volle Inhalt der QuelleHan, Dong, Hong Nie, Jinbao Chen, Meng Chen, Zhen Deng und Jianwei Zhang. „Multi-modal haptic image recognition based on deep learning“. Sensor Review 38, Nr. 4 (17.09.2018): 486–93. http://dx.doi.org/10.1108/sr-08-2017-0160.
Der volle Inhalt der QuellePyrovolakis, Konstantinos, Paraskevi Tzouveli und Giorgos Stamou. „Multi-Modal Song Mood Detection with Deep Learning“. Sensors 22, Nr. 3 (29.01.2022): 1065. http://dx.doi.org/10.3390/s22031065.
Der volle Inhalt der QuellePriyasad, Darshana, Tharindu Fernando, Simon Denman, Sridha Sridharan und Clinton Fookes. „Memory based fusion for multi-modal deep learning“. Information Fusion 67 (März 2021): 136–46. http://dx.doi.org/10.1016/j.inffus.2020.10.005.
Der volle Inhalt der QuelleKasa, Kevin, David Burns, Mitchell G. Goldenberg, Omar Selim, Cari Whyne und Michael Hardisty. „Multi-Modal Deep Learning for Assessing Surgeon Technical Skill“. Sensors 22, Nr. 19 (27.09.2022): 7328. http://dx.doi.org/10.3390/s22197328.
Der volle Inhalt der QuelleNiu, Yulei, Zhiwu Lu, Ji-Rong Wen, Tao Xiang und Shih-Fu Chang. „Multi-Modal Multi-Scale Deep Learning for Large-Scale Image Annotation“. IEEE Transactions on Image Processing 28, Nr. 4 (April 2019): 1720–31. http://dx.doi.org/10.1109/tip.2018.2881928.
Der volle Inhalt der QuelleWang, Qiuli, Dan Yang, Zhihuan Li, Xiaohong Zhang und Chen Liu. „Deep Regression via Multi-Channel Multi-Modal Learning for Pneumonia Screening“. IEEE Access 8 (2020): 78530–41. http://dx.doi.org/10.1109/access.2020.2990423.
Der volle Inhalt der QuellePark, Jongchan, Min-Hyun Kim und Dong-Geol Choi. „Correspondence Learning for Deep Multi-Modal Recognition and Fraud Detection“. Electronics 10, Nr. 7 (28.03.2021): 800. http://dx.doi.org/10.3390/electronics10070800.
Der volle Inhalt der QuelleDong, Guan-Nan, Chi-Man Pun und Zheng Zhang. „Deep Collaborative Multi-Modal Learning for Unsupervised Kinship Estimation“. IEEE Transactions on Information Forensics and Security 16 (2021): 4197–210. http://dx.doi.org/10.1109/tifs.2021.3098165.
Der volle Inhalt der QuelleBhatt, Gaurav, Piyush Jha und Balasubramanian Raman. „Representation learning using step-based deep multi-modal autoencoders“. Pattern Recognition 95 (November 2019): 12–23. http://dx.doi.org/10.1016/j.patcog.2019.05.032.
Der volle Inhalt der QuelleBelfedhal, Alaa Eddine. „Multi-Modal Deep Learning for Effective Malicious Webpage Detection“. Revue d'Intelligence Artificielle 37, Nr. 4 (31.08.2023): 1005–13. http://dx.doi.org/10.18280/ria.370422.
Der volle Inhalt der QuelleM. Shahzad, H., Sohail Masood Bhatti, Arfan Jaffar und Muhammad Rashid. „A Multi-Modal Deep Learning Approach for Emotion Recognition“. Intelligent Automation & Soft Computing 36, Nr. 2 (2023): 1561–70. http://dx.doi.org/10.32604/iasc.2023.032525.
Der volle Inhalt der QuelleZhang, Ning, Huarui Wu, Huaji Zhu, Ying Deng und Xiao Han. „Tomato Disease Classification and Identification Method Based on Multimodal Fusion Deep Learning“. Agriculture 12, Nr. 12 (25.11.2022): 2014. http://dx.doi.org/10.3390/agriculture12122014.
Der volle Inhalt der QuelleKiela, Douwe, und Stephen Clark. „Learning Neural Audio Embeddings for Grounding Semantics in Auditory Perception“. Journal of Artificial Intelligence Research 60 (26.12.2017): 1003–30. http://dx.doi.org/10.1613/jair.5665.
Der volle Inhalt der QuelleYang, Yang, Zhilei Wu, Yuexiang Yang, Shuangshuang Lian, Fengjie Guo und Zhiwei Wang. „A Survey of Information Extraction Based on Deep Learning“. Applied Sciences 12, Nr. 19 (27.09.2022): 9691. http://dx.doi.org/10.3390/app12199691.
Der volle Inhalt der QuelleLi, Zhe, Yuming Jiang und Ruijiang Li. „Abstract 2313: Multi-modal deep learning to predict cancer outcomes by integrating radiology and pathology images“. Cancer Research 84, Nr. 6_Supplement (22.03.2024): 2313. http://dx.doi.org/10.1158/1538-7445.am2024-2313.
Der volle Inhalt der QuelleGhoniem, Rania M., Abeer D. Algarni, Basel Refky und Ahmed A. Ewees. „Multi-Modal Evolutionary Deep Learning Model for Ovarian Cancer Diagnosis“. Symmetry 13, Nr. 4 (10.04.2021): 643. http://dx.doi.org/10.3390/sym13040643.
Der volle Inhalt der QuelleLi, Xuefei, Liangtu Song, Liu Liu und Linli Zhou. „GSS-RiskAsser: A Multi-Modal Deep-Learning Framework for Urban Gas Supply System Risk Assessment on Business Users“. Sensors 21, Nr. 21 (22.10.2021): 7010. http://dx.doi.org/10.3390/s21217010.
Der volle Inhalt der QuelleZheng, Qiushuo, Hao Wen, Meng Wang und Guilin Qi. „Visual Entity Linking via Multi-modal Learning“. Data Intelligence 4, Nr. 1 (2022): 1–19. http://dx.doi.org/10.1162/dint_a_00114.
Der volle Inhalt der QuelleWilson, Justin C., Suku Nair, Sandro Scielzo und Eric C. Larson. „Objective Measures of Cognitive Load Using Deep Multi-Modal Learning“. Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies 5, Nr. 1 (19.03.2021): 1–35. http://dx.doi.org/10.1145/3448111.
Der volle Inhalt der QuelleSharma, Pulkit, Achut Manandhar, Patrick Thomson, Jacob Katuva, Robert Hope und David A. Clifton. „Combining Multi-Modal Statistics for Welfare Prediction Using Deep Learning“. Sustainability 11, Nr. 22 (11.11.2019): 6312. http://dx.doi.org/10.3390/su11226312.
Der volle Inhalt der QuelleGlavan, Andreea, und Estefanía Talavera. „InstaIndoor and multi-modal deep learning for indoor scene recognition“. Neural Computing and Applications 34, Nr. 9 (22.01.2022): 6861–77. http://dx.doi.org/10.1007/s00521-021-06781-2.
Der volle Inhalt der QuelleLiu, Yu, und Tinne Tuytelaars. „A Deep Multi-Modal Explanation Model for Zero-Shot Learning“. IEEE Transactions on Image Processing 29 (2020): 4788–803. http://dx.doi.org/10.1109/tip.2020.2975980.
Der volle Inhalt der QuelleXiang, Lei, Yong Chen, Weitang Chang, Yiqiang Zhan, Weili Lin, Qian Wang und Dinggang Shen. „Deep-Learning-Based Multi-Modal Fusion for Fast MR Reconstruction“. IEEE Transactions on Biomedical Engineering 66, Nr. 7 (Juli 2019): 2105–14. http://dx.doi.org/10.1109/tbme.2018.2883958.
Der volle Inhalt der QuelleXu, Xiangyang, Yuncheng Li, Gangshan Wu und Jiebo Luo. „Multi-modal deep feature learning for RGB-D object detection“. Pattern Recognition 72 (Dezember 2017): 300–313. http://dx.doi.org/10.1016/j.patcog.2017.07.026.
Der volle Inhalt der QuelleWei, Jie, Huaping Liu, Gaowei Yan und Fuchun Sun. „Robotic grasping recognition using multi-modal deep extreme learning machine“. Multidimensional Systems and Signal Processing 28, Nr. 3 (03.03.2016): 817–33. http://dx.doi.org/10.1007/s11045-016-0389-0.
Der volle Inhalt der QuelleKim, Woo-Hyeon, Geon-Woo Kim und Joo-Chang Kim. „Multi-Modal Deep Learning based Metadata Extensions for Video Clipping“. International Journal on Advanced Science, Engineering and Information Technology 14, Nr. 1 (28.02.2024): 375–80. http://dx.doi.org/10.18517/ijaseit.14.1.19047.
Der volle Inhalt der QuelleAlthenayan, Albatoul S., Shada A. AlSalamah, Sherin Aly, Thamer Nouh, Bassam Mahboub, Laila Salameh, Metab Alkubeyyer und Abdulrahman Mirza. „COVID-19 Hierarchical Classification Using a Deep Learning Multi-Modal“. Sensors 24, Nr. 8 (20.04.2024): 2641. http://dx.doi.org/10.3390/s24082641.
Der volle Inhalt der QuelleSiddanna, S. R., und Y. C. Kiran. „Two Stage Multi Modal Deep Learning Kannada Character Recognition Model Adaptive to Discriminative Patterns of Kannada Characters“. Indian Journal Of Science And Technology 16, Nr. 3 (22.01.2023): 155–66. http://dx.doi.org/10.17485/ijst/v16i3.1904.
Der volle Inhalt der QuelleWilliams-Lekuona, Mikel, Georgina Cosma und Iain Phillips. „A Framework for Enabling Unpaired Multi-Modal Learning for Deep Cross-Modal Hashing Retrieval“. Journal of Imaging 8, Nr. 12 (15.12.2022): 328. http://dx.doi.org/10.3390/jimaging8120328.
Der volle Inhalt der QuelleZheng, Ke, und Zhou Li. „An Image-Text Matching Method for Multi-Modal Robots“. Journal of Organizational and End User Computing 36, Nr. 1 (08.12.2023): 1–21. http://dx.doi.org/10.4018/joeuc.334701.
Der volle Inhalt der QuelleJuan, Bao, Tuo Min, Hou Meng Ting, Li Xi Yu und Wang Qun. „Research on Intelligent Medical Engineering Analysis and Decision Based on Deep Learning“. International Journal of Web Services Research 19, Nr. 1 (01.01.2022): 1–9. http://dx.doi.org/10.4018/ijwsr.314949.
Der volle Inhalt der QuelleSong, Kuiyong, Lianke Zhou und Hongbin Wang. „Deep Coupling Recurrent Auto-Encoder with Multi-Modal EEG and EOG for Vigilance Estimation“. Entropy 23, Nr. 10 (09.10.2021): 1316. http://dx.doi.org/10.3390/e23101316.
Der volle Inhalt der QuelleD’Isanto, A. „Uncertain Photometric Redshifts with Deep Learning Methods“. Proceedings of the International Astronomical Union 12, S325 (Oktober 2016): 209–12. http://dx.doi.org/10.1017/s1743921316013090.
Der volle Inhalt der QuelleLiang, Chengxu, und Jianshe Dong. „A Survey of Deep Learning-based Facial Expression Recognition Research“. Frontiers in Computing and Intelligent Systems 5, Nr. 2 (01.09.2023): 56–60. http://dx.doi.org/10.54097/fcis.v5i2.12445.
Der volle Inhalt der QuelleChoi, Sanghyuk Roy, und Minhyeok Lee. „Estimating the Prognosis of Low-Grade Glioma with Gene Attention Using Multi-Omics and Multi-Modal Schemes“. Biology 11, Nr. 10 (05.10.2022): 1462. http://dx.doi.org/10.3390/biology11101462.
Der volle Inhalt der QuelleHe, Chao, Xinghua Zhang, Dongqing Song, Yingshan Shen, Chengjie Mao, Huosheng Wen, Dingju Zhu und Lihua Cai. „Mixture of Attention Variants for Modal Fusion in Multi-Modal Sentiment Analysis“. Big Data and Cognitive Computing 8, Nr. 2 (29.01.2024): 14. http://dx.doi.org/10.3390/bdcc8020014.
Der volle Inhalt der QuelleZhang, Huan, und Shunren Xia. „Enhancing Acute Bilirubin Encephalopathy Diagnosis with Multi-Modal MRI: A Deep Learning Approach“. Applied Sciences 14, Nr. 6 (14.03.2024): 2464. http://dx.doi.org/10.3390/app14062464.
Der volle Inhalt der QuelleFarahnakian, Fahimeh, und Jukka Heikkonen. „Deep Learning Based Multi-Modal Fusion Architectures for Maritime Vessel Detection“. Remote Sensing 12, Nr. 16 (05.08.2020): 2509. http://dx.doi.org/10.3390/rs12162509.
Der volle Inhalt der QuelleHssayeni, Murtadha D., und Behnaz Ghoraani. „Multi-Modal Physiological Data Fusion for Affect Estimation Using Deep Learning“. IEEE Access 9 (2021): 21642–52. http://dx.doi.org/10.1109/access.2021.3055933.
Der volle Inhalt der QuelleArya, Nikhilanand, und Sriparna Saha. „Multi-modal advanced deep learning architectures for breast cancer survival prediction“. Knowledge-Based Systems 221 (Juni 2021): 106965. http://dx.doi.org/10.1016/j.knosys.2021.106965.
Der volle Inhalt der QuelleYAO Hong-ge, 姚红革, 沈新霞 SHEN Xin-xia, 李宇 LI Yu, 喻钧 YU Jun und 雷松泽 LEI Song-ze. „Multi-modal Fusion Brain Tumor Detection Method Based on Deep Learning“. ACTA PHOTONICA SINICA 48, Nr. 7 (2019): 717001. http://dx.doi.org/10.3788/gzxb20194807.0717001.
Der volle Inhalt der QuelleПаршин, А. И., М. Н. Аралов, В. Ф. Барабанов und Н. И. Гребенникова. „RANDOM MULTI-MODAL DEEP LEARNING IN THE PROBLEM OF IMAGE RECOGNITION“. ВЕСТНИК ВОРОНЕЖСКОГО ГОСУДАРСТВЕННОГО ТЕХНИЧЕСКОГО УНИВЕРСИТЕТА, Nr. 4 (20.10.2021): 21–26. http://dx.doi.org/10.36622/vstu.2021.17.4.003.
Der volle Inhalt der Quelle