Artykuły w czasopismach na temat „Deep multi-Modal learning”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 50 najlepszych artykułów w czasopismach naukowych na temat „Deep multi-Modal learning”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj artykuły w czasopismach z różnych dziedzin i twórz odpowiednie bibliografie.
Shetty D S, Radhika. "Multi-Modal Fusion Techniques in Deep Learning". International Journal of Science and Research (IJSR) 12, nr 9 (5.09.2023): 526–32. http://dx.doi.org/10.21275/sr23905100554.
Pełny tekst źródłaRoostaiyan, Seyed Mahdi, Ehsan Imani i Mahdieh Soleymani Baghshah. "Multi-modal deep distance metric learning". Intelligent Data Analysis 21, nr 6 (15.11.2017): 1351–69. http://dx.doi.org/10.3233/ida-163196.
Pełny tekst źródłaZhu, Xinghui, Liewu Cai, Zhuoyang Zou i Lei Zhu. "Deep Multi-Semantic Fusion-Based Cross-Modal Hashing". Mathematics 10, nr 3 (29.01.2022): 430. http://dx.doi.org/10.3390/math10030430.
Pełny tekst źródłaDu, Lin, Xiong You, Ke Li, Liqiu Meng, Gong Cheng, Liyang Xiong i Guangxia Wang. "Multi-modal deep learning for landform recognition". ISPRS Journal of Photogrammetry and Remote Sensing 158 (grudzień 2019): 63–75. http://dx.doi.org/10.1016/j.isprsjprs.2019.09.018.
Pełny tekst źródłaWang, Wei, Xiaoyan Yang, Beng Chin Ooi, Dongxiang Zhang i Yueting Zhuang. "Effective deep learning-based multi-modal retrieval". VLDB Journal 25, nr 1 (19.07.2015): 79–101. http://dx.doi.org/10.1007/s00778-015-0391-4.
Pełny tekst źródłaJeong, Changhoon, Sung-Eun Jang, Sanghyuck Na i Juntae Kim. "Korean Tourist Spot Multi-Modal Dataset for Deep Learning Applications". Data 4, nr 4 (12.10.2019): 139. http://dx.doi.org/10.3390/data4040139.
Pełny tekst źródłaYang, Yang, Yi-Feng Wu, De-Chuan Zhan, Zhi-Bin Liu i Yuan Jiang. "Deep Robust Unsupervised Multi-Modal Network". Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 5652–59. http://dx.doi.org/10.1609/aaai.v33i01.33015652.
Pełny tekst źródłaHua, Yan, Yingyun Yang i Jianhe Du. "Deep Multi-Modal Metric Learning with Multi-Scale Correlation for Image-Text Retrieval". Electronics 9, nr 3 (10.03.2020): 466. http://dx.doi.org/10.3390/electronics9030466.
Pełny tekst źródłaHan, Dong, Hong Nie, Jinbao Chen, Meng Chen, Zhen Deng i Jianwei Zhang. "Multi-modal haptic image recognition based on deep learning". Sensor Review 38, nr 4 (17.09.2018): 486–93. http://dx.doi.org/10.1108/sr-08-2017-0160.
Pełny tekst źródłaPyrovolakis, Konstantinos, Paraskevi Tzouveli i Giorgos Stamou. "Multi-Modal Song Mood Detection with Deep Learning". Sensors 22, nr 3 (29.01.2022): 1065. http://dx.doi.org/10.3390/s22031065.
Pełny tekst źródłaPriyasad, Darshana, Tharindu Fernando, Simon Denman, Sridha Sridharan i Clinton Fookes. "Memory based fusion for multi-modal deep learning". Information Fusion 67 (marzec 2021): 136–46. http://dx.doi.org/10.1016/j.inffus.2020.10.005.
Pełny tekst źródłaKasa, Kevin, David Burns, Mitchell G. Goldenberg, Omar Selim, Cari Whyne i Michael Hardisty. "Multi-Modal Deep Learning for Assessing Surgeon Technical Skill". Sensors 22, nr 19 (27.09.2022): 7328. http://dx.doi.org/10.3390/s22197328.
Pełny tekst źródłaNiu, Yulei, Zhiwu Lu, Ji-Rong Wen, Tao Xiang i Shih-Fu Chang. "Multi-Modal Multi-Scale Deep Learning for Large-Scale Image Annotation". IEEE Transactions on Image Processing 28, nr 4 (kwiecień 2019): 1720–31. http://dx.doi.org/10.1109/tip.2018.2881928.
Pełny tekst źródłaWang, Qiuli, Dan Yang, Zhihuan Li, Xiaohong Zhang i Chen Liu. "Deep Regression via Multi-Channel Multi-Modal Learning for Pneumonia Screening". IEEE Access 8 (2020): 78530–41. http://dx.doi.org/10.1109/access.2020.2990423.
Pełny tekst źródłaPark, Jongchan, Min-Hyun Kim i Dong-Geol Choi. "Correspondence Learning for Deep Multi-Modal Recognition and Fraud Detection". Electronics 10, nr 7 (28.03.2021): 800. http://dx.doi.org/10.3390/electronics10070800.
Pełny tekst źródłaDong, Guan-Nan, Chi-Man Pun i Zheng Zhang. "Deep Collaborative Multi-Modal Learning for Unsupervised Kinship Estimation". IEEE Transactions on Information Forensics and Security 16 (2021): 4197–210. http://dx.doi.org/10.1109/tifs.2021.3098165.
Pełny tekst źródłaBhatt, Gaurav, Piyush Jha i Balasubramanian Raman. "Representation learning using step-based deep multi-modal autoencoders". Pattern Recognition 95 (listopad 2019): 12–23. http://dx.doi.org/10.1016/j.patcog.2019.05.032.
Pełny tekst źródłaBelfedhal, Alaa Eddine. "Multi-Modal Deep Learning for Effective Malicious Webpage Detection". Revue d'Intelligence Artificielle 37, nr 4 (31.08.2023): 1005–13. http://dx.doi.org/10.18280/ria.370422.
Pełny tekst źródłaM. Shahzad, H., Sohail Masood Bhatti, Arfan Jaffar i Muhammad Rashid. "A Multi-Modal Deep Learning Approach for Emotion Recognition". Intelligent Automation & Soft Computing 36, nr 2 (2023): 1561–70. http://dx.doi.org/10.32604/iasc.2023.032525.
Pełny tekst źródłaZhang, Ning, Huarui Wu, Huaji Zhu, Ying Deng i Xiao Han. "Tomato Disease Classification and Identification Method Based on Multimodal Fusion Deep Learning". Agriculture 12, nr 12 (25.11.2022): 2014. http://dx.doi.org/10.3390/agriculture12122014.
Pełny tekst źródłaKiela, Douwe, i Stephen Clark. "Learning Neural Audio Embeddings for Grounding Semantics in Auditory Perception". Journal of Artificial Intelligence Research 60 (26.12.2017): 1003–30. http://dx.doi.org/10.1613/jair.5665.
Pełny tekst źródłaYang, Yang, Zhilei Wu, Yuexiang Yang, Shuangshuang Lian, Fengjie Guo i Zhiwei Wang. "A Survey of Information Extraction Based on Deep Learning". Applied Sciences 12, nr 19 (27.09.2022): 9691. http://dx.doi.org/10.3390/app12199691.
Pełny tekst źródłaLi, Zhe, Yuming Jiang i Ruijiang Li. "Abstract 2313: Multi-modal deep learning to predict cancer outcomes by integrating radiology and pathology images". Cancer Research 84, nr 6_Supplement (22.03.2024): 2313. http://dx.doi.org/10.1158/1538-7445.am2024-2313.
Pełny tekst źródłaGhoniem, Rania M., Abeer D. Algarni, Basel Refky i Ahmed A. Ewees. "Multi-Modal Evolutionary Deep Learning Model for Ovarian Cancer Diagnosis". Symmetry 13, nr 4 (10.04.2021): 643. http://dx.doi.org/10.3390/sym13040643.
Pełny tekst źródłaLi, Xuefei, Liangtu Song, Liu Liu i Linli Zhou. "GSS-RiskAsser: A Multi-Modal Deep-Learning Framework for Urban Gas Supply System Risk Assessment on Business Users". Sensors 21, nr 21 (22.10.2021): 7010. http://dx.doi.org/10.3390/s21217010.
Pełny tekst źródłaZheng, Qiushuo, Hao Wen, Meng Wang i Guilin Qi. "Visual Entity Linking via Multi-modal Learning". Data Intelligence 4, nr 1 (2022): 1–19. http://dx.doi.org/10.1162/dint_a_00114.
Pełny tekst źródłaWilson, Justin C., Suku Nair, Sandro Scielzo i Eric C. Larson. "Objective Measures of Cognitive Load Using Deep Multi-Modal Learning". Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies 5, nr 1 (19.03.2021): 1–35. http://dx.doi.org/10.1145/3448111.
Pełny tekst źródłaSharma, Pulkit, Achut Manandhar, Patrick Thomson, Jacob Katuva, Robert Hope i David A. Clifton. "Combining Multi-Modal Statistics for Welfare Prediction Using Deep Learning". Sustainability 11, nr 22 (11.11.2019): 6312. http://dx.doi.org/10.3390/su11226312.
Pełny tekst źródłaGlavan, Andreea, i Estefanía Talavera. "InstaIndoor and multi-modal deep learning for indoor scene recognition". Neural Computing and Applications 34, nr 9 (22.01.2022): 6861–77. http://dx.doi.org/10.1007/s00521-021-06781-2.
Pełny tekst źródłaLiu, Yu, i Tinne Tuytelaars. "A Deep Multi-Modal Explanation Model for Zero-Shot Learning". IEEE Transactions on Image Processing 29 (2020): 4788–803. http://dx.doi.org/10.1109/tip.2020.2975980.
Pełny tekst źródłaXiang, Lei, Yong Chen, Weitang Chang, Yiqiang Zhan, Weili Lin, Qian Wang i Dinggang Shen. "Deep-Learning-Based Multi-Modal Fusion for Fast MR Reconstruction". IEEE Transactions on Biomedical Engineering 66, nr 7 (lipiec 2019): 2105–14. http://dx.doi.org/10.1109/tbme.2018.2883958.
Pełny tekst źródłaXu, Xiangyang, Yuncheng Li, Gangshan Wu i Jiebo Luo. "Multi-modal deep feature learning for RGB-D object detection". Pattern Recognition 72 (grudzień 2017): 300–313. http://dx.doi.org/10.1016/j.patcog.2017.07.026.
Pełny tekst źródłaWei, Jie, Huaping Liu, Gaowei Yan i Fuchun Sun. "Robotic grasping recognition using multi-modal deep extreme learning machine". Multidimensional Systems and Signal Processing 28, nr 3 (3.03.2016): 817–33. http://dx.doi.org/10.1007/s11045-016-0389-0.
Pełny tekst źródłaKim, Woo-Hyeon, Geon-Woo Kim i Joo-Chang Kim. "Multi-Modal Deep Learning based Metadata Extensions for Video Clipping". International Journal on Advanced Science, Engineering and Information Technology 14, nr 1 (28.02.2024): 375–80. http://dx.doi.org/10.18517/ijaseit.14.1.19047.
Pełny tekst źródłaAlthenayan, Albatoul S., Shada A. AlSalamah, Sherin Aly, Thamer Nouh, Bassam Mahboub, Laila Salameh, Metab Alkubeyyer i Abdulrahman Mirza. "COVID-19 Hierarchical Classification Using a Deep Learning Multi-Modal". Sensors 24, nr 8 (20.04.2024): 2641. http://dx.doi.org/10.3390/s24082641.
Pełny tekst źródłaSiddanna, S. R., i Y. C. Kiran. "Two Stage Multi Modal Deep Learning Kannada Character Recognition Model Adaptive to Discriminative Patterns of Kannada Characters". Indian Journal Of Science And Technology 16, nr 3 (22.01.2023): 155–66. http://dx.doi.org/10.17485/ijst/v16i3.1904.
Pełny tekst źródłaWilliams-Lekuona, Mikel, Georgina Cosma i Iain Phillips. "A Framework for Enabling Unpaired Multi-Modal Learning for Deep Cross-Modal Hashing Retrieval". Journal of Imaging 8, nr 12 (15.12.2022): 328. http://dx.doi.org/10.3390/jimaging8120328.
Pełny tekst źródłaZheng, Ke, i Zhou Li. "An Image-Text Matching Method for Multi-Modal Robots". Journal of Organizational and End User Computing 36, nr 1 (8.12.2023): 1–21. http://dx.doi.org/10.4018/joeuc.334701.
Pełny tekst źródłaJuan, Bao, Tuo Min, Hou Meng Ting, Li Xi Yu i Wang Qun. "Research on Intelligent Medical Engineering Analysis and Decision Based on Deep Learning". International Journal of Web Services Research 19, nr 1 (1.01.2022): 1–9. http://dx.doi.org/10.4018/ijwsr.314949.
Pełny tekst źródłaSong, Kuiyong, Lianke Zhou i Hongbin Wang. "Deep Coupling Recurrent Auto-Encoder with Multi-Modal EEG and EOG for Vigilance Estimation". Entropy 23, nr 10 (9.10.2021): 1316. http://dx.doi.org/10.3390/e23101316.
Pełny tekst źródłaD’Isanto, A. "Uncertain Photometric Redshifts with Deep Learning Methods". Proceedings of the International Astronomical Union 12, S325 (październik 2016): 209–12. http://dx.doi.org/10.1017/s1743921316013090.
Pełny tekst źródłaLiang, Chengxu, i Jianshe Dong. "A Survey of Deep Learning-based Facial Expression Recognition Research". Frontiers in Computing and Intelligent Systems 5, nr 2 (1.09.2023): 56–60. http://dx.doi.org/10.54097/fcis.v5i2.12445.
Pełny tekst źródłaChoi, Sanghyuk Roy, i Minhyeok Lee. "Estimating the Prognosis of Low-Grade Glioma with Gene Attention Using Multi-Omics and Multi-Modal Schemes". Biology 11, nr 10 (5.10.2022): 1462. http://dx.doi.org/10.3390/biology11101462.
Pełny tekst źródłaHe, Chao, Xinghua Zhang, Dongqing Song, Yingshan Shen, Chengjie Mao, Huosheng Wen, Dingju Zhu i Lihua Cai. "Mixture of Attention Variants for Modal Fusion in Multi-Modal Sentiment Analysis". Big Data and Cognitive Computing 8, nr 2 (29.01.2024): 14. http://dx.doi.org/10.3390/bdcc8020014.
Pełny tekst źródłaZhang, Huan, i Shunren Xia. "Enhancing Acute Bilirubin Encephalopathy Diagnosis with Multi-Modal MRI: A Deep Learning Approach". Applied Sciences 14, nr 6 (14.03.2024): 2464. http://dx.doi.org/10.3390/app14062464.
Pełny tekst źródłaFarahnakian, Fahimeh, i Jukka Heikkonen. "Deep Learning Based Multi-Modal Fusion Architectures for Maritime Vessel Detection". Remote Sensing 12, nr 16 (5.08.2020): 2509. http://dx.doi.org/10.3390/rs12162509.
Pełny tekst źródłaHssayeni, Murtadha D., i Behnaz Ghoraani. "Multi-Modal Physiological Data Fusion for Affect Estimation Using Deep Learning". IEEE Access 9 (2021): 21642–52. http://dx.doi.org/10.1109/access.2021.3055933.
Pełny tekst źródłaArya, Nikhilanand, i Sriparna Saha. "Multi-modal advanced deep learning architectures for breast cancer survival prediction". Knowledge-Based Systems 221 (czerwiec 2021): 106965. http://dx.doi.org/10.1016/j.knosys.2021.106965.
Pełny tekst źródłaYAO Hong-ge, 姚红革, 沈新霞 SHEN Xin-xia, 李宇 LI Yu, 喻钧 YU Jun i 雷松泽 LEI Song-ze. "Multi-modal Fusion Brain Tumor Detection Method Based on Deep Learning". ACTA PHOTONICA SINICA 48, nr 7 (2019): 717001. http://dx.doi.org/10.3788/gzxb20194807.0717001.
Pełny tekst źródłaПаршин, А. И., М. Н. Аралов, В. Ф. Барабанов i Н. И. Гребенникова. "RANDOM MULTI-MODAL DEEP LEARNING IN THE PROBLEM OF IMAGE RECOGNITION". ВЕСТНИК ВОРОНЕЖСКОГО ГОСУДАРСТВЕННОГО ТЕХНИЧЕСКОГО УНИВЕРСИТЕТА, nr 4 (20.10.2021): 21–26. http://dx.doi.org/10.36622/vstu.2021.17.4.003.
Pełny tekst źródła