Articles de revues sur le sujet « Deep multi-Modal learning »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Deep multi-Modal learning ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Shetty D S, Radhika. « Multi-Modal Fusion Techniques in Deep Learning ». International Journal of Science and Research (IJSR) 12, no 9 (5 septembre 2023) : 526–32. http://dx.doi.org/10.21275/sr23905100554.
Texte intégralRoostaiyan, Seyed Mahdi, Ehsan Imani et Mahdieh Soleymani Baghshah. « Multi-modal deep distance metric learning ». Intelligent Data Analysis 21, no 6 (15 novembre 2017) : 1351–69. http://dx.doi.org/10.3233/ida-163196.
Texte intégralZhu, Xinghui, Liewu Cai, Zhuoyang Zou et Lei Zhu. « Deep Multi-Semantic Fusion-Based Cross-Modal Hashing ». Mathematics 10, no 3 (29 janvier 2022) : 430. http://dx.doi.org/10.3390/math10030430.
Texte intégralDu, Lin, Xiong You, Ke Li, Liqiu Meng, Gong Cheng, Liyang Xiong et Guangxia Wang. « Multi-modal deep learning for landform recognition ». ISPRS Journal of Photogrammetry and Remote Sensing 158 (décembre 2019) : 63–75. http://dx.doi.org/10.1016/j.isprsjprs.2019.09.018.
Texte intégralWang, Wei, Xiaoyan Yang, Beng Chin Ooi, Dongxiang Zhang et Yueting Zhuang. « Effective deep learning-based multi-modal retrieval ». VLDB Journal 25, no 1 (19 juillet 2015) : 79–101. http://dx.doi.org/10.1007/s00778-015-0391-4.
Texte intégralJeong, Changhoon, Sung-Eun Jang, Sanghyuck Na et Juntae Kim. « Korean Tourist Spot Multi-Modal Dataset for Deep Learning Applications ». Data 4, no 4 (12 octobre 2019) : 139. http://dx.doi.org/10.3390/data4040139.
Texte intégralYang, Yang, Yi-Feng Wu, De-Chuan Zhan, Zhi-Bin Liu et Yuan Jiang. « Deep Robust Unsupervised Multi-Modal Network ». Proceedings of the AAAI Conference on Artificial Intelligence 33 (17 juillet 2019) : 5652–59. http://dx.doi.org/10.1609/aaai.v33i01.33015652.
Texte intégralHua, Yan, Yingyun Yang et Jianhe Du. « Deep Multi-Modal Metric Learning with Multi-Scale Correlation for Image-Text Retrieval ». Electronics 9, no 3 (10 mars 2020) : 466. http://dx.doi.org/10.3390/electronics9030466.
Texte intégralHan, Dong, Hong Nie, Jinbao Chen, Meng Chen, Zhen Deng et Jianwei Zhang. « Multi-modal haptic image recognition based on deep learning ». Sensor Review 38, no 4 (17 septembre 2018) : 486–93. http://dx.doi.org/10.1108/sr-08-2017-0160.
Texte intégralPyrovolakis, Konstantinos, Paraskevi Tzouveli et Giorgos Stamou. « Multi-Modal Song Mood Detection with Deep Learning ». Sensors 22, no 3 (29 janvier 2022) : 1065. http://dx.doi.org/10.3390/s22031065.
Texte intégralPriyasad, Darshana, Tharindu Fernando, Simon Denman, Sridha Sridharan et Clinton Fookes. « Memory based fusion for multi-modal deep learning ». Information Fusion 67 (mars 2021) : 136–46. http://dx.doi.org/10.1016/j.inffus.2020.10.005.
Texte intégralKasa, Kevin, David Burns, Mitchell G. Goldenberg, Omar Selim, Cari Whyne et Michael Hardisty. « Multi-Modal Deep Learning for Assessing Surgeon Technical Skill ». Sensors 22, no 19 (27 septembre 2022) : 7328. http://dx.doi.org/10.3390/s22197328.
Texte intégralNiu, Yulei, Zhiwu Lu, Ji-Rong Wen, Tao Xiang et Shih-Fu Chang. « Multi-Modal Multi-Scale Deep Learning for Large-Scale Image Annotation ». IEEE Transactions on Image Processing 28, no 4 (avril 2019) : 1720–31. http://dx.doi.org/10.1109/tip.2018.2881928.
Texte intégralWang, Qiuli, Dan Yang, Zhihuan Li, Xiaohong Zhang et Chen Liu. « Deep Regression via Multi-Channel Multi-Modal Learning for Pneumonia Screening ». IEEE Access 8 (2020) : 78530–41. http://dx.doi.org/10.1109/access.2020.2990423.
Texte intégralPark, Jongchan, Min-Hyun Kim et Dong-Geol Choi. « Correspondence Learning for Deep Multi-Modal Recognition and Fraud Detection ». Electronics 10, no 7 (28 mars 2021) : 800. http://dx.doi.org/10.3390/electronics10070800.
Texte intégralDong, Guan-Nan, Chi-Man Pun et Zheng Zhang. « Deep Collaborative Multi-Modal Learning for Unsupervised Kinship Estimation ». IEEE Transactions on Information Forensics and Security 16 (2021) : 4197–210. http://dx.doi.org/10.1109/tifs.2021.3098165.
Texte intégralBhatt, Gaurav, Piyush Jha et Balasubramanian Raman. « Representation learning using step-based deep multi-modal autoencoders ». Pattern Recognition 95 (novembre 2019) : 12–23. http://dx.doi.org/10.1016/j.patcog.2019.05.032.
Texte intégralBelfedhal, Alaa Eddine. « Multi-Modal Deep Learning for Effective Malicious Webpage Detection ». Revue d'Intelligence Artificielle 37, no 4 (31 août 2023) : 1005–13. http://dx.doi.org/10.18280/ria.370422.
Texte intégralM. Shahzad, H., Sohail Masood Bhatti, Arfan Jaffar et Muhammad Rashid. « A Multi-Modal Deep Learning Approach for Emotion Recognition ». Intelligent Automation & ; Soft Computing 36, no 2 (2023) : 1561–70. http://dx.doi.org/10.32604/iasc.2023.032525.
Texte intégralZhang, Ning, Huarui Wu, Huaji Zhu, Ying Deng et Xiao Han. « Tomato Disease Classification and Identification Method Based on Multimodal Fusion Deep Learning ». Agriculture 12, no 12 (25 novembre 2022) : 2014. http://dx.doi.org/10.3390/agriculture12122014.
Texte intégralKiela, Douwe, et Stephen Clark. « Learning Neural Audio Embeddings for Grounding Semantics in Auditory Perception ». Journal of Artificial Intelligence Research 60 (26 décembre 2017) : 1003–30. http://dx.doi.org/10.1613/jair.5665.
Texte intégralYang, Yang, Zhilei Wu, Yuexiang Yang, Shuangshuang Lian, Fengjie Guo et Zhiwei Wang. « A Survey of Information Extraction Based on Deep Learning ». Applied Sciences 12, no 19 (27 septembre 2022) : 9691. http://dx.doi.org/10.3390/app12199691.
Texte intégralLi, Zhe, Yuming Jiang et Ruijiang Li. « Abstract 2313 : Multi-modal deep learning to predict cancer outcomes by integrating radiology and pathology images ». Cancer Research 84, no 6_Supplement (22 mars 2024) : 2313. http://dx.doi.org/10.1158/1538-7445.am2024-2313.
Texte intégralGhoniem, Rania M., Abeer D. Algarni, Basel Refky et Ahmed A. Ewees. « Multi-Modal Evolutionary Deep Learning Model for Ovarian Cancer Diagnosis ». Symmetry 13, no 4 (10 avril 2021) : 643. http://dx.doi.org/10.3390/sym13040643.
Texte intégralLi, Xuefei, Liangtu Song, Liu Liu et Linli Zhou. « GSS-RiskAsser : A Multi-Modal Deep-Learning Framework for Urban Gas Supply System Risk Assessment on Business Users ». Sensors 21, no 21 (22 octobre 2021) : 7010. http://dx.doi.org/10.3390/s21217010.
Texte intégralZheng, Qiushuo, Hao Wen, Meng Wang et Guilin Qi. « Visual Entity Linking via Multi-modal Learning ». Data Intelligence 4, no 1 (2022) : 1–19. http://dx.doi.org/10.1162/dint_a_00114.
Texte intégralWilson, Justin C., Suku Nair, Sandro Scielzo et Eric C. Larson. « Objective Measures of Cognitive Load Using Deep Multi-Modal Learning ». Proceedings of the ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies 5, no 1 (19 mars 2021) : 1–35. http://dx.doi.org/10.1145/3448111.
Texte intégralSharma, Pulkit, Achut Manandhar, Patrick Thomson, Jacob Katuva, Robert Hope et David A. Clifton. « Combining Multi-Modal Statistics for Welfare Prediction Using Deep Learning ». Sustainability 11, no 22 (11 novembre 2019) : 6312. http://dx.doi.org/10.3390/su11226312.
Texte intégralGlavan, Andreea, et Estefanía Talavera. « InstaIndoor and multi-modal deep learning for indoor scene recognition ». Neural Computing and Applications 34, no 9 (22 janvier 2022) : 6861–77. http://dx.doi.org/10.1007/s00521-021-06781-2.
Texte intégralLiu, Yu, et Tinne Tuytelaars. « A Deep Multi-Modal Explanation Model for Zero-Shot Learning ». IEEE Transactions on Image Processing 29 (2020) : 4788–803. http://dx.doi.org/10.1109/tip.2020.2975980.
Texte intégralXiang, Lei, Yong Chen, Weitang Chang, Yiqiang Zhan, Weili Lin, Qian Wang et Dinggang Shen. « Deep-Learning-Based Multi-Modal Fusion for Fast MR Reconstruction ». IEEE Transactions on Biomedical Engineering 66, no 7 (juillet 2019) : 2105–14. http://dx.doi.org/10.1109/tbme.2018.2883958.
Texte intégralXu, Xiangyang, Yuncheng Li, Gangshan Wu et Jiebo Luo. « Multi-modal deep feature learning for RGB-D object detection ». Pattern Recognition 72 (décembre 2017) : 300–313. http://dx.doi.org/10.1016/j.patcog.2017.07.026.
Texte intégralWei, Jie, Huaping Liu, Gaowei Yan et Fuchun Sun. « Robotic grasping recognition using multi-modal deep extreme learning machine ». Multidimensional Systems and Signal Processing 28, no 3 (3 mars 2016) : 817–33. http://dx.doi.org/10.1007/s11045-016-0389-0.
Texte intégralKim, Woo-Hyeon, Geon-Woo Kim et Joo-Chang Kim. « Multi-Modal Deep Learning based Metadata Extensions for Video Clipping ». International Journal on Advanced Science, Engineering and Information Technology 14, no 1 (28 février 2024) : 375–80. http://dx.doi.org/10.18517/ijaseit.14.1.19047.
Texte intégralAlthenayan, Albatoul S., Shada A. AlSalamah, Sherin Aly, Thamer Nouh, Bassam Mahboub, Laila Salameh, Metab Alkubeyyer et Abdulrahman Mirza. « COVID-19 Hierarchical Classification Using a Deep Learning Multi-Modal ». Sensors 24, no 8 (20 avril 2024) : 2641. http://dx.doi.org/10.3390/s24082641.
Texte intégralSiddanna, S. R., et Y. C. Kiran. « Two Stage Multi Modal Deep Learning Kannada Character Recognition Model Adaptive to Discriminative Patterns of Kannada Characters ». Indian Journal Of Science And Technology 16, no 3 (22 janvier 2023) : 155–66. http://dx.doi.org/10.17485/ijst/v16i3.1904.
Texte intégralWilliams-Lekuona, Mikel, Georgina Cosma et Iain Phillips. « A Framework for Enabling Unpaired Multi-Modal Learning for Deep Cross-Modal Hashing Retrieval ». Journal of Imaging 8, no 12 (15 décembre 2022) : 328. http://dx.doi.org/10.3390/jimaging8120328.
Texte intégralZheng, Ke, et Zhou Li. « An Image-Text Matching Method for Multi-Modal Robots ». Journal of Organizational and End User Computing 36, no 1 (8 décembre 2023) : 1–21. http://dx.doi.org/10.4018/joeuc.334701.
Texte intégralJuan, Bao, Tuo Min, Hou Meng Ting, Li Xi Yu et Wang Qun. « Research on Intelligent Medical Engineering Analysis and Decision Based on Deep Learning ». International Journal of Web Services Research 19, no 1 (1 janvier 2022) : 1–9. http://dx.doi.org/10.4018/ijwsr.314949.
Texte intégralSong, Kuiyong, Lianke Zhou et Hongbin Wang. « Deep Coupling Recurrent Auto-Encoder with Multi-Modal EEG and EOG for Vigilance Estimation ». Entropy 23, no 10 (9 octobre 2021) : 1316. http://dx.doi.org/10.3390/e23101316.
Texte intégralD’Isanto, A. « Uncertain Photometric Redshifts with Deep Learning Methods ». Proceedings of the International Astronomical Union 12, S325 (octobre 2016) : 209–12. http://dx.doi.org/10.1017/s1743921316013090.
Texte intégralLiang, Chengxu, et Jianshe Dong. « A Survey of Deep Learning-based Facial Expression Recognition Research ». Frontiers in Computing and Intelligent Systems 5, no 2 (1 septembre 2023) : 56–60. http://dx.doi.org/10.54097/fcis.v5i2.12445.
Texte intégralChoi, Sanghyuk Roy, et Minhyeok Lee. « Estimating the Prognosis of Low-Grade Glioma with Gene Attention Using Multi-Omics and Multi-Modal Schemes ». Biology 11, no 10 (5 octobre 2022) : 1462. http://dx.doi.org/10.3390/biology11101462.
Texte intégralHe, Chao, Xinghua Zhang, Dongqing Song, Yingshan Shen, Chengjie Mao, Huosheng Wen, Dingju Zhu et Lihua Cai. « Mixture of Attention Variants for Modal Fusion in Multi-Modal Sentiment Analysis ». Big Data and Cognitive Computing 8, no 2 (29 janvier 2024) : 14. http://dx.doi.org/10.3390/bdcc8020014.
Texte intégralZhang, Huan, et Shunren Xia. « Enhancing Acute Bilirubin Encephalopathy Diagnosis with Multi-Modal MRI : A Deep Learning Approach ». Applied Sciences 14, no 6 (14 mars 2024) : 2464. http://dx.doi.org/10.3390/app14062464.
Texte intégralFarahnakian, Fahimeh, et Jukka Heikkonen. « Deep Learning Based Multi-Modal Fusion Architectures for Maritime Vessel Detection ». Remote Sensing 12, no 16 (5 août 2020) : 2509. http://dx.doi.org/10.3390/rs12162509.
Texte intégralHssayeni, Murtadha D., et Behnaz Ghoraani. « Multi-Modal Physiological Data Fusion for Affect Estimation Using Deep Learning ». IEEE Access 9 (2021) : 21642–52. http://dx.doi.org/10.1109/access.2021.3055933.
Texte intégralArya, Nikhilanand, et Sriparna Saha. « Multi-modal advanced deep learning architectures for breast cancer survival prediction ». Knowledge-Based Systems 221 (juin 2021) : 106965. http://dx.doi.org/10.1016/j.knosys.2021.106965.
Texte intégralYAO Hong-ge, 姚红革, 沈新霞 SHEN Xin-xia, 李宇 LI Yu, 喻钧 YU Jun et 雷松泽 LEI Song-ze. « Multi-modal Fusion Brain Tumor Detection Method Based on Deep Learning ». ACTA PHOTONICA SINICA 48, no 7 (2019) : 717001. http://dx.doi.org/10.3788/gzxb20194807.0717001.
Texte intégralПаршин, А. И., М. Н. Аралов, В. Ф. Барабанов et Н. И. Гребенникова. « RANDOM MULTI-MODAL DEEP LEARNING IN THE PROBLEM OF IMAGE RECOGNITION ». ВЕСТНИК ВОРОНЕЖСКОГО ГОСУДАРСТВЕННОГО ТЕХНИЧЕСКОГО УНИВЕРСИТЕТА, no 4 (20 octobre 2021) : 21–26. http://dx.doi.org/10.36622/vstu.2021.17.4.003.
Texte intégral