Articles de revues sur le sujet « Self-Supervised models »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Self-Supervised models ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Anton, Jonah, Liam Castelli, Mun Fai Chan, Mathilde Outters, Wan Hee Tang, Venus Cheung, Pancham Shukla, Rahee Walambe et Ketan Kotecha. « How Well Do Self-Supervised Models Transfer to Medical Imaging ? » Journal of Imaging 8, no 12 (1 décembre 2022) : 320. http://dx.doi.org/10.3390/jimaging8120320.
Texte intégralGatopoulos, Ioannis, et Jakub M. Tomczak. « Self-Supervised Variational Auto-Encoders ». Entropy 23, no 6 (14 juin 2021) : 747. http://dx.doi.org/10.3390/e23060747.
Texte intégralZhang, Ronghua, Yuanyuan Wang, Fangyuan Liu, Changzheng Liu, Yaping Song et Baohua Yu. « S2NMF : Information Self-Enhancement Self-Supervised Nonnegative Matrix Factorization for Recommendation ». Wireless Communications and Mobile Computing 2022 (30 août 2022) : 1–10. http://dx.doi.org/10.1155/2022/4748858.
Texte intégralDang, Thanh-Vu, JinYoung Kim, Gwang-Hyun Yu, Ji Yong Kim, Young Hwan Park et ChilWoo Lee. « Korean Text to Gloss : Self-Supervised Learning approach ». Korean Institute of Smart Media 12, no 1 (28 février 2023) : 32–46. http://dx.doi.org/10.30693/smj.2023.12.1.32.
Texte intégralRisojević, V., et V. Stojnić. « DO WE STILL NEED IMAGENET PRE-TRAINING IN REMOTE SENSING SCENE CLASSIFICATION ? » International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLIII-B3-2022 (31 mai 2022) : 1399–406. http://dx.doi.org/10.5194/isprs-archives-xliii-b3-2022-1399-2022.
Texte intégralImran, Abdullah-Al-Zubaer, Chao Huang, Hui Tang, Wei Fan, Yuan Xiao, Dingjun Hao, Zhen Qian et Demetri Terzopoulos. « Self-Supervised, Semi-Supervised, Multi-Context Learning for the Combined Classification and Segmentation of Medical Images (Student Abstract) ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 10 (3 avril 2020) : 13815–16. http://dx.doi.org/10.1609/aaai.v34i10.7179.
Texte intégralZhou, Meng, Zechen Li et Pengtao Xie. « Self-supervised Regularization for Text Classification ». Transactions of the Association for Computational Linguistics 9 (2021) : 641–56. http://dx.doi.org/10.1162/tacl_a_00389.
Texte intégralGong, Yuan, Cheng-I. Lai, Yu-An Chung et James Glass. « SSAST : Self-Supervised Audio Spectrogram Transformer ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 10 (28 juin 2022) : 10699–709. http://dx.doi.org/10.1609/aaai.v36i10.21315.
Texte intégralChen, Xuehao, Jin Zhou, Yuehui Chen, Shiyuan Han, Yingxu Wang, Tao Du, Cheng Yang et Bowen Liu. « Self-Supervised Clustering Models Based on BYOL Network Structure ». Electronics 12, no 23 (21 novembre 2023) : 4723. http://dx.doi.org/10.3390/electronics12234723.
Texte intégralLuo, Dezhao, Chang Liu, Yu Zhou, Dongbao Yang, Can Ma, Qixiang Ye et Weiping Wang. « Video Cloze Procedure for Self-Supervised Spatio-Temporal Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 07 (3 avril 2020) : 11701–8. http://dx.doi.org/10.1609/aaai.v34i07.6840.
Texte intégralTuncal, Kubra, Boran Sekeroglu et Rahib Abiyev. « Self-Supervised and Supervised Image Enhancement Networks with Time-Shift Module ». Electronics 13, no 12 (13 juin 2024) : 2313. http://dx.doi.org/10.3390/electronics13122313.
Texte intégralKnoedler, Luzia, Chadi Salmi, Hai Zhu, Bruno Brito et Javier Alonso-Mora. « Improving Pedestrian Prediction Models With Self-Supervised Continual Learning ». IEEE Robotics and Automation Letters 7, no 2 (avril 2022) : 4781–88. http://dx.doi.org/10.1109/lra.2022.3148475.
Texte intégralPasad, Ankita, Chung-Ming Chien, Shane Settle et Karen Livescu. « What Do Self-Supervised Speech Models Know About Words ? » Transactions of the Association for Computational Linguistics 12 (2024) : 372–91. http://dx.doi.org/10.1162/tacl_a_00656.
Texte intégralLi, Jingwei, Chi Zhang, Linyuan Wang, Penghui Ding, Lulu Hu, Bin Yan et Li Tong. « A Visual Encoding Model Based on Contrastive Self-Supervised Learning for Human Brain Activity along the Ventral Visual Stream ». Brain Sciences 11, no 8 (29 juillet 2021) : 1004. http://dx.doi.org/10.3390/brainsci11081004.
Texte intégralScheibenreif, L., M. Mommert et D. Borth. « CONTRASTIVE SELF-SUPERVISED DATA FUSION FOR SATELLITE IMAGERY ». ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences V-3-2022 (17 mai 2022) : 705–11. http://dx.doi.org/10.5194/isprs-annals-v-3-2022-705-2022.
Texte intégralYuan, Guotao, Hong Huang et Xin Li. « Self-supervised learning backdoor defense mixed with self-attention mechanism ». Journal of Computing and Electronic Information Management 12, no 2 (30 mars 2024) : 81–88. http://dx.doi.org/10.54097/7hx9afkw.
Texte intégralZhang, Ye. « Application of self-supervised learning in natural language processing ». Journal of Computing and Electronic Information Management 12, no 1 (28 février 2024) : 23–26. http://dx.doi.org/10.54097/urpv6i8g3j.
Texte intégralDominic, Jeffrey, Nandita Bhaskhar, Arjun D. Desai, Andrew Schmidt, Elka Rubin, Beliz Gunel, Garry E. Gold et al. « Improving Data-Efficiency and Robustness of Medical Imaging Segmentation Using Inpainting-Based Self-Supervised Learning ». Bioengineering 10, no 2 (4 février 2023) : 207. http://dx.doi.org/10.3390/bioengineering10020207.
Texte intégralZeng, Jiaqi, et Pengtao Xie. « Contrastive Self-supervised Learning for Graph Classification ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 12 (18 mai 2021) : 10824–32. http://dx.doi.org/10.1609/aaai.v35i12.17293.
Texte intégralWagner, Royden, Carlos Fernandez Lopez et Christoph Stiller. « Self-supervised pseudo-colorizing of masked cells ». PLOS ONE 18, no 8 (24 août 2023) : e0290561. http://dx.doi.org/10.1371/journal.pone.0290561.
Texte intégralLiu, Yuanyuan, et Qianqian Liu. « Research on Self-Supervised Comparative Learning for Computer Vision ». Journal of Electronic Research and Application 5, no 3 (17 août 2021) : 5–17. http://dx.doi.org/10.26689/jera.v5i3.2320.
Texte intégralEsser, Pascal, Maximilian Fleissner et Debarghya Ghoshdastidar. « Non-parametric Representation Learning with Kernels ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 11 (24 mars 2024) : 11910–18. http://dx.doi.org/10.1609/aaai.v38i11.29077.
Texte intégralPolceanu, Mihai, Julie Porteous, Alan Lindsay et Marc Cavazza. « Narrative Plan Generation with Self-Supervised Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 7 (18 mai 2021) : 5984–92. http://dx.doi.org/10.1609/aaai.v35i7.16747.
Texte intégralTóth, Martos, et Nelson Sommerfeldt. « PV self-consumption prediction methods using supervised machine learning ». E3S Web of Conferences 362 (2022) : 02003. http://dx.doi.org/10.1051/e3sconf/202236202003.
Texte intégralMustapha, Ahmad, Wael Khreich et Wes Masri. « Inter-model interpretability : Self-supervised models as a case study ». Array 22 (juillet 2024) : 100350. http://dx.doi.org/10.1016/j.array.2024.100350.
Texte intégralShi, Haizhou, Youcai Zhang, Siliang Tang, Wenjie Zhu, Yaqian Li, Yandong Guo et Yueting Zhuang. « On the Efficacy of Small Self-Supervised Contrastive Models without Distillation Signals ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 2 (28 juin 2022) : 2225–34. http://dx.doi.org/10.1609/aaai.v36i2.20120.
Texte intégralMakarov, Ilya, Maria Bakhanova, Sergey Nikolenko et Olga Gerasimova. « Self-supervised recurrent depth estimation with attention mechanisms ». PeerJ Computer Science 8 (31 janvier 2022) : e865. http://dx.doi.org/10.7717/peerj-cs.865.
Texte intégralHu, Fanghuai, Zhiqing Shao et Tong Ruan. « Self-Supervised Chinese Ontology Learning from Online Encyclopedias ». Scientific World Journal 2014 (2014) : 1–13. http://dx.doi.org/10.1155/2014/848631.
Texte intégralShwartz Ziv, Ravid, et Yann LeCun. « To Compress or Not to Compress—Self-Supervised Learning and Information Theory : A Review ». Entropy 26, no 3 (12 mars 2024) : 252. http://dx.doi.org/10.3390/e26030252.
Texte intégralMontero Quispe, Kevin G., Daniel M. S. Utyiama, Eulanda M. dos Santos, Horácio A. B. F. Oliveira et Eduardo J. P. Souto. « Applying Self-Supervised Representation Learning for Emotion Recognition Using Physiological Signals ». Sensors 22, no 23 (23 novembre 2022) : 9102. http://dx.doi.org/10.3390/s22239102.
Texte intégralLivieris, Ioannis, Andreas Kanavos, Vassilis Tampakas et Panagiotis Pintelas. « An Auto-Adjustable Semi-Supervised Self-Training Algorithm ». Algorithms 11, no 9 (14 septembre 2018) : 139. http://dx.doi.org/10.3390/a11090139.
Texte intégralKahatapitiya, Kumara, Zhou Ren, Haoxiang Li, Zhenyu Wu, Michael S. Ryoo et Gang Hua. « Weakly-Guided Self-Supervised Pretraining for Temporal Activity Detection ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 1 (26 juin 2023) : 1078–86. http://dx.doi.org/10.1609/aaai.v37i1.25189.
Texte intégralCheng, Jiashun, Man Li, Jia Li et Fugee Tsung. « Wiener Graph Deconvolutional Network Improves Graph Self-Supervised Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 6 (26 juin 2023) : 7131–39. http://dx.doi.org/10.1609/aaai.v37i6.25870.
Texte intégralFedden, Leon, Zhenning Zhang, Khan Baykaner, Qin Li et Lucas Bordeaux. « Abstract 1937 : DIME-CT : Self-supervised learning for medical image analysis using patch-based embeddings ». Cancer Research 82, no 12_Supplement (15 juin 2022) : 1937. http://dx.doi.org/10.1158/1538-7445.am2022-1937.
Texte intégralXu, Xiangdong, Krzysztof Przystupa et Orest Kochan. « Social Recommendation Algorithm Based on Self-Supervised Hypergraph Attention ». Electronics 12, no 4 (10 février 2023) : 906. http://dx.doi.org/10.3390/electronics12040906.
Texte intégralManessi, Franco, et Alessandro Rozza. « Graph-based neural network models with multiple self-supervised auxiliary tasks ». Pattern Recognition Letters 148 (août 2021) : 15–21. http://dx.doi.org/10.1016/j.patrec.2021.04.021.
Texte intégralZhang, Jian, Jianing Yang, Jun Yu et Jianping Fan. « Semisupervised image classification by mutual learning of multiple self‐supervised models ». International Journal of Intelligent Systems 37, no 5 (14 janvier 2022) : 3117–41. http://dx.doi.org/10.1002/int.22814.
Texte intégralLiu, Gang, Silu He, Xing Han, Qinyao Luo, Ronghua Du, Xinsha Fu et Ling Zhao. « Self-Supervised Spatiotemporal Masking Strategy-Based Models for Traffic Flow Forecasting ». Symmetry 15, no 11 (31 octobre 2023) : 2002. http://dx.doi.org/10.3390/sym15112002.
Texte intégralJoshi, Amey, Hrishitaa Kurchania et Harikrishnan R. « Robust Object Segmentation using 3D Mesh Models and Self-Supervised Learning ». Procedia Computer Science 235 (2024) : 907–15. http://dx.doi.org/10.1016/j.procs.2024.04.086.
Texte intégralGao, Min, Yingmei Wei, Yuxiang Xie et Yitong Zhang. « Traffic Prediction with Self-Supervised Learning : A Heterogeneity-Aware Model for Urban Traffic Flow Prediction Based on Self-Supervised Learning ». Mathematics 12, no 9 (24 avril 2024) : 1290. http://dx.doi.org/10.3390/math12091290.
Texte intégralXu, Yanjie, Hao Sun, Jin Chen, Lin Lei, Kefeng Ji et Gangyao Kuang. « Adversarial Self-Supervised Learning for Robust SAR Target Recognition ». Remote Sensing 13, no 20 (17 octobre 2021) : 4158. http://dx.doi.org/10.3390/rs13204158.
Texte intégralJaved, Tahir, Kaushal Bhogale, Abhigyan Raman, Pratyush Kumar, Anoop Kunchukuttan et Mitesh M. Khapra. « IndicSUPERB : A Speech Processing Universal Performance Benchmark for Indian Languages ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 11 (26 juin 2023) : 12942–50. http://dx.doi.org/10.1609/aaai.v37i11.26521.
Texte intégralZhao, Nanxuan, Zhirong Wu, Rynson W. H. Lau et Stephen Lin. « Distilling Localization for Self-Supervised Representation Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 12 (18 mai 2021) : 10990–98. http://dx.doi.org/10.1609/aaai.v35i12.17312.
Texte intégralGuo, Yuzhi, Jiaxiang Wu, Hehuan Ma et Junzhou Huang. « Self-Supervised Pre-training for Protein Embeddings Using Tertiary Structures ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 6 (28 juin 2022) : 6801–9. http://dx.doi.org/10.1609/aaai.v36i6.20636.
Texte intégralLin, Ken, Xiongwen Quan, Wenya Yin et Han Zhang. « A Contrastive Learning Pre-Training Method for Motif Occupancy Identification ». International Journal of Molecular Sciences 23, no 9 (24 avril 2022) : 4699. http://dx.doi.org/10.3390/ijms23094699.
Texte intégralNimitsurachat, Peranut, et Peter Washington. « Audio-Based Emotion Recognition Using Self-Supervised Learning on an Engineered Feature Space ». AI 5, no 1 (17 janvier 2024) : 195–207. http://dx.doi.org/10.3390/ai5010011.
Texte intégralParmar, Chaitanya, Albert Juan Ramon, Nicole L. Stone, Spyros Triantos, Joel Greshock et Kristopher Standish. « Generalizable FGFR prediction across tumor types using self supervised learning. » Journal of Clinical Oncology 41, no 16_suppl (1 juin 2023) : e15057-e15057. http://dx.doi.org/10.1200/jco.2023.41.16_suppl.e15057.
Texte intégralDíaz, Gabriel, Billy Peralta, Luis Caro et Orietta Nicolis. « Co-Training for Visual Object Recognition Based on Self-Supervised Models Using a Cross-Entropy Regularization ». Entropy 23, no 4 (1 avril 2021) : 423. http://dx.doi.org/10.3390/e23040423.
Texte intégralChoudhary, Nurendra, Charu C. Aggarwal, Karthik Subbian et Chandan K. Reddy. « Self-supervised Short-text Modeling through Auxiliary Context Generation ». ACM Transactions on Intelligent Systems and Technology 13, no 3 (30 juin 2022) : 1–21. http://dx.doi.org/10.1145/3511712.
Texte intégralZhang, Ming, Xin Gu, Ji Qi, Zhenshi Zhang, Hemeng Yang, Jun Xu, Chengli Peng et Haifeng Li. « CDEST : Class Distinguishability-Enhanced Self-Training Method for Adopting Pre-Trained Models to Downstream Remote Sensing Image Semantic Segmentation ». Remote Sensing 16, no 7 (6 avril 2024) : 1293. http://dx.doi.org/10.3390/rs16071293.
Texte intégral