Articles de revues sur le sujet « Low-Rank Tensor »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les 50 meilleurs articles de revues pour votre recherche sur le sujet « Low-Rank Tensor ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.
Zhong, Guoqiang, et Mohamed Cheriet. « Large Margin Low Rank Tensor Analysis ». Neural Computation 26, no 4 (avril 2014) : 761–80. http://dx.doi.org/10.1162/neco_a_00570.
Texte intégralLiu, Hongyi, Hanyang Li, Zebin Wu et Zhihui Wei. « Hyperspectral Image Recovery Using Non-Convex Low-Rank Tensor Approximation ». Remote Sensing 12, no 14 (15 juillet 2020) : 2264. http://dx.doi.org/10.3390/rs12142264.
Texte intégralZhou, Pan, Canyi Lu, Zhouchen Lin et Chao Zhang. « Tensor Factorization for Low-Rank Tensor Completion ». IEEE Transactions on Image Processing 27, no 3 (mars 2018) : 1152–63. http://dx.doi.org/10.1109/tip.2017.2762595.
Texte intégralHe, Yicong, et George K. Atia. « Multi-Mode Tensor Space Clustering Based on Low-Tensor-Rank Representation ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 6 (28 juin 2022) : 6893–901. http://dx.doi.org/10.1609/aaai.v36i6.20646.
Texte intégralLiu, Xiaohua, et Guijin Tang. « Color Image Restoration Using Sub-Image Based Low-Rank Tensor Completion ». Sensors 23, no 3 (3 février 2023) : 1706. http://dx.doi.org/10.3390/s23031706.
Texte intégralJiang, Yuanxiang, Qixiang Zhang, Zhanjiang Yuan et Chen Wang. « Convex Robust Recovery of Corrupted Tensors via Tensor Singular Value Decomposition and Local Low-Rank Approximation ». Journal of Physics : Conference Series 2670, no 1 (1 décembre 2023) : 012026. http://dx.doi.org/10.1088/1742-6596/2670/1/012026.
Texte intégralYu, Shicheng, Jiaqing Miao, Guibing Li, Weidong Jin, Gaoping Li et Xiaoguang Liu. « Tensor Completion via Smooth Rank Function Low-Rank Approximate Regularization ». Remote Sensing 15, no 15 (3 août 2023) : 3862. http://dx.doi.org/10.3390/rs15153862.
Texte intégralNie, Jiawang. « Low Rank Symmetric Tensor Approximations ». SIAM Journal on Matrix Analysis and Applications 38, no 4 (janvier 2017) : 1517–40. http://dx.doi.org/10.1137/16m1107528.
Texte intégralMickelin, Oscar, et Sertac Karaman. « Multiresolution Low-rank Tensor Formats ». SIAM Journal on Matrix Analysis and Applications 41, no 3 (janvier 2020) : 1086–114. http://dx.doi.org/10.1137/19m1284579.
Texte intégralGong, Xiao, Wei Chen, Jie Chen et Bo Ai. « Tensor Denoising Using Low-Rank Tensor Train Decomposition ». IEEE Signal Processing Letters 27 (2020) : 1685–89. http://dx.doi.org/10.1109/lsp.2020.3025038.
Texte intégralChen, Xi’ai, Zhen Wang, Kaidong Wang, Huidi Jia, Zhi Han et Yandong Tang. « Multi-Dimensional Low-Rank with Weighted Schatten p-Norm Minimization for Hyperspectral Anomaly Detection ». Remote Sensing 16, no 1 (24 décembre 2023) : 74. http://dx.doi.org/10.3390/rs16010074.
Texte intégralSobolev, Konstantin, Dmitry Ermilov, Anh-Huy Phan et Andrzej Cichocki. « PARS : Proxy-Based Automatic Rank Selection for Neural Network Compression via Low-Rank Weight Approximation ». Mathematics 10, no 20 (14 octobre 2022) : 3801. http://dx.doi.org/10.3390/math10203801.
Texte intégralSun, Li, et Bing Song. « Data Recovery Technology Based on Subspace Clustering ». Scientific Programming 2022 (20 juillet 2022) : 1–6. http://dx.doi.org/10.1155/2022/1920933.
Texte intégralBachmayr, Markus, et Vladimir Kazeev. « Stability of Low-Rank Tensor Representations and Structured Multilevel Preconditioning for Elliptic PDEs ». Foundations of Computational Mathematics 20, no 5 (23 janvier 2020) : 1175–236. http://dx.doi.org/10.1007/s10208-020-09446-z.
Texte intégralShcherbakova, Elena M., Sergey A. Matveev, Alexander P. Smirnov et Eugene E. Tyrtyshnikov. « Study of performance of low-rank nonnegative tensor factorization methods ». Russian Journal of Numerical Analysis and Mathematical Modelling 38, no 4 (1 août 2023) : 231–39. http://dx.doi.org/10.1515/rnam-2023-0018.
Texte intégralDu, Shiqiang, Yuqing Shi, Guangrong Shan, Weilan Wang et Yide Ma. « Tensor low-rank sparse representation for tensor subspace learning ». Neurocomputing 440 (juin 2021) : 351–64. http://dx.doi.org/10.1016/j.neucom.2021.02.002.
Texte intégralCai, Bing, et Gui-Fu Lu. « Tensor subspace clustering using consensus tensor low-rank representation ». Information Sciences 609 (septembre 2022) : 46–59. http://dx.doi.org/10.1016/j.ins.2022.07.049.
Texte intégral李, 鸿燕. « Double Factor Tensor Norm Regularized Low Rank Tensor Completion ». Advances in Applied Mathematics 11, no 10 (2022) : 6908–14. http://dx.doi.org/10.12677/aam.2022.1110732.
Texte intégralJiang, Bo, Shiqian Ma et Shuzhong Zhang. « Low-M-Rank Tensor Completion and Robust Tensor PCA ». IEEE Journal of Selected Topics in Signal Processing 12, no 6 (décembre 2018) : 1390–404. http://dx.doi.org/10.1109/jstsp.2018.2873144.
Texte intégralZheng, Yu-Bang, Ting-Zhu Huang, Xi-Le Zhao, Tai-Xiang Jiang, Teng-Yu Ji et Tian-Hui Ma. « Tensor N-tubal rank and its convex relaxation for low-rank tensor recovery ». Information Sciences 532 (septembre 2020) : 170–89. http://dx.doi.org/10.1016/j.ins.2020.05.005.
Texte intégral马, 婷婷. « Enhanced Low Rank Tensor Approximation Algorithm ». Advances in Applied Mathematics 08, no 08 (2019) : 1336–40. http://dx.doi.org/10.12677/aam.2019.88157.
Texte intégralHuang, Huyan, Yipeng Liu, Zhen Long et Ce Zhu. « Robust Low-Rank Tensor Ring Completion ». IEEE Transactions on Computational Imaging 6 (2020) : 1117–26. http://dx.doi.org/10.1109/tci.2020.3006718.
Texte intégralZhang, Anru. « Cross : Efficient low-rank tensor completion ». Annals of Statistics 47, no 2 (avril 2019) : 936–64. http://dx.doi.org/10.1214/18-aos1694.
Texte intégralSu, Yaru, Xiaohui Wu et Genggeng Liu. « Nonconvex Low Tubal Rank Tensor Minimization ». IEEE Access 7 (2019) : 170831–43. http://dx.doi.org/10.1109/access.2019.2956115.
Texte intégralWang, Andong, Zhihui Lai et Zhong Jin. « Noisy low-tubal-rank tensor completion ». Neurocomputing 330 (février 2019) : 267–79. http://dx.doi.org/10.1016/j.neucom.2018.11.012.
Texte intégralGuo, Kailing, Tong Zhang, Xiangmin Xu et Xiaofen Xing. « Low-Rank Tensor Thresholding Ridge Regression ». IEEE Access 7 (2019) : 153761–72. http://dx.doi.org/10.1109/access.2019.2944426.
Texte intégralTan, Huachun, Jianshuai Feng, Zhengdong Chen, Fan Yang et Wuhong Wang. « Low Multilinear Rank Approximation of Tensors and Application in Missing Traffic Data ». Advances in Mechanical Engineering 6 (1 janvier 2014) : 157597. http://dx.doi.org/10.1155/2014/157597.
Texte intégralZhu, Yada, Jingrui He et Rick Lawrence. « Hierarchical Modeling with Tensor Inputs ». Proceedings of the AAAI Conference on Artificial Intelligence 26, no 1 (20 septembre 2021) : 1233–39. http://dx.doi.org/10.1609/aaai.v26i1.8283.
Texte intégralHe, Jingfei, Xunan Zheng, Peng Gao et Yatong Zhou. « Low-rank tensor completion based on tensor train rank with partially overlapped sub-blocks ». Signal Processing 190 (janvier 2022) : 108339. http://dx.doi.org/10.1016/j.sigpro.2021.108339.
Texte intégralLiu, Yipeng, Jiani Liu et Ce Zhu. « Low-Rank Tensor Train Coefficient Array Estimation for Tensor-on-Tensor Regression ». IEEE Transactions on Neural Networks and Learning Systems 31, no 12 (décembre 2020) : 5402–11. http://dx.doi.org/10.1109/tnnls.2020.2967022.
Texte intégralJyothula, Sunil Kumar, et Jaya Chandra Prasad Talari. « An Efficient Transform based Low Rank Tensor Completion to Extreme Visual Recovery ». Indian Journal of Science and Technology 15, no 14 (11 avril 2022) : 608–18. http://dx.doi.org/10.17485/ijst/v15i14.264.
Texte intégralDong, Le, et Yuan Yuan. « Sparse Constrained Low Tensor Rank Representation Framework for Hyperspectral Unmixing ». Remote Sensing 13, no 8 (11 avril 2021) : 1473. http://dx.doi.org/10.3390/rs13081473.
Texte intégralGhadermarzy, Navid, Yaniv Plan et Özgür Yilmaz. « Near-optimal sample complexity for convex tensor completion ». Information and Inference : A Journal of the IMA 8, no 3 (23 novembre 2018) : 577–619. http://dx.doi.org/10.1093/imaiai/iay019.
Texte intégralChen, Chuan, Zhe-Bin Wu, Zi-Tai Chen, Zi-Bin Zheng et Xiong-Jun Zhang. « Auto-weighted robust low-rank tensor completion via tensor-train ». Information Sciences 567 (août 2021) : 100–115. http://dx.doi.org/10.1016/j.ins.2021.03.025.
Texte intégralLiu, Chunsheng, Hong Shan et Chunlei Chen. « Tensor p-shrinkage nuclear norm for low-rank tensor completion ». Neurocomputing 387 (avril 2020) : 255–67. http://dx.doi.org/10.1016/j.neucom.2020.01.009.
Texte intégralYang, Jing-Hua, Xi-Le Zhao, Teng-Yu Ji, Tian-Hui Ma et Ting-Zhu Huang. « Low-rank tensor train for tensor robust principal component analysis ». Applied Mathematics and Computation 367 (février 2020) : 124783. http://dx.doi.org/10.1016/j.amc.2019.124783.
Texte intégralZhang, Zhao, Cheng Ding, Zhisheng Gao et Chunzhi Xie. « ANLPT : Self-Adaptive and Non-Local Patch-Tensor Model for Infrared Small Target Detection ». Remote Sensing 15, no 4 (12 février 2023) : 1021. http://dx.doi.org/10.3390/rs15041021.
Texte intégralShi, Qiquan, Jiaming Yin, Jiajun Cai, Andrzej Cichocki, Tatsuya Yokota, Lei Chen, Mingxuan Yuan et Jia Zeng. « Block Hankel Tensor ARIMA for Multiple Short Time Series Forecasting ». Proceedings of the AAAI Conference on Artificial Intelligence 34, no 04 (3 avril 2020) : 5758–66. http://dx.doi.org/10.1609/aaai.v34i04.6032.
Texte intégralMohaoui, S., K. El Qate, A. Hakim et S. Raghay. « Low-rank tensor completion using nonconvex total variation ». Mathematical Modeling and Computing 9, no 2 (2022) : 365–74. http://dx.doi.org/10.23939/mmc2022.02.365.
Texte intégralJia, Yuheng, Hui Liu, Junhui Hou et Qingfu Zhang. « Clustering Ensemble Meets Low-rank Tensor Approximation ». Proceedings of the AAAI Conference on Artificial Intelligence 35, no 9 (18 mai 2021) : 7970–78. http://dx.doi.org/10.1609/aaai.v35i9.16972.
Texte intégralSuzuki, Taiji, et Heishiro Kanagawa. « Bayes method for low rank tensor estimation ». Journal of Physics : Conference Series 699 (mars 2016) : 012020. http://dx.doi.org/10.1088/1742-6596/699/1/012020.
Texte intégralKadmon, Jonathan, et Surya Ganguli. « Statistical mechanics of low-rank tensor decomposition ». Journal of Statistical Mechanics : Theory and Experiment 2019, no 12 (20 décembre 2019) : 124016. http://dx.doi.org/10.1088/1742-5468/ab3216.
Texte intégralKressner, Daniel, Michael Steinlechner et Bart Vandereycken. « Low-rank tensor completion by Riemannian optimization ». BIT Numerical Mathematics 54, no 2 (7 novembre 2013) : 447–68. http://dx.doi.org/10.1007/s10543-013-0455-z.
Texte intégralXie, Ting, Shutao Li, Leyuan Fang et Licheng Liu. « Tensor Completion via Nonlocal Low-Rank Regularization ». IEEE Transactions on Cybernetics 49, no 6 (juin 2019) : 2344–54. http://dx.doi.org/10.1109/tcyb.2018.2825598.
Texte intégralSohrabi Bonab, Zahra, et Mohammad B. Shamsollahi. « Low-rank Tensor Restoration for ERP extraction ». Biomedical Signal Processing and Control 87 (janvier 2024) : 105379. http://dx.doi.org/10.1016/j.bspc.2023.105379.
Texte intégral王, 香懿. « Improved Robust Low-Rank Regularization Tensor Completion ». Advances in Applied Mathematics 11, no 11 (2022) : 7647–52. http://dx.doi.org/10.12677/aam.2022.1111809.
Texte intégralWang, Xiangyi, et Wei Jiang. « Improved Robust Low-Rank Regularization Tensor Completion ». OALib 09, no 11 (2022) : 1–25. http://dx.doi.org/10.4236/oalib.1109425.
Texte intégralHosono, Kaito, Shunsuke Ono et Takamichi Miyata. « On the Synergy between Nonconvex Extensions of the Tensor Nuclear Norm for Tensor Recovery ». Signals 2, no 1 (18 février 2021) : 108–21. http://dx.doi.org/10.3390/signals2010010.
Texte intégralDUAN, YI-SHI, et SHAO-FENG WU. « MAGNETIC BRANES FROM GENERALIZED 't HOOFT TENSOR ». Modern Physics Letters A 21, no 34 (10 novembre 2006) : 2599–606. http://dx.doi.org/10.1142/s0217732306020500.
Texte intégralZhou, Junxiu, Yangyang Tao et Xian Liu. « Tensor Decomposition for Salient Object Detection in Images ». Big Data and Cognitive Computing 3, no 2 (19 juin 2019) : 33. http://dx.doi.org/10.3390/bdcc3020033.
Texte intégral