Artykuły w czasopismach na temat „Subgradient descent”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 46 najlepszych artykułów w czasopismach naukowych na temat „Subgradient descent”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj artykuły w czasopismach z różnych dziedzin i twórz odpowiednie bibliografie.
Krutikov, Vladimir, Svetlana Gutova, Elena Tovbis, Lev Kazakovtsev i Eugene Semenkin. "Relaxation Subgradient Algorithms with Machine Learning Procedures". Mathematics 10, nr 21 (25.10.2022): 3959. http://dx.doi.org/10.3390/math10213959.
Pełny tekst źródłaTovbis, Elena, Vladimir Krutikov, Predrag Stanimirović, Vladimir Meshechkin, Aleksey Popov i Lev Kazakovtsev. "A Family of Multi-Step Subgradient Minimization Methods". Mathematics 11, nr 10 (11.05.2023): 2264. http://dx.doi.org/10.3390/math11102264.
Pełny tekst źródłaLi, Gang, Minghua Li i Yaohua Hu. "Stochastic quasi-subgradient method for stochastic quasi-convex feasibility problems". Discrete & Continuous Dynamical Systems - S 15, nr 4 (2022): 713. http://dx.doi.org/10.3934/dcdss.2021127.
Pełny tekst źródłaChu, Wenqing, Yao Hu, Chen Zhao, Haifeng Liu i Deng Cai. "Atom Decomposition Based Subgradient Descent for matrix classification". Neurocomputing 205 (wrzesień 2016): 222–28. http://dx.doi.org/10.1016/j.neucom.2016.03.069.
Pełny tekst źródłaBedi, Amrit Singh, i Ketan Rajawat. "Network Resource Allocation via Stochastic Subgradient Descent: Convergence Rate". IEEE Transactions on Communications 66, nr 5 (maj 2018): 2107–21. http://dx.doi.org/10.1109/tcomm.2018.2792430.
Pełny tekst źródłaNedić, Angelia, i Soomin Lee. "On Stochastic Subgradient Mirror-Descent Algorithm with Weighted Averaging". SIAM Journal on Optimization 24, nr 1 (styczeń 2014): 84–107. http://dx.doi.org/10.1137/120894464.
Pełny tekst źródłaCui, Yun-Ling, Lu-Chuan Ceng, Fang-Fei Zhang, Cong-Shan Wang, Jian-Ye Li, Hui-Ying Hu i Long He. "Modified Mann-Type Subgradient Extragradient Rules for Variational Inequalities and Common Fixed Points Implicating Countably Many Nonexpansive Operators". Mathematics 10, nr 11 (6.06.2022): 1949. http://dx.doi.org/10.3390/math10111949.
Pełny tekst źródłaMontonen, O., N. Karmitsa i M. M. Mäkelä. "Multiple subgradient descent bundle method for convex nonsmooth multiobjective optimization". Optimization 67, nr 1 (12.10.2017): 139–58. http://dx.doi.org/10.1080/02331934.2017.1387259.
Pełny tekst źródłaBeck, Amir, i Marc Teboulle. "Mirror descent and nonlinear projected subgradient methods for convex optimization". Operations Research Letters 31, nr 3 (maj 2003): 167–75. http://dx.doi.org/10.1016/s0167-6377(02)00231-6.
Pełny tekst źródłaCeng, Lu-Chuan, Li-Jun Zhu i Tzu-Chien Yin. "Modified subgradient extragradient algorithms for systems of generalized equilibria with constraints". AIMS Mathematics 8, nr 2 (2023): 2961–94. http://dx.doi.org/10.3934/math.2023154.
Pełny tekst źródłaAuslender, A., i M. Teboulle. "Interior Gradient and Epsilon-Subgradient Descent Methods for Constrained Convex Minimization". Mathematics of Operations Research 29, nr 1 (luty 2004): 1–26. http://dx.doi.org/10.1287/moor.1030.0062.
Pełny tekst źródłaCui, Yun-Ling, Lu-Chuan Ceng, Fang-Fei Zhang, Liang He, Jie Yin, Cong-Shan Wang i Hui-Ying Hu. "Mann Hybrid Deepest-Descent Extragradient Method with Line-Search Process for Hierarchical Variational Inequalities for Countable Nonexpansive Mappings". Journal of Mathematics 2023 (15.05.2023): 1–18. http://dx.doi.org/10.1155/2023/6177912.
Pełny tekst źródłaPanup, Wanida, i Rabian Wangkeeree. "Stochastic Subgradient for Large-Scale Support Vector Machine Using the Generalized Pinball Loss Function". Symmetry 13, nr 9 (8.09.2021): 1652. http://dx.doi.org/10.3390/sym13091652.
Pełny tekst źródłaBoţ, Radu Ioan, i Axel Böhm. "An incremental mirror descent subgradient algorithm with random sweeping and proximal step". Optimization 68, nr 1 (14.06.2018): 33–50. http://dx.doi.org/10.1080/02331934.2018.1482491.
Pełny tekst źródłaGokbayrak, Kagan, i Omer Selvi. "A Subgradient Descent Algorithm for Optimization of Initially Controllable Flow Shop Systems". Discrete Event Dynamic Systems 19, nr 2 (4.02.2009): 267–82. http://dx.doi.org/10.1007/s10626-009-0061-z.
Pełny tekst źródłaArachie, Chidubem, i Bert Huang. "Adversarial Label Learning". Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 3183–90. http://dx.doi.org/10.1609/aaai.v33i01.33013183.
Pełny tekst źródłaGebken, Bennet, i Sebastian Peitz. "An Efficient Descent Method for Locally Lipschitz Multiobjective Optimization Problems". Journal of Optimization Theory and Applications 188, nr 3 (13.01.2021): 696–723. http://dx.doi.org/10.1007/s10957-020-01803-w.
Pełny tekst źródłaStonyakin, Fedor Sergeevich, Aleksej N. Stepanov, Alexander Vladimirovich Gasnikov i Alexander A. Titov. "Mirror descent for constrained optimization problems with large subgradient values of functional constraints". Computer Research and Modeling 12, nr 2 (kwiecień 2020): 301–17. http://dx.doi.org/10.20537/2076-7633-2020-12-2-301-317.
Pełny tekst źródłaKorablev, A. I., i V. V. Eisman. "A general method of finding the direction of descent in ε-subgradient methods". Journal of Mathematical Sciences 74, nr 6 (maj 1995): 1327–31. http://dx.doi.org/10.1007/bf02367719.
Pełny tekst źródłaRobinson, Stephen M. "Linear convergence of epsilon-subgradient descent methods for a class of convex functions". Mathematical Programming 86, nr 1 (1.09.1999): 41–50. http://dx.doi.org/10.1007/s101070050078.
Pełny tekst źródłaWang, Ximing, Neng Fan i Panos M. Pardalos. "Stochastic subgradient descent method for large-scale robust chance-constrained support vector machines". Optimization Letters 11, nr 5 (15.03.2016): 1013–24. http://dx.doi.org/10.1007/s11590-016-1026-4.
Pełny tekst źródłaHand, Paul, Oscar Leong i Vladislav Voroninski. "Optimal sample complexity of subgradient descent for amplitude flow via non-Lipschitz matrix concentration". Communications in Mathematical Sciences 19, nr 7 (2021): 2035–47. http://dx.doi.org/10.4310/cms.2021.v19.n7.a11.
Pełny tekst źródłaLi, Liping, Wei Xu, Tianyi Chen, Georgios B. Giannakis i Qing Ling. "RSA: Byzantine-Robust Stochastic Aggregation Methods for Distributed Learning from Heterogeneous Datasets". Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 1544–51. http://dx.doi.org/10.1609/aaai.v33i01.33011544.
Pełny tekst źródłaCeng, Lu-Chuan, Ching-Feng Wen, Yeong-Cheng Liou i Jen-Chih Yao. "On Strengthened Inertial-Type Subgradient Extragradient Rule with Adaptive Step Sizes for Variational Inequalities and Fixed Points of Asymptotically Nonexpansive Mappings". Mathematics 10, nr 6 (17.03.2022): 958. http://dx.doi.org/10.3390/math10060958.
Pełny tekst źródłaCeng, Lu-Chuan, Xiaolong Qin, Yekini Shehu i Jen-Chih Yao. "Mildly Inertial Subgradient Extragradient Method for Variational Inequalities Involving an Asymptotically Nonexpansive and Finitely Many Nonexpansive Mappings". Mathematics 7, nr 10 (22.09.2019): 881. http://dx.doi.org/10.3390/math7100881.
Pełny tekst źródłaLuo, Songting, Shingyu Leung i Jianliang Qian. "An Adjoint State Method for Numerical Approximation of Continuous Traffic Congestion Equilibria". Communications in Computational Physics 10, nr 5 (listopad 2011): 1113–31. http://dx.doi.org/10.4208/cicp.020210.311210a.
Pełny tekst źródłaXu, Hang, Song Li i Junhong Lin. "Low rank matrix recovery with adversarial sparse noise*". Inverse Problems 38, nr 3 (18.01.2022): 035001. http://dx.doi.org/10.1088/1361-6420/ac44dc.
Pełny tekst źródłaПеревозчиков, Александр Геннадьевич, Валерий Юрьевич Решетов i Александра Ильинична Лесик. "The ''attack-defense'' model on networks with the initial residuals of the parties". Herald of Tver State University. Series: Applied Mathematics, nr 2 (21.07.2021): 68–81. http://dx.doi.org/10.26456/vtpmk618.
Pełny tekst źródłaChen, Lin, Ji-Ting Jia, Qiong Zhang, Wan-Yu Deng i Wei Wei. "Online Sequential Projection Vector Machine with Adaptive Data Mean Update". Computational Intelligence and Neuroscience 2016 (2016): 1–13. http://dx.doi.org/10.1155/2016/5197932.
Pełny tekst źródłaBaillon, J. B., i R. Cominetti. "A Convergence Result for Nonautonomous Subgradient Evolution Equations and Its Application to the Steepest Descent Exponential Penalty Trajectory in Linear Programming". Journal of Functional Analysis 187, nr 2 (grudzień 2001): 263–73. http://dx.doi.org/10.1006/jfan.2001.3828.
Pełny tekst źródłaПеревозчиков, Александр Геннадьевич, Валерий Юрьевич Решетов i Александра Ильинична Лесик. "The ``attack-defense'' game with restrictions on the intake capacity of points". Herald of Tver State University. Series: Applied Mathematics, nr 3 (30.11.2020): 78–92. http://dx.doi.org/10.26456/vtpmk600.
Pełny tekst źródłaXia, Zun-quan. "Finding subgradients or descent directions of convex functions by external polyhedral approximation of subdifferentials". Optimization Methods and Software 1, nr 3 (styczeń 1992): 253–64. http://dx.doi.org/10.1080/10556789208805523.
Pełny tekst źródłaGriewank, Andreas, i Andrea Walther. "Polyhedral DC Decomposition and DCA Optimization of Piecewise Linear Functions". Algorithms 13, nr 7 (11.07.2020): 166. http://dx.doi.org/10.3390/a13070166.
Pełny tekst źródłaDick, Josef, Guoyin Li i Dinh Duy Tran. "A new regularization for sparse optimization". ANZIAM Journal 62 (7.02.2022): C176—C191. http://dx.doi.org/10.21914/anziamj.v62.16076.
Pełny tekst źródłaGu, Bin, Yingying Shan, Xin Quan i Guansheng Zheng. "Accelerating Sequential Minimal Optimization via Stochastic Subgradient Descent". IEEE Transactions on Cybernetics, 2019, 1–9. http://dx.doi.org/10.1109/tcyb.2019.2893289.
Pełny tekst źródłaSchechtman, S. "Stochastic proximal subgradient descent oscillates in the vicinity of its accumulation set". Optimization Letters, 6.05.2022. http://dx.doi.org/10.1007/s11590-022-01884-8.
Pełny tekst źródłaKrygin, V., i R. Khomenko. "Self-Driven Algorithm for Solving Supermodular (max,+) Labeling Problems Based on Subgradient Descent*". Cybernetics and Systems Analysis, 21.10.2022. http://dx.doi.org/10.1007/s10559-022-00485-8.
Pełny tekst źródłaGez, Tamir L. S., i Kobi Cohen. "Subgradient Descent Learning over Fading Multiple Access Channels with Over-the-Air Computation". IEEE Access, 2023, 1. http://dx.doi.org/10.1109/access.2023.3291023.
Pełny tekst źródłaCeng, Lu-Chuan, i Qing Yuan. "Composite inertial subgradient extragradient methods for variational inequalities and fixed point problems". Journal of Inequalities and Applications 2019, nr 1 (26.10.2019). http://dx.doi.org/10.1186/s13660-019-2229-x.
Pełny tekst źródłaBoţ, Radu Ioan, Minh N. Dao i Guoyin Li. "Extrapolated Proximal Subgradient Algorithms for Nonconvex and Nonsmooth Fractional Programs". Mathematics of Operations Research, 7.12.2021. http://dx.doi.org/10.1287/moor.2021.1214.
Pełny tekst źródłaChen, Jia, i Ioannis D. Schizas. "Multimodal correlations-based data clustering". Foundations of Data Science, 2022, 0. http://dx.doi.org/10.3934/fods.2022011.
Pełny tekst źródłaLatz, Jonas. "Gradient flows and randomised thresholding: sparse inversion and classification". Inverse Problems, 19.10.2022. http://dx.doi.org/10.1088/1361-6420/ac9b84.
Pełny tekst źródłaJianhong, Wang, i Ricardo A. Ramirez-Mendoza. "Synthesis cascade estimation for aircraft system identification". Aircraft Engineering and Aerospace Technology, 13.06.2022. http://dx.doi.org/10.1108/aeat-03-2022-0093.
Pełny tekst źródłaDutta, Haimonti. "A Consensus Algorithm for Linear Support Vector Machines". Management Science, 30.08.2021. http://dx.doi.org/10.1287/mnsc.2021.4042.
Pełny tekst źródłaWen, Jiajun, Wai Keung Wong, Xiao-Li Hu, Honglin Chu i Zhihui Lai. "Restricted subgradient descend method for sparse signal learning". International Journal of Machine Learning and Cybernetics, 26.04.2022. http://dx.doi.org/10.1007/s13042-022-01551-5.
Pełny tekst źródłaWen, Jiajun, Wai Keung Wong, Xiao-Li Hu, Honglin Chu i Zhihui Lai. "Restricted subgradient descend method for sparse signal learning". International Journal of Machine Learning and Cybernetics, 26.04.2022. http://dx.doi.org/10.1007/s13042-022-01551-5.
Pełny tekst źródła