Gotowa bibliografia na temat „Dot product kernels”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Dot product kernels”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Artykuły w czasopismach na temat "Dot product kernels"
Menegatto, V. A., C. P. Oliveira i A. P. Peron. "Conditionally positive definite dot product kernels". Journal of Mathematical Analysis and Applications 321, nr 1 (wrzesień 2006): 223–41. http://dx.doi.org/10.1016/j.jmaa.2005.08.024.
Pełny tekst źródłaMenegatto, V. A., C. P. Oliveira i Ana P. Peron. "On conditionally positive definite dot product kernels". Acta Mathematica Sinica, English Series 24, nr 7 (lipiec 2008): 1127–38. http://dx.doi.org/10.1007/s10114-007-6227-4.
Pełny tekst źródłaLu, Fangyan, i Hongwei Sun. "Positive definite dot product kernels in learning theory". Advances in Computational Mathematics 22, nr 2 (luty 2005): 181–98. http://dx.doi.org/10.1007/s10444-004-3140-6.
Pełny tekst źródłaGriffiths, Matthew P., Denys Grombacher, Mason A. Kass, Mathias Ø. Vang, Lichao Liu i Jakob Juul Larsen. "A surface NMR forward in a dot product". Geophysical Journal International 234, nr 3 (27.04.2023): 2284–90. http://dx.doi.org/10.1093/gji/ggad203.
Pełny tekst źródłaDonini, Michele, i Fabio Aiolli. "Learning deep kernels in the space of dot product polynomials". Machine Learning 106, nr 9-10 (7.11.2016): 1245–69. http://dx.doi.org/10.1007/s10994-016-5590-8.
Pełny tekst źródłaFilippas, Dionysios, Chrysostomos Nicopoulos i Giorgos Dimitrakopoulos. "Templatized Fused Vector Floating-Point Dot Product for High-Level Synthesis". Journal of Low Power Electronics and Applications 12, nr 4 (17.10.2022): 56. http://dx.doi.org/10.3390/jlpea12040056.
Pełny tekst źródłaBishwas, Arit Kumar, Ashish Mani i Vasile Palade. "Gaussian kernel in quantum learning". International Journal of Quantum Information 18, nr 03 (kwiecień 2020): 2050006. http://dx.doi.org/10.1142/s0219749920500069.
Pełny tekst źródłaXiao, Lechao, Hong Hu, Theodor Misiakiewicz, Yue M. Lu i Jeffrey Pennington. "Precise learning curves and higher-order scaling limits for dot-product kernel regression *". Journal of Statistical Mechanics: Theory and Experiment 2023, nr 11 (1.11.2023): 114005. http://dx.doi.org/10.1088/1742-5468/ad01b7.
Pełny tekst źródłaIakymchuk, Roman, Stef Graillat, David Defour i Enrique S. Quintana-Ortí. "Hierarchical approach for deriving a reproducible unblocked LU factorization". International Journal of High Performance Computing Applications 33, nr 5 (17.03.2019): 791–803. http://dx.doi.org/10.1177/1094342019832968.
Pełny tekst źródłaAzevedo, D., i V. A. Menegatto. "Sharp estimates for eigenvalues of integral operators generated by dot product kernels on the sphere". Journal of Approximation Theory 177 (styczeń 2014): 57–68. http://dx.doi.org/10.1016/j.jat.2013.10.002.
Pełny tekst źródłaRozprawy doktorskie na temat "Dot product kernels"
Wacker, Jonas. "Random features for dot product kernels and beyond". Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS241.
Pełny tekst źródłaDot product kernels, such as polynomial and exponential (softmax) kernels, are among the most widely used kernels in machine learning, as they enable modeling the interactions between input features, which is crucial in applications like computer vision, natural language processing, and recommender systems. However, a fundamental drawback of kernel-based statistical models is their limited scalability to a large number of inputs, which requires resorting to approximations. In this thesis, we study techniques to linearize kernel-based methods by means of random feature approximations and we focus on the approximation of polynomial kernels and more general dot product kernels to make these kernels more useful in large scale learning. In particular, we focus on a variance analysis as a main tool to study and improve the statistical efficiency of such sketches
Części książek na temat "Dot product kernels"
Chen, Degang, Qiang He, Chunru Dong i Xizhao Wang. "A Method to Construct the Mapping to the Feature Space for the Dot Product Kernels". W Advances in Machine Learning and Cybernetics, 918–29. Berlin, Heidelberg: Springer Berlin Heidelberg, 2006. http://dx.doi.org/10.1007/11739685_96.
Pełny tekst źródłaLauriola, Ivano, Mirko Polato i Fabio Aiolli. "Radius-Margin Ratio Optimization for Dot-Product Boolean Kernel Learning". W Artificial Neural Networks and Machine Learning – ICANN 2017, 183–91. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-68612-7_21.
Pełny tekst źródłaStreszczenia konferencji na temat "Dot product kernels"
Azevedo, Douglas, i Valdir A. Menegatto. "Eigenvalues of dot-product kernels on the sphere". W XXXV CNMAC - Congresso Nacional de Matemática Aplicada e Computacional. SBMAC, 2015. http://dx.doi.org/10.5540/03.2015.003.01.0039.
Pełny tekst źródłaChen, G. Y., i P. Bhattacharya. "Function Dot Product Kernels for Support Vector Machine". W 18th International Conference on Pattern Recognition (ICPR'06). IEEE, 2006. http://dx.doi.org/10.1109/icpr.2006.586.
Pełny tekst źródłaRashed, Muhammad Rashedul Haq, Sumit Kumar Jha i Rickard Ewetz. "Discovering the in-Memory Kernels of 3D Dot-Product Engines". W ASPDAC '23: 28th Asia and South Pacific Design Automation Conference. New York, NY, USA: ACM, 2023. http://dx.doi.org/10.1145/3566097.3567855.
Pełny tekst źródłaLi Zhang, Zhou Weida, Ying Lin i Licheng Jiao. "Support vector novelty detection with dot product kernels for non-spherical data". W 2008 International Conference on Information and Automation (ICIA). IEEE, 2008. http://dx.doi.org/10.1109/icinfa.2008.4607965.
Pełny tekst źródłaVenkatesan, Sibi, James K. Miller, Jeff Schneider i Artur Dubrawski. "Scaling Active Search using Linear Similarity Functions". W Twenty-Sixth International Joint Conference on Artificial Intelligence. California: International Joint Conferences on Artificial Intelligence Organization, 2017. http://dx.doi.org/10.24963/ijcai.2017/401.
Pełny tekst źródłaDe Jesús Rivera, Edward, Fanny Besem-Cordova i Jean-Charles Bonaccorsi. "Optimization of a High Pressure Industrial Fan". W ASME Turbo Expo 2021: Turbomachinery Technical Conference and Exposition. American Society of Mechanical Engineers, 2021. http://dx.doi.org/10.1115/gt2021-58967.
Pełny tekst źródła