Auswahl der wissenschaftlichen Literatur zum Thema „Dot product kernels“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Inhaltsverzeichnis
Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Dot product kernels" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Zeitschriftenartikel zum Thema "Dot product kernels"
Menegatto, V. A., C. P. Oliveira und A. P. Peron. „Conditionally positive definite dot product kernels“. Journal of Mathematical Analysis and Applications 321, Nr. 1 (September 2006): 223–41. http://dx.doi.org/10.1016/j.jmaa.2005.08.024.
Der volle Inhalt der QuelleMenegatto, V. A., C. P. Oliveira und Ana P. Peron. „On conditionally positive definite dot product kernels“. Acta Mathematica Sinica, English Series 24, Nr. 7 (Juli 2008): 1127–38. http://dx.doi.org/10.1007/s10114-007-6227-4.
Der volle Inhalt der QuelleLu, Fangyan, und Hongwei Sun. „Positive definite dot product kernels in learning theory“. Advances in Computational Mathematics 22, Nr. 2 (Februar 2005): 181–98. http://dx.doi.org/10.1007/s10444-004-3140-6.
Der volle Inhalt der QuelleGriffiths, Matthew P., Denys Grombacher, Mason A. Kass, Mathias Ø. Vang, Lichao Liu und Jakob Juul Larsen. „A surface NMR forward in a dot product“. Geophysical Journal International 234, Nr. 3 (27.04.2023): 2284–90. http://dx.doi.org/10.1093/gji/ggad203.
Der volle Inhalt der QuelleDonini, Michele, und Fabio Aiolli. „Learning deep kernels in the space of dot product polynomials“. Machine Learning 106, Nr. 9-10 (07.11.2016): 1245–69. http://dx.doi.org/10.1007/s10994-016-5590-8.
Der volle Inhalt der QuelleFilippas, Dionysios, Chrysostomos Nicopoulos und Giorgos Dimitrakopoulos. „Templatized Fused Vector Floating-Point Dot Product for High-Level Synthesis“. Journal of Low Power Electronics and Applications 12, Nr. 4 (17.10.2022): 56. http://dx.doi.org/10.3390/jlpea12040056.
Der volle Inhalt der QuelleBishwas, Arit Kumar, Ashish Mani und Vasile Palade. „Gaussian kernel in quantum learning“. International Journal of Quantum Information 18, Nr. 03 (April 2020): 2050006. http://dx.doi.org/10.1142/s0219749920500069.
Der volle Inhalt der QuelleXiao, Lechao, Hong Hu, Theodor Misiakiewicz, Yue M. Lu und Jeffrey Pennington. „Precise learning curves and higher-order scaling limits for dot-product kernel regression *“. Journal of Statistical Mechanics: Theory and Experiment 2023, Nr. 11 (01.11.2023): 114005. http://dx.doi.org/10.1088/1742-5468/ad01b7.
Der volle Inhalt der QuelleIakymchuk, Roman, Stef Graillat, David Defour und Enrique S. Quintana-Ortí. „Hierarchical approach for deriving a reproducible unblocked LU factorization“. International Journal of High Performance Computing Applications 33, Nr. 5 (17.03.2019): 791–803. http://dx.doi.org/10.1177/1094342019832968.
Der volle Inhalt der QuelleAzevedo, D., und V. A. Menegatto. „Sharp estimates for eigenvalues of integral operators generated by dot product kernels on the sphere“. Journal of Approximation Theory 177 (Januar 2014): 57–68. http://dx.doi.org/10.1016/j.jat.2013.10.002.
Der volle Inhalt der QuelleDissertationen zum Thema "Dot product kernels"
Wacker, Jonas. „Random features for dot product kernels and beyond“. Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS241.
Der volle Inhalt der QuelleDot product kernels, such as polynomial and exponential (softmax) kernels, are among the most widely used kernels in machine learning, as they enable modeling the interactions between input features, which is crucial in applications like computer vision, natural language processing, and recommender systems. However, a fundamental drawback of kernel-based statistical models is their limited scalability to a large number of inputs, which requires resorting to approximations. In this thesis, we study techniques to linearize kernel-based methods by means of random feature approximations and we focus on the approximation of polynomial kernels and more general dot product kernels to make these kernels more useful in large scale learning. In particular, we focus on a variance analysis as a main tool to study and improve the statistical efficiency of such sketches
Buchteile zum Thema "Dot product kernels"
Chen, Degang, Qiang He, Chunru Dong und Xizhao Wang. „A Method to Construct the Mapping to the Feature Space for the Dot Product Kernels“. In Advances in Machine Learning and Cybernetics, 918–29. Berlin, Heidelberg: Springer Berlin Heidelberg, 2006. http://dx.doi.org/10.1007/11739685_96.
Der volle Inhalt der QuelleLauriola, Ivano, Mirko Polato und Fabio Aiolli. „Radius-Margin Ratio Optimization for Dot-Product Boolean Kernel Learning“. In Artificial Neural Networks and Machine Learning – ICANN 2017, 183–91. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-68612-7_21.
Der volle Inhalt der QuelleKonferenzberichte zum Thema "Dot product kernels"
Azevedo, Douglas, und Valdir A. Menegatto. „Eigenvalues of dot-product kernels on the sphere“. In XXXV CNMAC - Congresso Nacional de Matemática Aplicada e Computacional. SBMAC, 2015. http://dx.doi.org/10.5540/03.2015.003.01.0039.
Der volle Inhalt der QuelleChen, G. Y., und P. Bhattacharya. „Function Dot Product Kernels for Support Vector Machine“. In 18th International Conference on Pattern Recognition (ICPR'06). IEEE, 2006. http://dx.doi.org/10.1109/icpr.2006.586.
Der volle Inhalt der QuelleRashed, Muhammad Rashedul Haq, Sumit Kumar Jha und Rickard Ewetz. „Discovering the in-Memory Kernels of 3D Dot-Product Engines“. In ASPDAC '23: 28th Asia and South Pacific Design Automation Conference. New York, NY, USA: ACM, 2023. http://dx.doi.org/10.1145/3566097.3567855.
Der volle Inhalt der QuelleLi Zhang, Zhou Weida, Ying Lin und Licheng Jiao. „Support vector novelty detection with dot product kernels for non-spherical data“. In 2008 International Conference on Information and Automation (ICIA). IEEE, 2008. http://dx.doi.org/10.1109/icinfa.2008.4607965.
Der volle Inhalt der QuelleVenkatesan, Sibi, James K. Miller, Jeff Schneider und Artur Dubrawski. „Scaling Active Search using Linear Similarity Functions“. In Twenty-Sixth International Joint Conference on Artificial Intelligence. California: International Joint Conferences on Artificial Intelligence Organization, 2017. http://dx.doi.org/10.24963/ijcai.2017/401.
Der volle Inhalt der QuelleDe Jesús Rivera, Edward, Fanny Besem-Cordova und Jean-Charles Bonaccorsi. „Optimization of a High Pressure Industrial Fan“. In ASME Turbo Expo 2021: Turbomachinery Technical Conference and Exposition. American Society of Mechanical Engineers, 2021. http://dx.doi.org/10.1115/gt2021-58967.
Der volle Inhalt der Quelle