Littérature scientifique sur le sujet « Dot product kernels »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Dot product kernels ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "Dot product kernels"
Menegatto, V. A., C. P. Oliveira et A. P. Peron. « Conditionally positive definite dot product kernels ». Journal of Mathematical Analysis and Applications 321, no 1 (septembre 2006) : 223–41. http://dx.doi.org/10.1016/j.jmaa.2005.08.024.
Texte intégralMenegatto, V. A., C. P. Oliveira et Ana P. Peron. « On conditionally positive definite dot product kernels ». Acta Mathematica Sinica, English Series 24, no 7 (juillet 2008) : 1127–38. http://dx.doi.org/10.1007/s10114-007-6227-4.
Texte intégralLu, Fangyan, et Hongwei Sun. « Positive definite dot product kernels in learning theory ». Advances in Computational Mathematics 22, no 2 (février 2005) : 181–98. http://dx.doi.org/10.1007/s10444-004-3140-6.
Texte intégralGriffiths, Matthew P., Denys Grombacher, Mason A. Kass, Mathias Ø. Vang, Lichao Liu et Jakob Juul Larsen. « A surface NMR forward in a dot product ». Geophysical Journal International 234, no 3 (27 avril 2023) : 2284–90. http://dx.doi.org/10.1093/gji/ggad203.
Texte intégralDonini, Michele, et Fabio Aiolli. « Learning deep kernels in the space of dot product polynomials ». Machine Learning 106, no 9-10 (7 novembre 2016) : 1245–69. http://dx.doi.org/10.1007/s10994-016-5590-8.
Texte intégralFilippas, Dionysios, Chrysostomos Nicopoulos et Giorgos Dimitrakopoulos. « Templatized Fused Vector Floating-Point Dot Product for High-Level Synthesis ». Journal of Low Power Electronics and Applications 12, no 4 (17 octobre 2022) : 56. http://dx.doi.org/10.3390/jlpea12040056.
Texte intégralBishwas, Arit Kumar, Ashish Mani et Vasile Palade. « Gaussian kernel in quantum learning ». International Journal of Quantum Information 18, no 03 (avril 2020) : 2050006. http://dx.doi.org/10.1142/s0219749920500069.
Texte intégralXiao, Lechao, Hong Hu, Theodor Misiakiewicz, Yue M. Lu et Jeffrey Pennington. « Precise learning curves and higher-order scaling limits for dot-product kernel regression * ». Journal of Statistical Mechanics : Theory and Experiment 2023, no 11 (1 novembre 2023) : 114005. http://dx.doi.org/10.1088/1742-5468/ad01b7.
Texte intégralIakymchuk, Roman, Stef Graillat, David Defour et Enrique S. Quintana-Ortí. « Hierarchical approach for deriving a reproducible unblocked LU factorization ». International Journal of High Performance Computing Applications 33, no 5 (17 mars 2019) : 791–803. http://dx.doi.org/10.1177/1094342019832968.
Texte intégralAzevedo, D., et V. A. Menegatto. « Sharp estimates for eigenvalues of integral operators generated by dot product kernels on the sphere ». Journal of Approximation Theory 177 (janvier 2014) : 57–68. http://dx.doi.org/10.1016/j.jat.2013.10.002.
Texte intégralThèses sur le sujet "Dot product kernels"
Wacker, Jonas. « Random features for dot product kernels and beyond ». Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS241.
Texte intégralDot product kernels, such as polynomial and exponential (softmax) kernels, are among the most widely used kernels in machine learning, as they enable modeling the interactions between input features, which is crucial in applications like computer vision, natural language processing, and recommender systems. However, a fundamental drawback of kernel-based statistical models is their limited scalability to a large number of inputs, which requires resorting to approximations. In this thesis, we study techniques to linearize kernel-based methods by means of random feature approximations and we focus on the approximation of polynomial kernels and more general dot product kernels to make these kernels more useful in large scale learning. In particular, we focus on a variance analysis as a main tool to study and improve the statistical efficiency of such sketches
Chapitres de livres sur le sujet "Dot product kernels"
Chen, Degang, Qiang He, Chunru Dong et Xizhao Wang. « A Method to Construct the Mapping to the Feature Space for the Dot Product Kernels ». Dans Advances in Machine Learning and Cybernetics, 918–29. Berlin, Heidelberg : Springer Berlin Heidelberg, 2006. http://dx.doi.org/10.1007/11739685_96.
Texte intégralLauriola, Ivano, Mirko Polato et Fabio Aiolli. « Radius-Margin Ratio Optimization for Dot-Product Boolean Kernel Learning ». Dans Artificial Neural Networks and Machine Learning – ICANN 2017, 183–91. Cham : Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-68612-7_21.
Texte intégralActes de conférences sur le sujet "Dot product kernels"
Azevedo, Douglas, et Valdir A. Menegatto. « Eigenvalues of dot-product kernels on the sphere ». Dans XXXV CNMAC - Congresso Nacional de Matemática Aplicada e Computacional. SBMAC, 2015. http://dx.doi.org/10.5540/03.2015.003.01.0039.
Texte intégralChen, G. Y., et P. Bhattacharya. « Function Dot Product Kernels for Support Vector Machine ». Dans 18th International Conference on Pattern Recognition (ICPR'06). IEEE, 2006. http://dx.doi.org/10.1109/icpr.2006.586.
Texte intégralRashed, Muhammad Rashedul Haq, Sumit Kumar Jha et Rickard Ewetz. « Discovering the in-Memory Kernels of 3D Dot-Product Engines ». Dans ASPDAC '23 : 28th Asia and South Pacific Design Automation Conference. New York, NY, USA : ACM, 2023. http://dx.doi.org/10.1145/3566097.3567855.
Texte intégralLi Zhang, Zhou Weida, Ying Lin et Licheng Jiao. « Support vector novelty detection with dot product kernels for non-spherical data ». Dans 2008 International Conference on Information and Automation (ICIA). IEEE, 2008. http://dx.doi.org/10.1109/icinfa.2008.4607965.
Texte intégralVenkatesan, Sibi, James K. Miller, Jeff Schneider et Artur Dubrawski. « Scaling Active Search using Linear Similarity Functions ». Dans Twenty-Sixth International Joint Conference on Artificial Intelligence. California : International Joint Conferences on Artificial Intelligence Organization, 2017. http://dx.doi.org/10.24963/ijcai.2017/401.
Texte intégralDe Jesús Rivera, Edward, Fanny Besem-Cordova et Jean-Charles Bonaccorsi. « Optimization of a High Pressure Industrial Fan ». Dans ASME Turbo Expo 2021 : Turbomachinery Technical Conference and Exposition. American Society of Mechanical Engineers, 2021. http://dx.doi.org/10.1115/gt2021-58967.
Texte intégral