Literatura académica sobre el tema "Non-parametric learning"
Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros
Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Non-parametric learning".
Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.
También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.
Artículos de revistas sobre el tema "Non-parametric learning"
Liu, Bing, Shi-Xiong Xia y Yong Zhou. "Unsupervised non-parametric kernel learning algorithm". Knowledge-Based Systems 44 (mayo de 2013): 1–9. http://dx.doi.org/10.1016/j.knosys.2012.12.008.
Texto completoEsser, Pascal, Maximilian Fleissner y Debarghya Ghoshdastidar. "Non-parametric Representation Learning with Kernels". Proceedings of the AAAI Conference on Artificial Intelligence 38, n.º 11 (24 de marzo de 2024): 11910–18. http://dx.doi.org/10.1609/aaai.v38i11.29077.
Texto completoCruz, David Luviano, Francesco José García Luna y Luis Asunción Pérez Domínguez. "Multiagent reinforcement learning using Non-Parametric Approximation". Respuestas 23, n.º 2 (1 de julio de 2018): 53–61. http://dx.doi.org/10.22463/0122820x.1738.
Texto completoKhadse, Vijay M., Parikshit Narendra Mahalle y Gitanjali R. Shinde. "Statistical Study of Machine Learning Algorithms Using Parametric and Non-Parametric Tests". International Journal of Ambient Computing and Intelligence 11, n.º 3 (julio de 2020): 80–105. http://dx.doi.org/10.4018/ijaci.2020070105.
Texto completoYoa, Seungdong, Jinyoung Park y Hyunwoo J. Kim. "Learning Non-Parametric Surrogate Losses With Correlated Gradients". IEEE Access 9 (2021): 141199–209. http://dx.doi.org/10.1109/access.2021.3120092.
Texto completoRutkowski, Leszek. "Non-parametric learning algorithms in time-varying environments". Signal Processing 18, n.º 2 (octubre de 1989): 129–37. http://dx.doi.org/10.1016/0165-1684(89)90045-5.
Texto completoLiu, Mingming, Bing Liu, Chen Zhang y Wei Sun. "Embedded non-parametric kernel learning for kernel clustering". Multidimensional Systems and Signal Processing 28, n.º 4 (10 de agosto de 2016): 1697–715. http://dx.doi.org/10.1007/s11045-016-0440-1.
Texto completoChen, Changyou, Junping Zhang, Xuefang He y Zhi-Hua Zhou. "Non-Parametric Kernel Learning with robust pairwise constraints". International Journal of Machine Learning and Cybernetics 3, n.º 2 (17 de septiembre de 2011): 83–96. http://dx.doi.org/10.1007/s13042-011-0048-6.
Texto completoKaur, Navdeep, Gautam Kunapuli y Sriraam Natarajan. "Non-parametric learning of lifted Restricted Boltzmann Machines". International Journal of Approximate Reasoning 120 (mayo de 2020): 33–47. http://dx.doi.org/10.1016/j.ijar.2020.01.003.
Texto completoWang, Mingyang, Zhenshan Bing, Xiangtong Yao, Shuai Wang, Huang Kai, Hang Su, Chenguang Yang y Alois Knoll. "Meta-Reinforcement Learning Based on Self-Supervised Task Representation Learning". Proceedings of the AAAI Conference on Artificial Intelligence 37, n.º 8 (26 de junio de 2023): 10157–65. http://dx.doi.org/10.1609/aaai.v37i8.26210.
Texto completoTesis sobre el tema "Non-parametric learning"
Zewdie, Dawit (Dawit Habtamu). "Representation discovery in non-parametric reinforcement learning". Thesis, Massachusetts Institute of Technology, 2014. http://hdl.handle.net/1721.1/91883.
Texto completoCataloged from PDF version of thesis.
Includes bibliographical references (pages 71-73).
Recent years have seen a surge of interest in non-parametric reinforcement learning. There are now practical non-parametric algorithms that use kernel regression to approximate value functions. The correctness guarantees of kernel regression require that the underlying value function be smooth. Most problems of interest do not satisfy this requirement in their native space, but can be represented in such a way that they do. In this thesis, we show that the ideal representation is one that maps points directly to their values. Existing representation discovery algorithms that have been used in parametric reinforcement learning settings do not, in general, produce such a representation. We go on to present Fit-Improving Iterative Representation Adjustment (FIIRA), a novel framework for function approximation and representation discovery, which interleaves steps of value estimation and representation adjustment to increase the expressive power of a given regression scheme. We then show that FIIRA creates representations that correlate highly with value, giving kernel regression the power to represent discontinuous functions. Finally, we extend kernel-based reinforcement learning to use FIIRA and show that this results in performance improvements on three benchmark problems: Mountain-Car, Acrobot, and PinBall.
by Dawit Zewdie.
M. Eng.
Campanholo, Guizilini Vitor. "Non-Parametric Learning for Monocular Visual Odometry". Thesis, The University of Sydney, 2013. http://hdl.handle.net/2123/9903.
Texto completoBratières, Sébastien. "Non-parametric Bayesian models for structured output prediction". Thesis, University of Cambridge, 2018. https://www.repository.cam.ac.uk/handle/1810/274973.
Texto completoPrando, Giulia. "Non-Parametric Bayesian Methods for Linear System Identification". Doctoral thesis, Università degli studi di Padova, 2017. http://hdl.handle.net/11577/3426195.
Texto completoRecentemente, il problema di identificazione di sistemi lineari è stato risolto ricorrendo a metodi Bayesiani non-parametrici, che sfruttano di tecniche di Machine Learning ampiamente utilizzate, come la regressione gaussiana e la regolarizzazione basata su kernels. Seguendo il paradigma Bayesiano, queste procedure richiedono una distribuzione Gaussiana a-priori per la risposta impulsiva. Tale distribuzione viene definita in funzione di alcuni parametri (chiamati iper-parametri nell'ambito Bayesiano), che vengono stimati usando i dati a disposizione. Una volta che gli iper-parametri sono stati fissati, è possibile calcolare lo stimatore a minima varianza come il valore atteso della risposta impulsiva, condizionato rispetto alla distribuzione a posteriori. Assumendo che i dati di identificazione siano corrotti da rumore Gaussiano, tale stimatore coincide con la soluzione di un problema di stima regolarizzato, nel quale il termine di regolarizzazione è la norma l2 della risposta impulsiva, pesata dall'inverso della funzione di covarianza a priori (tale funzione viene anche detta "kernel" nella letteratura di Machine Learning). Recenti lavori hanno dimostrato come questi metodi Bayesiani possano contemporaneamente selezionare un modello ottimale e stimare la quantità sconosciuta. In tal modo sono in grado di superare uno dei principali problemi che affliggono le tecniche di identificazione parametrica, ovvero quella della selezione della complessità di modello. Considerando come benchmark le tecniche classiche di identificazione (ovvero i Metodi a Predizione d'Errore e gli algoritmi Subspace), questa tesi estende ed analizza alcuni aspetti chiave della procedura Bayesiana sopraccitata. In particolare, la tesi si sviluppa su quattro argomenti principali. 1. DESIGN DELLA DISTRIBUZIONE A PRIORI. Sfruttando la teoria delle distribuzioni a Massima Entropia, viene derivato un nuovo tipo di regolarizzazione l2 con l'obiettivo di penalizzare il rango della matrice di Hankel contenente i coefficienti di Markov. In tal modo è possibile controllare la complessità del modello stimato, misurata in termini del grado di McMillan. 2. CARATTERIZZAZIONE DELL'INCERTEZZA. Gli intervalli di confidenza costruiti dall'algoritmo di identificazione Bayesiana non-parametrica vengono analizzati e confrontati con quelli restituiti dai metodi parametrici a Predizione d'Errore. Convertendo quest'ultimi nelle loro approssimazioni campionarie, il confronto viene effettuato nello spazio a cui appartiene la risposta impulsiva. 3. STIMA ON-LINE. L'applicazione delle tecniche Bayesiane non-parametriche per l'identificazione dei sistemi viene estesa ad uno scenario on-line, in cui nuovi dati diventano disponibili ad intervalli di tempo prefissati. Vengono proposte due modifiche chiave della procedura standard off-line in modo da soddisfare i requisiti della stima real-time. Viene anche affrontata l'identificazione di sistemi tempo-varianti tramite l'introduzione, nel criterio di stima, di un fattore di dimenticanza, il quale e' in seguito trattato come un iper-parametro. 4. RIDUZIONE DEL MODELLO STIMATO. Le tecniche di identificazione Bayesiana non-parametrica restituiscono una stima della risposta impulsiva del sistema sconosciuto, ovvero un modello con un alto (verosimilmente infinito) grado di McMillan. Viene quindi proposta un'apposita procedura per ridurre tale modello ad un grado più basso, in modo che risulti più adatto per future applicazioni di controllo e filtraggio. Vengono inoltre confrontati diversi criteri per la selezione dell'ordine del modello ridotto.
Angola, Enrique. "Novelty Detection Of Machinery Using A Non-Parametric Machine Learning Approach". ScholarWorks @ UVM, 2018. https://scholarworks.uvm.edu/graddis/923.
Texto completoBartcus, Marius. "Bayesian non-parametric parsimonious mixtures for model-based clustering". Thesis, Toulon, 2015. http://www.theses.fr/2015TOUL0010/document.
Texto completoThis thesis focuses on statistical learning and multi-dimensional data analysis. It particularly focuses on unsupervised learning of generative models for model-based clustering. We study the Gaussians mixture models, in the context of maximum likelihood estimation via the EM algorithm, as well as in the Bayesian estimation context by maximum a posteriori via Markov Chain Monte Carlo (MCMC) sampling techniques. We mainly consider the parsimonious mixture models which are based on a spectral decomposition of the covariance matrix and provide a flexible framework particularly for the analysis of high-dimensional data. Then, we investigate non-parametric Bayesian mixtures which are based on general flexible processes such as the Dirichlet process and the Chinese Restaurant Process. This non-parametric model formulation is relevant for both learning the model, as well for dealing with the issue of model selection. We propose new Bayesian non-parametric parsimonious mixtures and derive a MCMC sampling technique where the mixture model and the number of mixture components are simultaneously learned from the data. The selection of the model structure is performed by using Bayes Factors. These models, by their non-parametric and sparse formulation, are useful for the analysis of large data sets when the number of classes is undetermined and increases with the data, and when the dimension is high. The models are validated on simulated data and standard real data sets. Then, they are applied to a real difficult problem of automatic structuring of complex bioacoustic data issued from whale song signals. Finally, we open Markovian perspectives via hierarchical Dirichlet processes hidden Markov models
Mahler, Nicolas. "Machine learning methods for discrete multi-scale fows : application to finance". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00749717.
Texto completoGONÇALVES, JÚNIOR Paulo Mauricio. "Multivariate non-parametric statistical tests to reuse classifiers in recurring concept drifting environments". Universidade Federal de Pernambuco, 2013. https://repositorio.ufpe.br/handle/123456789/12226.
Texto completoSubmitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-12T18:02:08Z No. of bitstreams: 2 Tese Paulo Gonçalves Jr..pdf: 2957463 bytes, checksum: de163caadf10cbd5442e145778865224 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Made available in DSpace on 2015-03-12T18:02:08Z (GMT). No. of bitstreams: 2 Tese Paulo Gonçalves Jr..pdf: 2957463 bytes, checksum: de163caadf10cbd5442e145778865224 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-04-23
Fluxos de dados s~ao um modelo de processamento de dados recente, onde os dados chegam continuamente, em grandes quantidades, a altas velocidades, de modo que eles devem ser processados em tempo real. Al em disso, v arias institui c~oes p ublicas e privadas armazenam grandes quantidades de dados que tamb em devem ser processadas. Classi cadores tradicionais n~ao s~ao adequados para lidar com grandes quantidades de dados por basicamente duas raz~oes. Primeiro, eles costumam ler os dados dispon veis v arias vezes at e convergirem, o que e impratic avel neste cen ario. Em segundo lugar, eles assumem que o contexto representado por dados e est avel no tempo, o que pode n~ao ser verdadeiro. Na verdade, a mudan ca de contexto e uma situa c~ao comum em uxos de dados, e e chamado de mudan ca de conceito. Esta tese apresenta o rcd, uma estrutura que oferece uma abordagem alternativa para lidar com os uxos de dados que sofrem de mudan cas de conceito recorrentes. Ele cria um novo classi cador para cada contexto encontrado e armazena uma amostra dos dados usados para constru -lo. Quando uma nova mudan ca de conceito ocorre, rcd compara o novo contexto com os antigos, utilizando um teste estat stico n~ao param etrico multivariado para veri car se ambos os contextos prov^em da mesma distribui c~ao. Se assim for, o classi cador correspondente e reutilizado. Se n~ao, um novo classi cador e gerado e armazenado. Tr^es tipos de testes foram realizados. Um compara o rcd com v arios algoritmos adaptativos (entre as abordagens individuais e de agrupamento) em conjuntos de dados arti ciais e reais, entre os mais utilizados na area de pesquisa de mudan ca de conceito, com mudan cas bruscas e graduais. E observada a capacidade dos classi cadores em representar cada contexto, como eles lidam com as mudan cas de conceito e os tempos de treinamento e teste necess arios para avaliar os conjuntos de dados. Os resultados indicam que rcd teve resultados estat sticos semelhantes ou melhores, em compara c~ao com os outros classi cadores. Nos conjuntos de dados do mundo real, rcd apresentou precis~oes pr oximas do melhor classi cador em cada conjunto de dados. Outro teste compara dois testes estat sticos (knn e Cramer) em suas capacidades de representar e identi car contextos. Os testes foram realizados utilizando classi cadores xi xii RESUMO tradicionais e adaptativos como base do rcd, em conjuntos de dados arti ciais e do mundo real, com v arias taxas de varia c~ao. Os resultados indicam que, em m edia, KNN obteve melhores resultados em compara c~ao com o teste de Cramer, al em de ser mais r apido. Independentemente do crit erio utilizado, rcd apresentou valores mais elevados de precis~ao em compara c~ao com seus respectivos classi cadores base. Tamb em e apresentada uma melhoria do rcd onde os testes estat sticos s~ao executadas em paralelo por meio do uso de um pool de threads. Os testes foram realizados em tr^es processadores com diferentes n umeros de n ucleos. Melhores resultados foram obtidos quando houve um elevado n umero de mudan cas de conceito detectadas, o tamanho das amostras utilizadas para representar cada distribui c~ao de dados era grande, e havia uma alta freq u^encia de testes. Mesmo que nenhuma destas condi c~oes se aplicam, a execu c~ao paralela e seq uencial ainda t^em performances muito semelhantes. Finalmente, uma compara c~ao entre seis diferentes m etodos de detec c~ao de mudan ca de conceito tamb em foi realizada, comparando a precis~ao, os tempos de avalia c~ao, manipula c~ao das mudan cas de conceito, incluindo as taxas de falsos positivos e negativos, bem como a m edia da dist^ancia ao ponto de mudan ca e o seu desvio padr~ao.
Gonçalves, Júnior Paulo Mauricio. "Multivariate non-parametric statistical tests to reuse classifiers in recurring concept drifting environments". Universidade Federal de Pernambuco, 2013. https://repositorio.ufpe.br/handle/123456789/12288.
Texto completoSubmitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-12T19:25:11Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese Paulo Mauricio Gonçalves Jr..pdf: 2957463 bytes, checksum: de163caadf10cbd5442e145778865224 (MD5)
Made available in DSpace on 2015-03-12T19:25:11Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese Paulo Mauricio Gonçalves Jr..pdf: 2957463 bytes, checksum: de163caadf10cbd5442e145778865224 (MD5) Previous issue date: 2013-04-23
Fluxos de dados s~ao um modelo de processamento de dados recente, onde os dados chegam continuamente, em grandes quantidades, a altas velocidades, de modo que eles devem ser processados em tempo real. Al em disso, v arias institui c~oes p ublicas e privadas armazenam grandes quantidades de dados que tamb em devem ser processadas. Classi cadores tradicionais n~ao s~ao adequados para lidar com grandes quantidades de dados por basicamente duas raz~oes. Primeiro, eles costumam ler os dados dispon veis v arias vezes at e convergirem, o que e impratic avel neste cen ario. Em segundo lugar, eles assumem que o contexto representado por dados e est avel no tempo, o que pode n~ao ser verdadeiro. Na verdade, a mudan ca de contexto e uma situa c~ao comum em uxos de dados, e e chamado de mudan ca de conceito. Esta tese apresenta o rcd, uma estrutura que oferece uma abordagem alternativa para lidar com os uxos de dados que sofrem de mudan cas de conceito recorrentes. Ele cria um novo classi cador para cada contexto encontrado e armazena uma amostra dos dados usados para constru -lo. Quando uma nova mudan ca de conceito ocorre, rcd compara o novo contexto com os antigos, utilizando um teste estat stico n~ao param etrico multivariado para veri car se ambos os contextos prov^em da mesma distribui c~ao. Se assim for, o classi cador correspondente e reutilizado. Se n~ao, um novo classi cador e gerado e armazenado. Tr^es tipos de testes foram realizados. Um compara o rcd com v arios algoritmos adaptativos (entre as abordagens individuais e de agrupamento) em conjuntos de dados arti ciais e reais, entre os mais utilizados na area de pesquisa de mudan ca de conceito, com mudan cas bruscas e graduais. E observada a capacidade dos classi cadores em representar cada contexto, como eles lidam com as mudan cas de conceito e os tempos de treinamento e teste necess arios para avaliar os conjuntos de dados. Os resultados indicam que rcd teve resultados estat sticos semelhantes ou melhores, em compara c~ao com os outros classi cadores. Nos conjuntos de dados do mundo real, rcd apresentou precis~oes pr oximas do melhor classi cador em cada conjunto de dados. Outro teste compara dois testes estat sticos (knn e Cramer) em suas capacidades de representar e identi car contextos. Os testes foram realizados utilizando classi cadores tradicionais e adaptativos como base do rcd, em conjuntos de dados arti ciais e do mundo real, com v arias taxas de varia c~ao. Os resultados indicam que, em m edia, KNN obteve melhores resultados em compara c~ao com o teste de Cramer, al em de ser mais r apido. Independentemente do crit erio utilizado, rcd apresentou valores mais elevados de precis~ao em compara c~ao com seus respectivos classi cadores base. Tamb em e apresentada uma melhoria do rcd onde os testes estat sticos s~ao executadas em paralelo por meio do uso de um pool de threads. Os testes foram realizados em tr^es processadores com diferentes n umeros de n ucleos. Melhores resultados foram obtidos quando houve um elevado n umero de mudan cas de conceito detectadas, o tamanho das amostras utilizadas para representar cada distribui c~ao de dados era grande, e havia uma alta freq u^encia de testes. Mesmo que nenhuma destas condi c~oes se aplicam, a execu c~ao paralela e seq uencial ainda t^em performances muito semelhantes. Finalmente, uma compara c~ao entre seis diferentes m etodos de detec c~ao de mudan ca de conceito tamb em foi realizada, comparando a precis~ao, os tempos de avalia c~ao, manipula c~ao das mudan cas de conceito, incluindo as taxas de falsos positivos e negativos, bem como a m edia da dist^ancia ao ponto de mudan ca e o seu desvio padr~ao.
Wei, Wei. "Probabilistic Models of Topics and Social Events". Research Showcase @ CMU, 2016. http://repository.cmu.edu/dissertations/941.
Texto completoLibros sobre el tema "Non-parametric learning"
Carús, Pablo. Introdução às metodologias da investigação em motricidade humana. Manual prático de análises de dados com SPSS. Imprensa Universidade de Évora, 2020. http://dx.doi.org/10.24902/uevora.26.
Texto completoCapítulos de libros sobre el tema "Non-parametric learning"
Webb, Geoffrey I., Eamonn Keogh, Risto Miikkulainen, Risto Miikkulainen y Michele Sebag. "Non-Parametric Methods". En Encyclopedia of Machine Learning, 722. Boston, MA: Springer US, 2011. http://dx.doi.org/10.1007/978-0-387-30164-8_598.
Texto completoKrishnan, N. M. Anoop, Hariprasad Kodamana y Ravinder Bhattoo. "Non-parametric Methods for Regression". En Machine Learning for Materials Discovery, 85–112. Cham: Springer International Publishing, 2024. http://dx.doi.org/10.1007/978-3-031-44622-1_5.
Texto completoSzörényi, Balázs, Snir Cohen y Shie Mannor. "Non-parametric Online AUC Maximization". En Machine Learning and Knowledge Discovery in Databases, 575–90. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-71246-8_35.
Texto completoNguyen, Hoang-Vu y Jilles Vreeken. "Non-parametric Jensen-Shannon Divergence". En Machine Learning and Knowledge Discovery in Databases, 173–89. Cham: Springer International Publishing, 2015. http://dx.doi.org/10.1007/978-3-319-23525-7_11.
Texto completoHino, Hideitsu y Noboru Murata. "A Non-parametric Maximum Entropy Clustering". En Artificial Neural Networks and Machine Learning – ICANN 2014, 113–20. Cham: Springer International Publishing, 2014. http://dx.doi.org/10.1007/978-3-319-11179-7_15.
Texto completoKoronakos, Gregory y Dionisios N. Sotiropoulos. "Non-parametric Performance Measurement with Artificial Neural Networks". En Learning and Analytics in Intelligent Systems, 309–35. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-49724-8_14.
Texto completoChen, Chun-Sheng, Christoph F. Eick y Nouhad J. Rizk. "Mining Spatial Trajectories Using Non-parametric Density Functions". En Machine Learning and Data Mining in Pattern Recognition, 496–510. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011. http://dx.doi.org/10.1007/978-3-642-23199-5_37.
Texto completoKarlinsky, Leonid y Shimon Ullman. "Using Linking Features in Learning Non-parametric Part Models". En Computer Vision – ECCV 2012, 326–39. Berlin, Heidelberg: Springer Berlin Heidelberg, 2012. http://dx.doi.org/10.1007/978-3-642-33712-3_24.
Texto completoRutkowski, Leszek, Maciej Jaworski y Piotr Duda. "General Non-parametric Learning Procedure for Tracking Concept Drift". En Studies in Big Data, 155–72. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-13962-9_9.
Texto completoBabagholami-Mohamadabadi, Behnam, Seyed Mahdi Roostaiyan, Ali Zarghami y Mahdieh Soleymani Baghshah. "Multi-Modal Distance Metric Learning: ABayesian Non-parametric Approach". En Computer Vision - ECCV 2014 Workshops, 63–77. Cham: Springer International Publishing, 2015. http://dx.doi.org/10.1007/978-3-319-16199-0_5.
Texto completoActas de conferencias sobre el tema "Non-parametric learning"
Hutchinson, Brian y Jasha Droppo. "Learning non-parametric models of pronunciation". En ICASSP 2011 - 2011 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2011. http://dx.doi.org/10.1109/icassp.2011.5947455.
Texto completoVaandrager, Maarten, Robert Babuska, Lucian Busoniu y Gabriel A. D. Lopes. "Imitation learning with non-parametric regression". En 2012 IEEE International Conference on Automation, Quality and Testing, Robotics (AQTR 2012). IEEE, 2012. http://dx.doi.org/10.1109/aqtr.2012.6237681.
Texto completoSilva-Lugo, Jose, Laura Warner y Sebastian Galindo. "FROM PARAMETRIC TO NON-PARAMETRIC STATISTICS IN EDUCATION AND AGRICULTURAL EDUCATION RESEARCH". En 14th International Conference on Education and New Learning Technologies. IATED, 2022. http://dx.doi.org/10.21125/edulearn.2022.0841.
Texto completoKamath, Sudeep, Alon Orlitsky, Venkatadheeraj Pichapati y Ehsan Zobeidi. "On Learning Parametric Non-Smooth Continuous Distributions". En 2020 IEEE International Symposium on Information Theory (ISIT). IEEE, 2020. http://dx.doi.org/10.1109/isit44484.2020.9174474.
Texto completoBaldwin, I. y P. Newman. "Non-parametric learning for natural plan generation". En 2010 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2010). IEEE, 2010. http://dx.doi.org/10.1109/iros.2010.5651569.
Texto completoGlaude, Hadrien, Fadi Akrimi, Matthieu Geist y Olivier Pietquin. "A Non-parametric Approach to Approximate Dynamic Programming". En 2011 Tenth International Conference on Machine Learning and Applications (ICMLA). IEEE, 2011. http://dx.doi.org/10.1109/icmla.2011.19.
Texto completoWu, Zhirong, Yuanjun Xiong, Stella X. Yu y Dahua Lin. "Unsupervised Feature Learning via Non-parametric Instance Discrimination". En 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2018. http://dx.doi.org/10.1109/cvpr.2018.00393.
Texto completoFu, Jiayi, Jinhong Zhong, Yunfeng Liu, Zhenyu Wang y Ke Tang. "A non-parametric approach for learning from crowds". En 2016 International Joint Conference on Neural Networks (IJCNN). IEEE, 2016. http://dx.doi.org/10.1109/ijcnn.2016.7727475.
Texto completoBarlaud, Michel y Frederic Guyard. "Learning a Sparse Generative Non-Parametric Supervised Autoencoder". En ICASSP 2021 - 2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2021. http://dx.doi.org/10.1109/icassp39728.2021.9414410.
Texto completoHuang, Yanlong, Leonel Rozo, Joao Silverio y Darwin G. Caldwell. "Non-parametric Imitation Learning of Robot Motor Skills". En 2019 International Conference on Robotics and Automation (ICRA). IEEE, 2019. http://dx.doi.org/10.1109/icra.2019.8794267.
Texto completoInformes sobre el tema "Non-parametric learning"
Rodriguez, Fernando y Guillermo Sapiro. Sparse Representations for Image Classification: Learning Discriminative and Reconstructive Non-Parametric Dictionaries. Fort Belvoir, VA: Defense Technical Information Center, junio de 2008. http://dx.doi.org/10.21236/ada513220.
Texto completoEngel, Bernard, Yael Edan, James Simon, Hanoch Pasternak y Shimon Edelman. Neural Networks for Quality Sorting of Agricultural Produce. United States Department of Agriculture, julio de 1996. http://dx.doi.org/10.32747/1996.7613033.bard.
Texto completo