Littérature scientifique sur le sujet « Non-parametric learning »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Sommaire
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Non-parametric learning ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "Non-parametric learning"
Liu, Bing, Shi-Xiong Xia et Yong Zhou. « Unsupervised non-parametric kernel learning algorithm ». Knowledge-Based Systems 44 (mai 2013) : 1–9. http://dx.doi.org/10.1016/j.knosys.2012.12.008.
Texte intégralEsser, Pascal, Maximilian Fleissner et Debarghya Ghoshdastidar. « Non-parametric Representation Learning with Kernels ». Proceedings of the AAAI Conference on Artificial Intelligence 38, no 11 (24 mars 2024) : 11910–18. http://dx.doi.org/10.1609/aaai.v38i11.29077.
Texte intégralCruz, David Luviano, Francesco José García Luna et Luis Asunción Pérez Domínguez. « Multiagent reinforcement learning using Non-Parametric Approximation ». Respuestas 23, no 2 (1 juillet 2018) : 53–61. http://dx.doi.org/10.22463/0122820x.1738.
Texte intégralKhadse, Vijay M., Parikshit Narendra Mahalle et Gitanjali R. Shinde. « Statistical Study of Machine Learning Algorithms Using Parametric and Non-Parametric Tests ». International Journal of Ambient Computing and Intelligence 11, no 3 (juillet 2020) : 80–105. http://dx.doi.org/10.4018/ijaci.2020070105.
Texte intégralYoa, Seungdong, Jinyoung Park et Hyunwoo J. Kim. « Learning Non-Parametric Surrogate Losses With Correlated Gradients ». IEEE Access 9 (2021) : 141199–209. http://dx.doi.org/10.1109/access.2021.3120092.
Texte intégralRutkowski, Leszek. « Non-parametric learning algorithms in time-varying environments ». Signal Processing 18, no 2 (octobre 1989) : 129–37. http://dx.doi.org/10.1016/0165-1684(89)90045-5.
Texte intégralLiu, Mingming, Bing Liu, Chen Zhang et Wei Sun. « Embedded non-parametric kernel learning for kernel clustering ». Multidimensional Systems and Signal Processing 28, no 4 (10 août 2016) : 1697–715. http://dx.doi.org/10.1007/s11045-016-0440-1.
Texte intégralChen, Changyou, Junping Zhang, Xuefang He et Zhi-Hua Zhou. « Non-Parametric Kernel Learning with robust pairwise constraints ». International Journal of Machine Learning and Cybernetics 3, no 2 (17 septembre 2011) : 83–96. http://dx.doi.org/10.1007/s13042-011-0048-6.
Texte intégralKaur, Navdeep, Gautam Kunapuli et Sriraam Natarajan. « Non-parametric learning of lifted Restricted Boltzmann Machines ». International Journal of Approximate Reasoning 120 (mai 2020) : 33–47. http://dx.doi.org/10.1016/j.ijar.2020.01.003.
Texte intégralWang, Mingyang, Zhenshan Bing, Xiangtong Yao, Shuai Wang, Huang Kai, Hang Su, Chenguang Yang et Alois Knoll. « Meta-Reinforcement Learning Based on Self-Supervised Task Representation Learning ». Proceedings of the AAAI Conference on Artificial Intelligence 37, no 8 (26 juin 2023) : 10157–65. http://dx.doi.org/10.1609/aaai.v37i8.26210.
Texte intégralThèses sur le sujet "Non-parametric learning"
Zewdie, Dawit (Dawit Habtamu). « Representation discovery in non-parametric reinforcement learning ». Thesis, Massachusetts Institute of Technology, 2014. http://hdl.handle.net/1721.1/91883.
Texte intégralCataloged from PDF version of thesis.
Includes bibliographical references (pages 71-73).
Recent years have seen a surge of interest in non-parametric reinforcement learning. There are now practical non-parametric algorithms that use kernel regression to approximate value functions. The correctness guarantees of kernel regression require that the underlying value function be smooth. Most problems of interest do not satisfy this requirement in their native space, but can be represented in such a way that they do. In this thesis, we show that the ideal representation is one that maps points directly to their values. Existing representation discovery algorithms that have been used in parametric reinforcement learning settings do not, in general, produce such a representation. We go on to present Fit-Improving Iterative Representation Adjustment (FIIRA), a novel framework for function approximation and representation discovery, which interleaves steps of value estimation and representation adjustment to increase the expressive power of a given regression scheme. We then show that FIIRA creates representations that correlate highly with value, giving kernel regression the power to represent discontinuous functions. Finally, we extend kernel-based reinforcement learning to use FIIRA and show that this results in performance improvements on three benchmark problems: Mountain-Car, Acrobot, and PinBall.
by Dawit Zewdie.
M. Eng.
Campanholo, Guizilini Vitor. « Non-Parametric Learning for Monocular Visual Odometry ». Thesis, The University of Sydney, 2013. http://hdl.handle.net/2123/9903.
Texte intégralBratières, Sébastien. « Non-parametric Bayesian models for structured output prediction ». Thesis, University of Cambridge, 2018. https://www.repository.cam.ac.uk/handle/1810/274973.
Texte intégralPrando, Giulia. « Non-Parametric Bayesian Methods for Linear System Identification ». Doctoral thesis, Università degli studi di Padova, 2017. http://hdl.handle.net/11577/3426195.
Texte intégralRecentemente, il problema di identificazione di sistemi lineari è stato risolto ricorrendo a metodi Bayesiani non-parametrici, che sfruttano di tecniche di Machine Learning ampiamente utilizzate, come la regressione gaussiana e la regolarizzazione basata su kernels. Seguendo il paradigma Bayesiano, queste procedure richiedono una distribuzione Gaussiana a-priori per la risposta impulsiva. Tale distribuzione viene definita in funzione di alcuni parametri (chiamati iper-parametri nell'ambito Bayesiano), che vengono stimati usando i dati a disposizione. Una volta che gli iper-parametri sono stati fissati, è possibile calcolare lo stimatore a minima varianza come il valore atteso della risposta impulsiva, condizionato rispetto alla distribuzione a posteriori. Assumendo che i dati di identificazione siano corrotti da rumore Gaussiano, tale stimatore coincide con la soluzione di un problema di stima regolarizzato, nel quale il termine di regolarizzazione è la norma l2 della risposta impulsiva, pesata dall'inverso della funzione di covarianza a priori (tale funzione viene anche detta "kernel" nella letteratura di Machine Learning). Recenti lavori hanno dimostrato come questi metodi Bayesiani possano contemporaneamente selezionare un modello ottimale e stimare la quantità sconosciuta. In tal modo sono in grado di superare uno dei principali problemi che affliggono le tecniche di identificazione parametrica, ovvero quella della selezione della complessità di modello. Considerando come benchmark le tecniche classiche di identificazione (ovvero i Metodi a Predizione d'Errore e gli algoritmi Subspace), questa tesi estende ed analizza alcuni aspetti chiave della procedura Bayesiana sopraccitata. In particolare, la tesi si sviluppa su quattro argomenti principali. 1. DESIGN DELLA DISTRIBUZIONE A PRIORI. Sfruttando la teoria delle distribuzioni a Massima Entropia, viene derivato un nuovo tipo di regolarizzazione l2 con l'obiettivo di penalizzare il rango della matrice di Hankel contenente i coefficienti di Markov. In tal modo è possibile controllare la complessità del modello stimato, misurata in termini del grado di McMillan. 2. CARATTERIZZAZIONE DELL'INCERTEZZA. Gli intervalli di confidenza costruiti dall'algoritmo di identificazione Bayesiana non-parametrica vengono analizzati e confrontati con quelli restituiti dai metodi parametrici a Predizione d'Errore. Convertendo quest'ultimi nelle loro approssimazioni campionarie, il confronto viene effettuato nello spazio a cui appartiene la risposta impulsiva. 3. STIMA ON-LINE. L'applicazione delle tecniche Bayesiane non-parametriche per l'identificazione dei sistemi viene estesa ad uno scenario on-line, in cui nuovi dati diventano disponibili ad intervalli di tempo prefissati. Vengono proposte due modifiche chiave della procedura standard off-line in modo da soddisfare i requisiti della stima real-time. Viene anche affrontata l'identificazione di sistemi tempo-varianti tramite l'introduzione, nel criterio di stima, di un fattore di dimenticanza, il quale e' in seguito trattato come un iper-parametro. 4. RIDUZIONE DEL MODELLO STIMATO. Le tecniche di identificazione Bayesiana non-parametrica restituiscono una stima della risposta impulsiva del sistema sconosciuto, ovvero un modello con un alto (verosimilmente infinito) grado di McMillan. Viene quindi proposta un'apposita procedura per ridurre tale modello ad un grado più basso, in modo che risulti più adatto per future applicazioni di controllo e filtraggio. Vengono inoltre confrontati diversi criteri per la selezione dell'ordine del modello ridotto.
Angola, Enrique. « Novelty Detection Of Machinery Using A Non-Parametric Machine Learning Approach ». ScholarWorks @ UVM, 2018. https://scholarworks.uvm.edu/graddis/923.
Texte intégralBartcus, Marius. « Bayesian non-parametric parsimonious mixtures for model-based clustering ». Thesis, Toulon, 2015. http://www.theses.fr/2015TOUL0010/document.
Texte intégralThis thesis focuses on statistical learning and multi-dimensional data analysis. It particularly focuses on unsupervised learning of generative models for model-based clustering. We study the Gaussians mixture models, in the context of maximum likelihood estimation via the EM algorithm, as well as in the Bayesian estimation context by maximum a posteriori via Markov Chain Monte Carlo (MCMC) sampling techniques. We mainly consider the parsimonious mixture models which are based on a spectral decomposition of the covariance matrix and provide a flexible framework particularly for the analysis of high-dimensional data. Then, we investigate non-parametric Bayesian mixtures which are based on general flexible processes such as the Dirichlet process and the Chinese Restaurant Process. This non-parametric model formulation is relevant for both learning the model, as well for dealing with the issue of model selection. We propose new Bayesian non-parametric parsimonious mixtures and derive a MCMC sampling technique where the mixture model and the number of mixture components are simultaneously learned from the data. The selection of the model structure is performed by using Bayes Factors. These models, by their non-parametric and sparse formulation, are useful for the analysis of large data sets when the number of classes is undetermined and increases with the data, and when the dimension is high. The models are validated on simulated data and standard real data sets. Then, they are applied to a real difficult problem of automatic structuring of complex bioacoustic data issued from whale song signals. Finally, we open Markovian perspectives via hierarchical Dirichlet processes hidden Markov models
Mahler, Nicolas. « Machine learning methods for discrete multi-scale fows : application to finance ». Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00749717.
Texte intégralGONÇALVES, JÚNIOR Paulo Mauricio. « Multivariate non-parametric statistical tests to reuse classifiers in recurring concept drifting environments ». Universidade Federal de Pernambuco, 2013. https://repositorio.ufpe.br/handle/123456789/12226.
Texte intégralSubmitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-12T18:02:08Z No. of bitstreams: 2 Tese Paulo Gonçalves Jr..pdf: 2957463 bytes, checksum: de163caadf10cbd5442e145778865224 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Made available in DSpace on 2015-03-12T18:02:08Z (GMT). No. of bitstreams: 2 Tese Paulo Gonçalves Jr..pdf: 2957463 bytes, checksum: de163caadf10cbd5442e145778865224 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-04-23
Fluxos de dados s~ao um modelo de processamento de dados recente, onde os dados chegam continuamente, em grandes quantidades, a altas velocidades, de modo que eles devem ser processados em tempo real. Al em disso, v arias institui c~oes p ublicas e privadas armazenam grandes quantidades de dados que tamb em devem ser processadas. Classi cadores tradicionais n~ao s~ao adequados para lidar com grandes quantidades de dados por basicamente duas raz~oes. Primeiro, eles costumam ler os dados dispon veis v arias vezes at e convergirem, o que e impratic avel neste cen ario. Em segundo lugar, eles assumem que o contexto representado por dados e est avel no tempo, o que pode n~ao ser verdadeiro. Na verdade, a mudan ca de contexto e uma situa c~ao comum em uxos de dados, e e chamado de mudan ca de conceito. Esta tese apresenta o rcd, uma estrutura que oferece uma abordagem alternativa para lidar com os uxos de dados que sofrem de mudan cas de conceito recorrentes. Ele cria um novo classi cador para cada contexto encontrado e armazena uma amostra dos dados usados para constru -lo. Quando uma nova mudan ca de conceito ocorre, rcd compara o novo contexto com os antigos, utilizando um teste estat stico n~ao param etrico multivariado para veri car se ambos os contextos prov^em da mesma distribui c~ao. Se assim for, o classi cador correspondente e reutilizado. Se n~ao, um novo classi cador e gerado e armazenado. Tr^es tipos de testes foram realizados. Um compara o rcd com v arios algoritmos adaptativos (entre as abordagens individuais e de agrupamento) em conjuntos de dados arti ciais e reais, entre os mais utilizados na area de pesquisa de mudan ca de conceito, com mudan cas bruscas e graduais. E observada a capacidade dos classi cadores em representar cada contexto, como eles lidam com as mudan cas de conceito e os tempos de treinamento e teste necess arios para avaliar os conjuntos de dados. Os resultados indicam que rcd teve resultados estat sticos semelhantes ou melhores, em compara c~ao com os outros classi cadores. Nos conjuntos de dados do mundo real, rcd apresentou precis~oes pr oximas do melhor classi cador em cada conjunto de dados. Outro teste compara dois testes estat sticos (knn e Cramer) em suas capacidades de representar e identi car contextos. Os testes foram realizados utilizando classi cadores xi xii RESUMO tradicionais e adaptativos como base do rcd, em conjuntos de dados arti ciais e do mundo real, com v arias taxas de varia c~ao. Os resultados indicam que, em m edia, KNN obteve melhores resultados em compara c~ao com o teste de Cramer, al em de ser mais r apido. Independentemente do crit erio utilizado, rcd apresentou valores mais elevados de precis~ao em compara c~ao com seus respectivos classi cadores base. Tamb em e apresentada uma melhoria do rcd onde os testes estat sticos s~ao executadas em paralelo por meio do uso de um pool de threads. Os testes foram realizados em tr^es processadores com diferentes n umeros de n ucleos. Melhores resultados foram obtidos quando houve um elevado n umero de mudan cas de conceito detectadas, o tamanho das amostras utilizadas para representar cada distribui c~ao de dados era grande, e havia uma alta freq u^encia de testes. Mesmo que nenhuma destas condi c~oes se aplicam, a execu c~ao paralela e seq uencial ainda t^em performances muito semelhantes. Finalmente, uma compara c~ao entre seis diferentes m etodos de detec c~ao de mudan ca de conceito tamb em foi realizada, comparando a precis~ao, os tempos de avalia c~ao, manipula c~ao das mudan cas de conceito, incluindo as taxas de falsos positivos e negativos, bem como a m edia da dist^ancia ao ponto de mudan ca e o seu desvio padr~ao.
Gonçalves, Júnior Paulo Mauricio. « Multivariate non-parametric statistical tests to reuse classifiers in recurring concept drifting environments ». Universidade Federal de Pernambuco, 2013. https://repositorio.ufpe.br/handle/123456789/12288.
Texte intégralSubmitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-12T19:25:11Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese Paulo Mauricio Gonçalves Jr..pdf: 2957463 bytes, checksum: de163caadf10cbd5442e145778865224 (MD5)
Made available in DSpace on 2015-03-12T19:25:11Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese Paulo Mauricio Gonçalves Jr..pdf: 2957463 bytes, checksum: de163caadf10cbd5442e145778865224 (MD5) Previous issue date: 2013-04-23
Fluxos de dados s~ao um modelo de processamento de dados recente, onde os dados chegam continuamente, em grandes quantidades, a altas velocidades, de modo que eles devem ser processados em tempo real. Al em disso, v arias institui c~oes p ublicas e privadas armazenam grandes quantidades de dados que tamb em devem ser processadas. Classi cadores tradicionais n~ao s~ao adequados para lidar com grandes quantidades de dados por basicamente duas raz~oes. Primeiro, eles costumam ler os dados dispon veis v arias vezes at e convergirem, o que e impratic avel neste cen ario. Em segundo lugar, eles assumem que o contexto representado por dados e est avel no tempo, o que pode n~ao ser verdadeiro. Na verdade, a mudan ca de contexto e uma situa c~ao comum em uxos de dados, e e chamado de mudan ca de conceito. Esta tese apresenta o rcd, uma estrutura que oferece uma abordagem alternativa para lidar com os uxos de dados que sofrem de mudan cas de conceito recorrentes. Ele cria um novo classi cador para cada contexto encontrado e armazena uma amostra dos dados usados para constru -lo. Quando uma nova mudan ca de conceito ocorre, rcd compara o novo contexto com os antigos, utilizando um teste estat stico n~ao param etrico multivariado para veri car se ambos os contextos prov^em da mesma distribui c~ao. Se assim for, o classi cador correspondente e reutilizado. Se n~ao, um novo classi cador e gerado e armazenado. Tr^es tipos de testes foram realizados. Um compara o rcd com v arios algoritmos adaptativos (entre as abordagens individuais e de agrupamento) em conjuntos de dados arti ciais e reais, entre os mais utilizados na area de pesquisa de mudan ca de conceito, com mudan cas bruscas e graduais. E observada a capacidade dos classi cadores em representar cada contexto, como eles lidam com as mudan cas de conceito e os tempos de treinamento e teste necess arios para avaliar os conjuntos de dados. Os resultados indicam que rcd teve resultados estat sticos semelhantes ou melhores, em compara c~ao com os outros classi cadores. Nos conjuntos de dados do mundo real, rcd apresentou precis~oes pr oximas do melhor classi cador em cada conjunto de dados. Outro teste compara dois testes estat sticos (knn e Cramer) em suas capacidades de representar e identi car contextos. Os testes foram realizados utilizando classi cadores tradicionais e adaptativos como base do rcd, em conjuntos de dados arti ciais e do mundo real, com v arias taxas de varia c~ao. Os resultados indicam que, em m edia, KNN obteve melhores resultados em compara c~ao com o teste de Cramer, al em de ser mais r apido. Independentemente do crit erio utilizado, rcd apresentou valores mais elevados de precis~ao em compara c~ao com seus respectivos classi cadores base. Tamb em e apresentada uma melhoria do rcd onde os testes estat sticos s~ao executadas em paralelo por meio do uso de um pool de threads. Os testes foram realizados em tr^es processadores com diferentes n umeros de n ucleos. Melhores resultados foram obtidos quando houve um elevado n umero de mudan cas de conceito detectadas, o tamanho das amostras utilizadas para representar cada distribui c~ao de dados era grande, e havia uma alta freq u^encia de testes. Mesmo que nenhuma destas condi c~oes se aplicam, a execu c~ao paralela e seq uencial ainda t^em performances muito semelhantes. Finalmente, uma compara c~ao entre seis diferentes m etodos de detec c~ao de mudan ca de conceito tamb em foi realizada, comparando a precis~ao, os tempos de avalia c~ao, manipula c~ao das mudan cas de conceito, incluindo as taxas de falsos positivos e negativos, bem como a m edia da dist^ancia ao ponto de mudan ca e o seu desvio padr~ao.
Wei, Wei. « Probabilistic Models of Topics and Social Events ». Research Showcase @ CMU, 2016. http://repository.cmu.edu/dissertations/941.
Texte intégralLivres sur le sujet "Non-parametric learning"
Carús, Pablo. Introdução às metodologias da investigação em motricidade humana. Manual prático de análises de dados com SPSS. Imprensa Universidade de Évora, 2020. http://dx.doi.org/10.24902/uevora.26.
Texte intégralChapitres de livres sur le sujet "Non-parametric learning"
Webb, Geoffrey I., Eamonn Keogh, Risto Miikkulainen, Risto Miikkulainen et Michele Sebag. « Non-Parametric Methods ». Dans Encyclopedia of Machine Learning, 722. Boston, MA : Springer US, 2011. http://dx.doi.org/10.1007/978-0-387-30164-8_598.
Texte intégralKrishnan, N. M. Anoop, Hariprasad Kodamana et Ravinder Bhattoo. « Non-parametric Methods for Regression ». Dans Machine Learning for Materials Discovery, 85–112. Cham : Springer International Publishing, 2024. http://dx.doi.org/10.1007/978-3-031-44622-1_5.
Texte intégralSzörényi, Balázs, Snir Cohen et Shie Mannor. « Non-parametric Online AUC Maximization ». Dans Machine Learning and Knowledge Discovery in Databases, 575–90. Cham : Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-71246-8_35.
Texte intégralNguyen, Hoang-Vu, et Jilles Vreeken. « Non-parametric Jensen-Shannon Divergence ». Dans Machine Learning and Knowledge Discovery in Databases, 173–89. Cham : Springer International Publishing, 2015. http://dx.doi.org/10.1007/978-3-319-23525-7_11.
Texte intégralHino, Hideitsu, et Noboru Murata. « A Non-parametric Maximum Entropy Clustering ». Dans Artificial Neural Networks and Machine Learning – ICANN 2014, 113–20. Cham : Springer International Publishing, 2014. http://dx.doi.org/10.1007/978-3-319-11179-7_15.
Texte intégralKoronakos, Gregory, et Dionisios N. Sotiropoulos. « Non-parametric Performance Measurement with Artificial Neural Networks ». Dans Learning and Analytics in Intelligent Systems, 309–35. Cham : Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-49724-8_14.
Texte intégralChen, Chun-Sheng, Christoph F. Eick et Nouhad J. Rizk. « Mining Spatial Trajectories Using Non-parametric Density Functions ». Dans Machine Learning and Data Mining in Pattern Recognition, 496–510. Berlin, Heidelberg : Springer Berlin Heidelberg, 2011. http://dx.doi.org/10.1007/978-3-642-23199-5_37.
Texte intégralKarlinsky, Leonid, et Shimon Ullman. « Using Linking Features in Learning Non-parametric Part Models ». Dans Computer Vision – ECCV 2012, 326–39. Berlin, Heidelberg : Springer Berlin Heidelberg, 2012. http://dx.doi.org/10.1007/978-3-642-33712-3_24.
Texte intégralRutkowski, Leszek, Maciej Jaworski et Piotr Duda. « General Non-parametric Learning Procedure for Tracking Concept Drift ». Dans Studies in Big Data, 155–72. Cham : Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-13962-9_9.
Texte intégralBabagholami-Mohamadabadi, Behnam, Seyed Mahdi Roostaiyan, Ali Zarghami et Mahdieh Soleymani Baghshah. « Multi-Modal Distance Metric Learning : ABayesian Non-parametric Approach ». Dans Computer Vision - ECCV 2014 Workshops, 63–77. Cham : Springer International Publishing, 2015. http://dx.doi.org/10.1007/978-3-319-16199-0_5.
Texte intégralActes de conférences sur le sujet "Non-parametric learning"
Hutchinson, Brian, et Jasha Droppo. « Learning non-parametric models of pronunciation ». Dans ICASSP 2011 - 2011 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2011. http://dx.doi.org/10.1109/icassp.2011.5947455.
Texte intégralVaandrager, Maarten, Robert Babuska, Lucian Busoniu et Gabriel A. D. Lopes. « Imitation learning with non-parametric regression ». Dans 2012 IEEE International Conference on Automation, Quality and Testing, Robotics (AQTR 2012). IEEE, 2012. http://dx.doi.org/10.1109/aqtr.2012.6237681.
Texte intégralSilva-Lugo, Jose, Laura Warner et Sebastian Galindo. « FROM PARAMETRIC TO NON-PARAMETRIC STATISTICS IN EDUCATION AND AGRICULTURAL EDUCATION RESEARCH ». Dans 14th International Conference on Education and New Learning Technologies. IATED, 2022. http://dx.doi.org/10.21125/edulearn.2022.0841.
Texte intégralKamath, Sudeep, Alon Orlitsky, Venkatadheeraj Pichapati et Ehsan Zobeidi. « On Learning Parametric Non-Smooth Continuous Distributions ». Dans 2020 IEEE International Symposium on Information Theory (ISIT). IEEE, 2020. http://dx.doi.org/10.1109/isit44484.2020.9174474.
Texte intégralBaldwin, I., et P. Newman. « Non-parametric learning for natural plan generation ». Dans 2010 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2010). IEEE, 2010. http://dx.doi.org/10.1109/iros.2010.5651569.
Texte intégralGlaude, Hadrien, Fadi Akrimi, Matthieu Geist et Olivier Pietquin. « A Non-parametric Approach to Approximate Dynamic Programming ». Dans 2011 Tenth International Conference on Machine Learning and Applications (ICMLA). IEEE, 2011. http://dx.doi.org/10.1109/icmla.2011.19.
Texte intégralWu, Zhirong, Yuanjun Xiong, Stella X. Yu et Dahua Lin. « Unsupervised Feature Learning via Non-parametric Instance Discrimination ». Dans 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2018. http://dx.doi.org/10.1109/cvpr.2018.00393.
Texte intégralFu, Jiayi, Jinhong Zhong, Yunfeng Liu, Zhenyu Wang et Ke Tang. « A non-parametric approach for learning from crowds ». Dans 2016 International Joint Conference on Neural Networks (IJCNN). IEEE, 2016. http://dx.doi.org/10.1109/ijcnn.2016.7727475.
Texte intégralBarlaud, Michel, et Frederic Guyard. « Learning a Sparse Generative Non-Parametric Supervised Autoencoder ». Dans ICASSP 2021 - 2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2021. http://dx.doi.org/10.1109/icassp39728.2021.9414410.
Texte intégralHuang, Yanlong, Leonel Rozo, Joao Silverio et Darwin G. Caldwell. « Non-parametric Imitation Learning of Robot Motor Skills ». Dans 2019 International Conference on Robotics and Automation (ICRA). IEEE, 2019. http://dx.doi.org/10.1109/icra.2019.8794267.
Texte intégralRapports d'organisations sur le sujet "Non-parametric learning"
Rodriguez, Fernando, et Guillermo Sapiro. Sparse Representations for Image Classification : Learning Discriminative and Reconstructive Non-Parametric Dictionaries. Fort Belvoir, VA : Defense Technical Information Center, juin 2008. http://dx.doi.org/10.21236/ada513220.
Texte intégralEngel, Bernard, Yael Edan, James Simon, Hanoch Pasternak et Shimon Edelman. Neural Networks for Quality Sorting of Agricultural Produce. United States Department of Agriculture, juillet 1996. http://dx.doi.org/10.32747/1996.7613033.bard.
Texte intégral