To see the other types of publications on this topic, follow the link: Machine à noyaux.

Dissertations / Theses on the topic 'Machine à noyaux'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Machine à noyaux.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Dehlinger, Nicolas. "Étude des performances d'une machine à flux transverse à noyaux ferromagnétiques amorphes." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24934/24934.pdf.

Full text
Abstract:
Parmi les différentes structures de machines électriques existantes, les machines à flux transverse (MFT) sont reconnues pour leur fort couple massique et volumique. Malgré cet avantage, leur complexité et leur coût de fabrication élevés font que ce type de machine ne dépasse que rarement le stade de prototype. De plus, d’importantes pertes fer dues à des fréquences de fonctionnement élevées limitent encore l’utilisation de ces machines aux applications basse vitesse et fort couple : la MFT est alors principalement utilisée dans des dans les aérogénérateurs à attaque directe et dans certaines applications de traction électrique (bus, automobile, tram, navire, …). Le travail présenté dans ce mémoire s’inscrit dans le cadre du développement d’une nouvelle configuration de MFT : la MFT à griffe ou claw-pole, à stator hybride. Grâce à l’utilisation combinée de tôles électriques et de poudre de fer au stator de la machine, les pertes fer de cette configuration de MFT sont considérablement réduites et sa fabrication grandement simplifiée. Le concept de stator hybride peut être exploité pour réduire les pertes fer de la MFT encore davantage, par l’emploi de matériaux possédant des propriétés magnétiques supérieures à celles des matériaux actuellement utilisés au stator de la machine. L’effet de la substitution des noyaux de tôles électriques au stator par des noyaux fabriqués à partir de matériaux amorphes est étudié dans ce mémoire. Des mesures expérimentales de pertes fer permettent, dans un premier temps, de prouver la réduction des pertes totales d’une MFT claw-pole à stator hybride monopolaire utilisant des noyaux amorphes. Dans un second temps, des simulations par éléments finis couplées à des résultats expérimentaux montrent l’augmentation du rendement d’une MFT complète à noyaux amorphes et le maintien de ce dernier à un niveau élevé à des fréquences de fonctionnement supérieures à 400 Hz.
Transverse flux machines (TFM) are known for their excellent torque-to-mass and torque-to-volume ratio when compared to conventional machines. Despite this advantage, they have some serious shortcomings like complex construction and high cost, explaining why TFM that can be found in the literature are usually only prototypes. Moreover, the TFM shows a dependence of its force density upon its pole pitch and airgap thickness, which leads to high electrical frequencies and thus to high core losses. For all these reasons, this type of machine could be considered in high-torque low-speed applications such as wind turbines or electrical traction drives. The work presented in this document contributes to the development of a new TFM configuration: the claw-pole TFM with hybrid stator (CPTFMHS). Such a stator built from a combination of Fe-Si laminations and powdered iron (SMC), enables reducing iron losses significantly and improving the ease of manufacturing of the machine. The concept of the hybrid stator can be further developed by using new magnetic materials with lower specific losses. The substitution of Fe-Si laminations by amorphous cores in the stator of the CPTFMHS is studied in this work and presented here. Experimental measurements are conducted on a one-pole pair CPTFMHS machine with an amorphous core: the results show a reduction of the total iron losses, thus proving benefits of amorphous cores used in the machine. Finite element simulations coupled with experimental measurements lead to the following conclusion: the efficiency of a CPTFMHS machine can be maintained to a high level at frequencies above 400 Hz, thanks to the use of amorphous cores, which may not be possible with Fe-Si laminations.
APA, Harvard, Vancouver, ISO, and other styles
2

Bietti, Alberto. "Méthodes à noyaux pour les réseaux convolutionnels profonds." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM051.

Full text
Abstract:
La disponibilité de quantités massives de données, comme des images dans les réseaux sociaux, des signaux audio de téléphones mobiles, ou des données génomiques ou médicales, a accéléré le développement des techniques d'apprentissage automatique. Ces méthodes exploitent des motifs statistiques dans ces grandes bases de données pour effectuer de bonnes prédictions sur des nouvelles images, signaux, ou séquences de protéines. Récemment, les systèmes d'apprentissage profond ont émergé comme des algorithmes d'apprentissage très efficaces. Ces modèles multi-couche effectuent leurs prédictions de façon hiérarchique, et peuvent être entraînés à très grande échelle avec des méthodes de gradient. Leur succès a été particulièrement marqué lorsque les données sont des signaux naturels comme des images ou des signaux audio, pour des tâches comme la reconnaissance visuelle, la détection d'objets, ou la reconnaissance de la parole. Pour de telles tâches, l'apprentissage profond donne souvent la meilleure performance empirique, mais leur compréhension théorique reste difficile à cause du grand nombre de paramètres, et de la grande dimension des données. Leur succès est souvent attribué à leur capacité d'exploiter des structures des signaux naturels, par exemple en apprenant des représentations invariantes et multi-échelle de signaux naturels à travers un bon choix d'architecture, par exemple avec des convolutions et des opérations de pooling. Néanmoins, ces propriétés sont encore mal comprises théoriquement, et l'écart entre la théorique et pratique en apprentissage continue à augmenter. Cette thèse vise à réduire cet écart grâce à l'étude d'espaces de fonctions qui surviennent à partir d'une certaine architecture, en particulier pour les architectures convolutives. Notre approche se base sur les méthodes à noyaux, et considère des espaces de Hilbert à noyaux reproduisant (RKHS) associés à certains noyaux construits de façon hiérarchique selon une architecture donnée. Cela nous permet d'étudier précisément des propriétés de régularité, d'invariance, de stabilité aux déformations du signal, et d'approximation des fonctions du RKHS. Ces propriétés sur la représentation sont aussi liées à des questions d'optimisation pour l'entraînement de réseaux profonds à très grand nombre de neurones par descente de gradient, qui donnent lieu à de tels noyaux. Cette théorie suggère également des nouvelles stratégies pratiques de régularisation qui permettent d'obtenir une meilleure performance en généralisation pour des petits jeux de données, et une performance état de l'art pour la robustesse à des perturbations adversariales en vision
The increased availability of large amounts of data, from images in social networks, speech waveforms from mobile devices, and large text corpuses, to genomic and medical data, has led to a surge of machine learning techniques. Such methods exploit statistical patterns in these large datasets for making accurate predictions on new data. In recent years, deep learning systems have emerged as a remarkably successful class of machine learning algorithms, which rely on gradient-based methods for training multi-layer models that process data in a hierarchical manner. These methods have been particularly successful in tasks where the data consists of natural signals such as images or audio; this includes visual recognition, object detection or segmentation, and speech recognition.For such tasks, deep learning methods often yield the best known empirical performance; yet, the high dimensionality of the data and large number of parameters of these models make them challenging to understand theoretically. Their success is often attributed in part to their ability to exploit useful structure in natural signals, such as local stationarity or invariance, for instance through choices of network architectures with convolution and pooling operations. However, such properties are still poorly understood from a theoretical standpoint, leading to a growing gap between the theory and practice of machine learning. This thesis is aimed towards bridging this gap, by studying spaces of functions which arise from given network architectures, with a focus on the convolutional case. Our study relies on kernel methods, by considering reproducing kernel Hilbert spaces (RKHSs) associated to certain kernels that are constructed hierarchically based on a given architecture. This allows us to precisely study smoothness, invariance, stability to deformations, and approximation properties of functions in the RKHS. These representation properties are also linked with optimization questions when training deep networks with gradient methods in some over-parameterized regimes where such kernels arise. They also suggest new practical regularization strategies for obtaining better generalization performance on small datasets, and state-of-the-art performance for adversarial robustness on image tasks
APA, Harvard, Vancouver, ISO, and other styles
3

Giffon, Luc. "Approximations parcimonieuses et méthodes à noyaux pour la compression de modèles d'apprentissage." Electronic Thesis or Diss., Aix-Marseille, 2020. http://www.theses.fr/2020AIXM0354.

Full text
Abstract:
Cette thèse a pour objectif d’étudier et de valider expérimentalement les bénéfices, en terme de quantité de calcul et de données nécessaires, que peuvent apporter les méthodes à noyaux et les méthodes d’approximation parcimonieuses à des algorithmes d’apprentissage existant. Dans une première partie de cette thèse, nous proposons un nouveau type d’architecture neuronale qui fait intervenir une fonction noyau afin d’en réduire le nombre de paramètres à apprendre, ce qui permet de la rendre robuste au sur-apprentissage dans un régime où peu de données annotées sont disponibles. Dans une seconde partie de cette thèse, nous cherchons à réduire la complexité de modèles d’apprentissage existants en y incluant des approximations parcimonieuses. D’abord, nous proposons un algorithme alternatif à l’algorithme des K-moyennes qui permet d’en accélérer la phase d’inférence grâce à l’expression des centroides sous forme d’un produit de matrices parcimonieuses. En plus des garanties de convergence de l’algorithme proposé, nous apportons une validation expérimentale de la qualité des centroides ainsi exprimés et de leur bénéfice en terme de coût calculatoire. Ensuite, nous explorons la compression de réseaux neuronaux par le remplacement des matrices qui le constituent avec des décomposition parcimonieuses. Enfin, nous détournons l’algorithme d’approximation parcimonieuse OMP pour faire une sélection pondérée des arbres de décision d’une forêt aléatoire, nous analysons l’effet des poids obtenus et proposons par ailleurs une alternative non-négative de la méthode qui surpasse toutes les autres techniques de sélection d’arbres considérées sur un large panel de jeux de données
This thesis aims at studying and experimentally validating the benefits, in terms of amount of computation and data needed, that kernel methods and sparse approximation methods can bring to existing machine learning algorithms. In a first part of this thesis, we propose a new type of neural architecture that uses a kernel function to reduce the number of learnable parameters, thus making it robust to overfiting in a regime where few labeled observations are available. In a second part of this thesis, we seek to reduce the complexity of existing machine learning models by including sparse approximations. First, we propose an alternative algorithm to the K-means algorithm which allows to speed up the inference phase by expressing the centroids as a product of sparse matrices. In addition to the convergence guarantees of the proposed algorithm, we provide an experimental validation of both the quality of the centroids thus expressed and their benefit in terms of computational cost. Then, we explore the compression of neural networks by replacing the matrices that constitute its layers with sparse matrix products. Finally, we hijack the Orthogonal Matching Pursuit (OMP) sparse approximation algorithm to make a weighted selection of decisiontrees from a random forest, we analyze the effect of the weights obtained and we propose a non-negative alternative to the method that outperforms all other tree selectiontechniques considered on a large panel of data sets
APA, Harvard, Vancouver, ISO, and other styles
4

Tian, Xilan. "Apprentissage et noyau pour les interfaces cerveau-machine." Phd thesis, INSA de Rouen, 2012. http://tel.archives-ouvertes.fr/tel-00735891.

Full text
Abstract:
Les Interfaces Cerveau-Machine (ICM) ont été appliquées avec succès aussi bien dans le domaine clinique que pour l'amélioration de la vie quotidienne de patients avec des handicaps. En tant que composante essentielle, le module de traitement du signal détermine nettement la performance d'un système ICM. Nous nous consacrons à améliorer les stratégies de traitement du signal du point de vue de l'apprentissage de la machine. Tout d'abord, nous avons développé un algorithme basé sur les SVM transductifs couplés aux noyaux multiples afin d'intégrer différentes vues des données (vue statistique ou vue géométrique) dans le processus d'apprentissage. Deuxièmement, nous avons proposé une version enligne de l'apprentissage multi-noyaux dans le cas supervisé. Les résultats expérimentaux montrent de meilleures performances par rapport aux approches classiques. De plus, l'algorithme proposé permet de sélectionner automatiquement les canaux de signaux EEG utiles grâce à l'apprentissage multi-noyaux.Dans la dernière partie, nous nous sommes attaqués à l'amélioration du module de traitement du signal au-delà des algorithmes d'apprentissage automatique eux-mêmes. En analysant les données ICM hors-ligne, nous avons d'abord confirmé qu'un modèle de classification simple peut également obtenir des performances satisfaisantes en effectuant une sélection de caractéristiques (et/ou de canaux). Nous avons ensuite conçu un système émotionnel ICM par en tenant compte de l'état émotionnel de l'utilisateur. Sur la base des données de l'EEG obtenus avec différents états émotionnels, c'est-à -dire, positives, négatives et neutres émotions, nous avons finalement prouvé que l'émotion affectait les performances ICM en utilisant des tests statistiques. Cette partie de la thèse propose des bases pour réaliser des ICM plus adaptées aux utilisateurs.
APA, Harvard, Vancouver, ISO, and other styles
5

Xilan, Tian. "Apprentissage et Noyau pour les Interfaces Cerveau-machine." Phd thesis, INSA de Rouen, 2012. http://tel.archives-ouvertes.fr/tel-00699659.

Full text
Abstract:
Les Interface Cerveau-Machine (ICM) ont appliquées avec succès aussi bien dans le domain clinique que pour l'amélioration de la vie quotidienne de patients avec des handicaps. En tant que composante essentielle, le module de traitement du signal détermine nettement la performance d'un système ICM. Nous nous consacrons à améliorer les stratégies de traitement du signal du point de vue de l'apprentissage de la machine. Tout d'abord, nous avons développé un algorithme basé sur les SVM transductifs couplés aux noyaux multiples afin d'intégrer différentes vues des données (vue statistique ou une vue géométrique) dans le processus d'apprentissage. Deuxièmement, nous avons proposé une version en ligne de l'apprentissage multi-noyaux dans le cas supervisé. Les résultats expérimentaux montrent de meilleures performances par rapport aux approches classiques. De plus, l'algorithme proposé permet de sélectionner automatiquement les canaux de signaux EEG utiles grâce à l'apprentissage multi-noyaux. Dans la dernière partie, nous nous sommes attaqué à l'amélioration du module de traitement du signal au-delà des algorithmes d'apprentissage auomatique eux-mêmes. En analysant les données ICM hors-ligne, nous avons d'abord confirmé qu'un modèle de classification simple peut également obtenir des performances statisfaisantes en effectuant une sélection de caractéristiques (et.ou de canaux). Nous avons ensuite conçu un système émotionnel ICM par en tenant compte de l'état émotionnel de l'utilisateur. Sur la base des données de l'EEG obtenus avec différents états émotionnels, c'est-à-dire, positives, négatives et neutre émotions, nous avons finalement prouvé que l'émotion affecter les performances ICM en utilisant des tests statisques. Cette partie de la thèse propose des bases pour réaliser des ICM plus adaptées aux utilisateurs.
APA, Harvard, Vancouver, ISO, and other styles
6

Louradour, Jérôme. "Noyaux de séquences pour la vérification du locuteur par machines à vecteurs de support." Toulouse 3, 2007. http://www.theses.fr/2007TOU30004.

Full text
Abstract:
La vérification automatique du locuteur (VAL) est une tâche de classification binaire, qui consiste à déterminer si un énoncé de parole a été prononcé ou non par un locuteur cible. Les Machines à Vecteurs de Support (SVMs) sont devenues un outil classique pour ce type de classification. Cette approche discriminante a suscité l’intérêt de nombreuses recherches en reconnaissance des formes, tant pour ses fondements théoriques solides que pour ses bonnes performances empiriques. Mais la mise en oeuvre des SVMs pour la VAL en situation réelle soulevant plusieurs problèmes relatifs aux caractéristiques propres à cette tâche. Il s’agit principalement de la taille élevée des corpus d’apprentissage et de la nature séquentielle des observations à classifier. Cette thèse est consacrée à l’exploration des noyaux de séquences pour la classification SVM du locuteur. Nous commen¸cons par faire un tour d’horizon des méthodes émergentes pour construire des noyaux de séquences. Ensuite nous proposons une nouvelle famille de noyaux en se basant sur une généralisation d’un noyau qui a fait ses preuves en VAL. Nous faisons l’analyse théorique et algorithmique de cette nouvelle famille avant de l’appliquer à la VAL par SVM. Après la mise en oeuvre des systèmes SVMs à base des différents noyaux que nous avons étudiés, nous comparons leurs performances sur le corpus NIST SRE 2005, à partir d’un protocole de développement commun. Enfin, nous introduisons un nouveau concept pour aborder le problème de VAL, dont le principe est de déterminer si deux séquences ont été prononcées par le même locuteur. L’utilisation des SVMs pour exploiter ce concept nous amène à définir une nouvelle catégorie de noyaux : les noyaux entre paires de séquences
This thesis is focused on the application of Support Vector Machines (SVM) to Automatic Text-Independent Speaker Verification. This speech processing task consists in determining whether a speech utterance was pronounced or not by a target speaker, without any constraint on the speech content. In order to apply a kernel method such as SVM to this binary classification of variable-length sequences, an appropriate approach is to use kernels that can handle sequences, and not acoustic vectors within sequences. As explained in the thesis report, both theoretical and practical reasons justify the effort of searching such kernels. The present study concentrates in exploring several aspects of kernels for sequences, and in applying them to a very large database speaker verification problem under realistic recording conditions. After reviewing emergent methods to conceive sequence kernels and presenting them in a unified framework, we propose a new family of such kernels : the Feature Space Normalized Sequence (FSNS) kernels. These kernels are a generalization of the GLDS kernel, which is now well-known for its efficiency in speaker verification. A theoretical and algorithmic study of FSNS kernels is carried out. In particular, several forms are introduced and justified, and a sparse greedy matrix approximation method is used to suggest an efficient and suitable implementation of FSNS kernels for speaker verification. .
APA, Harvard, Vancouver, ISO, and other styles
7

Palazzo, Martin. "Dimensionality Reduction of Biomedical Tumor Profiles : a Machine Learning Approach." Thesis, Troyes, 2021. http://www.theses.fr/2021TROY0031.

Full text
Abstract:
Le rythme croissant de génération de données à partir de profils tumoraux au cours de la dernière décennie a permis le développement d'algorithmes d'apprentissage statistique pour explorer et analyser le paysage des types et sous-types de tumeurs et la survie des patients d'un point de vue biomoléculaire. Les données tumorales sont principalement décrites par des caractéristiques transcriptomiques et le niveau d'expression d'un transcrit génique donné dans la cellule tumorale. Par conséquent, ces caractéristiques peuvent être utilisées pour apprendre des règles statistiques qui améliorent la compréhension de l'état et du type d'une cellule cancéreuse. Néanmoins, les données tumorales transcriptomiques sont de grande dimension et chaque tumeur peut être décrite par des milliers de caractéristiques génétiques, ce qui rend difficile la réalisation d'une tâche d'apprentissage automatique et la compréhension des mécanismes biologiques sous-jacents. Cette thèse étudie comment réduire la dimensionnalité et gagner en interprétabilité pour savoir quels gènes codent le signal de la distribution des données en proposant des méthodes de réduction de dimension basées sur un modèle qui envisage la structure globale des données à l'aide d'un espace de représentation latente. Les méthodes proposées ont montré des améliorations dans les tâches de sélection de caractéristiques supervisées et non supervisées par rapport aux méthodes de référence pour classer et apprendre des sous-groupes de tumeurs respectivement
The increasing pace of data generation from tumor profiles profiles during the last decade has enable the development of statistical learning algorithms to explore and analyze the landscape of tumor types, subtypes and patient survival from a biomolecular point of view. Tumor data is mainly described by trasncriptomic features and the level of expression of a given gene-transcript in the tumor cell, therefore these features can be used to learn statistical rules that improves the understanding about the state and type of a cancer cell. Nevertheless transcriptomic tumor data is high dimensional and each tumor can be described by thousands of gene features making it difficult to perform a machine learning task and to understand the underlying biological mechanisms. This thesis studies how to reduce dimensionality and to gain interpretability about which genes encode signals of the data distribution by proposing dimension reduction methods based on Feature Selection and Feature Extraction pipelines. The proposed methods are based on Latent Variable Models and Kernel Methods with the idea to explore the connection between pair-wise similarity functions of tumor samples and low dimensional latent spaces that captures the inner structure of the training data. Proposed methods have shown improvements in supervised and unsupervised feature selection tasks when compared with benchmark methods to classify and learn subgroups of tumors respectively
APA, Harvard, Vancouver, ISO, and other styles
8

Abdallah, Fahed. "Noyaux reproduisants et critères de contraste pour l'élaboration de détecteurs à structure imposée." Troyes, 2004. http://www.theses.fr/2004TROY0002.

Full text
Abstract:
Les travaux réalisés pendant cette thèse sont relatifs à la synthèse de détecteurs à partir d'une base d'exemples étiquetés. La théorie développée fait appel aux espaces de Hilbert à noyaux reproduisants pour l'élaboration de détecteurs linéaires généralisés dans des espaces transformés de dimension importante, voire infinie, sans qu'aucun calcul n'y soit effectué explicitement. Elle repose sur l'optimisation du meilleur critère de contraste pour le problème traité, après s'être assuré que de telles mesures de performance permettant l'obtention sous des conditions restrictives assez faibles, à une statistique équivalente au rapport de vraisemblance. Pour une meilleure prise en compte de phénomènes tels que la malédiction de la dimensionnalité, l'approche proposée s'appuie sur la théorie de l'apprentissage. Celle-ci lui permet d'offrir des garanties de performances en généralisation. On propose ainsi des méthodes qui permettent le contrôle de complexité des détecteurs obtenus. Les résultats obtenus sur des données synthétiques et réelles montrent que notre approche est en mesure de rivaliser avec les structures de décision les plus étudiées actuellement que sont les Support Vector Machines
In this thesis, we consider statistical learning machines with try to infer rules from a given set or observations in order to make correct predictions on unseen examples. Building upon the theory of reproducing kernels, we develop a generalized linear detector in transformed spaces of high dimension, without explicitly doing any calculus in these spaces. The method is based on the optimization of the best second-order criterion with respect to the problem to solve. In fact, theoretical results show that second-order criteria are able, under some mild conditions, to guarantee the best solution in the sense of classical detection theories. Achieving a good generalisation performance with a receiver requires matching its complexity to the amount of available training data. This problem, known as the curse of dimensionality, has been studied theoretically by Vapnik and Chervonenkis. In this dissertation, we propose complexity control procedures in order to improve the performance of these receivers when few training data are available. Simulation results on real and synthetic data show clearly the competitiveness of our approach compared with other state of the art existing kernel methods like Support Vector Machines
APA, Harvard, Vancouver, ISO, and other styles
9

Labbé, Benjamin. "Machines à noyaux pour le filtrage d'alarmes : application à la discrimination multiclasse en environnement maritime." Thesis, Rouen, INSA, 2011. http://www.theses.fr/2011ISAM0002.

Full text
Abstract:
Les systèmes infrarouges sont essentiels pour fournir aux forces armées une capacité de reconnaissance des menaces. En contexte opérationnel, ces systèmes sont contraints au temps-réel et à l’accès à des taux de fausses alarmes faibles. Ceci implique la détection des menaces parmi de nombreux objets non-pertinents.Dans ce document, nous combinons des OneClass-SVM pour une décision multiclasse avec rejet(préservant la fausse-alarme). En apprentissage, nous sélectionnons les variables pour contrôler la parcimonie du moteur de décision.Nous présentons également un classifieur original, le Discriminative OneClass-SVM, combinant les propriétés du C-SVM et du OneClass-SVM dans le contexte multiclasse. Ce détecteur de nouveauté n’a pas de dépendance au nombre de classes. Ceci permet une utilisation sur des données à grande échelle.Nos expériences sur des données réelles démontrent l’intérêt des propositions pour les systèmes fortement contraints, face aux méthodes de référence
Infrared systems are keys to provide automatic control of threats to military forces. Such operational systems are constrained to real-time processing and high efficiency (low false-alarm rate) implying the recognition of threats among numerous irrelevant objects.In this document, we combine OneClass Support Vector Machines (SVM) to discriminate in the multiclass framework and to reject unknown objects (preserving the false-alarm rate).While learning, we perform variable selection to control the sparsity of the decision functions. We also introduce a new classifier, the Discriminative OneClass-SVM. It combines properties of both the biclass-SVM and the OneClass-SVM in a multiclass framework. This classifier detects novelty and has no dependency to the amount of categories, allowing to tackle large scale problems. Numerical experiments, on real world infrared datasets, demonstrate the relevance of our proposals for highly constrained systems, when compared to standard methods
APA, Harvard, Vancouver, ISO, and other styles
10

Brault, Romain. "Large-scale operator-valued kernel regression." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLE024/document.

Full text
Abstract:
De nombreuses problématiques d'apprentissage artificiel peuvent être modélisées grâce à des fonctions à valeur vectorielles. Les noyaux à valeurs opérateurs et leur espace de Hilbert à noyaux reproduisant à valeurs vectorielles associés donnent un cadre théorique et pratique pour apprendre de telles fonctions, étendant la littérature existante des noyaux scalaires. Cependant, lorsque les données sont nombreuses, ces méthodes sont peu utilisables, ne passant pas à l'échelle, car elle nécessite une quantité de mémoire évoluant quadratiquement et un temps de calcul évoluant cubiquement vis à vis du nombre de données, dans leur implémentation la plus naïve. Afin de faire passer les noyaux à valeurs opérateurs à l'échelle, nous étendons une technique d'approximation stochastique introduite dans le cadre des noyaux scalaires. L'idée est de tirer parti d'une fonction de redescription caractérisant le noyau à valeurs opérateurs, dont les fonctions associées vivent dans un espace de dimension infinie, afin d'obtenir un problème d'optimisation linéaire de dimension finie. Dans cette thèse nous développons dans un premier temps un cadre général afin de permettre l'approximation de noyaux de Mercer définis sur des groupes commutatifs localement compacts et étudions leurs propriétés ainsi que la complexités des algorithmes en découlant. Dans un second temps nous montrons des garanties théoriques en bornant l'erreur commise par l'approximation, avec grande probabilité. Enfin, nous mettons en évidence plusieurs applications des Représentations Opérateurs Aléatoires de Fourier (ORFF) telles que la classification multiple, l'apprentissage multi-tâche, la modélisation des séries temporelles, la régression fonctionnelle et la détection d'anomalies. Nous comparons également ce cadre avec d'autres méthodes de la littérature et concluons par des perspectives à moyen et long terme
Many problems in Machine Learning can be cast into vector-valued approximation. Operator-Valued Kernels and vector-valued Reproducing Kernel Hilbert Spaces provide a theoretical and practical framework to address that issue, extending nicely the well-known setting of scalar-valued kernels. However large scale applications are usually not affordable with these tools that require an important computational power along with a large memory capacity. In this thesis, we propose and study scalable methods to perform regression with Operator-Valued Kernels. To achieve this goal, we extend Random Fourier Features, an approximation technique originally introduced for scalar-valued kernels, to Operator-Valued Kernels. The idea is to take advantage of an approximated operator-valued feature map in order to come up with a linear model in a finite-dimensional space. This thesis is structured as follows. First we develop a general framework devoted to the approximation of shift-invariant MErcer kernels on Locally Compact Abelian groups and study their properties along with the complexity of the algorithms based on them. Second we show theoretical guarantees by bounding the error due to the approximation, with high probability. Third, we study various applications of Operator Random Fourier Features (ORFF) to different tasks of Machine learning such as multi-class classification, multi-task learning, time serie modelling, functionnal regression and anomaly detection. We also compare the proposed framework with other state of the art methods. Fourth, we conclude by drawing short-term and mid-term perspectives of this work
APA, Harvard, Vancouver, ISO, and other styles
11

Chen, Dexiong. "Modélisation de données structurées avec des machines profondes à noyaux et des applications en biologie computationnelle." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM070.

Full text
Abstract:
Le développement d'algorithmes efficaces pour apprendre des représentations appropriées des données structurées, telles des sequences ou des graphes, est un défi majeur et central de l'apprentissage automatique. Pour atteindre cet objectif, l'apprentissage profond est devenu populaire pour modéliser des données structurées. Les réseaux de neurones profonds ont attiré une attention particulière dans divers domaines scientifiques tels que la vision par ordinateur, la compréhension du langage naturel ou la biologie. Par exemple, ils fournissent aux biologistes des outils de calcul qui leur permettent de comprendre et de découvrir les propriétés biologiques ou les relations entre les macromolécules des organismes vivants. Toutefois, leur succès dans ces domaines repose essentiellement sur des connaissances empiriques ainsi que d'énormes quantités de données annotées. Exploiter des modèles plus efficaces est nécessaire car les données annotées sont souvent rares.Un autre axe de recherche est celui des méthodes à noyaux, qui fournissent une approche systématique et fondée sur des principes théoriquement solides pour l'apprentissage de modèles non linéaires à partir de données de structure arbitraire. Outre leur simplicité, elles présentent une manière naturelle de contrôler la régularisation et ainsi d'éviter le surapprentissage.Cependant, les représentations de données fournies par les méthodes à noyaux ne sont définies que par des caractéristiques artisanales simplement conçues, ce qui les rend moins performantes que les réseaux de neurones lorsque suffisamment de données étiquetées sont disponibles. Des noyaux plus complexes, inspirés des connaissances préalables utilisées dans les réseaux de neurones, ont ainsi été développés pour construire des représentations plus riches et ainsi combler cette lacune. Pourtant, ils sont moins adaptatifs. Par comparaison, les réseaux de neurones sont capables d'apprendre une représentation compacte pour une tâche d'apprentissage spécifique, ce qui leur permet de conserver l'expressivité de la représentation tout en s'adaptant à une grande taille d'échantillon.Il est donc utile d'intégrer les vues complémentaires des méthodes à noyaux et des réseaux de neurones profonds pour construire de nouveaux cadres afin de bénéficier du meilleur des deux mondes.Dans cette thèse, nous construisons un cadre général basé sur les noyaux pour la modélisation des données structurées en tirant parti des connaissances préalables des méthodes à noyaux classiques et des réseaux profonds. Notre cadre fournit des outils algorithmiques efficaces pour l'apprentissage de représentations sans annotations ainsi que pour l'apprentissage de représentations plus compactes de manière supervisée par les tâches. Notre cadre peut être utilisé pour modéliser efficacement des séquences et des graphes avec une interprétation simple. Il offre également de nouvelles perspectives sur la construction des noyaux et de réseaux de neurones plus expressifs pour les séquences et les graphes
Developing efficient algorithms to learn appropriate representations of structured data, including sequences or graphs, is a major and central challenge in machine learning. To this end, deep learning has become popular in structured data modeling. Deep neural networks have drawn particular attention in various scientific fields such as computer vision, natural language understanding or biology. For instance, they provide computational tools for biologists to possibly understand and uncover biological properties or relationships among macromolecules within living organisms. However, most of the success of deep learning methods in these fields essentially relies on the guidance of empirical insights as well as huge amounts of annotated data. Exploiting more data-efficient models is necessary as labeled data is often scarce.Another line of research is kernel methods, which provide a systematic and principled approach for learning non-linear models from data of arbitrary structure. In addition to their simplicity, they exhibit a natural way to control regularization and thus to avoid overfitting.However, the data representations provided by traditional kernel methods are only defined by simply designed hand-crafted features, which makes them perform worse than neural networks when enough labeled data are available. More complex kernels inspired by prior knowledge used in neural networks have thus been developed to build richer representations and thus bridge this gap. Yet, they are less scalable. By contrast, neural networks are able to learn a compact representation for a specific learning task, which allows them to retain the expressivity of the representation while scaling to large sample size.Incorporating complementary views of kernel methods and deep neural networks to build new frameworks is therefore useful to benefit from both worlds.In this thesis, we build a general kernel-based framework for modeling structured data by leveraging prior knowledge from classical kernel methods and deep networks. Our framework provides efficient algorithmic tools for learning representations without annotations as well as for learning more compact representations in a task-driven way. Our framework can be used to efficiently model sequences and graphs with simple interpretation of predictions. It also offers new insights about designing more expressive kernels and neural networks for sequences and graphs
APA, Harvard, Vancouver, ISO, and other styles
12

Loquin, Kevin. "De l'utilisation des noyaux maxitifs en traitement de l'information." Phd thesis, Montpellier 2, 2008. http://www.theses.fr/2008MON20108.

Full text
Abstract:
Dans cette thèse, nous proposons et développons de nouvelles méthodes en statistiques et en traitement du signal et des images basées sur la théorie des possibilités. Ces nouvelles méthodes sont des adaptations d'outils usuels de traitement d'information dont le but est de prendre en compte les défauts dus à la méconnaissance de l'utilisateur sur la modélisation du phénomène observé. Par cette adaptation, on passe de méthodes dont les sorties sont précises, ponctuelles, à des méthodes dont les sorties sont intervallistes et donc imprécises. Les intervalles produits reflètent, de façon cohérente, l'arbitraire dans le choix des paramètres lorsqu'une méthode classique est utilisée.
Beaucoup d'algorithmes en traitement du signal ou en statistiques utilisent, de façon plus ou moins explicite, la notion d'espérance mathématique associée à une représentation probabiliste du voisinage d'un point, que nous appelons noyau sommatif. Nous regroupons ainsi, sous la dénomination d'extraction sommative d'informations, des méthodes aussi diverses que la modélisation de la mesure, le filtrage linéaire, les processus d'échantillonnage, de reconstruction et de dérivation d'un signal numérique, l'estimation de densité de probabilité et de fonction de répartition par noyau ou par histogramme,...
Comme alternative à l'extraction sommative d'informations, nous présentons la méthode d'extraction maxitive d'informations qui utilise l'intégrale de Choquet associée à une représentation possibiliste du voisinage d'un point, que nous appelons noyau maxitif. La méconnaissance sur le noyau sommatif est prise en compte par le fait qu'un noyau maxitif représente une famille de noyaux sommatifs. De plus, le résultat intervalliste de l'extraction maxitive d'informations est l'ensemble des résultats ponctuels des extractions sommatives d'informations obtenues avec les noyaux sommatifs de la famille représentée par le noyau maxitif utilisé. En plus de cette justification théorique, nous présentons une série d'applications de l'extraction maxitive d'informations en statistiques et en traitement du signal qui constitue une boîte à outils à enrichir et à utiliser sur des cas réels.
APA, Harvard, Vancouver, ISO, and other styles
13

Loquin, Kevin. "De l'utilisation des noyaux maxitifs en traitement de l'information." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00356477.

Full text
Abstract:
Dans cette thèse, nous proposons et développons de nouvelles méthodes en statistiques et en traitement du signal et des images basées sur la théorie des possibilités. Ces nouvelles méthodes sont des adaptations d'outils usuels de traitement d'information dont le but est de prendre en compte les défauts dus à la méconnaissance de l'utilisateur sur la modélisation du phénomène observé. Par cette adaptation, on passe de méthodes dont les sorties sont précises, ponctuelles, à des méthodes dont les sorties sont intervallistes et donc imprécises. Les intervalles produits reflètent, de façon cohérente, l'arbitraire dans le choix des paramètres lorsqu'une méthode classique est utilisée.
Beaucoup d'algorithmes en traitement du signal ou en statistiques utilisent, de façon plus ou moins explicite, la notion d'espérance mathématique associée à une représentation probabiliste du voisinage d'un point, que nous appelons noyau sommatif. Nous regroupons ainsi, sous la dénomination d'extraction sommative d'informations, des méthodes aussi diverses que la modélisation de la mesure, le filtrage linéaire, les processus d'échantillonnage, de reconstruction et de dérivation d'un signal numérique, l'estimation de densité de probabilité et de fonction de répartition par noyau ou par histogramme,...
Comme alternative à l'extraction sommative d'informations, nous présentons la méthode d'extraction maxitive d'informations qui utilise l'intégrale de Choquet associée à une représentation possibiliste du voisinage d'un point, que nous appelons noyau maxitif. La méconnaissance sur le noyau sommatif est prise en compte par le fait qu'un noyau maxitif représente une famille de noyaux sommatifs. De plus, le résultat intervalliste de l'extraction maxitive d'informations est l'ensemble des résultats ponctuels des extractions sommatives d'informations obtenues avec les noyaux sommatifs de la famille représentée par le noyau maxitif utilisé. En plus de cette justification théorique, nous présentons une série d'applications de l'extraction maxitive d'informations en statistiques et en traitement du signal qui constitue une boîte à outils à enrichir et à utiliser sur des cas réels.
APA, Harvard, Vancouver, ISO, and other styles
14

Chen, Xiaoyi. "Transfer Learning with Kernel Methods." Thesis, Troyes, 2018. http://www.theses.fr/2018TROY0005.

Full text
Abstract:
Le transfert d‘apprentissage regroupe les méthodes permettant de transférer l’apprentissage réalisé sur des données (appelées Source) à des données nouvelles, différentes, mais liées aux données Source. Ces travaux sont une contribution au transfert d’apprentissage homogène (les domaines de représentation des Source et Cible sont identiques) et transductif (la tâche à effectuer sur les données Cible est identique à celle sur les données Source), lorsque nous ne disposons pas d’étiquettes des données Cible. Dans ces travaux, nous relâchons la contrainte d’égalité des lois des étiquettes conditionnellement aux observations, souvent considérée dans la littérature. Notre approche permet de traiter des cas de plus en plus généraux. Elle repose sur la recherche de transformations permettant de rendre similaires les données Source et Cible. Dans un premier temps, nous recherchons cette transformation par Maximum de Vraisemblance. Ensuite, nous adaptons les Machines à Vecteur de Support en intégrant une contrainte additionnelle sur la similitude des données Source et Cible. Cette similitude est mesurée par la Maximum Mean Discrepancy. Enfin, nous proposons l’utilisation de l’Analyse en Composantes Principales à noyau pour rechercher un sous espace, obtenu à partir d’une transformation non linéaire des données Source et Cible, dans lequel les lois des observations sont les plus semblables possibles. Les résultats expérimentaux montrent l’efficacité de nos approches
Transfer Learning aims to take advantage of source data to help the learning task of related but different target data. This thesis contributes to homogeneous transductive transfer learning where no labeled target data is available. In this thesis, we relax the constraint on conditional probability of labels required by covariate shift to be more and more general, based on which the alignment of marginal probabilities of source and target observations renders source and target similar. Thus, firstly, a maximum likelihood based approach is proposed. Secondly, SVM is adapted to transfer learning with an extra MMD-like constraint where Maximum Mean Discrepancy (MMD) measures this similarity. Thirdly, KPCA is used to align data in a RKHS on minimizing MMD. We further develop the KPCA based approach so that a linear transformation in the input space is enough for a good and robust alignment in the RKHS. Experimentally, our proposed approaches are very promising
APA, Harvard, Vancouver, ISO, and other styles
15

Gaüzère, Benoit. "Application des méthodes à noyaux sur graphes pour la prédiction des propriétés des molécules." Phd thesis, Université de Caen, 2013. http://tel.archives-ouvertes.fr/tel-00933187.

Full text
Abstract:
Cette thèse s'intéresse à l'application des méthodes à noyaux sur graphes pour la prédiction de propriétés moléculaires. Dans ce manuscrit, nous présentons un état de l'art des méthodes à noyaux sur graphes définies dans le cadre de la chémoinformatique et plus particulièrement les noyaux sur graphes basés sur les sacs de motifs. Dans ce cadre, nous proposons un nouveau noyau sur graphes basé sur un ensemble explicite de sous-arbres, appelés treelets, permettant d'encoder une grande partie de l'information structurelle acyclique des graphes moléculaires. Nous proposons également de combiner ce noyau avec des méthodes d'apprentissage à noyaux multiples afin d'extraire un ensemble de motifs pertinents. Cette contribution est ensuite étendue en incluant l'information cyclique encodée par deux représentations moléculaires définies par le graphe de cycles pertinents et l'hypergraphe de cycles pertinents. Le graphe des cycles pertinents permet d'encoder le système cyclique d'une molécule. L'hypergraphe de cycles pertinents correspond à une nouvelle représentation moléculaire permettant d'encoder à la fois le système cyclique d'une molécule ainsi que les relations d'adjacence entre les cycles et les parties acycliques. Nous proposons également deux noyaux sur graphes utilisant ces représentations. Enfin, la dernière partie vise à définir des noyaux sur graphes pour la chémoinformatique basés sur la distance d'édition. Un premier noyau est basé sur un opérateur de régularisation utilisant la distance d'édition entre graphes moléculaires. Le second noyau introduit la comparaison de treelets dissimilaires basée sur un algorithme de calcul de la distance d'édition entre treelets.
APA, Harvard, Vancouver, ISO, and other styles
16

Franchi, Gianni. "Machine learning spatial appliquée aux images multivariées et multimodales." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM071/document.

Full text
Abstract:
Cette thèse porte sur la statistique spatiale multivariée et l’apprentissage appliqués aux images hyperspectrales et multimodales. Les thèmes suivants sont abordés :Fusion d'images :Le microscope électronique à balayage (MEB) permet d'acquérir des images à partir d'un échantillon donné en utilisant différentes modalités. Le but de ces études est d'analyser l’intérêt de la fusion de l'information pour améliorer les images acquises par MEB. Nous avons mis en œuvre différentes techniques de fusion de l'information des images, basées en particulier sur la théorie de la régression spatiale. Ces solutions ont été testées sur quelques jeux de données réelles et simulées.Classification spatiale des pixels d’images multivariées :Nous avons proposé une nouvelle approche pour la classification de pixels d’images multi/hyper-spectrales. Le but de cette technique est de représenter et de décrire de façon efficace les caractéristiques spatiales / spectrales de ces images. Ces descripteurs multi-échelle profond visent à représenter le contenu de l'image tout en tenant compte des invariances liées à la texture et à ses transformations géométriques.Réduction spatiale de dimensionnalité :Nous proposons une technique pour extraire l'espace des fonctions en utilisant l'analyse en composante morphologiques. Ainsi, pour ajouter de l'information spatiale et structurelle, nous avons utilisé les opérateurs de morphologie mathématique
This thesis focuses on multivariate spatial statistics and machine learning applied to hyperspectral and multimodal and images in remote sensing and scanning electron microscopy (SEM). In this thesis the following topics are considered:Fusion of images:SEM allows us to acquire images from a given sample using different modalities. The purpose of these studies is to analyze the interest of fusion of information to improve the multimodal SEM images acquisition. We have modeled and implemented various techniques of image fusion of information, based in particular on spatial regression theory. They have been assessed on various datasets.Spatial classification of multivariate image pixels:We have proposed a novel approach for pixel classification in multi/hyper-spectral images. The aim of this technique is to represent and efficiently describe the spatial/spectral features of multivariate images. These multi-scale deep descriptors aim at representing the content of the image while considering invariances related to the texture and to its geometric transformations.Spatial dimensionality reduction:We have developed a technique to extract a feature space using morphological principal component analysis. Indeed, in order to take into account the spatial and structural information we used mathematical morphology operators
APA, Harvard, Vancouver, ISO, and other styles
17

Flamary, Rémi. "Apprentissage statistique pour le signal : applications aux interfaces cerveau-machine." Phd thesis, Université de Rouen, 2011. http://tel.archives-ouvertes.fr/tel-00687501.

Full text
Abstract:
Les Interfaces Cerveau-Machine (ICM) nécessitent l'utilisation de méthodes d'apprentissage statistique pour la reconnaissance de signaux. Dans cette thèse, nous proposons une approche générale permettant d'intégrer des connaissances a priori dans le processus d'apprentissage. Cette approche consiste à apprendre de manière jointe le classifieur et la représentation des données lors d'une optimisation unique. Nous nous sommes plus particulièrement intéressés à des problèmes de sélection de capteurs et proposons plusieurs termes de régularisation adaptés pour ces problèmes. Notre première contribution est une méthode d'apprentissage supervisé de filtres: le filtrage vaste marge. Un filtrage maximisant la marge entre les échantillons est appris et permet de s'adapter automatiquement aux caractéristiques des signaux tout en restant interprétable. Une application ICM et une extension 2D du filtrage a été réalisée. La seconde contribution est une méthode d'apprentissage multitâche parcimonieuse. Elle permet de sélectionner de manière jointe un ensemble de noyaux pertinents pour l'ensemble des tâches de classification. Des algorithmes efficaces ont été proposés pour résoudre le problème d'optimisation et des expérimentations numériques ont montré l'intérêt de l'approche. Finalement, la troisième contribution est une application de l'apprentissage multitâche parcimonieux sur un ensemble de jeux de données ICM. Un terme de régularisation plus général permettant de promouvoir une similarité entre classifieurs est également proposé. Les résultats numériques ont montré qu'une réduction importante du temps de calibration peut être obtenue grâce à l'apprentissage multitâche proposé.
APA, Harvard, Vancouver, ISO, and other styles
18

Flamary, Rémi. "Apprentissage statistique pour le signal : applications aux interfaces cerveau-machine." Phd thesis, Rouen, 2011. http://www.theses.fr/2011ROUES044.

Full text
Abstract:
Les Interfaces Cerveau-Machine (ICM) nécessitent l'utilisation de méthodes d'apprentissage statistique pour la reconnaissance de signaux. Dans cette thèse, nous proposons une approche générale permettant d'intégrer des connaissances a priori dans le processus d'apprentissage. Cette approche consiste à apprendre de manière jointe le classifieur et la représentation des données lors d'une optimisation unique. Nous nous sommes plus particulièrement intéressés à des problèmes de sélection de capteurs et proposons plusieurs termes de régularisation adaptés pour ces problèmes. Notre première contribution est une méthode d'apprentissage supervisé de filtres: le filtrage vaste marge. Un filtrage maximisant la marge entre les échantillons est appris et permet de s'adapter automatiquement aux caractéristiques des signaux tout en restant interprétable. Une application ICM et une extension 2D du filtrage a été réalisée. La seconde contribution est une méthode d'apprentissage multitâche parcimonieuse. Elle permet de sélectionner de manière jointe un ensemble de noyaux pertinents pour l'ensemble des tâches de classification. Des algorithmes efficaces ont été proposés pour résoudre le problème d'optimisation et des expérimentations numériques ont montré l'intérêt de l'approche. Finalement, la troisième contribution est une application de l'apprentissage multitâche parcimonieux sur un ensemble de jeux de données ICM. Un terme de régularisation plus général permettant de promouvoir une similarité entre classifieurs est également proposé. Les résultats numériques ont montré qu'une réduction importante du temps de calibration peut être obtenue grâce à l'apprentissage multitâche proposé
Brain Computer Interfaces (BCI) require the use of statistical learning methods for signal recognition. In this thesis we propose a general approach using prior knowledge on the problem at hand through regularization. To this end, we learn jointly the classifier and the feature extraction step in a unique optimization problem. We focus on the problem of sensor selection, and propose several regularization terms adapted to the problem. Our first contribution is a filter learning method called large margin filtering. It consists in learning a filtering maximizing the margin between samples of each classe so as to adapt to the properties of the features. In addition, this approach is easy to interpret and can lead to the selection of the most relevant sensors. Numerical experiments on a real life BCI problem and a 2D image classification show the good behaviour of our method both in terms of performance and interpretability. The second contribution is a general sparse multitask learning approach. Several classifiers are learned jointly and discriminant kernels for all the tasks are automatically selected. We propose some efficient algorithms and numerical experiments have shown the interest of our approach. Finally, the third contribution is a direct application of the sparse multitask learning to a BCI event-related potential classification problem. We propose an adapted regularization term that promotes both sensor selection and similarity between the classifiers. Numerical experiments show that the calibration time of a BCI can be drastically reduced thanks to the proposed multitask approach
APA, Harvard, Vancouver, ISO, and other styles
19

Nguyen, Van Toi. "Visual interpretation of hand postures for human-machine interaction." Thesis, La Rochelle, 2015. http://www.theses.fr/2015LAROS035/document.

Full text
Abstract:
Aujourd'hui, les utilisateurs souhaitent interagir plus naturellement avec les systèmes numériques. L'une des modalités de communication la plus naturelle pour l'homme est le geste de la main. Parmi les différentes approches que nous pouvons trouver dans la littérature, celle basée sur la vision est étudiée par de nombreux chercheurs car elle ne demande pas de porter de dispositif complémentaire. Pour que la machine puisse comprendre les gestes à partir des images RGB, la reconnaissance automatique de ces gestes est l'un des problèmes clés. Cependant, cette approche présente encore de multiples défis tels que le changement de point de vue, les différences d'éclairage, les problèmes de complexité ou de changement d'environnement. Cette thèse propose un système de reconnaissance de gestes statiques qui se compose de deux phases : la détection et la reconnaissance du geste lui-même. Dans l'étape de détection, nous utilisons un processus de détection d'objets de Viola Jones avec une caractérisation basée sur des caractéristiques internes d'Haar-like et un classifieur en cascade AdaBoost. Pour éviter l'influence du fond, nous avons introduit de nouvelles caractéristiques internes d'Haar-like. Ceci augmente de façon significative le taux de détection de la main par rapport à l'algorithme original. Pour la reconnaissance du geste, nous avons proposé une représentation de la main basée sur un noyau descripteur KDES (Kernel Descriptor) très efficace pour la classification d'objets. Cependant, ce descripteur n'est pas robuste au changement d'échelle et n'est pas invariant à l'orientation. Nous avons alors proposé trois améliorations pour surmonter ces problèmes : i) une normalisation de caractéristiques au niveau pixel pour qu'elles soient invariantes à la rotation ; ii) une génération adaptative de caractéristiques afin qu'elles soient robustes au changement d'échelle ; iii) une construction spatiale spécifique à la structure de la main au niveau image. Sur la base de ces améliorations, la méthode proposée obtient de meilleurs résultats par rapport au KDES initial et aux descripteurs existants. L'intégration de ces deux méthodes dans une application montre en situation réelle l'efficacité, l'utilité et la faisabilité de déployer un tel système pour l'interaction homme-robot utilisant les gestes de la main
Nowadays, people want to interact with machines more naturally. One of the powerful communication channels is hand gesture. Vision-based approach has involved many researchers because this approach does not require any extra device. One of the key problems we need to resolve is hand posture recognition on RGB images because it can be used directly or integrated into a multi-cues hand gesture recognition. The main challenges of this problem are illumination differences, cluttered background, background changes, high intra-class variation, and high inter-class similarity. This thesis proposes a hand posture recognition system consists two phases that are hand detection and hand posture recognition. In hand detection step, we employed Viola-Jones detector with proposed concept Internal Haar-like feature. The proposed hand detection works in real-time within frames captured from real complex environments and avoids unexpected effects of background. The proposed detector outperforms original Viola-Jones detector using traditional Haar-like feature. In hand posture recognition step, we proposed a new hand representation based on a good generic descriptor that is kernel descriptor (KDES). When applying KDES into hand posture recognition, we proposed three improvements to make it more robust that are adaptive patch, normalization of gradient orientation in patches, and hand pyramid structure. The improvements make KDES invariant to scale change, patch-level feature invariant to rotation, and final hand representation suitable to hand structure. Based on these improvements, the proposed method obtains better results than original KDES and a state of the art method
APA, Harvard, Vancouver, ISO, and other styles
20

Freyssinet, André. "Architecture et réalisation d'un système réparti à objets." Grenoble 1, 1991. http://www.theses.fr/1991GRE10078.

Full text
Abstract:
Le sujet de cette these est l'etude du modele d'execution et de gestion de la memoire dans un systeme reparti a objets. Ce travail a ete effectue dans le cadre du projet guide dont l'objectif est la conception et la realisation d'un systeme experimental pour le developpement et l'execution d'applications reparties sur un reseau local de stations de travail et de serveurs. Le travail presente se decompose en cinq parties: une etude bibliographique du sujet permettant d'obtenir une classification des differents modeles de memoire et d'execution; une presentation de guide et une description de la realisation qui en a ete faite sur unix; une evaluation de cette realisation qui en montre les limites et suggere l'evolution future de guide; une etude comparative de mach et chorus qui met en evidence les avantages d'un micro-noyau pour le support d'un systeme tel que guide; une description d'une premiere realisation de guide sur mach 2. 5
APA, Harvard, Vancouver, ISO, and other styles
21

Gautheron, Léo. "Construction de Représentation de Données Adaptées dans le Cadre de Peu d'Exemples Étiquetés." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSES044.

Full text
Abstract:
L'apprentissage automatique consiste en l'étude et la conception d'algorithmes qui construisent des modèles capables de traiter des tâches non triviales aussi bien ou mieux que les humains et, si possible, à un moindre coût.Ces modèles sont généralement entraînés à partir d'un ensemble de données où chaque exemple décrit une instance de la même tâche et est représenté par un ensemble de caractéristiques et un résultat ou étiquette que nous voulons généralement prédire.Un élément nécessaire au succès de tout algorithme d'apprentissage automatique est lié à la qualité de l'ensemble de caractéristiques décrivant les données, également appelé représentation des données.Dans l'apprentissage supervisé, plus les caractéristiques décrivant les exemples sont corrélées avec l'étiquette, plus le modèle sera efficace.Il existe trois grandes familles de caractéristiques : les caractéristiques ``observables'', les caractéristiques ``fabriquées à la main'' et les caractéristiques ``latentes'' qui sont généralement apprises automatiquement à partir des données d'entraînement.Les contributions de cette thèse s'inscrivent dans le cadre de cette dernière catégorie. Plus précisément, nous nous intéressons au cadre spécifique de l'apprentissage d'une représentation discriminatoire lorsque le nombre de données d'intérêt est limité.Un manque de données d'intérêt peut être constaté dans différents scénarios.Tout d'abord, nous abordons le problème de l'apprentissage déséquilibré avec une classe d'intérêt composée de peu d'exemples en apprenant une métrique qui induit un nouvel espace de représentation où les modèles appris ne favorisent pas les exemples majoritaires.Deuxièmement, nous proposons de traiter un scénario avec peu d'exemples disponibles en apprenant en même temps une représentation de données pertinente et un modèle qui généralise bien en boostant des modèles basés sur des noyaux et des caractéristiques de Fourier aléatoires.Enfin, pour traiter le scénario d'adaptation de domaine où l'ensemble cible ne contient pas d'étiquette alors que les exemples sources sont acquis dans des conditions différentes, nous proposons de réduire l'écart entre les deux domaines en ne conservant que les caractéristiques les plus similaires qui optimisent la solution d'un problème de transport optimal entre les deux domaines
Machine learning consists in the study and design of algorithms that build models able to handle non trivial tasks as well as or better than humans and hopefully at a lesser cost.These models are typically trained from a dataset where each example describes an instance of the same task and is represented by a set of characteristics and an expected outcome or label which we usually want to predict.An element required for the success of any machine learning algorithm is related to the quality of the set of characteristics describing the data, also referred as data representation or features.In supervised learning, the more the features describing the examples are correlated with the label, the more effective the model will be.There exist three main families of features: the ``observable'', the ``handcrafted'' and the ``latent'' features that are usually automatically learned from the training data.The contributions of this thesis fall into the scope of this last category. More precisely, we are interested in the specific setting of learning a discriminative representation when the number of data of interest is limited.A lack of data of interest can be found in different scenarios.First, we tackle the problem of imbalanced learning with a class of interest composed of a few examples by learning a metric that induces a new representation space where the learned models do not favor the majority examples.Second, we propose to handle a scenario with few available examples by learning at the same time a relevant data representation and a model that generalizes well through boosting models using kernels as base learners approximated by random Fourier features.Finally, to address the domain adaptation scenario where the target set contains no label while the source examples are acquired in different conditions, we propose to reduce the discrepancy between the two domains by keeping only the most similar features optimizing the solution of an optimal transport problem between the two domains
APA, Harvard, Vancouver, ISO, and other styles
22

Szames, Esteban Alejandro. "Few group cross section modeling by machine learning for nuclear reactor." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASS134.

Full text
Abstract:
Pour estimer la répartition de la puissance au sein d’un réacteur nucléaire, il est nécessaire de coupler des modélisations neutroniques et thermohydrauliques. De telles simulations doivent disposer des valeurs sections efficaces homogénéisées à peu de groupes d’énergies qui décrivent les interactions entre les neutrons et la matière. Cette thèse est consacrée à la modélisation des sections efficaces par des techniques académiques innovantes basées sur l’apprentissage machine. Les premières méthodes utilisent les modèles à noyaux du type RKHS (Reproducing Kernel Hilbert Space) et les secondes par réseaux de neurones. La performance d’un modèle est principalement définie par le nombre de coefficients qui le caractérisent (c’est-à-dire l’espace mémoire nécessaire pour le stocker), la vitesse d’évaluation, la précision, la robustesse au bruit numérique, la complexité, etc. Dans cette thèse, un assemblage standard de combustible UOX REP est analysé avec trois variables d’état : le burnup, la température du combustible et la concentration en bore. La taille de stockage des bibliothèques est optimisée en cherchant à maximiser la vitesse et la précision de l’évaluation, tout en cherchant à réduire l’erreur de reconstruction des sections efficaces microscopiques, macroscopiques et du facteur de multiplication infini. Trois techniques d’approximation sont étudiées. Les méthodes de noyaux, qui utilisent le cadre général d’apprentissage machine, sont capables de proposer, dans un espace vectoriel normalisé, une grande variété de modèles de régression ou de classification. Les méthodes à noyaux peuvent reproduire différents espaces de fonctions en utilisant un support non structuré, qui est optimisé avec des techniques d’apprentissage actif. Les approximations sont trouvées grâce à un processus d’optimisation convexe facilité par "l’astuce du noyau”. Le caractère modulaire intrinsèque de la méthode facilite la séparation des phases de modélisation : sélection de l’espace de fonctions, application de routines numériques, et optimisation du support par apprentissage actif. Les réseaux de neurones sont des méthodes d’approximation universelles capables d’approcher de façon arbitraire des fonctions continues sans formuler de relations explicites entre les variables. Une fois formés avec des paramètres d’apprentissage adéquats, les réseaux à sorties multiples (intrinsèquement parallélisables) réduisent au minimum les besoins de stockage tout en offrant une vitesse d’évaluation élevée. Les stratégies que nous proposons sont comparées entre elles et à l’interpolation multilinéaire sur une grille cartésienne qui est la méthode utilisée usuellement dans l’industrie. L’ensemble des données, des outils, et des scripts développés sont disponibles librement sous licence MIT
Modern nuclear reactors utilize core calculations that implement a thermo-hydraulic feedback requiring accurate homogenized few-group cross sections.They describe the interactions of neutrons with matter, and are endowed with the properties of smoothness and regularity, steaming from their underling physical phenomena. This thesis is devoted to the modeling of these functions by industry state-of-theart and innovative machine learning techniques. Mathematically, the subject can be defined as the analysis of convenient mapping techniques from one multi-dimensional space to another, conceptualize as the aggregated sum of these functions, whose quantity and domain depends on the simulations objectives. Convenient is intended in terms of computational performance, such as the model’s size, evaluation speed, accuracy, robustness to numerical noise, complexity,etc; always with respect to the engineering modeling objectives that specify the multidimensional spaces of interest. In this thesis, a standard UO₂ PWR fuel assembly is analyzed for three state-variables, burnup,fuel temperature, and boron concentration.Library storage requirements are optimized meeting the evaluation speed and accuracy targets in view of microscopic, macroscopic cross sections and the infinite multiplication factor. Three approximation techniques are studied: The state-of-the-art spline interpolation using computationally convenient B-spline basis, that generate high order local approximations. A full grid is used as usually donein the industry. Kernel methods, that are a very general machine learning framework able to pose in a normed vector space, a large variety of regression or classification problems. Kernel functions can reproduce different function spaces using an unstructured support,which is optimized with pool active learning techniques. The approximations are found through a convex optimization process simplified by the kernel trick. The intrinsic modular character of the method facilitates segregating the modeling phases: function space selection, application of numerical routines and support optimization through active learning. Artificial neural networks which are“model free” universal approximators able Artificial neural networks which are“model free” universal approximators able to approach continuous functions to an arbitrary degree without formulating explicit relations among the variables. With adequate training settings, intrinsically parallelizable multi-output networks minimize storage requirements offering the highest evaluation speed. These strategies are compared to each other and to multi-linear interpolation in a Cartesian grid, the industry standard in core calculations. The data set, the developed tools, and scripts are freely available under aMIT license
APA, Harvard, Vancouver, ISO, and other styles
23

Sangnier, Maxime. "Outils d'apprentissage automatique pour la reconnaissance de signaux temporels." Rouen, 2015. http://www.theses.fr/2015ROUES064.

Full text
Abstract:
Les travaux présentés ici couvrent deux thématiques de la reconnaissance de signaux temporels par des systèmes numériques dont certains paramètres sont inférés à partir d’un ensemble limité d’observations. La première est celle de la détermination automatique de caractéristiques discriminantes. Pour ce faire, nous proposons un algorithme de génération de colonnes capable d’apprendre une transformée Temps-Fréquence (TF), mise sous la forme d’un banc de filtres, de concert à une machine à vecteurs supports. Cet algorithme est une extension des techniques existantes d’apprentissage de noyaux multiples, combinant de manière non-linéaire une infinité de noyaux. La seconde thématique dans laquelle s’inscrivent nos travaux est l’appréhension de la temporalité des signaux. Si cette notion a été abordée au cours de notre première contribution, qui a pointé la nécessité de déterminer au mieux la résolution temporelle d’une représentation TF, elle prend tout son sens dans une prise de décision au plus tôt. Dans ce contexte, notre seconde contribution fournit un cadre méthodologique permettant de détecter précocement un événement particulier au sein d’une séquence, c’est à dire avant que ledit événement ne se termine. Celui-ci est construit comme une extension de l’apprentissage d’instances multiples et des espaces de similarité aux séries temporelles. De plus, nous accompagnons cet outil d’un algorithme d’apprentissage efficace et de garanties théoriques de généralisation. L’ensemble de nos travaux a été évalué sur des signaux issus d’interfaces cerveau-machine, des paysages sonores et des vidéos représentant des actions humaines
The work presented here tackles two different subjects in the wide thematic of how to build a numerical system to recognize temporal signals, mainly from limited observations. The first one is automatic feature extraction. For this purpose, we present a column generation algorithm, which is able to jointly learn a discriminative Time-Frequency (TF) transform, cast as a filter bank, with a support vector machine. This algorithm extends the state of the art on multiple kernel learning by non-linearly combining an infinite amount of kernels. The second direction of research is the way to handle the temporal nature of the signals. While our first contribution pointed out the importance of correctly choosing the time resolution to get a discriminative TF representation, the role of the time is clearly enlightened in early recognition of signals. Our second contribution lies in this field and introduces a methodological framework for early detection of a special event in a time-series, that is detecting an event before it ends. This framework builds upon multiple instance learning and similarity spaces by fitting them to the particular case of temporal sequences. Furthermore, our early detector comes with an efficient learning algorithm and theoretical guarantees on its generalization ability. Our two contributions have been empirically evaluated with brain-computer interface signals, soundscapes and human actions movies
APA, Harvard, Vancouver, ISO, and other styles
24

Carriere, Mathieu. "On Metric and Statistical Properties of Topological Descriptors for geometric Data." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS433/document.

Full text
Abstract:
Dans le cadre de l'apprentissage automatique, l'utilisation de représentations alternatives, ou descripteurs, pour les données est un problème fondamental permettant d'améliorer sensiblement les résultats des algorithmes. Parmi eux, les descripteurs topologiques calculent et encodent l'information de nature topologique contenue dans les données géométriques. Ils ont pour avantage de bénéficier de nombreuses bonnes propriétés issues de la topologie, et désirables en pratique, comme par exemple leur invariance aux déformations continues des données. En revanche, la structure et les opérations nécessaires à de nombreuses méthodes d'apprentissage, comme les moyennes ou les produits scalaires, sont souvent absents de l'espace de ces descripteurs. Dans cette thèse, nous étudions en détail les propriétés métriques et statistiques des descripteurs topologiques les plus fréquents, à savoir les diagrammes de persistance et Mapper. En particulier, nous montrons que le Mapper, qui est empiriquement un descripteur instable, peut être stabilisé avec une métrique appropriée, que l'on utilise ensuite pour calculer des régions de confiance et pour régler automatiquement ses paramètres. En ce qui concerne les diagrammes de persistance, nous montrons que des produits scalaires peuvent être utilisés via des méthodes à noyaux, en définissant deux noyaux, ou plongements, dans des espaces de Hilbert en dimension finie et infinie
In the context of supervised Machine Learning, finding alternate representations, or descriptors, for data is of primary interest since it can greatly enhance the performance of algorithms. Among them, topological descriptors focus on and encode the topological information contained in geometric data. One advantage of using these descriptors is that they enjoy many good and desireable properties, due to their topological nature. For instance, they are invariant to continuous deformations of data. However, the main drawback of these descriptors is that they often lack the structure and operations required by most Machine Learning algorithms, such as a means or scalar products. In this thesis, we study the metric and statistical properties of the most common topological descriptors, the persistence diagrams and the Mappers. In particular, we show that the Mapper, which is empirically instable, can be stabilized with an appropriate metric, that we use later on to conpute confidence regions and automatic tuning of its parameters. Concerning persistence diagrams, we show that scalar products can be defined with kernel methods by defining two kernels, or embeddings, into finite and infinite dimensional Hilbert spaces
APA, Harvard, Vancouver, ISO, and other styles
25

Muller, Bruno. "Transfer Learning through Kernel Alignment : Application to Adversary Data Shifts in Automatic Sleep Staging." Thesis, Troyes, 2021. http://www.theses.fr/2021TROY0037.

Full text
Abstract:
L’objectif de cette thèse est l’amélioration d’un système de classification automatique des stades de sommeil par la prise en compte des variabilités inter-et-intra individuelles, ces dernières ayant un effet détrimentaire sur la classification. Nous nous intéressons en particulier à la détection des épisodes de sommeil paradoxal au cours de la nuit. Nos recherches se focalisent sur le transfert d’apprentissage et la sélection de détecteurs adaptés, permettant l’individualisation de l’analyse par l’exploitation des propriétés des données observées. Nous avons focalisé nos travaux sur l’application des méthodes d’alignement de noyau, dans un premier temps au travers de l’utilisation du kernel-target alignment étudié ici de manière duale, c’est-à-dire à noyau fixé et optimisé par rapport aux étiquettes recherchées des données de tests. Dans un second temps, nous avons introduit le kernel-cross alignment, permettant d’exploiter plus fortement l’information contenue dans les données d’apprentissage. Les idées développées dans le cadre de ces travaux ont été étendues à la sélection automatique d’un ensemble d’apprentissage adapté à un ensemble de test donné. Les contributions de ces travaux sont à la fois méthodologiques et algorithmiques, à portée générale, mais également centrées sur l’application
This doctoral project aims at improving an automatic sleep staging system by taking into account inter-and-intra-individual variabilities, the latter having adversary effects on the classification. We focus on the detection of Rapid-Eye Movement periods during sleep. The core of our research is transfer learning and the selection of suitable detector(s) among a set, allowing the individualisation of the analysis by the exploitation of the observed data properties. We focus on the application of kernel alignment methods, firstly through the use of kernel-target alignment, studied here in a dual way, i.e. the kernel is fixed and the criterion is optimised with respect to the sought target labels. In a second step, we introduced kernel-cross alignment, allowing to take more efficiently advantage of the information contained in the training data. The ideas developed in the framework of this work have been extended to automatically selecting one or more efficient training sets for a given test set. The contributions of this work are both methodological and algorithmic, general in scope, but also focused on the application
APA, Harvard, Vancouver, ISO, and other styles
26

Bonin, Jean-Jacques. "Contribution à la détection automatique de traits prosodiques dans les dialogues oraux homme-machine : utilisation dans un système de reconnaissance automatique de la parole continue." Nancy 1, 1991. http://www.theses.fr/1991NAN10154.

Full text
Abstract:
Face aux problèmes des systèmes de reconnaissance automatique de la parole continue multi-locuteur, les approches multi-expertes ont apporte une source de connaissance supplémentaire au domaine de la reconnaissance: la prosodie. Le travail présente dans cette thèse étudie informations et connaissances prosodiques, afin de prévoir leurs intégrations dans un système de reconnaissance et de compréhension de dialogues oraux en langue naturelle développé au CRIN. Cette thèse montre, au travers une approche paramétrique, qu'il est possible d'extraire automatiquement du signal de parole des informations prosodiques fiables et de pouvoir les utiliser pour limiter les hypothèses lexicales et syntaxiques des autres niveaux de reconnaissance. Cette étude exploite des corpus d'enregistrement de parole continue spontanée ou de lecture, son originalité réside dans l'analyse d'un corpus de parole spontanée simulant une des applications potentielles envisagées: l'interrogation d'un centre de renseignements météorologiques. La fréquence fondamentale, la durée des noyaux vocaliques et les pauses sont extraites du signal à l'aide d'outils spécialement développés pour cette étude. La recherche des frontières lexicale et syntaxique est ensuite effectuée par une technique entièrement automatique de détection d'indices prosodiques. Les résultats de la détection sur l'ensemble des corpus ont été obtenus dans une première étape a partir de données en provenance de la segmentation manuelle, puis dans une seconde étape, à partir des données de la segmentation automatique afin de tester l'efficacité de notre composante prosodique dans les conditions réelles d'un processus de reconnaissance automatique de la parole continue
APA, Harvard, Vancouver, ISO, and other styles
27

Nasser, Alissar. "Contribution à la classification non supervisée par machines à noyaux." Littoral, 2007. http://www.theses.fr/2007DUNK0182.

Full text
Abstract:
La classification automatique non supervisée suscite de plus en plus d’intérêt dans différents domaines des sciences de l’ingénieur. Ceci est dû au développement rapide des moyens technologiques de mesure et de stockage générant de grandes quantités de données issues de sources diverses dont il faut analyser afin d’en extraire des informations utiles. Le principe de la classification non supervisée est justement de doter les machines de la capacité à découvrir des groupes naturels ou classes dans les objets présents aux entrées sans aucune connaissance a priori. Deux grandes catégories de méthodes existent : (1) les méthodes de classification dans l’espace d’entrée multidimensionnel et (2) les méthodes de projection pour la visualisation plane. Les premières cherchent des groupes denses ou des zones de fortes densités de probabilité alors que les secondes fournissent une vue plane image des données multidimensionnelles. La solution de bon sens est de faire coopérer ces méthodes d’une manière interactive impliquant l’opérateur humain dans le processus d’exploration de la structure des données. Récemment, les machines à noyaux ont connu un vif succès en classification non supervisée. L’idée de base est au lieu de projeter ou classer directement les données, on les transforme dans un espace de caractéristiques de grande dimension où les points images sont susceptibles d’être linéairement séparables. Ensuite, une technique classique de projection linéaire telle que l’analyse en composantes principales (PCA) ou de partitionnement tel que l’algorithme des K-means, sera appliquée sur les points dans leur espace de caractéristiques. C’est le principe des méthodes à noyaux ou « kernels » : kernel PCA, kernel K-means, etc. Le mémoire se propose de montrer l’apport des machines à noyaux dans la classification non supervisée, notamment en projection et en classification. Il présente au début les méthodes traditionnelles de projection pour ensuite exposer les méthodes d’analyse en composantes principales à noyau, les méthodes de classification spectrale et les méthodes de partitionnement kernel K-means. Les problèmes d’ajustement des paramètres et d’estimation du nombre des classes sont étudiés à travers des exemples de données synthétiques et réelles et les résultats des différentes méthodes sont comparés. Les approches de classification sont enfin appliquées pour l’aide à la détection d’évènements audio dans le transport public
Unsupervised classification has emerged as a popular technique for pattern recognition, image processing, and data mining. This is due to the development of advanced data measurements tools and data storage devices resulting in a huge quantity of data. This makes it necessary to analyze these data in order to extract some useful information. Unsupervised classification is one of the well-studied techniques, which concerns the partitioning of similar objects into clusters without any prior knowledge, such that objects in the same cluster share some unique properties. Two main categories of methods exist : (1) clustering methods in the multidimensional space and (2) projection methods for exploratory data analysis. The first category seeks zones/groups of high densities whereas the second category provides an accurate image on the plane of the multidimensional data. One of convenient lethods is by combining these two categories together in a way that involves a human operator into the process of structure analysis. Recently, Kernel machines gained a success in unsupervised classification. Instead, of projecting or classifying data directly in their input space, one transforms it into a high dimensional space called feature space and then applies any traditional projection technique such as Principal Components Analysis (PCA) or any clustering method such as K-means algorithm. The logic behind kernel is to enhance those features of the input data which make distinct pattern classes separate from each other. The present thesis shows the contribution of kernel machines in unsupervised classification, particularly in projection and classification methods. It first presents traditional projection methods and then present kernel Principal Components Analysis (kPCA). Spectral classification and kernel K-means clustering algortihm. The problems of adjusting kernel parameters and estimating the number of classes are studied. More over samples on synthetic and real data are executed ; results from various presented methods are compared. These clustering approaches are finally applied for the assistance to the detection of audio events in public transport
APA, Harvard, Vancouver, ISO, and other styles
28

Lachaud, Antoine. "Discrimination robuste par méthode à noyaux." Thesis, Rouen, INSA, 2015. http://www.theses.fr/2015ISAM0015/document.

Full text
Abstract:
La thèse porte sur l'intégration d éléments explicatifs au sein d'un modèle de classification. Plus précisément la solution proposée se compose de la combinaison entre un algorithme de chemin de régularisation appelé DRSVM et une approche noyau appelée KERNEL BASIS. La première partie de la thèse consiste en l'amélioration d'un algorithme appelé DRSVM à partir d'une reformulation du chemin via la théorie de la sous-différentielle. La seconde partie décrit l'extension de l'algorithme DRSVM au cadre KERNEL BASIS via une approche dictionnaire. Enfin une série d'expérimentation sont réalisées afin de valider l'aspect interprétable du modèle
This thesis aims at finding classification rnodeIs which include explanatory elements. More specifically the proposed solution consists in merging a regularization path algorithm called DRSVM with a kernel approach called KERNEL BASIS. The first part of the thesis focuses on improving an algorithm called DRSVM from a reformulation of the thanks to the suh-differential theory. The second part of the thesis describes the extension of DRSVM afgorithm under a KERNEL BASIS framework via a dictionary approach. Finally, a series of experiments are conducted in order to validate the interpretable aspect of the rnodel
APA, Harvard, Vancouver, ISO, and other styles
29

Brouard, Céline. "Inférence de réseaux d'interaction protéine-protéine par apprentissage statistique." Phd thesis, Université d'Evry-Val d'Essonne, 2013. http://tel.archives-ouvertes.fr/tel-00845692.

Full text
Abstract:
L'objectif de cette thèse est de développer des outils de prédiction d'interactions entre protéines qui puissent être appliqués en particulier chez l'homme, sur les protéines qui constituent un réseau avec la protéine CFTR. Cette protéine, lorsqu'elle est défectueuse, est impliquée dans la mucoviscidose. Le développement de méthodes de prédiction in silico peut s'avérer utile pour suggérer aux biologistes de nouvelles cibles d'interaction et pour mieux expliquer les fonctions des protéines présentes dans ce réseau. Nous proposons une nouvelle méthode pour le problème de la prédiction de liens dans un réseau. Afin de bénéficier de l'information des données non étiquetées, nous nous plaçons dans le cadre de l'apprentissage semi-supervisé. Nous abordons ce problème de prédiction comme une tâche d'apprentissage d'un noyau de sortie, appelée régression à noyau de sortie. Un noyau de sortie est supposé coder les proximités existantes entre les noeuds du graphe et l'objectif est d'approcher ce noyau à partir de descriptions appropriées en entrée. L'utilisation de l'astuce du noyau dans l'ensemble de sortie permet de réduire le problème d'apprentissage à partir de paires à un problème d'apprentissage d'une fonction d'une seule variable à valeurs dans un espace de Hilbert. En choisissant les fonctions candidates pour la régression dans un espace de Hilbert à noyau reproduisant à valeur opérateur, nous développons, comme dans le cas de fonctions à valeurs scalaires, des outils de régularisation. Nous établissons en particulier des théorèmes de représentation dans le cas supervisé et dans le cas semi-supervisé, que nous utilisons ensuite pour définir de nouveaux modèles de régression pour différentes fonctions de coût, appelés IOKR-ridge et IOKR-margin. Nous avons d'abord testé l'approche développée sur des données artificielles, des problèmes test ainsi que sur un réseau d'interaction protéine-protéine chez la levure S. Cerevisiae et obtenu de très bons résultats. Puis nous l'avons appliquée à la prédiction d'interactions entre protéines dans le cas d'un réseau construit autour de la protéine CFTR.
APA, Harvard, Vancouver, ISO, and other styles
30

Sebti, Nadia. "Noyaux rationnels et automates d'arbres." Rouen, 2015. http://www.theses.fr/2015ROUES007.

Full text
Abstract:
Dans le cas des mots, un schéma général de calcul des noyaux rationnels a été proposé. Il repose sur un algorithme général de composition des transducteurs pondérés et un algorithme général de calcul de plus petite distances. Notre objectif est de généraliser ce schéma de calcul aux cas des arbres en utilisant les automates d’arbres. Pour ce faire, nous avons fixé les deux objectifs principaux suivants : D’une part, définir les automates d’arbres pour le calcul des noyaux des sousarbres, des sous-séquences d’arbres et des facteurs d’arbres. D’autre part, à partir d’une expression rationnelle d’arbres, construire un automate d’arbres pour le calcul des différents noyaux rationnels décrits par des expressions rationnelles d’arbres en utilisant le schéma suivant sur deux langages d’arbres L1 et L2 : KE (L1;L2) = (AL1 \ AE \ AL2). Nous avons exploré et proposé des algorithmes efficaces pour la conversion d’une expression rationnelle d’arbres en automates d’arbres. Le premier algorithme calcule, à partir d’une expression rationnelle d’arbres E de taille jEj et de largeur alphabétique jjEjj, les ensembles Follow en temps O(jjEjj jEj). Le second algorithme calcule l’automate d’arbres des équations via les k-C-Continuations qui est basé sur la minimisation acyclique de Revuz. Cet algorithme calcule l’automate des équations avec une complexité e temps et en espace en O(jQj jEj) où jQj est le nombre d’états de l’automate produit. Ensuite, nous avons conçu des algorithmes pour le calcul des noyaux des sous-arbres, des sous-séquences d’arbres et des facteurs d’arbres. Notre Approche est basée sur la représentation de l’ensemble d’arbres S = fs1; : : : ; sng (resp. T = ft1; : : : ; tmg) par un automate d’arbres pondéré particulier baptisé Root Automate d’Arbres Pondéré, le RAAP AS (resp. AT ) (équivalent à l’automate des préfixes dans le cas des mots) tel que jASj Pn P i=1 jsij = jSj (resp. JAT j # m j=1 jtj j = jTj) ; puis de calculer les noyaux entre les deux ensembles S et T. Ceci revient au calcul du poids de l’automate intersection AS \ AT. Nous montrons que le calcul du noyau K(S; T) peut se faire en temps et en espace O(jASj jAT j)
In the case of words, a general scheme for computing rational kernels has been proposed. It is based on a general algorithm for composition of weighted transducers and a general algorithm computing smallest distance. Our goal is to generalize this computation scheme to the case of trees using tree automata. To do this we have established the following two main objectives : On the one hand,define tree automata for computing subtree kernel, subsettree kernel and tree factor kernel. On the other hand, from a regular tree expression, build a tree automaton to compute the various rational tree kernels described by regular tree expressions using the following scheme over two tree languages L1 and L2 : KE(L1;L2) = (AL1 \ AE \ AL1). We explored and proposed efficient algorithms for the conversion of a regular tree expression into tree automata. The first algorithm computes the Follow sets for a regular tree expression E of a size jEj and alphabetic width jjEjj in O(jjEjj jEj) time complexity. The second algorithm computes the equation tree automaton via the k-C-Continuations which is based on the acyclic minimization of Revuz. The algorithm is performed in an O(jQj jEj) time and space complexity, where jQj is the number of states of the produced automaton. Then we developed algorithms for the computation of subtree kernel, subsettree kernel and tree factor kernel. Our approach is based on the representation of all trees of the set S = fs1; : : : ; sng (resp. T = ft1; : : : ; tmg) by a particular weighted tree automaton called Root Weighted Tree Automaton the RWTA AS (resp. AT ) (equivalent to the prefix automaton in the case of words) such that jASj #Pn i=1 jsij = jSj (resp. JAT #Pm j=1 jtj j = jTj) ; then we compute the kernels between the two sets S and T. This amounts to compute the weight of the intersection automaton AS \ AT. We show that the computation of the kernel K(S; T) can be done in O(jASj jAT j) time and space complexity. Keywords: Finite Tree Automata, Rationnal Tree Languages, Regular Tree Expressions, Conversion of Regular Tree Expressions, Rational Kernels, Trees, Rational Tree Kernels
APA, Harvard, Vancouver, ISO, and other styles
31

Alquier, Pierre. "Transductive and inductive adaptative inference for regression and density estimation." Paris 6, 2006. http://www.theses.fr/2006PA066436.

Full text
Abstract:
Inférence Adaptative, Inductive et Transductive, pour l'Estimation de la Régression et de la Densité (Pierre Alquier) Cette thèse a pour objet l'étude des propriétés statistiques de certains algorithmes d'apprentissage dans le cas de l'estimation de la régression et de la densité. Elle est divisée en trois parties. La première partie consiste en une généralisation des théorèmes PAC-Bayésiens, sur la classification, d'Olivier Catoni, au cas de la régression avec une fonction de perte générale. Dans la seconde partie, on étudie plus particulièrement le cas de la régression aux moindres carrés et on propose un nouvel algorithme de sélection de variables. Cette méthode peut être appliquée notamment au cas d'une base de fonctions orthonormales, et conduit alors à des vitesses de convergence optimales, mais aussi au cas de fonctions de type noyau, elle conduit alors à une variante des méthodes dites "machines à vecteurs supports" (SVM). La troisième partie étend les résultats de la seconde au cas de l'estimation de densité avec perte quadratique.
APA, Harvard, Vancouver, ISO, and other styles
32

Saide, Chafic. "Filtrage adaptatif à l’aide de méthodes à noyau : application au contrôle d’un palier magnétique actif." Thesis, Troyes, 2013. http://www.theses.fr/2013TROY0018/document.

Full text
Abstract:
L’estimation fonctionnelle basée sur les espaces de Hilbert à noyau reproduisant demeure un sujet de recherche actif pour l’identification des systèmes non linéaires. L'ordre du modèle croit avec le nombre de couples entrée-sortie, ce qui rend cette méthode inadéquate pour une identification en ligne. Le critère de cohérence est une méthode de parcimonie pour contrôler l’ordre du modèle. Le modèle est donc défini à partir d'un dictionnaire de faible taille qui est formé par les fonctions noyau les plus pertinentes.Une fonction noyau introduite dans le dictionnaire y demeure même si la non-stationnarité du système rend sa contribution faible dans l'estimation de la sortie courante. Il apparaît alors opportun d'adapter les éléments du dictionnaire pour réduire l'erreur quadratique instantanée et/ou mieux contrôler l'ordre du modèle.La première partie traite le sujet des algorithmes adaptatifs utilisant le critère de cohérence. L'adaptation des éléments du dictionnaire en utilisant une méthode de gradient stochastique est abordée pour deux familles de fonctions noyau. Cette partie a un autre objectif qui est la dérivation des algorithmes adaptatifs utilisant le critère de cohérence pour identifier des modèles à sorties multiples.La deuxième partie introduit d'une manière abrégée le palier magnétique actif (PMA). La proposition de contrôler un PMA par un algorithme adaptatif à noyau est présentée pour remplacer une méthode utilisant les réseaux de neurones à couches multiples
Function approximation methods based on reproducing kernel Hilbert spaces are of great importance in kernel-based regression. However, the order of the model is equal to the number of observations, which makes this method inappropriate for online identification. To overcome this drawback, many sparsification methods have been proposed to control the order of the model. The coherence criterion is one of these sparsification methods. It has been shown possible to select a subset of the most relevant passed input vectors to form a dictionary to identify the model.A kernel function, once introduced into the dictionary, remains unchanged even if the non-stationarity of the system makes it less influent in estimating the output of the model. This observation leads to the idea of adapting the elements of the dictionary to obtain an improved one with an objective to minimize the resulting instantaneous mean square error and/or to control the order of the model.The first part deals with adaptive algorithms using the coherence criterion. The adaptation of the elements of the dictionary using a stochastic gradient method is presented for two types of kernel functions. Another topic is covered in this part which is the implementation of adaptive algorithms using the coherence criterion to identify Multiple-Outputs models.The second part introduces briefly the active magnetic bearing (AMB). A proposed method to control an AMB by an adaptive algorithm using kernel methods is presented to replace an existing method using neural networks
APA, Harvard, Vancouver, ISO, and other styles
33

Boughorbel, Sabri. "Noyaux pour la classification d'images par les machines à vecteurs de support." Paris 11, 2005. http://www.theses.fr/2005PA112159.

Full text
Abstract:
Les méthodes d'apprentissage statistique sont de plus en plus utiles pour la conception de la nouvelle génération de systèmes de vision par ordinateur. En l'occurrence, les Machines à Supports de Vecteur (SVMs) ont eu a un grand essor ces dernières années. Nous nous sommes intéressés d'abord par la conception de noyaux pour la SVM pour différentes représentations d'images. Pour les représentations globales d'images nous proposons une extension du noyau d'intersection d'histogrammes en simplifiant ses conditions de défini positivité. Nous proposons aussi un noyau à support compact (noyau GCS) basé sur une construction géométrique permettant de réduire la mémoire de stockage ainsi que le temps de calcul de l'apprentissage de la SVM. Pour les représentations locales d'images nous proposons un noyau basé sur une nouvelle approche d'appariement intermédiaire qui met en jeux un ensemble d'appariement défini a priori permettant de trouver les bonnes correspondances entre les deux ensembles de descripteurs locaux à comparer. Nous nous sommes ensuite intéressés à l'estimation de l'erreur de généralisation. Nous proposons une approximation analytique du leave-two-out basé sur l'approche de champ moyen. L'approximation proposée peut être calculée de façon efficace ne nécessitant qu'une seule inversion de matrice. Nous nous sommes penchés ensuite sur le problème d'optimisation des paramètres des noyaux. Nous proposons une nouvelle approche (LCCP) basée sur la méthode CCCP. L'approche proposée permet de minimiser la borne rayon-marge avec une descente monotone sans recherche de pas du gradient pour chaque itération
Kernel methods are providing a ``plug and play'' approach to algorithm design. For instance, Support Vector Machines (SVMs) has been successfully applied to many tasks through simply substituting appropriate kernels. We design several kernels for different kinds of image representations. For global image representations, we propose a general form of the Histogram Intersection kernel by relaxing conditions of its positive definiteness. We propose also a compactly supported kernel (GCS kernel) based on a geometric approach. The compactness property enhances the computation of the SVM training using sparse linear algebra algorithms. For local representations, images are described by local image features such as local jets computed on interest points. We propose is the intermediate matching kernel which defines an alignement between the two sets of local features using a matching set. The latter is learned using local features from all training images. A crucial step after designing kernels is to carefully choose hyperparameters. In this research, we addressed also tuning kernel parameters. First we have been interested by generalization error estimation. We introduce a new estimator for the leave-two-out using the mean-field approach. We prove that the proposed estimator is statistically more robust than the leave-one-out ones. We propose also an optimization scheme (LCCP), based on the concave convex procedure, for tuning kernel parameters. The LCCP is more efficient than gradient descent technique since it insures that the optimization criterion decreases monotonically and converges to a local minimum without searching the size step
APA, Harvard, Vancouver, ISO, and other styles
34

El, Dakdouki Aya. "Machine à vecteurs de support hyperbolique et ingénierie du noyau." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I046/document.

Full text
Abstract:
La théorie statistique de l’apprentissage est un domaine de la statistique inférentielle dont les fondements ont été posés par Vapnik à la fin des années 60. Il est considéré comme un sous-domaine de l’intelligence artificielle. Dans l’apprentissage automatique, les machines à vecteurs de support (SVM) sont un ensemble de techniques d’apprentissage supervisé destinées à résoudre des problèmes de discrimination et de régression. Dans cette thèse, notre objectif est de proposer deux nouveaux problèmes d’aprentissagestatistique: Un portant sur la conception et l’évaluation d’une extension des SVM multiclasses et un autre sur la conception d’un nouveau noyau pour les machines à vecteurs de support. Dans un premier temps, nous avons introduit une nouvelle machine à noyau pour la reconnaissance de modèle multi-classe: la machine à vecteur de support hyperbolique. Géometriquement, il est caractérisé par le fait que ses surfaces de décision dans l’espace de redescription sont définies par des fonctions hyperboliques. Nous avons ensuite établi ses principales propriétés statistiques. Parmi ces propriétés nous avons montré que les classes de fonctions composantes sont des classes de Glivenko-Cantelli uniforme, ceci en établissant un majorant de la complexité de Rademacher. Enfin, nous établissons un risque garanti pour notre classifieur.Dans un second temps, nous avons créer un nouveau noyau s’appuyant sur la transformation de Fourier d’un modèle de mélange gaussien. Nous procédons de la manière suivante: d’abord, chaque classe est fragmentée en un nombre de sous-classes pertinentes, ensuite on considère les directions données par les vecteurs obtenus en prenant toutes les paires de centres de sous-classes d’une même classe. Parmi celles-ci, sont exclues celles permettant de connecter deux sous-classes de deux classes différentes. On peut aussi voir cela comme la recherche d’invariance par translation dans chaque classe. Nous l’avons appliqué avec succès sur plusieurs jeux de données dans le contexte d’un apprentissage automatique utilisant des machines à vecteurs support multi-classes
Statistical learning theory is a field of inferential statistics whose foundations were laid by Vapnik at the end of the 1960s. It is considered a subdomain of artificial intelligence. In machine learning, support vector machines (SVM) are supervised learning models with associated learning algorithms that analyze data used for classification and regression analysis. In this thesis, our aim is to propose two new statistical learning problems : one on the conception and evaluation of a multi-class SVM extension and another on the design of a new kernel for support vectors machines. First, we introduced a new kernel machine for multi-class pattern recognition : the hyperbolic support vector machine. Geometrically, it is characterized by the fact that its decision boundaries in the feature space are defined by hyperbolic functions. We then established its main statistical properties. Among these properties we showed that the classes of component functions are uniform Glivenko-Cantelli, this by establishing an upper bound of the Rademacher complexity. Finally, we establish a guaranteed risk for our classifier. Second, we constructed a new kernel based on the Fourier transform of a Gaussian mixture model. We proceed in the following way: first, each class is fragmented into a number of relevant subclasses, then we consider the directions given by the vectors obtained by taking all pairs of subclass centers of the same class. Among these are excluded those allowing to connect two subclasses of two different classes. We can also see this as the search for translation invariance in each class. It successfully on several datasets in the context of machine learning using multiclass support vector machines
APA, Harvard, Vancouver, ISO, and other styles
35

Mahé, Pierre. "Fonctions noyaux pour molécules et leur application au criblage virtuel par machines à vecteurs de support." Phd thesis, École Nationale Supérieure des Mines de Paris, 2006. http://pastel.archives-ouvertes.fr/pastel-00002191.

Full text
Abstract:
La recherche thérapeutique a de plus en plus recours à des techniques de modélisation, dites de criblage virtuel, visant à corréler la structure d'une molécule avec ses propriétés biologiques. En particulier, l'utilisation de modèles prédictifs quantifiant la toxicité d'une molécule ou son activité vis à vis d'une cible thérapeutique, permet de réduire de manière considérable le temps et les coûts nécessaires à la mise au point de nouveaux médicaments. Nous nous proposons d'aborder ce problème dans le cadre des méthodes à noyaux, qui permettent de construire de tels modèles de manière efficace dès lors que l'on dispose d'une fonction noyau mesurant la similarité des objets que l'on considère. Plus particulièrement, l'objet de cette thèse est de définir de telles fonctions noyaux entre structures bi- et tri-dimensionnelles de molécules. D'un point de vue méthodologique, ce problème se traduit respectivement comme celui de comparer des graphes représentant les liaisons covalentes des molécules, ou des ensembles d'atomes dans l'espace. Plusieurs approches sont envisagées sur la base de l'extraction et la comparaison de divers motifs structuraux qui permettent d'encoder les groupes fonctionnels des molécules à différents niveaux de résolution. Les validations expérimentales suggèrent que cette méthodologie est une alternative prometteuse aux approches classiques en criblage virtuel.
APA, Harvard, Vancouver, ISO, and other styles
36

SANTINI, DOMINIQUE. "Realisation du noyau logiciel d'une machine bases de donnees a hautes performances." Paris 6, 1992. http://www.theses.fr/1992PA066605.

Full text
Abstract:
Dans cette these, nous presentons le noyau logiciel d'une machine base de donnees a hautes performances, mettant en uvre un accelerateur associatif. Cette machine peut etre interfacee sous l'optimiseur d'un sgbd relationnel, et permet d'effectuer les operations de l'algebre relationnelle etendue. Elle est destinee a operer dans un environnement oriente grande memoire et dans une architecture de type client/serveur. Le noyau logiciel a une grande importance du point de vue des performances puisqu'il doit garantir un taux d'utilisation maximum de l'accelerateur. Il utilise les services d'un gerant d'objets. Il est caracterise, tout d'abord, par l'implantation d'un mecanisme de multithreading permettant d'effectuer du pseudo-parallelisme entre les transactions, l'accelerateur etant une ressource physique non partageable entre les transactions. Le noyau logiciel comporte egalement des algorithmes specifiques comme ceux du tri et des agregats qui sont bases sur le hachage. Celui-ci est recursif et permet une traversee rapide de l'index de hachage. Des techniques d'optimisation du code telles que la remontee des tests par creation de variantes de fonctions sont utilisees dans l'implementation des algorithmes. Une etude de performances, basee sur le benchmark du wisconsin, confirme l'efficacite des methodes utilisees par le noyau logiciel. Toutefois, les performances du gerant d'objets sont critiques, et d'autre part, une augmentation de la taille de l'accelerateur permettrait une amelioration consequente des performances globales de la machine
APA, Harvard, Vancouver, ISO, and other styles
37

Ramona, Mathieu. "Classification automatique de flux radiophoniques par Machines à Vecteurs de Support." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00529331.

Full text
Abstract:
Nous présentons ici un système de classification audio parole/musique tirant parti des excellentes propriétés statistiques des Machines à Vecteurs de Support. Ce problème pose les trois questions suivantes : comment exploiter efficacement les SVM, méthode d'essence discriminatoire, sur un problème à plus de deux classes, comment caractériser un signal audio de manière pertinente, et enfin comment traiter l'aspect temporel du problème ? Nous proposons un système hybride de classification multi-classes tirant parti des approches un-contre-un et par dendogramme, et permettant l'estimation de probabilités a posteriori. Ces dernières sont exploitées pour l'application de méthodes de post-traitement prenant en compte les interdépendances entre trames voisines. Nous proposons ainsi une méthode de classification par l'application de Modèles de Markov Cachés (HMM) sur les probabilités a posteriori, ainsi qu'une approche basée sur la détection de rupture entre segments au contenu acoustique "homogène". Par ailleurs, la caractérisation du signal audio étant opérée par une grande collection des descripteurs audio, nous proposons de nouveaux algorithmes de sélection de descripteurs basés sur le récent critère d'Alignement du noyau ; critère que nous avons également exploité pour la sélection de noyau dans le processus de classification. Les algorithmes proposés sont comparés aux méthodes les plus efficaces de l'état de l'art auxquelles elles constituent une alternative pertinente en termes de coût de calcul et de stockage. Le système construit sur ces contributions a fait l'objet d'une participation à la campagne d'évaluation ESTER 2, que nous présentons, accompagnée de nos résultats.
APA, Harvard, Vancouver, ISO, and other styles
38

Ramona, Mathieu. "Classification automatique de flux radiophoniques par machines à vecteurs de support." Phd thesis, Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00529331.

Full text
Abstract:
Nous présentons ici un système de classification audio parole/musique tirant parti des excellentes propriétés statistiques des Machines à Vecteurs de Support. Ce problème pose les trois questions suivantes : comment exploiter efficacement les SVM, méthode d'essence discriminatoire, sur un problème à plus de deux classes, comment caractériser un signal audio de manière pertinente, et enfin comment traiter l'aspect temporel du problème ? Nous proposons un système hybride de classification multi-classes tirant parti des approches un-contre-un et par dendogramme, et permettant l'estimation de probabilités a posteriori. Ces dernières sont exploitées pour l'application de méthodes de post-traitement prenant en compte les interdépendances entre trames voisines. Nous proposons ainsi une méthode de classification par l'application de Modèles de Markov Cachés (HMM) sur les probabilités a posteriori, ainsi qu'une approche basée sur la détection de rupture entre segments au contenu acoustique "homogène". Par ailleurs, la caractérisation du signal audio étant opérée par une grande collection des descripteurs audio, nous proposons de nouveaux algorithmes de sélection de descripteurs basés sur le récent critère d'Alignement du noyau ; critère que nous avons également exploité pour la sélection de noyau dans le processus de classification. Les algorithmes proposés sont comparés aux méthodes les plus efficaces de l'état de l'art auxquelles elles constituent une alternative pertinente en termes de coût de calcul et de stockage. Le système construit sur ces contributions a fait l'objet d'une participation à la campagne d'évaluation ESTER 2, que nous présentons, accompagnée de nos résultats
We present here a system for speech/music audio classification, that relies on the excellent statistical properties of Support Vector Machines. This problems raises three questions : how can the SVM, by essence discriminative, be used effeciently on a problem involving more than two classes, how can an audio signal be characterized in a relevant way, and how can the temporel issue be adressed ? We propose a hybrid system for multi-class classification, based on a combination of One-vs-One and dendogram-based approaches, and allowing the estimation of posterior probabilities. The latter are used for the application of post-processing methods that take into account the neighboring frames' inter-dependancies. We thus propose a classification scheme based on the application of Hidden Markov Models on the posterior probabilities, along with an approach based on change detection between segments with "homogeneous" acoustic content. Concerning the audio signal characterization, since it involves a great amount of audio descriptors, we propose new algorithms for feature selection, based on the recent Kernel Alignement criterion. This criterion is also used for the kernel selection step in the classification process. The proposed algorithms are compared to the state-of-the-art, and constitute a relevant alternative in terms of computational cost and storage. The system built from these contributions has been used for a participation to the ESTER 2 evaluation campaign, that we present, along with our results
APA, Harvard, Vancouver, ISO, and other styles
39

Mahe, Pierre. "Fonctions noyaux pour molécules et leur application au criblage virtuel par machines à vecteurs de support." Paris, ENMP, 2006. http://www.theses.fr/2006ENMP1381.

Full text
Abstract:
La recherche thérapeutique a de plus en plus recours à des techniques de modélisation, dites de criblage virtuel, visant à corréler la structure d'une molécule avec ses propriétés biologiques. En particulier, l'utilisation de modèles prédictifs quantifiant la toxicité d'une molécule ou son activité vis à vis d'une cible thérapeutique, permet de réduire de manière considérable le temps et les coûts nécessaires à la mise au point de nouveaux médicaments. Nous nous proposons d'aborder ce problème dans le cadre des méthodes à noyaux, qui permettent de construire de tels modèles de manière efficace dès lors que l'on dispose d'une fonction noyau mesurant la similarité des objets que l'on considère. Plus particulièrement, l'objet de cette thèse est de définir de telles fonctions noyaux entre structures bi- et tri-dimensionnelles de molécules. D'un point de vue méthodologique, ce problème se traduit respectivement comme celui de comparer des graphes représentant les liaisons covalentes des molécules, ou des ensembles d'atomes dans l'espace. Plusieurs approches sont envisagées sur la base de l'extraction et la comparaison de divers motifs structuraux qui permettent d'encoder les groupes fonctionnels des molécules à différents niveaux de résolution. Les validations expérimentales suggèrent que cette méthodologie est une alternative prometteuse aux approches classiques en criblage virtuel.
APA, Harvard, Vancouver, ISO, and other styles
40

Menneteau, François. "ParObj : un noyau de système parallèle à objets." Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00005135.

Full text
Abstract:
Le travail presente dans cette these consiste a definir les fonctionnalites d'une machine virtuelle ParObj, supportant la notion d'objets concurrents et adaptee aux exigences du parallelisme massifs. Cette these s'inscrit dans le cadre du projet PARX de l'equipe "SYstemes Massivement PAralleles" du LGI qui vise a specifier et a realiser un systeme d'exploitation pour machines paralleles. A travers l'analyse de quelques Systemes Distribues a Objets connus, nous degageons les mecanismes de base que doit supporter ParObj. Nous avons arrete notre etude sur les aspects suivants : structures des entites, gestion des entites, gestion des interactions entre entites, et gestion des ressources. Dans notre approche, nous offrons dans ParObj un support parallele pour des objets passifs et actifs qui peuvent etre a la fois a gros grains (fichier, processus, etc. ), et a grains intermediaires (liste chainee, thread, etc. ). Pour une gestion encore plus fine du parallelisme, nous supportons aussi la notion d'objet fragmente. Un objet fragmente est un objet qui est decoupe en plusieurs sous-objets independants (fragments de l'objet) de taille quelconque, et qui peuvent etre accedes individuellement, de maniere concurrente. En revanche, nous avons decide de laisser aux compilateurs le soin de gerer les objets a grains fins. De plus, pour eliminer les conflits d'acces aux donnees, nous offrons un mecanisme de synchronisation des objets. L'architecture generale de ParObj est basee sur le modele original a trois niveaux de processus de PARX : le thread (qui est un flot de controle sequentiel a l'interieur d'une tache), la tache (qui est un contexte d'execution), et la Ptache (qui represente un programme parallele a l'execution). Une Ptache definit un domaine de communication et de protection, et assure la correction semantique du programme parallele (synchronisation des taches, controle des protocoles d'echanges, etc. ). Au sein d'une Ptache, la protection des objets est assuree grace a des capacites. La localisation d'une entite (qui depend de sa visibilite et de sa reference) est realise grace a un mecanisme original de designation. Les experimentations que nous avons realisees montrent que ce mecanisme est parfaitement adapte a la gestion du parallelisme massif.
APA, Harvard, Vancouver, ISO, and other styles
41

Zwald, Laurent. "PERFORMANCES STATISTIQUES D'ALGORITHMES D'APPRENTISSAGE : ``KERNEL PROJECTION MACHINE'' ET ANALYSE EN COMPOSANTES PRINCIPALES A NOYAU." Phd thesis, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00012011.

Full text
Abstract:
La thèse se place dans le cadre de l'apprentissage statistique. Elle apporte
des contributions à la communauté du machine learning en utilisant des
techniques de statistiques modernes basées sur des avancées dans l'étude
des processus empiriques. Dans une première partie, les propriétés statistiques de
l'analyse en composantes principales à noyau (KPCA) sont explorées. Le
comportement de l'erreur de reconstruction est étudié avec un point de vue
non-asymptotique et des inégalités de concentration des valeurs propres de la matrice de
Gram sont données. Tous ces résultats impliquent des vitesses de
convergence rapides. Des propriétés
non-asymptotiques concernant les espaces propres de la KPCA eux-mêmes sont également
proposées. Dans une deuxième partie, un nouvel
algorithme de classification a été
conçu : la Kernel Projection Machine (KPM).
Tout en s'inspirant des Support Vector Machines (SVM), il met en lumière que la sélection d'un espace vectoriel par une méthode de
réduction de la dimension telle que la KPCA régularise
convenablement. Le choix de l'espace vectoriel utilisé par la KPM est guidé par des études statistiques de sélection de modéle par minimisation pénalisée de la perte empirique. Ce
principe de régularisation est étroitement relié à la projection fini-dimensionnelle étudiée dans les travaux statistiques de
Birgé et Massart. Les performances de la KPM et de la SVM sont ensuite comparées sur différents jeux de données. Chaque thème abordé dans cette thèse soulève de nouvelles questions d'ordre théorique et pratique.
APA, Harvard, Vancouver, ISO, and other styles
42

Zwald, Laurent. "Performances statistiques d'algorithmes d'apprentissage : "Kernel projection machine" et analyse en composantes principales à noyau." Paris 11, 2005. https://tel.archives-ouvertes.fr/tel-00012011.

Full text
Abstract:
La thèse se place dans le cadre de l'apprentissage statistique. Elle apporte des contributions à la communauté du machine learning en utilisant des techniques de statistiques modernes basées sur des avancées dans l'étude des processus empiriques. Dans une première partie, les propriétés statistiques de l'analyse en composantes principales a noyau (KPCA) sont explorées. Le comportement de l'erreur de reconstruction est étudie avec un point de vue non-asymptotique et des inégalités de concentration des valeurs propres de la matrice de Gram sont données. Tous ces résultats impliquent des vitesses de convergence rapides. Des propriétés non-asymptotiques concernant les espaces propres de la KPCA eux-mêmes sont également proposées. Dans une deuxième partie, un nouvel algorithme de classification a été conçu : la Kernel Projection Machine (KPM). Tout en s'inspirant des Support Vector Machines (SVM), il met en lumière que la sélection d'un espace vectoriel par une méthode de réduction de la dimension telle que la KPCA régularise convenablement. Le choix de l'espace vectoriel utilise par la KPM est guide par des études statistiques de sélection de modèle par minimisation pénalisée de la perte empirique. Ce principe de régularisation est étroitement relie a la projection fini-dimensionnelle étudiée dans les travaux statistiques de Birge et Massart. Les performances de la KPM et de la SVM sont ensuite comparées sur différents jeux de données. Chaque thème aborde dans cette thèse soulevé de nouvelles questions d'ordre théorique et pratique
This thesis takes place within the framework of statistical learning. It brings contributions to the machine learning community using modern statistical techniques based on progress in the study of empirical processes. The first part investigates the statistical properties of Kernel Principal Component Analysis (KPCA). The behavior of the reconstruction error is studied with a non-asymptotique point of view and concentration inequalities of the eigenvalues of the kernel matrix are provided. All these results correspond to fast convergence rates. Non-asymptotic results concerning the eigenspaces of KPCA themselves are also provided. A new algorithm of classification has been designed in the second part: the Kernel Projection Machine (KPM). It is inspired by the Support Vector Machines (SVM). Besides, it highlights that the selection of a vector space by a dimensionality reduction method such as KPCA regularizes suitably. The choice of the vector space involved in the KPM is guided by statistical studies of model selection using the penalized minimization of the empirical loss. This regularization procedure is intimately connected with the finite dimensional projections studied in the statistical work of Birge and Massart. The performances of KPM and SVM are then compared on some data sets. Each topic tackled in this thesis raises new questions
APA, Harvard, Vancouver, ISO, and other styles
43

Villain, Jonathan. "Estimation de l'écotoxicité de substances chimiques par des méthodes à noyaux." Thesis, Lorient, 2016. http://www.theses.fr/2016LORIS404/document.

Full text
Abstract:
Dans le domaine de la chimie et plus particulièrement en chimio-informatique, les modèles QSAR (pour Quantitative Structure Activity Relationship) sont de plus en plus étudiés. Ils permettent d’avoir une estimation in silico des propriétés des composés chimiques notamment des propriétés éco toxicologiques. Ces modèles ne sont théoriquement valables que pour une classe de composés (domaine de validité) et sont sensibles à la présence de valeurs atypiques. La thèse s’est focalisée sur la construction de modèles globaux robustes (intégrant un maximum de composés) permettant de prédire l’écotoxicité des composés chimiques sur une algue P. Subcapitata et de déterminer un domaine de validité dans le but de déduire la capacité de prédiction d’un modèle pour une molécule. Ces modèles statistiques robustes sont basés sur une approche quantile en régression linéaire et en régression Support Vector Machine
In chemistry and more particularly in chemoinformatics, QSAR models (Quantitative Structure Activity Relationship) are increasingly studied. They provide an in silico estimation of the properties of chemical compounds including ecotoxicological properties. These models are theoretically valid only for a class of compounds (validity domain) and are sensitive to the presence of outliers. This PhD thesis is focused on the construction of robust global models (including a maximum of compounds) to predict ecotoxicity of chemical compounds on algae P. subcapitata and to determine a validity domain in order to deduce the capacity of a model to predict the toxicity of a compound. These robust statistical models are based on quantile approach in linear regression and regression Support Vector Machine
APA, Harvard, Vancouver, ISO, and other styles
44

Le, Van Luong. "Identification de systèmes dynamiques hybrides : géométrie, parcimonie et non-linéarités." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00874283.

Full text
Abstract:
En automatique, l'obtention d'un modèle du système est la pierre angulaire des procédures comme la synthèse d'une commande, la détection des défaillances, la prédiction... Cette thèse traite de l'identification d'une classe de systèmes complexes, les systèmes dynamiques hybrides. Ces systèmes impliquent l'interaction de comportements continus et discrets. Le but est de construire un modèle à partir de mesures expérimentales d'entrée et de sortie. Une nouvelle approche pour l'identification de systèmes hybrides linéaires basée sur les propriétés géométriques des systèmes hybrides dans l'espace des paramètres est proposée. Un nouvel algorithme est ensuite proposé pour le calcul de la solution la plus parcimonieuse (ou creuse) de systèmes d'équations linéaires sous-déterminés. Celui-ci permet d'améliorer une approche d'identification basée sur l'optimisation de la parcimonie du vecteur d'erreur. De plus, de nouvelles approches, basées sur des modèles à noyaux, sont proposées pour l'identification de systèmes hybrides non linéaires et de systèmes lisses par morceaux.
APA, Harvard, Vancouver, ISO, and other styles
45

Yger, Florian. "Discrimination de signaux : contributions aux approches par noyaux et par projection." Rouen, 2013. http://www.theses.fr/2013ROUES016.

Full text
Abstract:
Les travaux de cette thèse s’inscrivent dans le cadre de la discrimination de signaux. Notre approche consiste à adapter la représentation des signaux pour en faciliter la classification. Pour cela, nous proposons d’utiliser des méthodes d’apprentissage à noyaux multiples (MKL) ainsi que des notions de géométrie différentielle. Dans notre première contribution, après avoir construit des noyaux à partir de différentes décompositions en ondelettes des signaux, nous montrons comment transformer un problème de représentation discriminante en problème d’apprentissage à noyaux multiples. La famille de noyaux ainsi générée étant de très grande taille, nous proposons une stratégie d’optimisation par contraintes actives pour résoudre efficacement ce problème. Notre deuxième contribution porte sur l’étude de noyaux de matrices de covariance pour la répresentation de signaux. Après avoir tiré partie de la nature riemanienne de l’espace des matrices de covariance dans l’étude de ces noyaux, nous proposons de les utiliser au sein d’un algorithme d’apprentissage à noyaux multiples. Cette approche est ensuite appliquée à des données d’interface cerveau-machine et permet de sélectionner automatiquement les bandes de fréquence pertinentes pour filtrer ces signaux. Enfin, notre dernière contribution considère une résolution adaptative de l’analyse canonique des corrélations (CCA). Après avoir reformulé le problème d’optimisation, nous mettons en oeuvre des techniques d’optimisation sur des variétés différentielles pour aboutir à un algorithme efficace en deux étapes. Cet algorithme est ensuite validé sur une tâche de détection de rupture pour des signaux d’interface cerveau-machine.
APA, Harvard, Vancouver, ISO, and other styles
46

Kellner, Jérémie. "Gaussian models and kernel methods." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10177/document.

Full text
Abstract:
Les méthodes à noyaux ont été beaucoup utilisées pour transformer un jeu de données initial en les envoyant dans un espace dit « à noyau » ou RKHS, pour ensuite appliquer une procédure statistique sur les données transformées. En particulier, cette approche a été envisagée dans la littérature pour tenter de rendre un modèle probabiliste donné plus juste dans l'espace à noyaux, qu'il s'agisse de mélanges de gaussiennes pour faire de la classification ou d'une simple gaussienne pour de la détection d'anomalie. Ainsi, cette thèse s'intéresse à la pertinence de tels modèles probabilistes dans ces espaces à noyaux. Dans un premier temps, nous nous concentrons sur une famille de noyaux paramétrée - la famille des noyaux radiaux gaussiens - et étudions d'un point de vue théorique la distribution d'une variable aléatoire projetée vers un RKHS correspondant. Nous établissons que la plupart des marginales d'une telle distribution est asymptotiquement proche d'un « scale-mixture » de gaussiennes - autrement dit une gaussienne avec une variance aléatoire - lorsque le paramètre du noyau tend vers l'infini. Une nouvelle méthode de détection d'anomalie utilisant ce résultat théorique est introduite.Dans un second temps, nous introduisons un test d'adéquation basé sur la Maximum Mean Discrepancy pour tester des modèles gaussiens dans un RKHS. En particulier, notre test utilise une procédure de bootstrap paramétrique rapide qui permet d'éviter de ré-estimer les paramètres de la distribution gaussienne à chaque réplication bootstrap
Kernel methods have been extensively used to transform initial datasets by mapping them into a so-called kernel space or RKHS, before applying some statistical procedure onto transformed data. In particular, this kind of approach has been explored in the literature to try and make some prescribed probabilistic model more accurate in the RKHS, for instance Gaussian mixtures for classification or mere Gaussians for outlier detection. Therefore this thesis studies the relevancy of such models in kernel spaces.In a first time, we focus on a family of parameterized kernels - Gaussian RBF kernels - and study theoretically the distribution of an embedded random variable in a corresponding RKHS. We managed to prove that most marginals of such a distribution converge weakly to a so-called ''scale-mixture'' of Gaussians - basically a Gaussian with a random variance - when the parameter of the kernel tends to infinity. This result is used in practice to device a new method for outlier detection.In a second time, we present a one-sample test for normality in an RKHS based on the Maximum Mean Discrepancy. In particular, our test uses a fast parametric bootstrap procedure which circumvents the need for re-estimating Gaussian parameters for each bootstrap replication
APA, Harvard, Vancouver, ISO, and other styles
47

Gkirtzou, Aikaterini. "Sparsity regularization and graph-based representation in medical imaging." Phd thesis, Ecole Centrale Paris, 2013. http://tel.archives-ouvertes.fr/tel-00960163.

Full text
Abstract:
Medical images have been used to depict the anatomy or function. Their high-dimensionality and their non-linearity nature makes their analysis a challenging problem. In this thesis, we address the medical image analysis from the viewpoint of statistical learning theory. First, we examine regularization methods for analyzing MRI data. In this direction, we introduce a novel regularization method, the k-support regularized Support Vector Machine. This algorithm extends the 1 regularized SVM to a mixed norm of both '1 and '2 norms. We evaluate our algorithm in a neuromuscular disease classification task. Second, we approach the problem of graph representation and comparison for analyzing medical images. Graphs are a technique to represent data with inherited structure. Despite the significant progress in graph kernels, existing graph kernels focus on either unlabeled or discretely labeled graphs, while efficient and expressive representation and comparison of graphs with continuous high-dimensional vector labels, remains an open research problem. We introduce a novel method, the pyramid quantized Weisfeiler-Lehman graph representation to tackle the graph comparison problem for continuous vector labeled graphs. Our algorithm considers statistics of subtree patterns based on the Weisfeiler-Lehman algorithm and uses a pyramid quantization strategy to determine a logarithmic number of discrete labelings. We evaluate our algorithm on two different tasks with real datasets. Overall, as graphs are fundamental mathematical objects and regularization methods are used to control ill-pose problems, both proposed algorithms are potentially applicable to a wide range of domains.
APA, Harvard, Vancouver, ISO, and other styles
48

Mialon, Grégoire. "On inductive biases for machine learning in data constrained settings." Electronic Thesis or Diss., Université Paris sciences et lettres, 2022. http://www.theses.fr/2022UPSLE011.

Full text
Abstract:
Apprendre à partir de données limitées est l’un des plus gros problèmes du deep learning. Les approches courantes et populaires de cette question consistent à entraîner un modèle sur d’énormes quantités de données, étiquetées ou non, avant de réentraîner le modèle sur un ensemble de données d’intérêt, plus petit, appartenant à la même modalité. Intuitivement, cette technique permet au modèle d’apprendre d’abord une représentation générale pour un certain type de données, telles que des images. Moins de données seront ensuite nécessaires pour apprendre une tâche spécifique pour cette modalité particulière. Bien que cette approche appelée « apprentissage par transfert » soit très efficace dans des domaines tels que la vision par ordinateur ou le traitement du langage naturel, elle ne résout pas les problèmes courants du deep learning tels que l’interprétabilité des modèles ou le besoin global en données. Cette thèse explore une réponse différente au problème de l’apprentissage de modèles expressifs dans des contextes où les données sont plus rares. Au lieu de s’appuyer sur de grands ensembles de données pour apprendre les paramètres d’un réseau de neurones, nous remplacerons certains de ces paramètres par des fonctions mathématiques connues reflétant la structure des données. Très souvent, ces fonctions seront puisées dans la riche littérature des méthodes à noyau. En effet, de nombreux noyaux peuvent être interprétés, et/ou permettre un apprentissage avec peu de données. Notre approche s’inscrit dans le cadre des « biais inductifs », qui peuvent être définis comme des hypothèses sur les données disponibles restreignant l’espace des modèles à explorer lors de l’apprentissage. Dans les deux premiers chapitres de la thèse, nous démontrons l’efficacité de cette approche dans le cadre de séquences, telles que des phrases en langage naturel ou des séquences protéiques, et de graphes, tels que des molécules. Nous soulignons également la relation entre notre travail et les progrès récents du deep learning. Le dernier chapitre de cette thèse se concentre sur les modèles d’apprentissage automatique convexes. Ici, plutôt que de proposer de nouveaux modèles, nous nous demandons quelle proportion des échantillons d’un jeu de données est vraiment nécessaire pour apprendre un « bon » modèle. Plus précisément, nous étudions le problème du filtrage sûr des échantillons, c’est-à-dire l’exécution de tests simples afin d’éliminer les échantillons non informatifs d’un ensemble de données avant même d’entraîner un modèle d’apprentissage automatique, sans affecter le modèle optimal. De telles techniques peuvent être utilisées pour compresser des jeux de données ou extraire des échantillons rares
Learning with limited data is one of the biggest problems of deep learning. Current, popular approaches to this issueconsist in training models on huge amounts of data, labelled or not, before re-training the model on a smaller dataset ofinterest from the same modality. Intuitively, this technique allows the model to learn a general representation for somekind of data first, such as images. Then, fewer data should be required to learn a specific task for this particular modality.While this approach coined as "transfer learning" is very effective in domains such as computer vision or natural languageprocessing, it does not solve common problems of deep learning such as model interpretability or the overall need fordata. This thesis explores a different answer to the problem of learning expressive models in data constrained settings.Instead of relying on big datasets to learn the parameters of a neural network, we will replace some of them by knownfunctions reflecting the structure of the data. Very often, these functions will be drawn from the rich literature of kernelmethods. Indeed, many kernels can be interpreted, and/or allow for learning with few data. Our approach falls under thehood of "inductive biases", which can be defined as hypothesis on the data at hand restricting the space of models toexplore during learning. In the first two chapters of the thesis, we demonstrate the effectiveness of this approach in thecontext of sequences, such as sentences in natural language or protein sequences, and graphs, such as molecules. Wealso highlight the relationship between our work and recent advances in deep learning. The last chapter of this thesisfocuses on convex machine learning models. Here, rather than proposing new models, we wonder which proportion ofthe samples in a dataset is really needed to learn a "good" model. More precisely, we study the problem of safe samplescreening, i.e, executing simple tests to discard uninformative samples from a dataset even before fitting a machinelearning model, without affecting the optimal model. Such techniques can be used to compress datasets or mine for raresamples
APA, Harvard, Vancouver, ISO, and other styles
49

Zribi, Abir. "Apprentissage par noyaux multiples : application à la classification automatique des images biomédicales microscopiques." Thesis, Rouen, INSA, 2016. http://www.theses.fr/2016ISAM0001.

Full text
Abstract:
Cette thèse s'inscrit dans le contexte de diagnostic assisté par ordinateur pour la localisation subcellulaire des protéines dans les images microscopiques. L'objectif est la conception et le développement d'un système de classification automatique permettant d'identifier le compartiment cellulaire dans lequel une protéine d'intérêt exerce son activité biologique. Afin de surmonter les difficultés rencontrées pour discerner les compartiments cellulaires présents dans les images microscopiques, les systèmes décrits dans la littérature proposent d'extraire plusieurs descripteurs associés à une combinaison de classifieurs. Dans cette thèse, nous proposons un schéma de classification différent répondant mieux aux besoins de généricité et de flexibilité pour traiter différentes bases d'images.Dans le but de fournir une caractérisation riche des images microscopiques, nous proposons un nouveau système de représentation permettant d'englober de multiples descripteurs visuels identifiés dans les différentes approches d'extraction de caractéristiques : locale, fréquentielle, globale et par région. Nous formulons ensuite le problème de fusion et de sélection des caractéristiques sous forme d'un problème de sélection de noyaux. Basé sur l'apprentissage de noyaux multiples (MKL), les tâches de sélection et de fusion de caractéristiques sont considérées simultanément. Les expériences effectuées montrent que la plateforme de classification proposée est à la fois plus simple, plus générique et souvent plus performante que les autres approches de la littérature. Dans le but d'approfondir notre étude sur l'apprentissage de noyaux multiples, nous définissons un nouveau formalisme d'apprentissage MKL réalisé en deux étapes. Cette contribution consiste à proposer trois termes régularisant liés à la résolution du problème d'apprentissage des poids associés à une combinaison linéaire de noyaux, problème reformulé en un problème de classification à vaste marge dans l'espace des couples. Le premier terme régularisant proposé assure une sélection parcimonieuse des noyaux. Les deux autres termes ont été conçus afin de tenir compte de la similarité entre les noyaux via une métrique basée sur la corrélation. Les différentes expérimentations réalisées montrent que le formalisme proposé permet d'obtenir des résultats de même ordre que les méthodes de référence, mais offrant l'avantage d'utiliser moins de fonctions noyaux
This thesis arises in the context of computer aided analysis for subcellular protein localization in microscopic images. The aim is the establishment of an automatic classification system allowing to identify the cellular compartment in which a protein of interest exerts its biological activity. In order to overcome the difficulties in attempting to discern the cellular compartments in microscopic images, the existing state-of-art systems use several descriptors to train an ensemble of classifiers. In this thesis, we propose a different classification scheme wich better cope with the requirement of genericity and flexibility to treat various image datasets. Aiming to provide an efficient image characterization of microscopic images, a new feature system combining local, frequency-domain, global, and region-based features is proposed. Then, we formulate the problem of heterogeneous feature fusion as a kernel selection problem. Using multiple kernel learning, the problems of optimal feature sets selection and classifier training are simultaneously resolved. The proposed combination scheme leads to a simple and a generic framework capable of providing a high performance for microscopy image classification. Extensive experiments were carried out using widely-used and best known datasets. When compared with the state-of-the-art systems, our framework is more generic and outperforms other classification systems. To further expand our study on multiple kernel learning, we introduce a new formalism for learning with multiple kernels performed in two steps. This contribution consists in proposing three regularized terms with in the minimization of kernels weights problem, formulated as a classification problem using Separators with Vast Margin on the space of pairs of data. The first term ensures that kernels selection leads to a sparse representation. While the second and the third terms introduce the concept of kernels similarity by using a correlation measure. Experiments on various biomedical image datasets show a promising performance of our method compared to states of art methods
APA, Harvard, Vancouver, ISO, and other styles
50

Eid, Abdelrahman. "Stochastic simulations for graphs and machine learning." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I018.

Full text
Abstract:
Bien qu’il ne soit pas pratique d’étudier la population dans de nombreux domaines et applications, l’échantillonnage est une méthode nécessaire permettant d’inférer l’information.Cette thèse est consacrée au développement des algorithmes d’échantillonnage probabiliste pour déduire l’ensemble de la population lorsqu’elle est trop grande ou impossible à obtenir.Les techniques Monte Carlo par chaîne de markov (MCMC) sont l’un des outils les plus importants pour l’échantillonnage à partir de distributions de probabilités surtout lorsque ces distributions ont des constantes de normalisation difficiles à évaluer.Le travail de cette thèse s’intéresse principalement aux techniques d’échantillonnage pour les graphes. Deux méthodes pour échantillonner des sous-arbres uniformes à partir de graphes en utilisant les algorithmes de Metropolis-Hastings sont présentées dans le chapitre 2. Les méthodes proposées visent à échantillonner les arbres selon une distribution à partir d’un graphe où les sommets sont marqués. L’efficacité de ces méthodes est prouvée mathématiquement. De plus, des études de simulation ont été menées et ont confirmé les résultats théoriques de convergence vers la distribution d’équilibre.En continuant à travailler sur l’échantillonnage des graphes, une méthode est présentée au chapitre 3 pour échantillonner des ensembles de sommets similaires dans un graphe arbitraire non orienté en utilisant les propriétés des processus des points permanents PPP. Notre algorithme d’échantillonnage des ensembles de k sommets est conçu pour surmonter le problème de la complexité de calcul lors du calcul du permanent par échantillonnage d’une distribution conjointe dont la distribution marginale est un kPPP.Enfin, dans le chapitre 4, nous utilisons les définitions des méthodes MCMC et de la vitesse de convergence pour estimer la bande passante du noyau utilisée pour la classification dans l’apprentissage machine supervisé. Une méthode simple et rapide appelée KBER est présentée pour estimer la bande passante du noyau de la fonction de base radiale RBF en utilisant la courbure moyenne de Ricci de graphes
While it is impractical to study the population in many domains and applications, sampling is a necessary method allows to infer information. This thesis is dedicated to develop probability sampling algorithms to infer the whole population when it is too large or impossible to be obtained. Markov chain Monte Carlo (MCMC) techniques are one of the most important tools for sampling from probability distributions especially when these distributions haveintractable normalization constants.The work of this thesis is mainly interested in graph sampling techniques. Two methods in chapter 2 are presented to sample uniform subtrees from graphs using Metropolis-Hastings algorithms. The proposed methods aim to sample trees according to a distribution from a graph where the vertices are labelled. The efficiency of these methods is proved mathematically. Additionally, simulation studies were conducted and confirmed the theoretical convergence results to the equilibrium distribution.Continuing to the work on graph sampling, a method is presented in chapter 3 to sample sets of similar vertices in an arbitrary undirected graph using the properties of the Permanental Point processes PPP. Our algorithm to sample sets of k vertices is designed to overcome the problem of computational complexity when computing the permanent by sampling a joint distribution whose marginal distribution is a kPPP.Finally in chapter 4, we use the definitions of the MCMC methods and convergence speed to estimate the kernel bandwidth used for classification in supervised Machine learning. A simple and fast method called KBER is presented to estimate the bandwidth of the Radial basis function RBF kernel using the average Ricci curvature of graphs
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography