Academic literature on the topic 'Machine à noyaux'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Machine à noyaux.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Machine à noyaux"

1

Molcrette, Bastien, Léa Chazot-Franguiadakis, Thomas Auger, and Fabien Montel. "Quelques éléments de physique autour des nanopores biologiques." Reflets de la physique, no. 75 (April 2023): 18–23. http://dx.doi.org/10.1051/refdp/202375018.

Full text
Abstract:
Les nanopores biologiques sont d’étonnantes machines moléculaires. Ils remplissent une grande variété de fonctions, allant du tri des biomolécules à la transmission des signaux dans nos neurones et au repliement des protéines nouvellement produites. Le membre le plus surprenant de ce club est le pore nucléaire. Il régule le flux de molécules entre le noyau et l’intérieur de la cellule. Ses performances, mesurées par son efficacité énergétique, sa directionnalité ou sa sélectivité, n’ont pas d’équivalent dans les systèmes artificiels. Nous verrons que la compréhension de son fonctionnement permet d’appréhender des phénomènes physiques nouveaux et d’imaginer des systèmes de filtration sélectifs, ainsi que des pompes moléculaires.
APA, Harvard, Vancouver, ISO, and other styles
2

Agier, Michel, and Thierry Lulle. "Eléments d'anthropologie des lieux de travail : le cas d'une brasserie au Togo." Anthropologie et Sociétés 10, no. 1 (September 10, 2003): 109–43. http://dx.doi.org/10.7202/006323ar.

Full text
Abstract:
Résumé RÉSUMÉ / SUMMARY Éléments d'anthropologie des lieux de travail : le cas d'une brasserie au Togo Deux questions orientent cette étude de l'usine togolaise la Brasserie du Bénin : l'univers du travail fournit-il aux salariés des cadres de références identitaires ? l'organisation taylorienne du travail permet-elle, et dans quelles limites, une présence efficace des systèmes de références ethniques ? L'étude de l'entreprise est menée à partir d'une lecture spatio-temporelle (dans le taylorisme, l'espace est soumis aux temporalités du processus productif) et anthropologique (les caractéristiques sociales, les pratiques de travail et les relations inter-personnelles de la main-d'œuvre sont restituées dans le cadre de trois types d'ensembles espace/temps/ pratiques : machine, chaCne, atelier). Puis deux productions sociales sont présentées : premièrement, un " noyau d'anciens ", doté d'un rôle disciplinaire et intégrateur, reconnu et soutenu par l'entreprise; deuxièmement, un réseau d'embauché à fondement lignager dont l'efficacité s'inscrit dans les quelques interstices du fonctionnalisme de l'organisation taylorienne du travail.
APA, Harvard, Vancouver, ISO, and other styles
3

Bidan, Pierre, Thierry Lebey, Gérard Montseny, and Claudiu Neacsu. "Modèle pseudo-différentiel d'une bobine à noyau de fer et simulation par réalisation diffusive. Application aux bobinages d une machine tournante." Revue internationale de génie électrique 5, no. 3-4 (December 30, 2002): 535–56. http://dx.doi.org/10.3166/rige.5.535-556.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Vaudour, Emmanuelle, Paul-Emile Noirot-Cosson, and Olivier Membrive. "Apport des images satellitaires de très haute résolution spatiale Pléiades à la caractérisation des cultures et des opérations culturales en début de saison." Revue Française de Photogrammétrie et de Télédétection, no. 208 (September 5, 2014): 97–103. http://dx.doi.org/10.52638/rfpt.2014.106.

Full text
Abstract:
Cette étude s'inscrit dans des programmes de recherche visant à surveiller spatialement l'effet des apports de produits résiduaires organiques sur les stocks de carbone des sols, et nécessitant pour cela le recueil de données spatialisées sur les systèmes de culture. L'objectif de cette étude est celui d'évaluer, au niveau d'organisation spatiale des parcelles culturales, l'apport des images satellitaires de Très Haute Résolution Spatiale (THRS) Pléiades à l'identification des cultures à des stades de développement précoce d'une part, à la détection des changements d'état de surface des sols nus liés aux opérations culturales, d'autre part. La région d'étude, vaste d'environ 4000 ha, dont 2100 ha de surface agricole utile, est située à l'ouest du territoire périurbain francilien de la Plaine de Versailles et du Plateau des Alluets (PVPA) (Yvelines). Environ 100 parcelles culturales ont fait l'objet d'observations de terrain synchrones des prises de vue des deux images Pléiades acquises les 3 et 24 avril 2013 et d'une image SPOT4 acquise le 2 avril 2013. La structuration géomatique de ces données acquises sur le terrain a servi à délimiter des zones susceptibles de servir à l'entraînement ou la validation des résultats de classification assistée par machine à support de vecteurs à noyau polynomial (pSVM). La classification pSVM a été mise en œuvre sur les 4 bandes spectrales assorties du NDVI pour les images monodates, et pour les 8 bandes spectrales assorties de 2 bandes NDVI pour l'image bi-temporelle Pléiades. Pour les classifications monodates des cultures, la précision totale atteint 87% pour l'image SPOT4 du 2 avril (6 classes), 79% pour l'image Pléiades du 3 avril (6 classes) et 85% pour celle du 24 avril (7 classes). Pour la classification bitemporelle (7 classes), la précision totale est de près de 80%, avec des cultures d'hiver très bien discriminées tandis que les confusions opèrent entre l'orge de printemps aux stades 2-3 feuilles et les sols nus préparés pour les autres cultures de printemps. A la date la plus précoce (2-3 avril), l'image Pléiades discrimine bien les opérations culturales (précisions utilisateur et producteur >77%), les jachères et les prairies et renseigne sur l'hétérogénéité spatiale des stades de développement des cultures, tandis que les céréales d'hiver et le colza sont mieux détectés sur l'image SPOT4 (précisions utilisateur et producteur >70%). Les images Pléiades apportent donc des informations complémentaires à celles des images multispectrales de haute résolution spatiale.
APA, Harvard, Vancouver, ISO, and other styles
5

CANU, Stéphane. "Machines à noyaux pour l’apprentissage statistique." Technologies logicielles Architectures des systèmes, February 2007. http://dx.doi.org/10.51257/a-v1-te5255.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Bittar, Eduardo C. B. "La machine du droit : le modèle de maillage du système juridique et les transformations du sens juridique." 130, no. 130 (January 23, 2024). http://dx.doi.org/10.25965/as.8264.

Full text
Abstract:
L’article analyse la dynamique du sens juridique en circulation au sein du système juridique. L’approche méthodologique est centrée sur l’idée de texte juridique, à partir de laquelle est développé le modèle de maillage (mesh model), et entend décrire le fonctionnement de ce système comme une machine discursive. Les textes juridiques effectuent des opérations discursives, dans un état de métamorphose textuelle continue. Ils forment de la sorte des chaînes de textes, ordonnées et organisées en anneaux systémiques concentriques autour d’un noyau géométrique. Le système juridique est saisi comme un ensemble doté d’une structure (actantielle ; institutionnelle ; procédurale) et d’éléments (les textes juridiques ; les pratiques discursives). L’hypothèse de travail est centrée sur l’idée qu’il est possible de fournir un modèle narratif et discursif, centré sur l’idée de pratiques discursives, ce que donne des conditions pour que la Sémiotique du Droit puisse fournir un modèle contemporain de description de la notion de système juridique.
APA, Harvard, Vancouver, ISO, and other styles
7

Gasmi, Anis, Antoine Masse, and Danielle Ducrot. "Télédétection et Photogrammétrie pour l'étude de la dynamique de l'occupation du sol dans le bassin versant de l'Oued Chiba (Cap-Bon, Tunisie)." Revue Française de Photogrammétrie et de Télédétection, no. 215 (November 10, 2020). http://dx.doi.org/10.52638/rfpt.2017.157.

Full text
Abstract:
Le papier présente les résultats de l'étude de l'évolution spatiale et temporelle de l'occupation du sol dans le bassin de l'Oued Chiba (200 km2) situé au nord-est de la Tunisie. Cette analyse est basée sur une classification de données de télédétection (images Landsat TM des années 1992, 2011 et une image ASTER de l'année 2001) et de photos aériennes (des années 1962, 1974, 1984). La méthode de classification des images utilisées est un classifieur de type Support Vector Machine (SVM) avec noyau Gaussien.L'analyse de l'occupation des sols sur une période de 49 ans se traduit par une augmentation de l'espace agricole de 24 km2 en 1962 à 75 km2 en 2011. Ces changements d'occupation et d'utilisation du sol sont liés directement à la création du barrage de l'oued Chiba en 1963.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Machine à noyaux"

1

Dehlinger, Nicolas. "Étude des performances d'une machine à flux transverse à noyaux ferromagnétiques amorphes." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24934/24934.pdf.

Full text
Abstract:
Parmi les différentes structures de machines électriques existantes, les machines à flux transverse (MFT) sont reconnues pour leur fort couple massique et volumique. Malgré cet avantage, leur complexité et leur coût de fabrication élevés font que ce type de machine ne dépasse que rarement le stade de prototype. De plus, d’importantes pertes fer dues à des fréquences de fonctionnement élevées limitent encore l’utilisation de ces machines aux applications basse vitesse et fort couple : la MFT est alors principalement utilisée dans des dans les aérogénérateurs à attaque directe et dans certaines applications de traction électrique (bus, automobile, tram, navire, …). Le travail présenté dans ce mémoire s’inscrit dans le cadre du développement d’une nouvelle configuration de MFT : la MFT à griffe ou claw-pole, à stator hybride. Grâce à l’utilisation combinée de tôles électriques et de poudre de fer au stator de la machine, les pertes fer de cette configuration de MFT sont considérablement réduites et sa fabrication grandement simplifiée. Le concept de stator hybride peut être exploité pour réduire les pertes fer de la MFT encore davantage, par l’emploi de matériaux possédant des propriétés magnétiques supérieures à celles des matériaux actuellement utilisés au stator de la machine. L’effet de la substitution des noyaux de tôles électriques au stator par des noyaux fabriqués à partir de matériaux amorphes est étudié dans ce mémoire. Des mesures expérimentales de pertes fer permettent, dans un premier temps, de prouver la réduction des pertes totales d’une MFT claw-pole à stator hybride monopolaire utilisant des noyaux amorphes. Dans un second temps, des simulations par éléments finis couplées à des résultats expérimentaux montrent l’augmentation du rendement d’une MFT complète à noyaux amorphes et le maintien de ce dernier à un niveau élevé à des fréquences de fonctionnement supérieures à 400 Hz.
Transverse flux machines (TFM) are known for their excellent torque-to-mass and torque-to-volume ratio when compared to conventional machines. Despite this advantage, they have some serious shortcomings like complex construction and high cost, explaining why TFM that can be found in the literature are usually only prototypes. Moreover, the TFM shows a dependence of its force density upon its pole pitch and airgap thickness, which leads to high electrical frequencies and thus to high core losses. For all these reasons, this type of machine could be considered in high-torque low-speed applications such as wind turbines or electrical traction drives. The work presented in this document contributes to the development of a new TFM configuration: the claw-pole TFM with hybrid stator (CPTFMHS). Such a stator built from a combination of Fe-Si laminations and powdered iron (SMC), enables reducing iron losses significantly and improving the ease of manufacturing of the machine. The concept of the hybrid stator can be further developed by using new magnetic materials with lower specific losses. The substitution of Fe-Si laminations by amorphous cores in the stator of the CPTFMHS is studied in this work and presented here. Experimental measurements are conducted on a one-pole pair CPTFMHS machine with an amorphous core: the results show a reduction of the total iron losses, thus proving benefits of amorphous cores used in the machine. Finite element simulations coupled with experimental measurements lead to the following conclusion: the efficiency of a CPTFMHS machine can be maintained to a high level at frequencies above 400 Hz, thanks to the use of amorphous cores, which may not be possible with Fe-Si laminations.
APA, Harvard, Vancouver, ISO, and other styles
2

Bietti, Alberto. "Méthodes à noyaux pour les réseaux convolutionnels profonds." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM051.

Full text
Abstract:
La disponibilité de quantités massives de données, comme des images dans les réseaux sociaux, des signaux audio de téléphones mobiles, ou des données génomiques ou médicales, a accéléré le développement des techniques d'apprentissage automatique. Ces méthodes exploitent des motifs statistiques dans ces grandes bases de données pour effectuer de bonnes prédictions sur des nouvelles images, signaux, ou séquences de protéines. Récemment, les systèmes d'apprentissage profond ont émergé comme des algorithmes d'apprentissage très efficaces. Ces modèles multi-couche effectuent leurs prédictions de façon hiérarchique, et peuvent être entraînés à très grande échelle avec des méthodes de gradient. Leur succès a été particulièrement marqué lorsque les données sont des signaux naturels comme des images ou des signaux audio, pour des tâches comme la reconnaissance visuelle, la détection d'objets, ou la reconnaissance de la parole. Pour de telles tâches, l'apprentissage profond donne souvent la meilleure performance empirique, mais leur compréhension théorique reste difficile à cause du grand nombre de paramètres, et de la grande dimension des données. Leur succès est souvent attribué à leur capacité d'exploiter des structures des signaux naturels, par exemple en apprenant des représentations invariantes et multi-échelle de signaux naturels à travers un bon choix d'architecture, par exemple avec des convolutions et des opérations de pooling. Néanmoins, ces propriétés sont encore mal comprises théoriquement, et l'écart entre la théorique et pratique en apprentissage continue à augmenter. Cette thèse vise à réduire cet écart grâce à l'étude d'espaces de fonctions qui surviennent à partir d'une certaine architecture, en particulier pour les architectures convolutives. Notre approche se base sur les méthodes à noyaux, et considère des espaces de Hilbert à noyaux reproduisant (RKHS) associés à certains noyaux construits de façon hiérarchique selon une architecture donnée. Cela nous permet d'étudier précisément des propriétés de régularité, d'invariance, de stabilité aux déformations du signal, et d'approximation des fonctions du RKHS. Ces propriétés sur la représentation sont aussi liées à des questions d'optimisation pour l'entraînement de réseaux profonds à très grand nombre de neurones par descente de gradient, qui donnent lieu à de tels noyaux. Cette théorie suggère également des nouvelles stratégies pratiques de régularisation qui permettent d'obtenir une meilleure performance en généralisation pour des petits jeux de données, et une performance état de l'art pour la robustesse à des perturbations adversariales en vision
The increased availability of large amounts of data, from images in social networks, speech waveforms from mobile devices, and large text corpuses, to genomic and medical data, has led to a surge of machine learning techniques. Such methods exploit statistical patterns in these large datasets for making accurate predictions on new data. In recent years, deep learning systems have emerged as a remarkably successful class of machine learning algorithms, which rely on gradient-based methods for training multi-layer models that process data in a hierarchical manner. These methods have been particularly successful in tasks where the data consists of natural signals such as images or audio; this includes visual recognition, object detection or segmentation, and speech recognition.For such tasks, deep learning methods often yield the best known empirical performance; yet, the high dimensionality of the data and large number of parameters of these models make them challenging to understand theoretically. Their success is often attributed in part to their ability to exploit useful structure in natural signals, such as local stationarity or invariance, for instance through choices of network architectures with convolution and pooling operations. However, such properties are still poorly understood from a theoretical standpoint, leading to a growing gap between the theory and practice of machine learning. This thesis is aimed towards bridging this gap, by studying spaces of functions which arise from given network architectures, with a focus on the convolutional case. Our study relies on kernel methods, by considering reproducing kernel Hilbert spaces (RKHSs) associated to certain kernels that are constructed hierarchically based on a given architecture. This allows us to precisely study smoothness, invariance, stability to deformations, and approximation properties of functions in the RKHS. These representation properties are also linked with optimization questions when training deep networks with gradient methods in some over-parameterized regimes where such kernels arise. They also suggest new practical regularization strategies for obtaining better generalization performance on small datasets, and state-of-the-art performance for adversarial robustness on image tasks
APA, Harvard, Vancouver, ISO, and other styles
3

Giffon, Luc. "Approximations parcimonieuses et méthodes à noyaux pour la compression de modèles d'apprentissage." Electronic Thesis or Diss., Aix-Marseille, 2020. http://www.theses.fr/2020AIXM0354.

Full text
Abstract:
Cette thèse a pour objectif d’étudier et de valider expérimentalement les bénéfices, en terme de quantité de calcul et de données nécessaires, que peuvent apporter les méthodes à noyaux et les méthodes d’approximation parcimonieuses à des algorithmes d’apprentissage existant. Dans une première partie de cette thèse, nous proposons un nouveau type d’architecture neuronale qui fait intervenir une fonction noyau afin d’en réduire le nombre de paramètres à apprendre, ce qui permet de la rendre robuste au sur-apprentissage dans un régime où peu de données annotées sont disponibles. Dans une seconde partie de cette thèse, nous cherchons à réduire la complexité de modèles d’apprentissage existants en y incluant des approximations parcimonieuses. D’abord, nous proposons un algorithme alternatif à l’algorithme des K-moyennes qui permet d’en accélérer la phase d’inférence grâce à l’expression des centroides sous forme d’un produit de matrices parcimonieuses. En plus des garanties de convergence de l’algorithme proposé, nous apportons une validation expérimentale de la qualité des centroides ainsi exprimés et de leur bénéfice en terme de coût calculatoire. Ensuite, nous explorons la compression de réseaux neuronaux par le remplacement des matrices qui le constituent avec des décomposition parcimonieuses. Enfin, nous détournons l’algorithme d’approximation parcimonieuse OMP pour faire une sélection pondérée des arbres de décision d’une forêt aléatoire, nous analysons l’effet des poids obtenus et proposons par ailleurs une alternative non-négative de la méthode qui surpasse toutes les autres techniques de sélection d’arbres considérées sur un large panel de jeux de données
This thesis aims at studying and experimentally validating the benefits, in terms of amount of computation and data needed, that kernel methods and sparse approximation methods can bring to existing machine learning algorithms. In a first part of this thesis, we propose a new type of neural architecture that uses a kernel function to reduce the number of learnable parameters, thus making it robust to overfiting in a regime where few labeled observations are available. In a second part of this thesis, we seek to reduce the complexity of existing machine learning models by including sparse approximations. First, we propose an alternative algorithm to the K-means algorithm which allows to speed up the inference phase by expressing the centroids as a product of sparse matrices. In addition to the convergence guarantees of the proposed algorithm, we provide an experimental validation of both the quality of the centroids thus expressed and their benefit in terms of computational cost. Then, we explore the compression of neural networks by replacing the matrices that constitute its layers with sparse matrix products. Finally, we hijack the Orthogonal Matching Pursuit (OMP) sparse approximation algorithm to make a weighted selection of decisiontrees from a random forest, we analyze the effect of the weights obtained and we propose a non-negative alternative to the method that outperforms all other tree selectiontechniques considered on a large panel of data sets
APA, Harvard, Vancouver, ISO, and other styles
4

Tian, Xilan. "Apprentissage et noyau pour les interfaces cerveau-machine." Phd thesis, INSA de Rouen, 2012. http://tel.archives-ouvertes.fr/tel-00735891.

Full text
Abstract:
Les Interfaces Cerveau-Machine (ICM) ont été appliquées avec succès aussi bien dans le domaine clinique que pour l'amélioration de la vie quotidienne de patients avec des handicaps. En tant que composante essentielle, le module de traitement du signal détermine nettement la performance d'un système ICM. Nous nous consacrons à améliorer les stratégies de traitement du signal du point de vue de l'apprentissage de la machine. Tout d'abord, nous avons développé un algorithme basé sur les SVM transductifs couplés aux noyaux multiples afin d'intégrer différentes vues des données (vue statistique ou vue géométrique) dans le processus d'apprentissage. Deuxièmement, nous avons proposé une version enligne de l'apprentissage multi-noyaux dans le cas supervisé. Les résultats expérimentaux montrent de meilleures performances par rapport aux approches classiques. De plus, l'algorithme proposé permet de sélectionner automatiquement les canaux de signaux EEG utiles grâce à l'apprentissage multi-noyaux.Dans la dernière partie, nous nous sommes attaqués à l'amélioration du module de traitement du signal au-delà des algorithmes d'apprentissage automatique eux-mêmes. En analysant les données ICM hors-ligne, nous avons d'abord confirmé qu'un modèle de classification simple peut également obtenir des performances satisfaisantes en effectuant une sélection de caractéristiques (et/ou de canaux). Nous avons ensuite conçu un système émotionnel ICM par en tenant compte de l'état émotionnel de l'utilisateur. Sur la base des données de l'EEG obtenus avec différents états émotionnels, c'est-à -dire, positives, négatives et neutres émotions, nous avons finalement prouvé que l'émotion affectait les performances ICM en utilisant des tests statistiques. Cette partie de la thèse propose des bases pour réaliser des ICM plus adaptées aux utilisateurs.
APA, Harvard, Vancouver, ISO, and other styles
5

Xilan, Tian. "Apprentissage et Noyau pour les Interfaces Cerveau-machine." Phd thesis, INSA de Rouen, 2012. http://tel.archives-ouvertes.fr/tel-00699659.

Full text
Abstract:
Les Interface Cerveau-Machine (ICM) ont appliquées avec succès aussi bien dans le domain clinique que pour l'amélioration de la vie quotidienne de patients avec des handicaps. En tant que composante essentielle, le module de traitement du signal détermine nettement la performance d'un système ICM. Nous nous consacrons à améliorer les stratégies de traitement du signal du point de vue de l'apprentissage de la machine. Tout d'abord, nous avons développé un algorithme basé sur les SVM transductifs couplés aux noyaux multiples afin d'intégrer différentes vues des données (vue statistique ou une vue géométrique) dans le processus d'apprentissage. Deuxièmement, nous avons proposé une version en ligne de l'apprentissage multi-noyaux dans le cas supervisé. Les résultats expérimentaux montrent de meilleures performances par rapport aux approches classiques. De plus, l'algorithme proposé permet de sélectionner automatiquement les canaux de signaux EEG utiles grâce à l'apprentissage multi-noyaux. Dans la dernière partie, nous nous sommes attaqué à l'amélioration du module de traitement du signal au-delà des algorithmes d'apprentissage auomatique eux-mêmes. En analysant les données ICM hors-ligne, nous avons d'abord confirmé qu'un modèle de classification simple peut également obtenir des performances statisfaisantes en effectuant une sélection de caractéristiques (et.ou de canaux). Nous avons ensuite conçu un système émotionnel ICM par en tenant compte de l'état émotionnel de l'utilisateur. Sur la base des données de l'EEG obtenus avec différents états émotionnels, c'est-à-dire, positives, négatives et neutre émotions, nous avons finalement prouvé que l'émotion affecter les performances ICM en utilisant des tests statisques. Cette partie de la thèse propose des bases pour réaliser des ICM plus adaptées aux utilisateurs.
APA, Harvard, Vancouver, ISO, and other styles
6

Louradour, Jérôme. "Noyaux de séquences pour la vérification du locuteur par machines à vecteurs de support." Toulouse 3, 2007. http://www.theses.fr/2007TOU30004.

Full text
Abstract:
La vérification automatique du locuteur (VAL) est une tâche de classification binaire, qui consiste à déterminer si un énoncé de parole a été prononcé ou non par un locuteur cible. Les Machines à Vecteurs de Support (SVMs) sont devenues un outil classique pour ce type de classification. Cette approche discriminante a suscité l’intérêt de nombreuses recherches en reconnaissance des formes, tant pour ses fondements théoriques solides que pour ses bonnes performances empiriques. Mais la mise en oeuvre des SVMs pour la VAL en situation réelle soulevant plusieurs problèmes relatifs aux caractéristiques propres à cette tâche. Il s’agit principalement de la taille élevée des corpus d’apprentissage et de la nature séquentielle des observations à classifier. Cette thèse est consacrée à l’exploration des noyaux de séquences pour la classification SVM du locuteur. Nous commen¸cons par faire un tour d’horizon des méthodes émergentes pour construire des noyaux de séquences. Ensuite nous proposons une nouvelle famille de noyaux en se basant sur une généralisation d’un noyau qui a fait ses preuves en VAL. Nous faisons l’analyse théorique et algorithmique de cette nouvelle famille avant de l’appliquer à la VAL par SVM. Après la mise en oeuvre des systèmes SVMs à base des différents noyaux que nous avons étudiés, nous comparons leurs performances sur le corpus NIST SRE 2005, à partir d’un protocole de développement commun. Enfin, nous introduisons un nouveau concept pour aborder le problème de VAL, dont le principe est de déterminer si deux séquences ont été prononcées par le même locuteur. L’utilisation des SVMs pour exploiter ce concept nous amène à définir une nouvelle catégorie de noyaux : les noyaux entre paires de séquences
This thesis is focused on the application of Support Vector Machines (SVM) to Automatic Text-Independent Speaker Verification. This speech processing task consists in determining whether a speech utterance was pronounced or not by a target speaker, without any constraint on the speech content. In order to apply a kernel method such as SVM to this binary classification of variable-length sequences, an appropriate approach is to use kernels that can handle sequences, and not acoustic vectors within sequences. As explained in the thesis report, both theoretical and practical reasons justify the effort of searching such kernels. The present study concentrates in exploring several aspects of kernels for sequences, and in applying them to a very large database speaker verification problem under realistic recording conditions. After reviewing emergent methods to conceive sequence kernels and presenting them in a unified framework, we propose a new family of such kernels : the Feature Space Normalized Sequence (FSNS) kernels. These kernels are a generalization of the GLDS kernel, which is now well-known for its efficiency in speaker verification. A theoretical and algorithmic study of FSNS kernels is carried out. In particular, several forms are introduced and justified, and a sparse greedy matrix approximation method is used to suggest an efficient and suitable implementation of FSNS kernels for speaker verification. .
APA, Harvard, Vancouver, ISO, and other styles
7

Palazzo, Martin. "Dimensionality Reduction of Biomedical Tumor Profiles : a Machine Learning Approach." Thesis, Troyes, 2021. http://www.theses.fr/2021TROY0031.

Full text
Abstract:
Le rythme croissant de génération de données à partir de profils tumoraux au cours de la dernière décennie a permis le développement d'algorithmes d'apprentissage statistique pour explorer et analyser le paysage des types et sous-types de tumeurs et la survie des patients d'un point de vue biomoléculaire. Les données tumorales sont principalement décrites par des caractéristiques transcriptomiques et le niveau d'expression d'un transcrit génique donné dans la cellule tumorale. Par conséquent, ces caractéristiques peuvent être utilisées pour apprendre des règles statistiques qui améliorent la compréhension de l'état et du type d'une cellule cancéreuse. Néanmoins, les données tumorales transcriptomiques sont de grande dimension et chaque tumeur peut être décrite par des milliers de caractéristiques génétiques, ce qui rend difficile la réalisation d'une tâche d'apprentissage automatique et la compréhension des mécanismes biologiques sous-jacents. Cette thèse étudie comment réduire la dimensionnalité et gagner en interprétabilité pour savoir quels gènes codent le signal de la distribution des données en proposant des méthodes de réduction de dimension basées sur un modèle qui envisage la structure globale des données à l'aide d'un espace de représentation latente. Les méthodes proposées ont montré des améliorations dans les tâches de sélection de caractéristiques supervisées et non supervisées par rapport aux méthodes de référence pour classer et apprendre des sous-groupes de tumeurs respectivement
The increasing pace of data generation from tumor profiles profiles during the last decade has enable the development of statistical learning algorithms to explore and analyze the landscape of tumor types, subtypes and patient survival from a biomolecular point of view. Tumor data is mainly described by trasncriptomic features and the level of expression of a given gene-transcript in the tumor cell, therefore these features can be used to learn statistical rules that improves the understanding about the state and type of a cancer cell. Nevertheless transcriptomic tumor data is high dimensional and each tumor can be described by thousands of gene features making it difficult to perform a machine learning task and to understand the underlying biological mechanisms. This thesis studies how to reduce dimensionality and to gain interpretability about which genes encode signals of the data distribution by proposing dimension reduction methods based on Feature Selection and Feature Extraction pipelines. The proposed methods are based on Latent Variable Models and Kernel Methods with the idea to explore the connection between pair-wise similarity functions of tumor samples and low dimensional latent spaces that captures the inner structure of the training data. Proposed methods have shown improvements in supervised and unsupervised feature selection tasks when compared with benchmark methods to classify and learn subgroups of tumors respectively
APA, Harvard, Vancouver, ISO, and other styles
8

Abdallah, Fahed. "Noyaux reproduisants et critères de contraste pour l'élaboration de détecteurs à structure imposée." Troyes, 2004. http://www.theses.fr/2004TROY0002.

Full text
Abstract:
Les travaux réalisés pendant cette thèse sont relatifs à la synthèse de détecteurs à partir d'une base d'exemples étiquetés. La théorie développée fait appel aux espaces de Hilbert à noyaux reproduisants pour l'élaboration de détecteurs linéaires généralisés dans des espaces transformés de dimension importante, voire infinie, sans qu'aucun calcul n'y soit effectué explicitement. Elle repose sur l'optimisation du meilleur critère de contraste pour le problème traité, après s'être assuré que de telles mesures de performance permettant l'obtention sous des conditions restrictives assez faibles, à une statistique équivalente au rapport de vraisemblance. Pour une meilleure prise en compte de phénomènes tels que la malédiction de la dimensionnalité, l'approche proposée s'appuie sur la théorie de l'apprentissage. Celle-ci lui permet d'offrir des garanties de performances en généralisation. On propose ainsi des méthodes qui permettent le contrôle de complexité des détecteurs obtenus. Les résultats obtenus sur des données synthétiques et réelles montrent que notre approche est en mesure de rivaliser avec les structures de décision les plus étudiées actuellement que sont les Support Vector Machines
In this thesis, we consider statistical learning machines with try to infer rules from a given set or observations in order to make correct predictions on unseen examples. Building upon the theory of reproducing kernels, we develop a generalized linear detector in transformed spaces of high dimension, without explicitly doing any calculus in these spaces. The method is based on the optimization of the best second-order criterion with respect to the problem to solve. In fact, theoretical results show that second-order criteria are able, under some mild conditions, to guarantee the best solution in the sense of classical detection theories. Achieving a good generalisation performance with a receiver requires matching its complexity to the amount of available training data. This problem, known as the curse of dimensionality, has been studied theoretically by Vapnik and Chervonenkis. In this dissertation, we propose complexity control procedures in order to improve the performance of these receivers when few training data are available. Simulation results on real and synthetic data show clearly the competitiveness of our approach compared with other state of the art existing kernel methods like Support Vector Machines
APA, Harvard, Vancouver, ISO, and other styles
9

Labbé, Benjamin. "Machines à noyaux pour le filtrage d'alarmes : application à la discrimination multiclasse en environnement maritime." Thesis, Rouen, INSA, 2011. http://www.theses.fr/2011ISAM0002.

Full text
Abstract:
Les systèmes infrarouges sont essentiels pour fournir aux forces armées une capacité de reconnaissance des menaces. En contexte opérationnel, ces systèmes sont contraints au temps-réel et à l’accès à des taux de fausses alarmes faibles. Ceci implique la détection des menaces parmi de nombreux objets non-pertinents.Dans ce document, nous combinons des OneClass-SVM pour une décision multiclasse avec rejet(préservant la fausse-alarme). En apprentissage, nous sélectionnons les variables pour contrôler la parcimonie du moteur de décision.Nous présentons également un classifieur original, le Discriminative OneClass-SVM, combinant les propriétés du C-SVM et du OneClass-SVM dans le contexte multiclasse. Ce détecteur de nouveauté n’a pas de dépendance au nombre de classes. Ceci permet une utilisation sur des données à grande échelle.Nos expériences sur des données réelles démontrent l’intérêt des propositions pour les systèmes fortement contraints, face aux méthodes de référence
Infrared systems are keys to provide automatic control of threats to military forces. Such operational systems are constrained to real-time processing and high efficiency (low false-alarm rate) implying the recognition of threats among numerous irrelevant objects.In this document, we combine OneClass Support Vector Machines (SVM) to discriminate in the multiclass framework and to reject unknown objects (preserving the false-alarm rate).While learning, we perform variable selection to control the sparsity of the decision functions. We also introduce a new classifier, the Discriminative OneClass-SVM. It combines properties of both the biclass-SVM and the OneClass-SVM in a multiclass framework. This classifier detects novelty and has no dependency to the amount of categories, allowing to tackle large scale problems. Numerical experiments, on real world infrared datasets, demonstrate the relevance of our proposals for highly constrained systems, when compared to standard methods
APA, Harvard, Vancouver, ISO, and other styles
10

Brault, Romain. "Large-scale operator-valued kernel regression." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLE024/document.

Full text
Abstract:
De nombreuses problématiques d'apprentissage artificiel peuvent être modélisées grâce à des fonctions à valeur vectorielles. Les noyaux à valeurs opérateurs et leur espace de Hilbert à noyaux reproduisant à valeurs vectorielles associés donnent un cadre théorique et pratique pour apprendre de telles fonctions, étendant la littérature existante des noyaux scalaires. Cependant, lorsque les données sont nombreuses, ces méthodes sont peu utilisables, ne passant pas à l'échelle, car elle nécessite une quantité de mémoire évoluant quadratiquement et un temps de calcul évoluant cubiquement vis à vis du nombre de données, dans leur implémentation la plus naïve. Afin de faire passer les noyaux à valeurs opérateurs à l'échelle, nous étendons une technique d'approximation stochastique introduite dans le cadre des noyaux scalaires. L'idée est de tirer parti d'une fonction de redescription caractérisant le noyau à valeurs opérateurs, dont les fonctions associées vivent dans un espace de dimension infinie, afin d'obtenir un problème d'optimisation linéaire de dimension finie. Dans cette thèse nous développons dans un premier temps un cadre général afin de permettre l'approximation de noyaux de Mercer définis sur des groupes commutatifs localement compacts et étudions leurs propriétés ainsi que la complexités des algorithmes en découlant. Dans un second temps nous montrons des garanties théoriques en bornant l'erreur commise par l'approximation, avec grande probabilité. Enfin, nous mettons en évidence plusieurs applications des Représentations Opérateurs Aléatoires de Fourier (ORFF) telles que la classification multiple, l'apprentissage multi-tâche, la modélisation des séries temporelles, la régression fonctionnelle et la détection d'anomalies. Nous comparons également ce cadre avec d'autres méthodes de la littérature et concluons par des perspectives à moyen et long terme
Many problems in Machine Learning can be cast into vector-valued approximation. Operator-Valued Kernels and vector-valued Reproducing Kernel Hilbert Spaces provide a theoretical and practical framework to address that issue, extending nicely the well-known setting of scalar-valued kernels. However large scale applications are usually not affordable with these tools that require an important computational power along with a large memory capacity. In this thesis, we propose and study scalable methods to perform regression with Operator-Valued Kernels. To achieve this goal, we extend Random Fourier Features, an approximation technique originally introduced for scalar-valued kernels, to Operator-Valued Kernels. The idea is to take advantage of an approximated operator-valued feature map in order to come up with a linear model in a finite-dimensional space. This thesis is structured as follows. First we develop a general framework devoted to the approximation of shift-invariant MErcer kernels on Locally Compact Abelian groups and study their properties along with the complexity of the algorithms based on them. Second we show theoretical guarantees by bounding the error due to the approximation, with high probability. Third, we study various applications of Operator Random Fourier Features (ORFF) to different tasks of Machine learning such as multi-class classification, multi-task learning, time serie modelling, functionnal regression and anomaly detection. We also compare the proposed framework with other state of the art methods. Fourth, we conclude by drawing short-term and mid-term perspectives of this work
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Machine à noyaux"

1

Bernhard, Schölkopf, Burges Christopher J. C, and Smola Alexander J, eds. Advances in kernel methods: Support vector learning. Cambridge, Mass: MIT Press, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

(Editor), Bernhard Schölkopf, Christopher J. C. Burges (Editor), and Alexander J. Smola (Editor), eds. Advances in Kernel Methods: Support Vector Learning. The MIT Press, 1998.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

(Editor), Gökhan H. Bakir, Thomas Hofmann (Editor), Bernhard Schölkopf (Editor), Alexander J. Smola (Editor), Ben Taskar (Editor), and S. V. N. Vishwanathan (Editor), eds. Predicting Structured Data (Neural Information Processing). The MIT Press, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Smola, Alexander J., Thomas Hofmann, Bernhard Schölkopf, Ben Taskar, and Gökhan Bakir. Predicting Structured Data. MIT Press, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Linux embarqué, avec deux études de cas. Eyrolles, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography