Siga este enlace para ver otros tipos de publicaciones sobre el tema: Accélération méthodes à noyaux.

Tesis sobre el tema "Accélération méthodes à noyaux"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Accélération méthodes à noyaux".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Cherfaoui, Farah. "Echantillonnage pour l'accélération des méthodes à noyaux et sélection gloutonne pour les représentations parcimonieuses". Electronic Thesis or Diss., Aix-Marseille, 2022. http://www.theses.fr/2022AIXM0256.

Texto completo
Resumen
Les contributions de cette thèse se divisent en deux parties. Une première partie dédiée à l’accélération des méthodes à noyaux et une seconde à l'optimisation sous contrainte de parcimonie. Les méthodes à noyaux sont largement connues et utilisées en apprentissage automatique. Toutefois, la complexité de leur mise en œuvre est élevée et elles deviennent inutilisables lorsque le nombre de données est grand. Nous proposons dans un premier temps une approximation des Ridge Leverage Scores. Nous utilisons ensuite ces scores pour définir une distribution de probabilité pour le processus d'échantillonnage de la méthode de Nyström afin d’accélérer les méthodes à noyaux. Nous proposons dans un second temps un nouveau framework basé sur les noyaux, permettant de représenter et de comparer les distributions de probabilités discrètes. Nous exploitons ensuite le lien entre notre framework et la Maximum Mean Discrepancy pour proposer une approximation précise et peu coûteuse de cette dernière. La deuxième partie de cette thèse est consacrée à l’optimisation avec contrainte de parcimonie pour l’optimisation de signaux et l’élagage de forêts aléatoires. Tout d’abord, nous prouvons sous certaines conditions sur la cohérence du dictionnaire, les propriétés de reconstruction et de convergence de l’algorithme Frank-Wolfe. Ensuite, nous utilisons l'algorithme OMP pour réduire la taille de forêts aléatoires et ainsi réduire la taille nécessaire pour son stockage. La forêt élaguée est constituée d’un sous-ensemble d’arbres de la forêt initiale sélectionnés et pondérés par OMP de manière à minimiser son erreur empirique de prédiction
The contributions of this thesis are divided into two parts. The first part is dedicated to the acceleration of kernel methods and the second to optimization under sparsity constraints. Kernel methods are widely known and used in machine learning. However, the complexity of their implementation is high and they become unusable when the number of data is large. We first propose an approximation of Ridge leverage scores. We then use these scores to define a probability distribution for the sampling process of the Nyström method in order to speed up the kernel methods. We then propose a new kernel-based framework for representing and comparing discrete probability distributions. We then exploit the link between our framework and the maximum mean discrepancy to propose an accurate and fast approximation of the latter. The second part of this thesis is devoted to optimization with sparsity constraint for signal optimization and random forest pruning. First, we prove under certain conditions on the coherence of the dictionary, the reconstruction and convergence properties of the Frank-Wolfe algorithm. Then, we use the OMP algorithm to reduce the size of random forests and thus reduce the size needed for its storage. The pruned forest consists of a subset of trees from the initial forest selected and weighted by OMP in order to minimize its empirical prediction error
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Loosli, Gaëlle. "Méthodes à noyaux pour la détection de contexte : vers un fonctionnement autonome des méthodes à noyaux". Rouen, INSA, 2006. http://www.theses.fr/2006ISAM0009.

Texto completo
Resumen
Permettre à des applications d'accéder à leur contexte ouvre un nombre important de perspectives dans l'interaction homme-machine. Les nombreux travaux visant à déterminer comment utiliser le contexte montrent le besoin de savoir le récupérer. En analysant les besoins en apprentissage automatique pour l'ensemble des tâches relatives à la détection de contexte, nous nous sommes heurtés à un certain nombre de verrous scientifiques. Par conséquent, la plus grande partie des travaux effectués au cours de cette thèse concernent l'apprentissage d'un point de vue plus général avec comme objectif d'aboutir à un apprentissage autonome et endurant. Par autonome, nous entendons un apprentissage qui ne nécessite pas l'intervention d'un spécialiste pour fonctionner. Cela implique de faire appel à des méthodes aptes à de régler seules et en ligne. Par endurant, nous faisons référence à un usage réaliste des applications, c'est-à-dire un fonctionnement en temps réel, donc rapide et en ligne, pour un nombre très important de données et stable. Parce que les SVM donnent des résultats précis, nous avons focalisé l'ensemble de nos travaux sur cette méthode, or les SVM sont loin de répondre aux exigences d'un apprentissage autonome et endurant. L'apprentissage autonome n'est pas seulement soumis au besoin d'efficacité de la technique de résolution. Il est également limité par la présence d'hyper-paramètres. Dans le cas des SVM, ces hyper-paramètres sont relativement peu nombreux mais un seul suffit à rendre une méthode dépendante d'une forme de supervision qui contredit soit le besoin d'apprentissage en ligne, soit l'objectif d'indépendance vis-à-vis d'une intervention humaine. Nous avons étudié ce problème par le biais des chemins de régularisation. Le chemin de régularisation permet de connaître toutes les solutions d'un problème au regard d'un compromis biais-variance. Pour les SVM, ce compromis est réglé par un des hyper-paramètres et nous utilisons donc le chemin de régularisation pour obtenir un réglage automatique de cet hyper-paramètre. Nous n'avons pas encore atteint le stade du push-button SVM mais nous montrons que toutes les limites des SVM ne sont pas insurmontables. En ce qui concerne la taille des bases d'apprentissage possibles à traiter en particulier, nous avons mis en oeuvre le plus grand SVM à ce jour sur un seul processeur avec 80 millions de points en dimension 784, en utilisant la méthode en ligne LASVM.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Loustau, Sébastien. "Performances statistiques de méthodes à noyaux". Phd thesis, Université de Provence - Aix-Marseille I, 2008. http://tel.archives-ouvertes.fr/tel-00343377.

Texto completo
Resumen
Cette thèse se concentre sur le modèle de classification binaire. Etant donné $n$ couples de variables aléatoires indépendantes et identiquement distribuées (i.i.d.) $(X_i,Y_i)$, $i=1,\ldots ,n$ de loi $P$, on cherche à prédire la classe $Y\in\{-1,+1\}$ d'une nouvelle entrée $X$ où $(X,Y)$ est de loi $P$. La règle de Bayes, notée $f^*$, minimise l'erreur de généralisation $R(f)=P(f(X)\not=Y)$. Un algorithme de classification doit s'approcher de la règle de Bayes. Cette thèse suit deux axes : établir des vitesses de convergence vers la règle de Bayes et proposer des procédures adaptatives.

Les méthodes de régularisation ont montrées leurs intérêts pour résoudre des problèmes de classification. L'algorithme des Machines à Vecteurs de Support (SVM) est aujourd'hui le représentant le plus populaire. Dans un premier temps, cette thèse étudie les performances statistiques de cet algorithme, et considère le problème d'adaptation à la marge et à la complexité. On étend ces résultats à une nouvelle procédure de minimisation de risque empirique pénalisée sur les espaces de Besov. Enfin la dernière partie se concentre sur une nouvelle procédure de sélection de modèles : la minimisation de l'enveloppe du risque (RHM). Introduite par L.Cavalier et Y.Golubev dans le cadre des problèmes inverses, on cherche à l'appliquer au contexte de la classification.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Belley, Philippe. "Noyaux discontinus et méthodes sans maillage en hydrodynamique". Mémoire, Université de Sherbrooke, 2007. http://savoirs.usherbrooke.ca/handle/11143/4815.

Texto completo
Resumen
Nous développons de nouvelles méthodes pour estimer la valeur d'une fonction, ainsi que les valeurs de ses dérivées première et seconde en un point quelconque. Ces méthodes reposent sur la convolution de la fonction avec de nouveaux noyaux discontinus à support fini, introduits dans ce mémoire. Notre approche, qui s'inspire des techniques sans maillage de l'hydrodynamique des particules lisses (ou" smoothed particle hydrodynamics", SPH), a l'avantage de permettre l'emploi d'approximations polynomiales et de certaines formules Newton-Cotes (comme les règles du trapèze et de Simpson) dans l'évaluation des convolutions. De plus, nous obtenons des bornes d'erreurs associées aux techniques SPH. Dans nos calculs numériques nous avons obtenu, grâce à la convolution avec nos noyaux discontinus, des résultats supérieurs à ceux obtenus par la convolution avec un noyau continu souvent utilisé en SPH classique (plus précisément, le noyau connu sous le nom de poly6 ). Cette supériorité est particulièrement évidente lorsque le support du noyau est petit.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Bietti, Alberto. "Méthodes à noyaux pour les réseaux convolutionnels profonds". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM051.

Texto completo
Resumen
La disponibilité de quantités massives de données, comme des images dans les réseaux sociaux, des signaux audio de téléphones mobiles, ou des données génomiques ou médicales, a accéléré le développement des techniques d'apprentissage automatique. Ces méthodes exploitent des motifs statistiques dans ces grandes bases de données pour effectuer de bonnes prédictions sur des nouvelles images, signaux, ou séquences de protéines. Récemment, les systèmes d'apprentissage profond ont émergé comme des algorithmes d'apprentissage très efficaces. Ces modèles multi-couche effectuent leurs prédictions de façon hiérarchique, et peuvent être entraînés à très grande échelle avec des méthodes de gradient. Leur succès a été particulièrement marqué lorsque les données sont des signaux naturels comme des images ou des signaux audio, pour des tâches comme la reconnaissance visuelle, la détection d'objets, ou la reconnaissance de la parole. Pour de telles tâches, l'apprentissage profond donne souvent la meilleure performance empirique, mais leur compréhension théorique reste difficile à cause du grand nombre de paramètres, et de la grande dimension des données. Leur succès est souvent attribué à leur capacité d'exploiter des structures des signaux naturels, par exemple en apprenant des représentations invariantes et multi-échelle de signaux naturels à travers un bon choix d'architecture, par exemple avec des convolutions et des opérations de pooling. Néanmoins, ces propriétés sont encore mal comprises théoriquement, et l'écart entre la théorique et pratique en apprentissage continue à augmenter. Cette thèse vise à réduire cet écart grâce à l'étude d'espaces de fonctions qui surviennent à partir d'une certaine architecture, en particulier pour les architectures convolutives. Notre approche se base sur les méthodes à noyaux, et considère des espaces de Hilbert à noyaux reproduisant (RKHS) associés à certains noyaux construits de façon hiérarchique selon une architecture donnée. Cela nous permet d'étudier précisément des propriétés de régularité, d'invariance, de stabilité aux déformations du signal, et d'approximation des fonctions du RKHS. Ces propriétés sur la représentation sont aussi liées à des questions d'optimisation pour l'entraînement de réseaux profonds à très grand nombre de neurones par descente de gradient, qui donnent lieu à de tels noyaux. Cette théorie suggère également des nouvelles stratégies pratiques de régularisation qui permettent d'obtenir une meilleure performance en généralisation pour des petits jeux de données, et une performance état de l'art pour la robustesse à des perturbations adversariales en vision
The increased availability of large amounts of data, from images in social networks, speech waveforms from mobile devices, and large text corpuses, to genomic and medical data, has led to a surge of machine learning techniques. Such methods exploit statistical patterns in these large datasets for making accurate predictions on new data. In recent years, deep learning systems have emerged as a remarkably successful class of machine learning algorithms, which rely on gradient-based methods for training multi-layer models that process data in a hierarchical manner. These methods have been particularly successful in tasks where the data consists of natural signals such as images or audio; this includes visual recognition, object detection or segmentation, and speech recognition.For such tasks, deep learning methods often yield the best known empirical performance; yet, the high dimensionality of the data and large number of parameters of these models make them challenging to understand theoretically. Their success is often attributed in part to their ability to exploit useful structure in natural signals, such as local stationarity or invariance, for instance through choices of network architectures with convolution and pooling operations. However, such properties are still poorly understood from a theoretical standpoint, leading to a growing gap between the theory and practice of machine learning. This thesis is aimed towards bridging this gap, by studying spaces of functions which arise from given network architectures, with a focus on the convolutional case. Our study relies on kernel methods, by considering reproducing kernel Hilbert spaces (RKHSs) associated to certain kernels that are constructed hierarchically based on a given architecture. This allows us to precisely study smoothness, invariance, stability to deformations, and approximation properties of functions in the RKHS. These representation properties are also linked with optimization questions when training deep networks with gradient methods in some over-parameterized regimes where such kernels arise. They also suggest new practical regularization strategies for obtaining better generalization performance on small datasets, and state-of-the-art performance for adversarial robustness on image tasks
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Suard, Frédéric. "Méthodes à noyaux pour la détection de piétons". Phd thesis, INSA de Rouen, 2006. http://tel.archives-ouvertes.fr/tel-00375617.

Texto completo
Resumen
La détection de piéton est un problème récurrent depuis de nombreuses années. La principale confrontation est liée à la grande variabilité du piéton en échelle, posture et apparence. Un algorithme efficace de reconnaissance de formes doit donc être capable d'affronter ces difficultés. En particulier, le choix d'une représentation pertinente et discriminante est un sujet difficile à résoudre. Dans notrre cas, nous avons envisagé deux approches. La première consiste à représenter la forme d'un objet à l'aide de graphes étiquetés. Selon les étiquettes apportées, le graphe possède en effet des propriétés intéressantes pour résoudre les problèmes de variabilité de taille et de posture. Cette méthode nécessite cependant une segmentation rigoureuse au préalable. Nous avons ensuite étudié une représentation constituée d'histogrammes locaux d'orientation de gradient. Cette méthode présente des résultats intéressants par ses capacités de généralisation. L'application de cette méthode sur des images infrarouges complètes nécessite cependant une fonction permettant d'extraire des fenêtres dans l'image afin d'analyser leur contenu et vérifier ainsi la présence ou non de piétons. La deuxième étape du processus de reconnaissance de formes concerne l'analyse de la représentation des données. Nous utilisons pour cela le classifieur Support Vector Machine bâti, entre autres, sur une fonction noyau calculant le produit scalaire entre les données support et la donnée évaluée. Dans le cas des graphes, nous utilisons une formulation de noyau de graphes calculé sur des "sacs de chemins". Le but consiste à extraire un ensemble de chemins de chaque graphe puis de comparer les chemins entre eux et combiner les comparaisons pour obtenir le noyau final. Pour analyser les histogrammes de gradient, nous avons étudié différentes formulations permettant d'obtenir les meilleures performances avec cette représentation qui peut être assimilée à une distribution de probabilités.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Suard, Frédéric. "Méthodes à noyaux pour la détection de piétons". Phd thesis, Rouen, INSA, 2006. http://www.theses.fr/2006ISAM0024.

Texto completo
Resumen
La détection de piéton est un problème récurrent depuis de nombreuses années. La principale confrontation est liée à la grande variabilité du piéton en échelle, posture et apparence. Un algorithme efficace de reconnaissance de formes doit donc être capable d'affronter ces difficultés. En particulier, le choix d'une représentation pertinente et discriminante est un sujet difficile à résoudre. Dans notrre cas, nous avons envisagé deux approches. La première consiste à représenter la forme d'un objet à l'aide de graphes étiquetés. Selon les étiquettes apportées, le graphe possède en effet des propriétés intéressantes pour résoudre les problèmes de variabilité de taille et de posture. Cette méthode nécessite cependant une segmentation rigoureuse au préalable. Nous avons ensuite étudié une représentation constituée d'histogrammes locaux d'orientation de gradient. Cette méthode présente des résultats intéressants par ses capacités de généralisation. L'application de cette méthode sur des images infrarouges complètes nécessite cependant une fonction permettant d'extraire des fenêtres dans l'image afin d'analyser leur contenu et vérifier ainsi la présence ou non de piétons. La deuxième étape du processus de reconnaissance de formes concerne l'analyse de la représentation des données. Nous utilisons pour cela le classifieur Support Vector Machine bâti, entre autres, sur une fonction noyau calculant le produit scalaire entre les données support et la donnée évaluée. Dans le cas des graphes, nous utilisons une formulation de noyau de graphes calculé sur des "sacs de chemins". Le but consiste à extraire un ensemble de chemins de chaque graphe puis de comparer les chemins entre eux et combiner les comparaisons pour obtenir le noyau final. Pour analyser les histogrammes de gradient, nous avons étudié différentes formulations permettant d'obtenir les meilleures performances avec cette représentation qui peut être assimilée à une distribution de probabilités.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Sadok, Hassane. "Accélération de la convergence de suites vectorielles et méthodes de point fixe". Lille 1, 1988. http://www.theses.fr/1988LIL10146.

Texto completo
Resumen
Étude de l'accélération de la convergence de suites de vecteurs complexes. Transformation d'Henrici et transformations composites vectorielles (étudiées par C. Brezinski dans le cas scolaire). Connexion existant entre les méthodes d'accélération de la convergence et les méthodes de point fixe. Généralisations de la méthode Regula-Falsi. Revue des principales méthodes d'accélération de la convergence. Classe de méthodes à convergence quadratique, appliquées à la résolution des systèmes d'équations non linéaires.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Pothin, Jean-Baptiste. "Décision par méthodes à noyaux en traitement du signal : techniques de sélection et d'élaboration de noyaux adaptés". Troyes, 2007. http://www.theses.fr/2007TROY0016.

Texto completo
Resumen
Dans le foisonnant domaine des méthodes à noyaux, force est de constater aujourd’hui que les efforts de recherche ont été essentiellement portés sur les applications, délaissant quelque peu l’étude des noyaux eux-mêmes. Cet état de fait est d’autant plus surprenant que ces derniers conditionnent largement l’efficacité des traitements, par leur aptitude à révéler les similarités existant au sein des données traitées. Le principal objectif de cette thèse est de proposer une méthodologie pour l’élaboration d'un noyau adapté à un problème et à des données. La première partie de ce manuscrit s’intéresse au problème d’apprentissage d’un noyau par ajustement de ses paramètres libres. Nous étudions en particulier les propriétés statistiques des critères d’alignement et de polarité, et proposons un algorithme glouton pour l’optimisation d’une combinaison linéaire de noyaux. Dans la seconde partie, nous étudions le problème d’optimisation de la représentation des données. Un algorithme est proposé pour transformer linéairement les données selon le critère d’alignement. Afin de lutter contre la malédiction de la dimensionnalité, nous étudions une seconde approche basée sur l’optimisation de la métrique et l’appliquons avec succès au problème de classification de textes. La dernière partie concerne la prise en compte d’a priori modélisé sous la forme d’ellipsoïdes, inspiré de l’apprentissage d’un SVM, nous développons un algorithme supervisé capable de classer efficacement des ellipsoïdes
Among the large family of kernel methods, one should admit that, up to now, research was guided by applications, neglecting the study of the kernels themselves. This observations of particularly surprising since these later determine the performance of the machine by their ability to reveal similarities between data samples. The main objective of this thesis is to provide a methodology for the design of data-dependant kernels. The first part of this manuscript is about kernel learning. We study the problem consisting in optimizing the free parameters of several well-known kernel families. We propose a greedy algorithm for learning a linear combination of kernels without training any kernel machine at each step. The improved kernel is then used to train a standard SVM classifier. Applications in regression are also presented. In the second part, we develop methods for data representation learning. We propose an algorithm for maximizing the alignment over linear transform of the input space, which suppose vectorial representation of the data. To deal with the so-called curse of dimensionality, we suggest to learn data representation by distance metric learning. This approach can be used to optimize efficiently any reproducing kernel Hilbert space. We show its application in a text classification context. The last part concerns the use of prior information in the form of ellipsoidal knowledge sets. By considering bounding ellipsoids instead of the usual sample vectors, one can include into SVM invariance properties
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Tawk, Melhem. "Accélération de la simulation par échantillonnage dans les architectures multiprocesseurs embarquées". Valenciennes, 2009. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/860a8e09-e347-4f85-83bd-d94ca890483d.

Texto completo
Resumen
La conception de systèmes embarqués s’appuie fortement sur la simulation pour évaluer et valider des nouvelles configurations architecturales avant la réalisation physique. Néanmoins, comme ces systèmes deviennent de plus en plus complexes, la simulation de ces systèmes exige des temps importants. Ce problème est encore plus visible au niveau des architectures embarquées multiprocesseurs (ou MPSoC) qui offrent des performances certes intéressantes (en nombre d’instructions/Joule) mais qui exigent des simulateurs performants. Pour ces systèmes, il est impératif d’accélérer la simulation afin de réduire les délais de la phase d’évaluation des performances et obtenir ainsi des temps d’arrivée sur le marché (time-to-market) relativement courts. La thèse s’intéresse aux méthodes d’accélération de la simulation pour ce type d’architectures. Dans ce cadre, nous avons proposé une série de solutions visant à accélérer la simulation des MPSoC. L’ensemble des méthodes proposées sont basées sur l’échantillonnage des applications. Ainsi, les applications parallèles sont d’abords analysées afin de détecter les différentes phases qui les composent. Par la suite et pendant la simulation, les phases s’exécutant en parallèle se combinent et forment des clusters de phases. Nous avons mis au point des techniques qui permettent de former les clusters, de les détecter et de sauvegarder leurs statistiques de façon intéressante. Chaque cluster représente un échantillon d’intervalles d’exécution de l’application similaires. La détection de ces derniers nous évite de simuler plusieurs fois le même échantillon. Pour réduire le nombre de clusters dans les applications et augmenter le nombre d’occurrences des clusters simulés, une optimisation de la méthode a été proposée afin d’adapter dynamiquement la taille des phases des applications à simuler. Ceci permet de détecter facilement les scenarios des clusters exécutés lorsqu’une répétition dans le comportement des applications a lieu. Enfin, pour rendre notre méthodologie viable dans un environnement de conception de MPSoC, nous avons proposé des techniques performantes pour la construction de l’état exact du système au démarrage (checkpoint) de la simulation des clusters
Embedded system design relies heavily on simulation to evaluate and validate new platforms before implementation. Nevertheless, as technological advances allow the realization of more complex circuits, simulation time of these systems is considerably increasing. This problem arises mostly in the case of embedded multiprocessor architectures (MPSoC) which offer high performances (in terms of instructions/Joule) but which require powerful simulators. For such systems, simultion should be accelerated in order to speed up their design flow thus reducing the time-to-market. In this thesis, we proposed a series of solutions aiming at accelerating the simulation of MPSoC. The proposed methods are based on application sampling. Thus, the parallel applications are first analyzed in order to detect the different phases which compose them. Thereafter and during the simulation, the phases executed in parallel are combined together in order to generate clusters of phases. We developed techniques that facilitate generating clusters, detecting repeated ones and recording their statistics in an efficient way. Each cluster represents a sample of similar execution intervals of the application. The detection of these similar intervals saves us simulating several times the same sample. To reduce the number of clusters in the applications and to increase the occurrence number of simulated clusters, an optimization of the method was proposed to dynamically adapt phase size of the applications. This makes it possible to easily detect the scenarios of the executed clusters when a repetition in the behavior of the applications takes place. Finally, to make our methodology viable in an MPSoC design environment, we proposed efficient techniques to construct the real system state at the simulation starting point (checkpoint) of the cluster
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Touag, Athmane. "Accélération de la génération des tests de protocoles par agrégation de méthodes hétérogènes". Paris 6, 2000. http://www.theses.fr/2000PA066458.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Villain, Jonathan. "Estimation de l'écotoxicité de substances chimiques par des méthodes à noyaux". Thesis, Lorient, 2016. http://www.theses.fr/2016LORIS404/document.

Texto completo
Resumen
Dans le domaine de la chimie et plus particulièrement en chimio-informatique, les modèles QSAR (pour Quantitative Structure Activity Relationship) sont de plus en plus étudiés. Ils permettent d’avoir une estimation in silico des propriétés des composés chimiques notamment des propriétés éco toxicologiques. Ces modèles ne sont théoriquement valables que pour une classe de composés (domaine de validité) et sont sensibles à la présence de valeurs atypiques. La thèse s’est focalisée sur la construction de modèles globaux robustes (intégrant un maximum de composés) permettant de prédire l’écotoxicité des composés chimiques sur une algue P. Subcapitata et de déterminer un domaine de validité dans le but de déduire la capacité de prédiction d’un modèle pour une molécule. Ces modèles statistiques robustes sont basés sur une approche quantile en régression linéaire et en régression Support Vector Machine
In chemistry and more particularly in chemoinformatics, QSAR models (Quantitative Structure Activity Relationship) are increasingly studied. They provide an in silico estimation of the properties of chemical compounds including ecotoxicological properties. These models are theoretically valid only for a class of compounds (validity domain) and are sensitive to the presence of outliers. This PhD thesis is focused on the construction of robust global models (including a maximum of compounds) to predict ecotoxicity of chemical compounds on algae P. subcapitata and to determine a validity domain in order to deduce the capacity of a model to predict the toxicity of a compound. These robust statistical models are based on quantile approach in linear regression and regression Support Vector Machine
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Barbillon, Pierre. "Méthodes d'interpolation à noyaux pour l'approximation de fonctions type boîte noire coûteuses". Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00559502.

Texto completo
Resumen
Cette thèse se place dans le cadre des expériences simulées auxquelles on a recours lorsque des expériences physiques ne sont pas réalisables. Une expérience simulée consiste à évaluer une fonction déterministe type boîte-noire coûteuse qui décrit un modèle physique. Les entrées de ce modèle, entachées d'incertitude, forment un vecteur aléatoire. Cela implique que les sorties que nous souhaitons étudier sont aléatoires. Une technique standard pour rendre possibles de nombreux traitements statistiques, est de remplacer la fonction type boîte-noire par un métamodèle d'évaluation quasi-instantanée l'approchant. Nous nous concentrons plus particulièrement sur les métamodèles d'interpolateurs à noyaux dont nous étudions la construction et l'utilisation. Dans ce cadre, une première contribution est la proposition d'une définition plus générale de noyau conditionnellement positif qui permet une vraie généralisation du concept de noyau défini positif et des théorèmes associés. Nous donnons ensuite, dans une deuxième contribution, un algorithme de construction de plans d'expérience dans des domaines éventuellement non hypercubiques suivant un critère maximin pertinent pour ces métamodèles. Dans une troisième contribution, nous traitons un problème statistique inverse en utilisant un métamodèle d'interpolateurs à noyaux dans un algorithme stochastique EM puisque le modèle liant les entrées aux sorties est de type boîte-noire coûteux. Enfin, nous proposons aussi, dans la dernière contribution, l'utilisation d'un tel métamodèle pour développer deux stratégies d'estimation et de majoration de probabilités d'événements rares dépen\-dant d'une fonction type boîte-noire coûteuse.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Giffon, Luc. "Approximations parcimonieuses et méthodes à noyaux pour la compression de modèles d'apprentissage". Electronic Thesis or Diss., Aix-Marseille, 2020. http://www.theses.fr/2020AIXM0354.

Texto completo
Resumen
Cette thèse a pour objectif d’étudier et de valider expérimentalement les bénéfices, en terme de quantité de calcul et de données nécessaires, que peuvent apporter les méthodes à noyaux et les méthodes d’approximation parcimonieuses à des algorithmes d’apprentissage existant. Dans une première partie de cette thèse, nous proposons un nouveau type d’architecture neuronale qui fait intervenir une fonction noyau afin d’en réduire le nombre de paramètres à apprendre, ce qui permet de la rendre robuste au sur-apprentissage dans un régime où peu de données annotées sont disponibles. Dans une seconde partie de cette thèse, nous cherchons à réduire la complexité de modèles d’apprentissage existants en y incluant des approximations parcimonieuses. D’abord, nous proposons un algorithme alternatif à l’algorithme des K-moyennes qui permet d’en accélérer la phase d’inférence grâce à l’expression des centroides sous forme d’un produit de matrices parcimonieuses. En plus des garanties de convergence de l’algorithme proposé, nous apportons une validation expérimentale de la qualité des centroides ainsi exprimés et de leur bénéfice en terme de coût calculatoire. Ensuite, nous explorons la compression de réseaux neuronaux par le remplacement des matrices qui le constituent avec des décomposition parcimonieuses. Enfin, nous détournons l’algorithme d’approximation parcimonieuse OMP pour faire une sélection pondérée des arbres de décision d’une forêt aléatoire, nous analysons l’effet des poids obtenus et proposons par ailleurs une alternative non-négative de la méthode qui surpasse toutes les autres techniques de sélection d’arbres considérées sur un large panel de jeux de données
This thesis aims at studying and experimentally validating the benefits, in terms of amount of computation and data needed, that kernel methods and sparse approximation methods can bring to existing machine learning algorithms. In a first part of this thesis, we propose a new type of neural architecture that uses a kernel function to reduce the number of learnable parameters, thus making it robust to overfiting in a regime where few labeled observations are available. In a second part of this thesis, we seek to reduce the complexity of existing machine learning models by including sparse approximations. First, we propose an alternative algorithm to the K-means algorithm which allows to speed up the inference phase by expressing the centroids as a product of sparse matrices. In addition to the convergence guarantees of the proposed algorithm, we provide an experimental validation of both the quality of the centroids thus expressed and their benefit in terms of computational cost. Then, we explore the compression of neural networks by replacing the matrices that constitute its layers with sparse matrix products. Finally, we hijack the Orthogonal Matching Pursuit (OMP) sparse approximation algorithm to make a weighted selection of decisiontrees from a random forest, we analyze the effect of the weights obtained and we propose a non-negative alternative to the method that outperforms all other tree selectiontechniques considered on a large panel of data sets
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Jbilou, Khalid. "Méthodes d'extrapolation et de projection : applications aux suites de vecteurs". Lille 1, 1988. http://www.theses.fr/1988LIL10150.

Texto completo
Resumen
Présentation et étude de certaines méthodes d'extrapolation, de projection, appliquées aux suites de vecteurs. Méthodes directes de résolution de systèmes linéaires et d'inversion de matrices symétriques. Transformation e-vectorielle et algorithme (t) dérive du h-algorithme. Méthode générale d'extrapolation regroupant de nombreuses transformations connues. Applications au calcul des valeurs propres et à la résolution des systèmes linéaires et non linéaires. Accélération des méthodes de projection
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Le, Calvez Caroline. "Accélération de méthodes de Krylov pour la résolution de systèmes linéaires creux sur machines parallèles". Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/50376-1998-225.pdf.

Texto completo
Resumen
Nous nous placons dans le cadre de la resolution de systemes lineaires creux non symetriques par des methodes de krylov sur machines paralleles. Nous considerons les methodes fom(m) et gmres(m), qui sont performantes d'un point de vue de la convergence, mais presentent l'inconvenient de ne pas etre completement paralleles. Nous constatons en effet que la plus part du temps d'execution est consacree a des produits scalaires engendrant des communications sur des donnees de taille faible, mais induisant de nombreux points de synchronisation, qui constituent une perte de temps non negligeable. Une autre grande partie de temps est consacree aux produits matrice vecteur, qui sont des operations deja paralleles. Notre objectif etant de rendre la resolution d'un systeme lineaire toujours plus rapide et robuste, nous ameliorons les methodes fom(m) et gmres(m) a ces deux niveaux: - tout d'abord, en optant pour un produit scalaire discret, qui est moins couteux que celui euclidien. Ce changement permet de remplacer les produits scalaires initiaux par un produit matrice vecteur suivi d'une seule communication. Les nouvelles methodes ainsi derivees, appelees adop, sont plus rapides sur machines paralleles, - puis, en ameliorant la convergence de ces methodes et leur robustesse, notamment en diminuant le nombre total de produits matrice vecteur de facon a diminuer le temps d'execution. Nous tentons d'accelerer les methodes fom(m) et gmres(m) en remediant aux pertes d'informations dues a leur redemarrage, et ceci grace a des techniques de deflation. L'utilisation de la methode ira nous permet de diminuer a la fois les couts de stockage, la complexite et les couts de communications, ce qui rend les methodes resultantes idfom et idgmres plus efficaces et moins couteuses.
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Vazquez, Emmanuel. "Modélisation comportementale de systèmes non-linéaires multivariables par méthodes à noyaux et applications". Phd thesis, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00010199.

Texto completo
Resumen
Les méthodes de prédiction linéaire de processus aléatoires, ou krigeage, et les méthodes de régression régularisée par une norme d'espace hilbertien à noyau reproduisant (splines, approximation par fonctions de base radiales, régression à vecteurs de support, etc.) constituent deux approches fondamentales de modélisation comportementale de systèmes non-linéaires. Les liens mathématiques entre ces deux approches ont été mentionnés à plusieurs reprises dans le passé. Fort peu exploités, ces liens n'en restent pas moins fondamentaux puisqu'ils permettent par exemple de comprendre comment formuler le problème de régression régularisée pour l'approximation de fonctions à valeurs vectorielles (cas des systèmes multivariables dits MIMO). Dans les deux approches, le choix du noyau est essentiel car il conditionne la qualité des modèles. Les principaux résultats théoriques sont issus de travaux en statistiques. Bien que de type asymptotique, ils ont des conséquences pratiques importantes rappelées et illustrées dans cette étude. Les noyaux considérés habituellement forment une famille restreinte offrant relativement peu de souplesse. Ceci nous a suggéré de développer des méthodes assemblant un noyau à partir d'un grand nombre de noyaux élémentaires. Elles ont permis d'obtenir des résultats satisfaisants notamment sur un problème test classique issu du domaine de la prédiction de séries chronologiques. Enfin, ce travail s'attache à montrer comment utiliser les méthodes de régression à noyaux à travers la présentation de problèmes réels. Le choix de noyau est abordé en pratique. La prise en compte d'informations disponibles a priori par utilisation du krigeage intrinsèque (régression semi-régularisée) est illustrée. Finalement, des éléments de planification d'expériences sont discutés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Guigue, Vincent. "Méthodes à noyaux pour la représentation et la discrimination de signaux non-stationnaires". INSA de Rouen, 2005. http://www.theses.fr/2005ISAM0014.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Kallas, Maya. "Méthodes à noyaux en reconnaissance de formes, prédiction et classification : applications aux biosignaux". Troyes, 2012. http://www.theses.fr/2012TROY0026.

Texto completo
Resumen
Le foisonnement des méthodes à noyaux réside dans l’astuce du noyau, induisant implicitement une transformation non-linéaire à coût calculatoire réduit. Cependant, la transformation inverse est souvent cruciale. La résolution de ce problème, dit de pré-image, permet de nouveaux domaines d’applications de ces méthodes. L’objectif de cette thèse est de montrer que les récentes avancées en théorie de l’apprentissage statistique apportent des solutions pertinentes à plusieurs problèmes soulevés en traitement du signal et des images. La première partie porte sur la résolution du problème de pré-image avec contraintes imposées par la physiologie. En particulier, la nonnégativité est probablement la plus couramment énoncée. Les contraintes de nonnégativité du résultat ainsi que celles de l’additivité des contributions, induisant une certaine parcimonie, sont étudiées. La seconde partie porte sur l’analyse de séries temporelles, selon une approche prédictive. Des modèles autorégressifs sont élaborés dans l’espace transformé, la prédiction nécessitant la résolution du problème de pré-image. Deux modèles à noyaux de prédiction sont considérés : le premier basé sur le problème de moindres carrés, et le second sur les équations de Yule-Walker. La dernière partie traite le problème de classification d’électrocardiogrammes, afin d’y détecter des anomalies. La détection et la classification multi-classes sont examinées au jour des machines à vecteurs supports et des cartes d’auto-organisation
The proliferation of kernel methods lies essentially on the kernel trick, which induces an implicit nonlinear transformation with reduced computational cost. Still, the inverse transformation is often necessary. The resolution of this so-called pre-image problem enables new fields of applications of these methods. The main purpose of this thesis is to show that recent advances in statistical learning theory provide relevant solutions to several issues raised in signal and image processing. The first part focuses on the pre-image problem, and on solutions with constraints imposed by physiology. The non-negativity is probably the most commonly stated constraints when dealing with natural signals and images. Nonnegativity constraints on the result, as well as on the additivity of the contributions, are studied. The second part focuses on time series analysis according to a predictive approach. Autoregressive models are developed in the transformed space, while the prediction requires solving the pre-image problem. Two kernelbased predictive models are considered: the first one is derived by solving a least-squares problem, and the second one by providing the adequate Yule-Walker equations. The last part deals with the classification task for electrocardiograms, in order to detect anomalies. Detection and multi-class classification are explored in the light of support vector machines and self-organizing maps
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Ziani, Mohammed. "Accélération de la convergence des méthodes de type Newton pour la résolution des systèmes non-linéaires". Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/ziani.pdf.

Texto completo
Resumen
Nous proposons d’abord dans cette thèse une nouvelle méthode de type Broyden appelée méthode autoadaptative de Broyden à mémoire limitée. Le point fort de cette méthode est que seules les directions de Broyden nécessaires à la convergence sont stockées. La méthode commence avec une seule direction de Broyden, mais quand une mauvaise convergence est détectée, la dimension du sous-espace d'approximation est automatiquement augmentée. La méthode autoadaptative réduit efficacement le temps de calcul et le coût de stockage. De plus, sous des hypothèses classiques, nous prouvons sa convergence superlinéaire. Nous proposons ensuite la résolution de deux équations aux dérivées partielles non-linéaires. La première application concerne la résolution de modèles non-linéaires en traitement d'images. Dans cette application, la méthode autoadaptative converge mieux que les autres variantes de la méthode de Newton. Dans le cas où le bruit est non-uniforme, les méthodes de type Newton peuvent ne pas converger. Nous appliquons ainsi un préconditionnement non-linéaire au problème. Nous utilisons en particulier le préconditionnement non-linéaire basé sur l'algorithme non-linéaire de Schwarz additif. La deuxième application est sur la résolution d'un problème aux limites non-linéaire modélisant le déplacement d'un pieu enfoncé dans un sol
In this thesis, we propose, on one hand, a new Broyden like method called Broyden autoadaptive limited memory Broyden method. The key point of this method is that only the necessary Broyden directions for the convergence are stored. The method starts with a minimal memory, but when a lack of convergence is detected, the size of the approximation subspace is automatically increased. Unlike classical limited memory methods, its advantage is that it does not require the parameter for the dimension of the approximating subspace. The autoadaptive method reduces efficiently computational time and storage cost. Moreover, under classic assumptions, we prove occurrence of superlinear convergence. On the other hand, we solve two nonlinear partial differential equations which arise in two contexts. The first problem consists in solving nonlinear models in image processing. In that application, the autoadaptive method converges better than the other variants of Newton method. When nonuniform noise is introduced, Newton type methods cannot converge. Actually, nonlinearities of the system are unbalanced. We so apply a nonlinear preconditioner to the problem. We use in particular the nonlinear preconditioner based on the nonlinear additive Schwarz algorithm. The second application concerns the solution of a nonlinear problem modelling the displacement of a pile inserted in a ground
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Gaüzère, Benoit. "Application des méthodes à noyaux sur graphes pour la prédiction des propriétés des molécules". Phd thesis, Université de Caen, 2013. http://tel.archives-ouvertes.fr/tel-00933187.

Texto completo
Resumen
Cette thèse s'intéresse à l'application des méthodes à noyaux sur graphes pour la prédiction de propriétés moléculaires. Dans ce manuscrit, nous présentons un état de l'art des méthodes à noyaux sur graphes définies dans le cadre de la chémoinformatique et plus particulièrement les noyaux sur graphes basés sur les sacs de motifs. Dans ce cadre, nous proposons un nouveau noyau sur graphes basé sur un ensemble explicite de sous-arbres, appelés treelets, permettant d'encoder une grande partie de l'information structurelle acyclique des graphes moléculaires. Nous proposons également de combiner ce noyau avec des méthodes d'apprentissage à noyaux multiples afin d'extraire un ensemble de motifs pertinents. Cette contribution est ensuite étendue en incluant l'information cyclique encodée par deux représentations moléculaires définies par le graphe de cycles pertinents et l'hypergraphe de cycles pertinents. Le graphe des cycles pertinents permet d'encoder le système cyclique d'une molécule. L'hypergraphe de cycles pertinents correspond à une nouvelle représentation moléculaire permettant d'encoder à la fois le système cyclique d'une molécule ainsi que les relations d'adjacence entre les cycles et les parties acycliques. Nous proposons également deux noyaux sur graphes utilisant ces représentations. Enfin, la dernière partie vise à définir des noyaux sur graphes pour la chémoinformatique basés sur la distance d'édition. Un premier noyau est basé sur un opérateur de régularisation utilisant la distance d'édition entre graphes moléculaires. Le second noyau introduit la comparaison de treelets dissimilaires basée sur un algorithme de calcul de la distance d'édition entre treelets.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Gaüzère, Benoît. "Application des méthodes à noyaux sur graphes pour la prédiction des propriétés des molécules". Caen, 2013. http://www.theses.fr/2013CAEN2043.

Texto completo
Resumen
Cette thèse s'intéresse à l'application des méthodes à noyaux sur graphes pour la prédiction de propriétés moléculaires. Dans ce manuscrit, nous présentons un état de l'art des méthodes à noyaux sur graphes définies dans le cadre de la chémoinformatique et plus particulièrement les noyaux sur graphes basés sur les sacs de motifs. Dans ce cadre, nous proposons un nouveau noyau sur graphes basé sur un ensemble explicite de sous-arbres, appelés treelets, permettant d'encoder une grande partie de l'information structurelle acyclique des graphes moléculaires. Nous proposons également de combiner ce noyau avec des méthodes d'apprentissage à noyaux multiples afin d'extraire un ensemble de motifs pertinents. Cette contribution est ensuite étendue en incluant l'information cyclique encodée par deux représentations moléculaires définies par le graphe de cycles pertinents et l'hypergraphe de cycles pertinents. Le graphe des cycles pertinents permet d'encoder le système cyclique d'une molécule. L'hypergraphe de cycles pertinents correspond à une nouvelle représentation moléculaire permettant d'encoder à la fois le système cyclique d'une molécule ainsi que les relations d'adjacence entre les cycles et les parties acycliques. Nous proposons également deux noyaux sur graphes utilisant ces représentations. Enfin, la dernière partie vise à définir des noyaux sur graphes pour la chémoinformatique basés sur la distance d'édition. Un premier noyau est basé sur un opérateur de régularisation utilisant la distance d'édition entre graphes moléculaires. Le second noyau introduit la comparaison de treelets dissimilaires basée sur un algorithme de calcul de la distance d'édition entre treelets
This work deals with the application of graph kernel methods to the prediction of molecular properties. In this document, we first present a state of the art of graph kernels used in chemoinformatics and particurlarly those which are based on bags of patterns. Within this framework, we introduce the treelet kernel based on a set of trees which allows to encode most of the structural information encoded in molecular graphs. We also propose a combination of this kernel with multiple kernel learning methods in order to extract a subset of relevant patterns. This kernel is then extended by including cyclic information using two molecular representations defined by the relevant cycle graph and the relevant cycle hypergraph. Relevant cycle graph allows to encode the cyclic system of a molecule
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Laouar, Abdelhamid. "Aspaect de l'analyse numérique de méthodes itératives de point fixe : : erreurs d'arrondi, accélération de convergence, sous-domaines". Besançon, 1988. http://www.theses.fr/1988BESA2039.

Texto completo
Resumen
Etude de la resolution numerique par des methodes iteratives des problemes de point fixe sous divers aspects: probleme des erreurs d'arrondi, methode d'acceleration de convergence a comportement monotone, methodes de sous-domaines
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Rousselle, François. "Amélioration des méthodes de résolution utilisées en radiosité". Littoral, 2000. http://www.theses.fr/2000DUNK0047.

Texto completo
Resumen
La méthode de radiosité simule l’éclairage de scènes géométriques virtuelles. Basée sur une formulation discrète de l’équation de luminance restreinte au cas purement diffus, elle se réduit à la résolution d’un système d’équations linéaires. Les différentes approches existantes de calcul de la radiosité ont pour point commun d’utiliser une méthode itérative pour résoudre ce système. L’objectif de cette thèse est d’améliorer cette résolution itérative sans modifier le système considéré par chacune de ces approches. La première partie de cette thèse concerne les méthodes utilisant la matrice complète du système. Nous présentons tout d’abord les différentes méthodes itératives utilisées en radiosité. Nous introduisons ensuite la technique d’hybridation qui combine deux séquences de vecteurs afin d’accélérer la convergence vers la solution. La deuxième partie concerne les méthodes progressives. Afin d’améliorer la résolution du système tout en conservant l’aspect progressif de ces méthodes, nous leur incorporons des itérations par groupes. L’utilisation de groupes impliquant la résolution de sous-systèmes qui est effectuée rapidement grâce aux résultats obtenus dans la première partie. Nous faisons la preuve de la convergence de notre méthode appliquée à la radiosité progressive et montrons qu’elle est également applicable aux méthodes de sur-émission. Dans la troisième partie nous abordons la méthode de radiosité hiérarchique. Nous montrons que la méthode de Southwell permet de diminuer le nombre d’itérations total par rapport aux méthodes de Jacobi ou de Gauss-Seidel. Bien que le surcoût de cette méthode ne permette pas à ce jour d’obtenir une accélération en terme de temps de calcul, la perspective de son application à la radiosité hiérarchique dynamique semble intéressante
The radiosity method simulates the illumination of virtual geometrical scenes. Based on a discrete formulation of the luminance equation restricted to the purely diffuse case, it amounts to the resolution of a system of linear equations. The different existing approaches used to compute radiosity have in common that they use an iterative method to solve this system. The objective of this thesis is to improve this iterative resolution without modifying the system considered by each of these approaches. The first part of this thesis discusses methods that use the whole matrix of the system. To begin with we present the different methods used in the radiosity case. Then we introduce the hybridization technique which combines two sequences of vectors in order to accelerate the convergence to the solution. The second part of this thesis discusses the progressive methods. In order to improve the resolution of the system while keeping the progressive aspect of these methods, we incorporate some group iterations in them. The use of groups implies the resolution of some subsytems which carried out quickly thanks to the results obtained in the first part. We make the proof of the convergence of our method applied to progressive radiosity and show that it can be applied to overshooting methods. In the third part we broach the hierarchical radiosity method. We point out that the Southwell method allows to decrease the total number of iterations on comparison with the Jacobi and Gauss-Seidel methods. Though to date the overhead of this method does not allow to obtain an acceleration in term of computation time actually, the perspective of its application to dynamic hierarchical radiosity seems interesting
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Cuturi, Marco. "Etude de noyaux de semigroupe pour objets structurés dans le cadre de l'apprentissage statistique". Phd thesis, École Nationale Supérieure des Mines de Paris, 2005. http://pastel.archives-ouvertes.fr/pastel-00001823.

Texto completo
Resumen
Les méthodes à noyaux désignent une famille récente d'outils d'analyse de données, pouvant être utilisés dans une grande variété de tâches classiques comme la classification ou la régression. Ces outils s'appuient principalement sur le choix a priori d'une fonction de similarité entre paires d'objets traités, communément appelée "noyau'' en apprentissage statistique et analyse fonctionnelle. Ces méthodes ont récemment gagné en popularité auprès des praticiens par leur simplicité d'utilisation et leur performance. Le choix d'un noyau adapté à la tâche traitée demeure néanmoins un problème épineux dans la pratique, et nous proposons dans cette thèse plusieurs noyaux génériques pour manipuler des objets structurés, tels que les séquences, les graphes ou les images. L'essentiel de notre contribution repose sur la proposition et l'étude de différents noyaux pour nuages de points ou histogrammes, et plus généralement de noyaux sur mesures positives. Ces approches sont principalement axées sur l'utilisation de propriétés algébriques des ensembles contenant les objets considérés, et nous faisons ainsi appel pour une large part à la théorie des fonctions harmoniques sur semigroupes. Nous utilisons également la théorie des espaces de Hilbert à noyau reproduisant dans lesquels sont plongées ces mesures, des éléments d'analyse convexe ainsi que plusieurs descripteurs de ces mesures utilisés en statistiques ou en théorie de l'information, comme leur variance ou leur entropie. En considérant tout objet structuré comme un ensemble de composants, à l'image d'une séquence transformée en un ensemble de sous-séquences ou d'images en ensembles de pixels, nous utilisons ces noyaux sur des données issues principalement de la bioinformatique et de l'analyse d'images, en les couplant notamment avec des méthodes discriminantes comme les machines à vecteurs de support. Nous terminons ce mémoire sur une extension de ce cadre, en considérons non plus chaque objet comme un seul nuage de point, mais plutôt comme une suite de nuages emboîtés selon un ensemble d'évènements hierarchisés, et aboutissons à travers cette approche à une famille de noyaux de multirésolution sur objets structurés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Spagnol, Adrien. "Indices de sensibilité via des méthodes à noyaux pour des problèmes d'optimisation en grande dimension". Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEM012.

Texto completo
Resumen
Cette thèse s'intéresse à l'optimisation sous contraintes de problèmes type « boite-noire » en grande dimension. Répandus dans les applications industrielles, elles ont généralement un coût élevé ce qui empêche d'utiliser la plupart des méthodes d'optimisation classiques. Afin de résoudre ces problèmes, la dimension de celui-ci est souvent réduite via différentes techniques telle que l'analyse de sensibilité. Un nouvel indice de sensibilité est proposé dans ces travaux afin de distinguer quelles sont les entrées du problèmes influentes et celles négligeables et d'obtenir un problème simplifié n’incluant que les premières. Notre indice, reposant sur le critère d'indépendance d'Hilbert Schmidt, fournit une connaissance de l'impact d'une variable sur la performance de la sortie ou le respect des contraintes, des aspects primordiaux dans notre cadre d'étude. Outre la caractérisation des variables influentes, plusieurs stratégies sont proposées pour traiter les paramètres négligeables. De plus, les applications industrielles coûteuses sont généralement remplacées par des modèles proxys moins coûteux qui sont optimisés de manière séquentielle. Afin de contourner les limitations dues au nombre élevé de paramètres, aussi connu sous le nom de fléau de la dimension, une extension de l'optimisation basée sur des métamodèles est proposée dans cette thèse. Grâce aux nouveaux indices de sensibilités susmentionnés, les paramètres influents sont détectés à chaque itération et l'optimisation est effectuée dans un espace de dimension inférieure
This thesis treats the optimization under constraints of high-dimensional black-box problems. Common in industrial applications, they frequently have an expensive associated cost which make most of the off-the-shelf techniques impractical. In order to come back to a tractable setup, the dimension of the problem is often reduced using different techniques such as sensitivity analysis. A novel sensitivity index is proposed in this work to distinct influential and negligible subsets of inputs in order to obtain a more tractable problem by solely working with the primer. Our index, relying on the Hilbert Schmidt independence criterion, provides an insight on the impact of a variable on the performance of the output or constraints satisfaction, key information in our study setting. Besides assessing which inputs are influential, several strategies are proposed to deal with negligible parameters. Furthermore, expensive industrial applications are often replaced by cheap surrogate models and optimized in a sequential manner. In order to circumvent the limitations due to the high number of parameters, also known as the curse of dimensionality, we introduce in this thesis an extension of the surrogated-based optimization. Thanks to the aforementioned new sensitivity indices, parameters are detected at each iteration and the optimization is conducted in a reduced space
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Lin, Hongzhou. "Algorithmes d'accélération générique pour les méthodes d'optimisation en apprentissage statistique". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM069/document.

Texto completo
Resumen
Les problèmes d’optimisation apparaissent naturellement pendant l’entraine-ment de modèles d’apprentissage supervises. Un exemple typique est le problème deminimisation du risque empirique (ERM), qui vise a trouver un estimateur en mini-misant le risque sur un ensemble de données. Le principal défi consiste a concevoirdes algorithmes d’optimisation efficaces permettant de traiter un grand nombre dedonnées dans des espaces de grande dimension. Dans ce cadre, les méthodes classiques d’optimisation, telles que l’algorithme de descente de gradient et sa varianteaccélérée, sont couteux en termes de calcul car elles nécessitent de passer a traverstoutes les données a chaque évaluation du gradient. Ce défaut motive le développement de la classe des algorithmes incrémentaux qui effectuent des mises a jour avecdes gradients incrémentaux. Ces algorithmes réduisent le cout de calcul par itération, entrainant une amélioration significative du temps de calcul par rapport auxméthodes classiques. Une question naturelle se pose : serait-il possible d’accélérerdavantage ces méthodes incrémentales ? Nous donnons ici une réponse positive, enintroduisant plusieurs schémas d’accélération génériques.Dans le chapitre 2, nous développons une variante proximale de l’algorithmeFinito/MISO, qui est une méthode incrémentale initialement conçue pour des problèmes lisses et fortement convexes. Nous introduisons une étape proximale dans lamise a jour de l’algorithme pour prendre en compte la pénalité de régularisation quiest potentiellement non lisse. L’algorithme obtenu admet un taux de convergencesimilaire a l’algorithme Finito/MISO original.Dans le chapitre 3, nous introduisons un schéma d’accélération générique, appele Catalyst, qui s’applique a une grande classe de méthodes d’optimisation, dansle cadre d’optimisations convexes. La caractéristique générique de notre schémapermet l’utilisateur de sélectionner leur méthode préférée la plus adaptée aux problemes. Nous montrons que en appliquant Catalyst, nous obtenons un taux deconvergence accélère. Plus important, ce taux coïncide avec le taux optimale desméthodes incrémentales a un facteur logarithmique pres dans l’analyse du pire descas. Ainsi, notre approche est non seulement générique mais aussi presque optimale du point de vue théorique. Nous montrons ensuite que l’accélération est bienprésentée en pratique, surtout pour des problèmes mal conditionnes.Dans le chapitre 4, nous présentons une seconde approche générique qui appliqueles principes Quasi-Newton pour accélérer les méthodes de premier ordre, appeléeQNing. Le schéma s’applique a la même classe de méthodes que Catalyst. En outre,il admet une simple interprétation comme une combinaison de l’algorithme L-BFGSet de la régularisation Moreau-Yosida. A notre connaissance, QNing est le premieralgorithme de type Quasi-Newton compatible avec les objectifs composites et lastructure de somme finie.Nous concluons cette thèse en proposant une extension de l’algorithme Catalyst au cas non convexe. Il s’agit d’un travail en collaboration avec Dr. CourtneyPaquette et Pr. Dmitriy Drusvyatskiy, de l’Université de Washington, et mes encadrants de thèse. Le point fort de cette approche réside dans sa capacité a s’adapterautomatiquement a la convexité. En effet, aucune information sur la convexité de lafonction n’est nécessaire avant de lancer l’algorithme. Lorsque l’objectif est convexe,l’approche proposée présente les mêmes taux de convergence que l’algorithme Catalyst convexe, entrainant une accélération. Lorsque l’objectif est non-convexe, l’algorithme converge vers les points stationnaires avec le meilleur taux de convergencepour les méthodes de premier ordre. Des résultats expérimentaux prometteurs sontobserves en appliquant notre méthode a des problèmes de factorisation de matriceparcimonieuse et a l’entrainement de modèles de réseaux de neurones
Optimization problems arise naturally in machine learning for supervised problems. A typical example is the empirical risk minimization (ERM) formulation, which aims to find the best a posteriori estimator minimizing the regularized risk on a given dataset. The current challenge is to design efficient optimization algorithms that are able to handle large amounts of data in high-dimensional feature spaces. Classical optimization methods such as the gradient descent algorithm and its accelerated variants are computationally expensive under this setting, because they require to pass through the entire dataset at each evaluation of the gradient. This was the motivation for the recent development of incremental algorithms. By loading a single data point (or a minibatch) for each update, incremental algorithms reduce the computational cost per-iteration, yielding a significant improvement compared to classical methods, both in theory and in practice. A natural question arises: is it possible to further accelerate these incremental methods? We provide a positive answer by introducing several generic acceleration schemes for first-order optimization methods, which is the main contribution of this manuscript. In chapter 2, we develop a proximal variant of the Finito/MISO algorithm, which is an incremental method originally designed for smooth strongly convex problems. In order to deal with the non-smooth regularization penalty, we modify the update by introducing an additional proximal step. The resulting algorithm enjoys a similar linear convergence rate as the original algorithm, when the problem is strongly convex. In chapter 3, we introduce a generic acceleration scheme, called Catalyst, for accelerating gradient-based optimization methods in the sense of Nesterov. Our approach applies to a large class of algorithms, including gradient descent, block coordinate descent, incremental algorithms such as SAG, SAGA, SDCA, SVRG, Finito/MISO, and their proximal variants. For all of these methods, we provide acceleration and explicit support for non-strongly convex objectives. The Catalyst algorithm can be viewed as an inexact accelerated proximal point algorithm, applying a given optimization method to approximately compute the proximal operator at each iteration. The key for achieving acceleration is to appropriately choose an inexactness criteria and control the required computational effort. We provide a global complexity analysis and show that acceleration is useful in practice. In chapter 4, we present another generic approach called QNing, which applies Quasi-Newton principles to accelerate gradient-based optimization methods. The algorithm is a combination of inexact L-BFGS algorithm and the Moreau-Yosida regularization, which applies to the same class of functions as Catalyst. To the best of our knowledge, QNing is the first Quasi-Newton type algorithm compatible with both composite objectives and the finite sum setting. We provide extensive experiments showing that QNing gives significant improvement over competing methods in large-scale machine learning problems. We conclude the thesis by extending the Catalyst algorithm into the nonconvex setting. This is a joint work with Courtney Paquette and Dmitriy Drusvyatskiy, from University of Washington, and my PhD advisors. The strength of the approach lies in the ability of the automatic adaptation to convexity, meaning that no information about the convexity of the objective function is required before running the algorithm. When the objective is convex, the proposed approach enjoys the same convergence result as the convex Catalyst algorithm, leading to acceleration. When the objective is nonconvex, it achieves the best known convergence rate to stationary points for first-order methods. Promising experimental results have been observed when applying to sparse matrix factorization problems and neural network models
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Mignon, Alexis. "Apprentissage de métriques et méthodes à noyaux appliqués à la reconnaissance de personnes dans les images". Caen, 2012. http://www.theses.fr/2012CAEN2048.

Texto completo
Resumen
Nos travaux portent sur la reconnaissance des personnes dans des images vidéo en se basant principalement sur les visages. Nous nous intéressons aux étapes d’alignement et de reconnaissance, en supposant que les positions des visages dans les images sont connues. L’alignement vise à compenser les variations de position et d'orientation des visages, les rendant plus facilement comparables. Nous présentons une méthode de détection de points-clés basée sur une régression parcimonieuse. Elle permet de prédire le décalage entre les positions moyennes et réelles d'un point-clé à partir de l'apparence de l'image autour des positions moyennes. Nos contributions à la reconnaissance de visages reposent sur l'idée que deux représentations différentes d'une même personne devraient être plus proches, au sens d'une certaine mesure de distance, que celles de deux personnes distinctes. Nous proposons une méthode d’apprentissage de métriques vérifiant ces propriétés. L'approche est par ailleurs assez générale pour être en mesure d'apprendre une distance entre des modalités différentes. Les modèles utilisés dans nos approches sont linéaires. Pour pallier cette limitation, ces modèles sont étendus au cas non-linéaire grâce au «truc» du noyau. Une partie de cette thèse porte justement sur l'étude des propriétés des noyaux additifs homogènes, adaptés aux comparaisons d'histogrammes. Nous apportons notamment des résultats théoriques originaux sur la fonction de re-description du noyau de la moyenne puissance
Our work is devoted to person recognition in video images and focuses mainly on faces. We are interested in the registration and recognition steps, assuming that the locations of faces in the images are known. The registration step aims at compensating the location and pose variations of the faces, making them easier to compare. We present a method to predict the location of key-points based on sparse regression. It predicts the offset between average and real positions of a key-point from the appearence of the image around the average positions. Our contributions to face recognition rely on the idea that two different representations of faces of the same person should be closer, with respect to a given distance measure, than those of two different persons. We propose a metric learning method that verifies these properties. Besides, the approach is general enough to be able to learn a distance between different modalities. The models we use in our approaches are linear. To alleviate this limitation, they are extended to the non-linear case through the use of the kernel trick. A part of this thesis precisely deals with the properties of additive homogeneous kernels, well adapted for histogram comparisons. We especially present some oringal theoretical results on the feature map of the power mean kernel
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Berenguer, Laurent. "Accélération de la convergence de méthodes numériques parallèles pour résoudre des systèmes d’équations différentielles linéaires et transitoires non linéaires". Thesis, Lyon 1, 2014. http://www.theses.fr/2014LYO10194/document.

Texto completo
Resumen
La résolution des équations différentielles (EDP/EDO/EDA) est au cœur de la simulation de phénomènes physiques. L'accroissement de la taille et de la complexité des modèles nécessite la mise en œuvre de méthodes de résolution robustes et performantes en termes de temps de calcul. L'objectif de cette thèse est de proposer des méthodes pour accélérer la résolution des équations différentielles par des méthodes de décomposition de domaine. On considère d'abord les méthodes de décomposition de domaine de Schwarz pour la résolution de grands systèmes linéaires issus de la discrétisation d'EDP. Afin d'accélérer la convergence de la méthode de Schwarz, on propose une approximation de l'opérateur de propagation d'erreur. Cette approximation respectera la structure de l'opérateur exact, ce qui conduira à une réduction très significative des temps de calcul sur le problème des écoulements dans les milieux poreux hétérogènes. La deuxième contribution concerne la résolution de la suite de systèmes linéaires provenant de l'intégration en temps de problèmes non linéaires. On propose deux approches en utilisant le fait que la matrice jacobienne ne varie que peu d'un système à l'autre. Premièrement, on applique la mise à jour de Broyden au préconditionneur RAS (Restricted Additive Schwarz) au lieu de recalculer les factorisations LU. La deuxième approche consiste à dédier des processeurs a la mise à jour partielle et asynchrone du préconditionneur RAS. Des résultats numériques sur le problème de la cavité entrainée et sur un problème de réactiondiffusion montrent qu'une accélération super linéaire peut être obtenue. La dernière contribution a pour objet la résolution simultanée des problèmes non linéaires de pas de temps consécutifs. On étudie le cas où la méthode de Broyden est utilisée pour résoudre ces problèmes non linéaires. Dans ce cas, la mise à jour de Broyden peut être propagée d'un pas de temps à l'autre. La parallélisation à travers les pas de temps est également appliquée a la recherche d'une solution initiale consistante pour les équations différentielles algébriques
Solving differential equations (PDEs/ODEs/DAEs) is central to the simulation of physical phenomena. The increase in size and complexity of the models requires the design of methods that are robust and efficient in terms of computational time. The aim of this thesis is to design methods that accelerate the solution of differential equations by domain decomposition methods. We first consider Schwarz domain decomposition methods to solve large-scale linear systems arising from the discretization of PDEs. In order to accelerate the convergence of the Schwarz method, we propose an approximation of the error propagation operator. This approximation preserves the structure of the exact operator. A significant reduction of computational time is obtained for the groundwater flow problem in highly heterogeneous media. The second contribution concerns solving the sequence of linear systems arising from the time-integration of nonlinear problems. We propose two approaches, taking advantage of the fact that the Jacobian matrix does not change dramatically from one system to another. First, we apply Broyden’s update to the Restricted Additive Schwarz (RAS) preconditioner instead of recomputing the local LU factorizations. The second approach consists of dedicating processors to the asynchronous and partial update of the RAS preconditioner. Numerical results for the lid-driven cavity problem, and for a reaction-diffusion problem show that a super-linear speedup may be achieved. The last contribution concerns the simultaneous solution of nonlinear problems associated to consecutive time steps. We study the case where the Broyden method is used to solve these nonlinear problems. In that case, Broyden’s update of the Jacobian matrix may also be propagated from one time step to another. The parallelization through the time steps is also applied to the problem of finding a consistent initial guess for differential-algebraic equations
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Mahé, Pierre. "Fonctions noyaux pour molécules et leur application au criblage virtuel par machines à vecteurs de support". Phd thesis, École Nationale Supérieure des Mines de Paris, 2006. http://pastel.archives-ouvertes.fr/pastel-00002191.

Texto completo
Resumen
La recherche thérapeutique a de plus en plus recours à des techniques de modélisation, dites de criblage virtuel, visant à corréler la structure d'une molécule avec ses propriétés biologiques. En particulier, l'utilisation de modèles prédictifs quantifiant la toxicité d'une molécule ou son activité vis à vis d'une cible thérapeutique, permet de réduire de manière considérable le temps et les coûts nécessaires à la mise au point de nouveaux médicaments. Nous nous proposons d'aborder ce problème dans le cadre des méthodes à noyaux, qui permettent de construire de tels modèles de manière efficace dès lors que l'on dispose d'une fonction noyau mesurant la similarité des objets que l'on considère. Plus particulièrement, l'objet de cette thèse est de définir de telles fonctions noyaux entre structures bi- et tri-dimensionnelles de molécules. D'un point de vue méthodologique, ce problème se traduit respectivement comme celui de comparer des graphes représentant les liaisons covalentes des molécules, ou des ensembles d'atomes dans l'espace. Plusieurs approches sont envisagées sur la base de l'extraction et la comparaison de divers motifs structuraux qui permettent d'encoder les groupes fonctionnels des molécules à différents niveaux de résolution. Les validations expérimentales suggèrent que cette méthodologie est une alternative prometteuse aux approches classiques en criblage virtuel.
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Mosbeux, Cyrille. "Quantification des processus responsables de l’accélération des glaciers émissaires par méthodes inverses". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAI085/document.

Texto completo
Resumen
Le réchauffement climatique actuel a une conséquence directe sur la perte de masse des calottes polaires. Reproduire les mécanismes responsables de cette perte de masse et prévoir la contribution des calottes à l’élévation du niveau des océans d’ici la fin du siècle est dès lors l’un des défis majeurs de la modélisation de l’écoulement des calottes polaires. Les modèles d’écoulement permettent de réaliser de telles prévisions mais ces simulations, à court terme, sont très sensibles à leur état initial habituellement construit à partir d’observations de terrain. Malheureusement, certains paramètres comme le frottement entre la glace et le socle rocheux ainsi que la topographie basale sont souvent méconnus à cause du manque d’observations directes ou des larges incertitudes liées à ces observations. Améliorer la connaissance de ces deux paramètres à la fois pour le Groenland et l’Antarctique est donc un pré-requis pour réaliser des projections fiables. Les méthodes d’assimilation de données et les méthodes inverses permettent alors de surmonter ce problème.Cette thèse présente deux algorithmes d’assimilation de données permettant de mieux contraindre simultanément le frottement basal et la topographie basale à partir d’observations de surface. L’un des algorithmes est entièrement basé sur la méthode adjointe tandis que le second se base sur une méthode cyclique couplant l’inversion du frottement basal avec la méthode adjointe et l’inversion de la géométrie basale à l’aide de la relaxation newtonienne. Les deux algorithmes ont été implémentés dans le modèle d’écoulement de glace éléments finis Elmer/Ice et testés dans une expérience jumelle qui montre une nette amélioration de la connaissance des deux paramètres recherchés. L’application des deux algorithmes à la région de la Terre de Wilkes réduit l’incertitude liée aux conditions basales en permettant, par exemple, d’obtenir plus de détails sur la géométrie basale en comparaison avec les modèles numériques de terrain habituels. De plus la reconstruction simultanée du frottement et de la géométrie basale permet de réduire significativement les anomalies de divergence de flux habituellement obtenues lors de l’inversion du frottement seul. Nous étudions finalement l’impact des conditions basales ainsi inversées sur des simulations pronostiques afin de comparer la capacité des deux algorithmes à mieux contraindre la contribution future des calottes polaires à l’augmentation du niveau des océans
The current global warming has direct consequences on ice-sheet mass loss. Reproducing the responsible mechanisms and forecasting the potential ice-sheets contribution to 21st century sea level rise is one of the major challenges in ice-sheet and ice flow modelling. Ice flow models are now routinely used to forecast the potential ice-sheets contribution to sea level rise. Such short term simulations are very sensitive to model initial state, usually build from field observations. However, some parameters, such as the basal friction between icesheet and bedrock as well as the basal topography, are still badly known because of a lake of direct observations or large uncertainty on measurements. Improving the knowledge of these two parameters for Greenland and Antarctica is therefore a prerequisite for making reliable projections. Data assimilation and inverse methods have been developed in order to overcome this problem. This thesis presents two different assimilation algorithms to better constrain simulaneouslybasal friction and bedrock elevation parameters using surface observations. The first algorithm is entierly based on adjoint method while the second algorithm uses a cycling method coupling inversion of basal friction with adjoint method and inversion of bedrock topography with nudging method. Both algorithms have been implemented in the finite element ice sheet and ice flow model Elmer/Ice and tested in a twin experiment showing a clear improvement of both parameters knowledge. The application of both algorithms to regions such as the Wilkes Land in Antartica reduces the uncertainty on basal conditions, for instance providing more details to the bedrock geometry when compared to usual DEM. Moreover,the reconstruction of both bedrock elevation and basal friction significantly decreases ice flux divergence anomalies when compared to classical methods where only friction is inversed. We finaly sudy the impact of such inversion on pronostic simulation in order to compare the efficiency of the two algorithms to better constrain future ice-sheet contribution to sea level rise
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Bannwart, Flavio de Campos. "Méthodes d'évaluation de la matrice de transfert des noyaux thermoacoustiques avec application à la conception de moteurs thermoacoustiques". Thesis, Le Mans, 2014. http://www.theses.fr/2014LEMA1027/document.

Texto completo
Resumen
La conception d’un moteur thermoacoustique dépend de façon critique de la fiabilité des outils de prédiction théorique de ses performances. Une tentative pour réussir cette prédiction consiste à exploiter les coefficients de la matrice de transfert du noyau thermoacoustique (NTA) dans les modèles analytiques du moteur considéré. La matrice de transfert peut être obtenue soit par modélisation analytique, soit par des mesures acoustiques. Ce dernier cas, cependant, se présente comme une option intéressante pour éviter d’avoir à considérer la complexité des éléments constitutifs du NTA. La méthode analytique est tout d’abord présentée; elle ne vise que les cas de matériaux à géométrie simple. En ce qui concerne l’approche expérimentale, une méthode classique à deux charges est appliquée dans deux configurations différentes et, en outre, une méthode alternative basée sur des mesures d’impédance est développée ici et appliquée également. Une comparaison entre ces deux approches est évaluée au moyen d’une analyse de sensibilité. Différents matériaux sont testés, chacun jouant le rôle de l’élément poreux à l’intérieur d’un NTA soumis à plusieurs gradients de température. Seulement la méthode alternative s’avère performante pour tous les matériaux. Les matrices de transfert mesurées sont utilisées dans des modèles dédiés à prédire la fréquence de fonctionnement et le gain d’amplification thermoacoustique intrinsèque d’une machine équipée du NTA caractérisé au préalable. Une analyse comparative montre dans quelles conditions le seuil de déclenchement thermoacoustique est prévu ou non pour chaque matériau; elle révèle aussi les limites dimensionnelles de l’appareil expérimental pour mieux répondre aux estimations de performances
The design of a thermoacoustic (TA) engine is improved towards the reliability of its performance prediction. An attempt to succeed in this prediction comes from the knowledge of the TA core (TAC) transfer matrix, which can be exploited in analytical models for the given engine. The transfer (T) matrix itself may be obtained either by analytical modeling or acoustic measurements. The latter consist in an interesting option to avoid thermo-physical or geometrical considerations of complex structures, as the TAC is treated as a black box. However, before proceeding with the experimental approach, an analytical solution is presented for comparison purposes, but it contemplates only cases of materials of simple geometry. Concerning the experimental approach, a classical two-load method is applied in two different configurations and an alternative method based on impedance measurements is here developed and applied. A comparison between these approaches is evaluated by means of a sensitivity analysis. Different materials are tested, each one playing the porous element allotted inside the TAC, which is in its turn submitted to several different regimes of steady state temperature gradient. The alternative method is the only one successful for all materials. In this manner, the measured transfer matrices are applied into a proper modeling devoted to predict both the operating frequency and the intrinsic TA amplification gain. A comparative analysis shows in what conditions the TA threshold is expected or not for each material; it also reveals the limitations of the experimental apparatus in what concerns the appropriate dimensions to better fit the performance investigations
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Zhang, Hanyu. "Méthodes itératives à retard pour architecture massivement parallèles". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC068.

Texto completo
Resumen
Avec l'avènement de machine parallèles multi-coeurs, de nombreux algorithmes doivent être modifiés ou conçus pour s'adapter à ces architectures. Ces algorithmes consistent pour la plupart à diviser le problème original en plusieurs petits sous-problèmes et à les distribuer sur les différentes unités de calcul disponibles. La résolution de ces petits sous-problèmes peut être exécutée en parallèle, des communications entre les unités de calcul étant indispensables pour assurer la convergence de ces méthodes.Ma thèse propose de nouveaux algorithmes parallèles pour résoudre de grands systèmes linéaires.Les algorithmes proposés sont ici basés sur la méthode du gradient. Deux points fondamentaux de la méthode du gradient sont la direction de descente de la solution approchée et la valeur du pas de descente, qui détermine la modification à effectuer à chaque itération. Nous proposons dans cette thèse de calculer la direction et le pas indépendamment et localement sur chaque unité de calcul, ce qui nécessite moins de synchronisation entre les processeurs, et par suite rend chaque itération simple et plus rapide, et rend son extension dans un contexte asynchrone possible.Avec les paramètres d'échelle appropriés pour le pas des longueurs, la convergence peut être démontrée pour les deux versions synchrone et asynchrone des algorithmes. De nombreux tests numériques illustrent l’efficacité de ces méthodes.L'autre partie de ma thèse propose d'utiliser une méthode d'extrapolation pour accélérer les méthodes itératives classiques avec retard. Bien que les séquences de vecteur générées par des méthodes itératives asynchrones générales classiques ne peut être accélérée, nous sommes en mesure de démontrer que, une fois le modèle de calcul et de communication fixés au cours de l’exécution, la séquence de vecteurs générés peut être accéléré. De nombreux tests numériques illustrent l’efficacité de ces accélérations dans le cas des méthodes avec retard
With the increase of architectures composed of multi-cores, many algorithms need to revisited and be modified to exploit the power of these new architectures. These algorithms divide the original problem into “small pieces” and distribute these pieces to different processors at disposal, thus communications among them are indispensible to assure the convergence. My thesis mainly focus on solving large sparse systems of linear equations in parallel with new methods. These methods are based on the gradient methods. Two key parameters of the gradient methods are descent direction and step-length of descent for each iteration. Our methods compute the directions locally, which requires less synchronization and computation, leading to faster iterations and make easy asynchronization possible. Convergence can be proved in both synchronized or asynchronized cases. Numerical tests demonstrate the efficiency of these methods. The other part of my thesis deal with the acceleration of the vector sequences generated by classical iterative algorithms. Though general chaotic sequences may not be accelerated, it is possible to prove that with any fixed retard pattern, then the generated sequence can be accelerated. Different numerical tests demonstrate its efficiency
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Mahe, Pierre. "Fonctions noyaux pour molécules et leur application au criblage virtuel par machines à vecteurs de support". Paris, ENMP, 2006. http://www.theses.fr/2006ENMP1381.

Texto completo
Resumen
La recherche thérapeutique a de plus en plus recours à des techniques de modélisation, dites de criblage virtuel, visant à corréler la structure d'une molécule avec ses propriétés biologiques. En particulier, l'utilisation de modèles prédictifs quantifiant la toxicité d'une molécule ou son activité vis à vis d'une cible thérapeutique, permet de réduire de manière considérable le temps et les coûts nécessaires à la mise au point de nouveaux médicaments. Nous nous proposons d'aborder ce problème dans le cadre des méthodes à noyaux, qui permettent de construire de tels modèles de manière efficace dès lors que l'on dispose d'une fonction noyau mesurant la similarité des objets que l'on considère. Plus particulièrement, l'objet de cette thèse est de définir de telles fonctions noyaux entre structures bi- et tri-dimensionnelles de molécules. D'un point de vue méthodologique, ce problème se traduit respectivement comme celui de comparer des graphes représentant les liaisons covalentes des molécules, ou des ensembles d'atomes dans l'espace. Plusieurs approches sont envisagées sur la base de l'extraction et la comparaison de divers motifs structuraux qui permettent d'encoder les groupes fonctionnels des molécules à différents niveaux de résolution. Les validations expérimentales suggèrent que cette méthodologie est une alternative prometteuse aux approches classiques en criblage virtuel.
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Gauthier, Bertrand. "Approche spectrale pour l'interpolation à noyaux et positivité conditionnelle". Phd thesis, École Nationale Supérieure des Mines de Saint-Étienne, 2011. http://tel.archives-ouvertes.fr/tel-00631252.

Texto completo
Resumen
Nous proposons une approche spectrale permettant d'aborder des problèmes d'interpolation à noyaux dont la résolution numérique n'est pas directement envisageable. Un tel cas de figure se produit en particulier lorsque le nombre de données est infini. Nous considérons dans un premier temps le cadre de l'interpolation optimale dans les sous-espaces hilbertiens. Pour un problème donné, un opérateur intégral est défini à partir du noyau sous-jacent et d'une paramétrisation de l'ensemble des données basée sur un espace mesuré. La décomposition spectrale de l'opérateur est utilisée afin d'obtenir une formule de représentation pour l'interpolateur optimal et son approximation est alors rendu possible par troncature du spectre. Le choix de la mesure induit une fonction d'importance sur l'ensemble des données qui se traduit, en cas d'approximation, par une plus ou moins grande précision dans le rendu des données. Nous montrons à titre d'exemple comment cette approche peut être utilisée afin de rendre compte de contraintes de type "conditions aux limites" dans les modèles d'interpolation à noyaux. Le problème du conditionnement des processus gaussiens est également étudié dans ce contexte. Nous abordons enfin dans la dernière partie de notre manuscrit la notion de noyaux conditionnellement positifs. Nous proposons la définition générale de noyaux symétriques conditionnellement positifs relatifs à une espace de référence donné et développons la théorie des sous-espaces semi-hilbertiens leur étant associés. Nous étudions finalement la théorie de l'interpolation optimale dans cette classe d'espaces.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Fouchet, Arnaud. "Kernel methods for gene regulatory network inference". Thesis, Evry-Val d'Essonne, 2014. http://www.theses.fr/2014EVRY0058/document.

Texto completo
Resumen
De nouvelles technologies, notamment les puces à adn, multiplient la quantité de données disponibles pour la biologie moléculaire. dans ce contexte, des méthodes informatiques et mathématiques sont activement développées pour extraire le plus d'information d'un grand nombre de données. en particulier, le problème d'inférence de réseaux de régulation génique a été abordé au moyen de multiples modèles mathématiques et statistiques, des plus basiques (corrélation, modèle booléen ou linéaire) aux plus sophistiqués (arbre de régression, modèles bayésiens avec variables cachées). malgré leurs qualités pour des problèmes similaires, les modèles à noyaux ont été peu utilisés pour l'inférence de réseaux de régulation génique. en effet, ces méthodes fournissent en général des modèles difficiles a interpréter. dans cette thèse, nous avons développé deux façons d'obtenir des méthodes à noyaux interprétables. dans un premier temps, d'un point de vue théorique, nous montrons que les méthodes à noyaux permettent d'estimer, a partir d'un ensemble d'apprentissage, une fonction de transition et ses dérivées partielles de façon consistante. ces estimations de dérivées partielles permettent, sur des exemples réalistes, de mieux identifier le réseau de régulation génique que des méthodes standards. dans un deuxième temps, nous développons une méthode à noyau interprétable grâce à l'apprentissage à noyaux multiples. ce modèle fournit des résultats du niveau de l'état de l'art sur des réseaux réels et des réseaux simulés réalistes
New technologies in molecular biology, in particular dna microarrays, have greatly increased the quantity of available data. in this context, methods from mathematics and computer science have been actively developed to extract information from large datasets. in particular, the problem of gene regulatory network inference has been tackled using many different mathematical and statistical models, from the most basic ones (correlation, boolean or linear models) to the most elaborate (regression trees, bayesian models with latent variables). despite their qualities when applied to similar problems, kernel methods have scarcely been used for gene network inference, because of their lack of interpretability. in this thesis, two approaches are developed to obtain interpretable kernel methods. firstly, from a theoretical point of view, some kernel methods are shown to consistently estimate a transition function and its partial derivatives from a learning dataset. these estimations of partial derivatives allow to better infer the gene regulatory network than previous methods on realistic gene regulatory networks. secondly, an interpretable kernel methods through multiple kernel learning is presented. this method, called lockni, provides state-of-the-art results on real and realistically simulated datasets
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Shen, Ming. "Nouvelles méthodes de RMN des solides pour les corrélations homo- et hétéro-nucléaires et l’observation des noyaux de spin 1". Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10066/document.

Texto completo
Resumen
Mon travail de thèse a porté sur le développement de méthodes avancées de RMN des solides. Nous avons notamment introduit de nouvelles méthodes de corrélation homonucléaire compatibles avec une rotation rapide de l’échantillon et des champs magnétiques élevés. Nous avons montré que la robustesse de la technique fp-RFDR peut être améliorée par l’utilisation d’un supercyclage (XY8)41. Cette méthode a été employée pour sonder les proximités 13C-13C and 31P-31P dans les solides. Nous avons aussi introduit expériences de corrélation 13C-13C du deuxième ordre avec assistance des protons, appelées SHA+, afin d’observer les proximités 13C-13C à longue distance dans les solides. Au cours de ma thèse, nous avons aussi amélioré les méthodes de corrélation hétéronucléaire pour l’observation indirecte des noyaux 14N via les protons. Nous avons montré que la résolution spectrale dans la dimension indirecte des spectres HMQC peut être accrue par l’utilisation de séquences de découplage homonucléaire pendant le temps t1. Nous avons aussi proposé l’utilisation d’impulsion sélective de la bande centrale pour l’excitation des noyaux 14N dans les expériences HMQC 1H{14N}. L’efficacité de ces impulsions sélectives de la bande centrale est comparable aux méthodes d’excitation large bande, compte tenu des champs radiofréquence produits par les sondes RMN pour l’étude des solides. La dernière partie de mon travail de thèse a porté sur l’amélioration des séquences d’écho quadripolaire pour l’acquisition des spectres 2H de solides. Les distorsions de ces spectres ont été réduites par l’introduction de nouvelles impulsions composites
My PhD work has focused on the development of advanced solid-state NMR methods. We have notably developed homo-nuclear correlation methods compatible with high MAS frequencies and high magnetic fields. First, we have shown that the robustness of finite pulse RadioFrequency Driven Recoupling (fp-RFDR) technique can be improved by the use of nested (XY8)41 super-cycling. Such method has been employed to probe 13C-13C and 31P-31P proximities in solids. Second, we have also introduced a second-order proton-assisted 13C-13C correlation experiment, denoted “Second-order Hamiltonian among Analogous nuclei plus” (SHA+), to observe long-range 13C-13C proximities in solids at fast MAS and high magnetic field. During my PhD, we have also improved the heteronuclear correlation methods for the indirect observation of 14N nuclei via protons. We have shown that the spectral resolution along the indirect dimension of proton-detected Heteronuclear Multiple Quantum Correlation (HMQC) spectra can be enhanced by applying homonuclear dipolar decoupling schemes during the t1 period. We have also proposed the use of centerband-selective radio-frequency (rf) pulses for the excitation of 14N nuclei in 1H{14N} HMQC experiment. The efficiency of these centerband-selective pulse is comparable to that of broadband excitation given the rf field delivered by common solid-state NMR probes. The last part of my PhD focuses on the improvement of the quadrupolar echo sequence for the acquisition of the 2H spectra of solids. The distortions of such spectra were reduced by the introduction of novel composite pulses
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Trébosc, Julien Mathieu. "Méthodes d'analyse structurale par RMN haute résolution des noyaux quadripolaires et mesures des couplages à travers les liaisons et l'espace". Lille 1, 2003. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2003/50376-2003-317-318.pdf.

Texto completo
Resumen
Nous présentons ici les dernières techniques de RMN du solide de haute résolution sur les noyaux quadripolaires telles que le MQMAS, le STMAS, l'I-STMAS et quelques unes de leurs variantes. Nous insistons sur les limitations expérimentales de chacune. Dans un deuxième temps, nous décrivons le FS-J-RES qui pennet de mesurer précisément et sélectivement le couplage Jhétéronuc1éaire entre deux noyaux dont l'un peut être quadripolaire. Nous analysons en détail l'influence du pulse long sélectif fréquentiellement, notamment en présence de CSA sur le spin non observé. Cela nous permet d'introduire une formule analytique simple qui rend compte de la plupart des paramètres expérimentaux. Enfin, nous étendons la technique de mesure sélective de couplage dipolaire FS-REDOR au systèmes comportants un noyau quadripolaire. Nous analysons l'effet des pulses, en particulier en présence de CSA. Des résultats expérimentaux sont présentés sur l'histidine, la glycine et l'AIPO4 VPI5.
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Fournier, Émilien. "Accélération matérielle de la vérification de sûreté et vivacité sur des architectures reconfigurables". Electronic Thesis or Diss., Brest, École nationale supérieure de techniques avancées Bretagne, 2022. http://www.theses.fr/2022ENTA0006.

Texto completo
Resumen
Le Model-Checking est une technique automatisée, utilisée dans l’industrie pour la vérification, enjeu majeur pour la conception de systèmes fiables, cadre dans lequel performance et scalabilité sont critiques. La vérification swarm améliore la scalabilité par une approche partielle reposant sur l’exécution concurrente d’analyses randomisées. Les architectures reconfigurables promettent des gains de performance significatifs. Cependant, les travaux existant souffrent d’une conception monolithique qui freine l’exploration des opportunités des architectures reconfigurable. De plus, ces travaux sont limités a la verification de sûreté. Pour adapter la stratégie de vérification au problème, cette thèse propose un framework de vérification matérielle, permettant de gagner, au travers d’une architecture modulaire, une généricité sémantique et algorithmique, illustrée par l’intégration de 3 langages de spécification et de 6 algorithmes. Ce cadre architectural permet l’étude de l’efficacité des algorithmes swarm pour obtenir un cœur de vérification de sûreté scalable. Les résultats, sur un FPGA haut de gamme, montrent des gains d’un ordre de grandeur par rapport à l’état de l’art. Enfin, on propose le premier accélérateur matériel permettant la vérification des exigences de sûreté et de vivacité. Les résultats démontrent un facteur d’accélération moyen de 4875x par rapport au logiciel
Model-Checking is an automated technique used in industry for verification, a major issue in the design of reliable systems, where performance and scalability are critical. Swarm verification improves scalability through a partial approach based on concurrent execution of randomized analyses. Reconfigurable architectures promise significant performance gains. However, existing work suffers from a monolithic design that hinders the exploration of reconfigurable architecture opportunities. Moreover, these studies are limited to safety verification. To adapt the verification strategy to the problem, this thesis first proposes a hardware verification framework, allowing to gain, through a modular architecture, a semantic and algorithmic genericity, illustrated by the integration of 3 specification languages and 6 algorithms. This framework allows efficiency studies of swarm algorithms to obtain a scalable safety verification core. The results, on a high-end FPGA, show gains of an order of magnitude compared to the state-of-the-art. Finally, we propose the first hardware accelerator for safety and liveness verification. The results show an average speed-up of 4875x compared to software
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Castellanos, Lopez Clara. "Accélération et régularisation de la méthode d'inversion des formes d'ondes complètes en exploration sismique". Phd thesis, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-01064412.

Texto completo
Resumen
Actuellement, le principal obstacle à la mise en œuvre de la FWI élastique en trois dimensions sur des cas d'étude réalistes réside dans le coût de calcul associé aux taches de modélisation sismique. Pour surmonter cette difficulté, je propose deux contributions. Tout d'abord, je propose de calculer le gradient de la fonctionnelle avec la méthode de l'état adjoint à partir d'une forme symétrisée des équations de l'élastodynamique formulées sous forme d'un système du premier ordre en vitesse-contrainte. Cette formulation auto-adjointe des équations de l'élastodynamique permet de calculer les champs incidents et adjoints intervenant dans l'expression du gradient avec un seul opérateur de modélisation numérique. Le gradient ainsi calculé facilite également l'interfaçage de plusieurs outils de modélisation avec l'algorithme d'inversion. Deuxièmement, j'explore dans cette thèse dans quelle mesure les encodages des sources avec des algorithmes d'optimisation du second-ordre de quasi-Newton et de Newton tronqué permettait de réduire encore le coût de la FWI. Finalement, le problème d'optimisation associé à la FWI est mal posé, nécessitant ainsi d'ajouter des contraintes de régularisation à la fonctionnelle à minimiser. Je montre ici comment une régularisation fondée sur la variation totale du modèle fournissait une représentation adéquate des modèles du sous-sol en préservant le caractère discontinu des interfaces lithologiques. Pour améliorer les images du sous-sol, je propose un algorithme de débruitage fondé sur une variation totale locale au sein duquel j'incorpore l'information structurale fournie par une image migrée pour préserver les structures de faible dimension.
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

El-Moallem, Rola. "Extrapolation vectorielle et applications aux méthodes itératives pour résoudre des équations algébriques de Riccati". Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10180/document.

Texto completo
Resumen
Nous nous intéressons, dans cette thèse, à l'étude des méthodes d'extrapolation polynômiales et à l'application de ces méthodes dans l'accélération de méthodes itératives pour la résolution de l’équation algébrique de Riccati largement utilisée dans la théorie de transport. Pour ce type d’applications, l’extrapolation polynômiales réussit à accélérer la convergence même quand la convergence devient extrêmement lente. L'avantage de ces méthodes d'extrapolation est qu'elles utilisent uniquement une suite de vecteurs qui n'est pas forcément convergente, ou qui converge très lentement pour créer une nouvelle suite pouvant admettre une convergence quadratique. De plus, le développement de méthodes redémarrées (ou cycliques) permet de limiter le coût de calculs et de stockage. Une tâche importante relative à l’analyse du cas critique a été réalisée. une technique de décalage "shift technique" afin d’éliminer le problème lié à la singularité du la matrice Jacobienne ce qui rend la convergence linéaire plutôt que quadratique. En résumé, cette technique de "shift" transforme l’équation NARE à une autre dont la matrice Jacobienne est non singulier au voisinage de la solution. L’avantage de cette transformation est que la nouvelle équation a la même solution que l’équation d’origine. L’efficacité de l’approche proposée est illustrée à travers plusieurs comparaisons et résultats numériques
In this thesis, we are interested in the study of polynomial extrapolation methods and their application as convergence accelerators on iterative methods to solve Algebraic Riccati equations arising in transport theory . In such applications, polynomial extrapolation methods succeed to accelerate the convergence of these iterative methods, even when the convergence turns to be extremely slow.The advantage of these methods of extrapolation is that they use a sequence of vectors which is not necessarily convergent, or which converges very slowly to create a new sequence which can admit a quadratic convergence. Furthermore, the development of restarted (or cyclic) methods allows to limit the cost of computations and storage. An interpretation of the critical case where the Jacobian matrix at the required solution is singular and quadratic convergence turns to linear is made. This problem can be overcome by applying a suitable shift technique. The original equation is transformed into an equivalent Riccati equation where the singularity is removed while the matrix coefficients maintain the same structure as in the original equation. The nice feature of this transformation is that the new equation has the same solution as the original one although the new Jacobian matrix at the solution is nonsingular. Numerical experiments and comparisons which confirm the effectiveness of the new approaches are reported
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Orlando, Roberto. "Exploration de nouveaux noyaux d'échange-corrélation dans l'équation de Bethe-Salpeter". Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30275.

Texto completo
Resumen
Le sujet de thèse porte sur de nouvelles approximations étudiées dans un formalisme basé sur une théorie des perturbations permettant de décrire de manière approchée les propriétés électroniques des systèmes à N corps. On excite un système avec une petite perturbation, en envoyant de la lumière sur celui-ci ou en lui appliquant un faible champ électrique, par exemple et le système "répond" à la perturbation, dans le cadre d'une réponse linéaire, ce qui signifie que la réponse du système Le système est proportionnel à la perturbation. Le but est de déterminer ce que l'on appelle les excitations neutres ou états liés du système, et plus particulièrement les excitations simples. Ceux-ci correspondent aux transitions de l'état fondamental vers un état excité. Pour ce faire, nous décrivons de manière simplifiée les interactions des particules d'un système à N corps en utilisant une interaction effective que nous moyennons sur l'ensemble du système. L'objectif d'une telle approche est de pouvoir étudier un système sans avoir à recourir au formalisme exact qui consiste à diagonaliser l'hamiltonien à N corps, ce qui n'est pas possible pour des système à plus de deux particules
The subject of the thesis focuses on new approximations studied in a formalism based on a perturbation theory allowing to describe the electronic properties of many-body systems in an approximate way. We excite a system with a small disturbance, by sending light on it or by applying a weak electric field to it, for example and the system "responds" to the disturbance, in the framework of linear response, which means that the response of the system is proportional to the disturbance. The goal is to determine what we call the neutral excitations or bound states of the system, and more particularly the single excitations. These correspond to the transitions from the ground state to an excited state. To do this, we describe in a simplified way the interactions of the particles of a many-body system using an effective interaction that we average over the whole system. The objective of such an approach is to be able to study a system without having to use the exact formalism which consists in diagonalizing the N-body Hamiltonian, which is not possible for systems with more than two particles
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Gauthier, Bertrand. "Approche spectrale pour l’interpolation à noyaux et positivité conditionnelle". Thesis, Saint-Etienne, EMSE, 2011. http://www.theses.fr/2011EMSE0615/document.

Texto completo
Resumen
Nous proposons une approche spectrale permettant d'aborder des problèmes d'interpolation à noyaux dont la résolution numérique n'est pas directement envisageable. Un tel cas de figure se produit en particulier lorsque le nombre de données est infini. Nous considérons dans un premier temps le cadre de l'interpolation optimale dans les sous-espaces hilbertiens. Pour un problème donné, un opérateur intégral est défini à partir du noyau sous-jacent et d'une paramétrisation de l'ensemble des données basée sur un espace mesuré. La décomposition spectrale de l'opérateur est utilisée afin d'obtenir une formule de représentation pour l'interpolateur optimal et son approximation est alors rendu possible par troncature du spectre. Le choix de la mesure induit une fonction d'importance sur l'ensemble des données qui se traduit, en cas d'approximation, par une plus ou moins grande précision dans le rendu des données. Nous montrons à titre d'exemple comment cette approche peut être utilisée afin de rendre compte de contraintes de type "conditions aux limites" dans les modèles d'interpolation à noyaux. Le problème du conditionnement des processus gaussiens est également étudié dans ce contexte. Nous abordons enfin dans la dernière partie de notre manuscrit la notion de noyaux conditionnellement positifs. Nous proposons la définition générale de noyaux symétriques conditionnellement positifs relatifs à une espace de référence donné et développons la théorie des sous-espaces semi-hilbertiens leur étant associés. Nous étudions finalement la théorie de l'interpolation optimale dans cette classe d'espaces
We propose a spectral approach for the resolution of kernel-based interpolation problems of which numerical solution can not be directly computed. Such a situation occurs in particular when the number of data is infinite. We first consider optimal interpolation in Hilbert subspaces. For a given problem, an integral operator is defined from the underlying kernel and a parameterization of the data set based on a measurable space. The spectral decomposition of the operator is used in order to obtain a representation formula for the optimal interpolator and spectral truncation allows its approximation. The choice of the measure on the parameters space introduces a hierarchy onto the data set which allows a tunable precision of the approximation. As an example, we show how this methodology can be used in order to enforce boundary conditions in kernel-based interpolation models. The Gaussian processes conditioning problem is also studied in this context. The last part of this thesis is devoted to the notion of conditionally positive kernels. We propose a general definition of symmetric conditionally positive kernels relative to a given space and exposed the associated theory of semi-Hilbert subspaces. We finally study the optimal interpolation problem in such spaces
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Di, Fabio Alice. "Chute libre : étude de mouvement et des méthodes de résolution, proposition didactique". Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC313.

Texto completo
Resumen
Cette recherche a pour objet l’enseignement et l’apprentissage de la notion de chute libre. Elle vise l’élaboration d’une proposition didactique à destination d’élèves de Terminale et dont l’objectif est la reconstruction de la notion d’accélération à partir de la notion de variation de vitesse.Du point de vue méthodologique, ce travail s’inscrit dans une ingénierie didactique dite de seconde génération. Trois études exploratoires contribuent aux études préalables de l’ingénierie. La première étude s’intéresse aux pratiques usuelles du début du 20e siècle pour l’enseignement de la chute libre, à travers l’analyse de manuels scolaires. Elle montre que la chute des corps apparaît comme un contenu à l’intersection de la cinématique et de la dynamique et permet d’interroger la valeur ajoutée de l’utilisation de vecteurs sur les plans épistémologique, méthodologique et didactique. La deuxième étude explore la maîtrise qu’ont des étudiants de physique de première année universitaire des vecteurs en cinématique. Elle met en évidence que leur utilisation pose des difficultés et est un savoir-faire qui constitue en lui-même un apprentissage de cinématique. La troisième étude est une analyse de contenu de la notion d’accélération et de ses caractéristiques dans le cas de la chute libre. Elle aboutit à la présentation de différents registres de représentation sémiotique de l’accélération.Ces analyses préliminaires amènent à l’élaboration d’une proposition didactique qui place la représentation vectorielle au cœur du dispositif d’apprentissage et dont l’hypothèse est que la représentation de plusieurs vecteurs vitesse successifs est un levier d’apprentissage. Les résultats montrent des effets positifs sur les apprentissages des élèves, en leur permettant en particulier d’approfondir leurs connaissances de la chute libre et de se perfectionner dans la manipulation de vecteurs. De ce travail d’expérimentation se dégagent également des pistes d’amélioration de la proposition didactique
This research targets the teaching and learning of the notion of free fall. It aims at developing a learning sequence intended for high school seniors and which goal is to rebuild the notion of acceleration from the notion of speed variation.The chosen methodology falls within didactic engineering of second generation. Three exploratory studies contribute to preliminary work. The first one focuses on usual practices of free fall teaching in the beginning of the 2Oth century through the analysis of physics textbooks. It shows that the study of falling bodies appears like a content at the crossroads of kinematics and dynamics. It also allows to question the added value of using vectors at the epistemological, methodological and educational level. The second study explores the ability of first year students in drawing vectors in kinematics. It highlights that the use of vectors raises difficulties and is a kinematics skill in itself. The third study is a content analysis of the notion of acceleration and its characteristics in the case of free fall. It leads to the presentation of different semiotic representation registers of acceleration.These preliminary analyses lead to the conception of a sequence which puts the vector representation at the centre of the learning system and which hypothesis is that the representation of several successive velocity vectors is a learning tool. The results show positive effects on student learning especially by enabling to deepen the knowledge of free fall and improve the skills in using vectors. These results also help to identify and describe possible measures for improvement of the learning sequence
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Linel, Patrice. "Méthodes de décomposition de domaines en temps et en espace pour la résolution de systèmes d'EDOs non-linéaires". Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00721037.

Texto completo
Resumen
La complexification de la modélisation multi-physique conduit d'une part à devoir simuler des systèmes d'équations différentielles ordinaires et d'équations différentielles algébriques de plus en plus grands en nombre d'inconnues et sur des temps de simulation longs. D'autre part l'évolution des architectures de calcul parallèle nécessite d'autres voies de parallélisation que la décomposition de système en sous-systèmes. Dans ce travail, nous proposons de concevoir des méthodes de décomposition de domaine pour la résolution d'EDO en temps. Nous reformulons le problème à valeur initiale en un problème aux valeurs frontières sur l'intervalle de temps symétrisé, sous l'hypothèse de réversibilité du flot. Nous développons deux méthodes, la première apparentée à une méthode de complément de Schur, la seconde basée sur une méthode de type Schwarz dont nous montrons la convergence pouvant être accélérée par la méthode d'Aitken dans le cadre linéaire. Afin d'accélérer la convergence de cette dernière dans le cadre non-linéaire, nous introduisons les techniques d'extrapolation et d'accélération de la convergence des suites non-linéaires. Nous montrons les avantages et les limites de ces techniques. Les résultats obtenus nous conduisent à développer l'accélération de la méthode de type Schwarz par une méthode de Newton. Enfin nous nous intéressons à l'étude de conditions de raccord non-linéaires adaptées à la décomposition de domaine de problèmes non-linéaires. Nous nous servons du formalisme hamiltonien à ports, issu du domaine de l'automatique, pour déduire les conditions de raccord dans le cadre l'équation de Saint-Venant et de l'équation de la chaleur non-linéaire. Après une étude analytique de la convergence de la DDM associée à ces conditions de transmission, nous proposons et étudions une formulation de Lagrangien augmenté sous l'hypothèse de séparabilité de la contrainte.
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Malzac, Julien. "Modélisation de l'émission X et Gamma des objets compacts par les méthodes Monte-Carlo". Phd thesis, Université Paul Sabatier - Toulouse III, 1999. http://tel.archives-ouvertes.fr/tel-00010420.

Texto completo
Resumen
L'étude des processus de production de rayonnement de haute énergie dans les plasmas relativistes constituant l'environnement des objets compacts nécéssite des outils numériques relativement lourds. Je présente des codes dédiés à la simulation de ces processus (diffusions Compton multiples, production et annihilation de paires Èlectron-positon, raie de fluorescence du fer...). D'une part, des codes basés sur des méthodes Monte-Carlo standards (linéaires) permettent de calculer le spectre Èmis par Comptonisation dans un plasma chaud ou réflexion sur de la matière froide. Ces calculs sont effectuÈs pour une géométrie et une distribution des électrons fixée. D'autre part, un code Monte-Carlo nonlinéaire a été développé. Ce code évite les hypothèses sur la distribution des électrons (ou paires) qui est calculée de manière autocohérente en utilisant à la fois le bilan énergétique et le bilan de création/annihilation des paires, et en tenant compte du couplage avec la matière froide présente dans l'environnement de la région active. Les paramètres libres sont alors la puissance fournie au plasma et la façon dont cette énergie est fournie (chauffage thermique, injection/accélération de particules à haute énergie...). Les spectres calculés, comparés aux observations, donnent des informations sur la distribution des particules et les processus de dissipation d'énergie. Ce code permet également d'étudier des situations hors équilibre, dépendant du temps et notamment de calculer les courbes de lumière associées à une perturbation. Des applications aux différents modèles proposès pour rendre compte des observations X et gamma sont présentées (modèles thermiques, non-thermiques, modèle d'illumination anisotrope et modèles de couronne thermique radiativement couplèe au disque d'accrétion). Je montre comment de tels outils numériques peuvent mettre des contraintes sur la géométrie et les conditions physiques qui règnent dans les sources compactes de rayonnement X et gamma.
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Durrande, Nicolas. "Étude de classes de noyaux adaptées à la simplification et à l'interprétation des modèles d'approximation. Une approche fonctionnelle et probabiliste". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2001. http://tel.archives-ouvertes.fr/tel-00770625.

Texto completo
Resumen
Le thème général de cette thèse est celui de la construction de modèles permettant d'approximer une fonction f lorsque la valeur de f(x) est connue pour un certain nombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage, peuvent être abordés suivant deux points de vue : celui de l'approximation dans les espaces de Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens. Lorsque l'on souhaite modéliser une fonction dépendant d'une dizaine de variables, le nombre de points nécessaires pour la construction du modèle devient très important et les modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avons cherché à construire des modèles simplifiés en travaillant sur un objet clef des modèles de krigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l'utilisation de noyaux additifs pour la construction de modèles additifs et la décomposition des noyaux usuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nous proposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVA des modèles associés et à l'analyse de sensibilité globale.
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Durrande, Nicolas. "Étude de classes de noyaux adaptées à la simplification et à l'interprétation des modèles d'approximation. Une approche fonctionnelle et probabiliste". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00844747.

Texto completo
Resumen
Le thème général de cette thèse est celui de la construction de modèles permettantd'approximer une fonction f lorsque la valeur de f(x) est connue pour un certainnombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage,peuvent être abordés suivant deux points de vue : celui de l'approximation dans les espacesde Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens.Lorsque l'on souhaite modéliser une fonction dépendant d'une dizaine de variables, lenombre de points nécessaires pour la construction du modèle devient très important etles modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avonscherché à construire des modèles simplifié en travaillant sur un objet clef des modèles dekrigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l'utilisation denoyaux additifs pour la construction de modèles additifs et la décomposition des noyauxusuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nousproposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVAdes modèles associés et à l'analyse de sensibilité globale.
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Chahine, Elie. "Etude mathématique et numérique de méthodes d'éléments finis étendues pour le calcul en domaines fissurés". Toulouse, INSA, 2008. http://eprint.insa-toulouse.fr/archive/00000223/.

Texto completo
Resumen
Dans la première partie de cette thèse, on introduit deux variantes XFEM qui permettent d'obtenir des convergences optimales avec XFEM tout en réduisant le coût de calcul. La première, la méthode XFEM avec une fonction cutoff, consiste à introduire un enrichissement singulier globalisé au voisinage du fond de la fissure via une fonction de localisation. Dans la deuxième, l'enrichissement singulier est introduit globalement sur un sous domaine contenant le fond de fissure. Ensuite, ce sous domaine est raccordé avec le reste du domaine fissuré avec une condition faible de raccord intégral. Cette approche permet d'améliorer l'approximation par rapport à cutoff XFEM. La deuxième partie est dédiée à l'introduction de deux nouvelles variantes qui permettent d'étendre le champ d'applications de XFEM standard, tout en bénéficiant des avantages des méthodes proposées précédemment. La première, Spider XFEM, consiste à remplacer la dépendance en thêta de l'enrichissement singulier exact par une approximation éléments finis calculé sur un maillage circulaire adapté. Dans la deuxième, Reduced Basis XFEM, on utilise, comme enrichissement singulier, une approximation éléments finis de toute la singularité, réalisée sur un maillage raffiné d'un domaine fissuré. Contrairement à XFEM standard, ces deux dernières permettent d'utiliser XFEM dans des cas où l'expression de la singularité est partiellement ou totalement inconnue, voire très compliqué. On démontre des résultats mathématiques de convergence optimale pour les variantes proposées. On réalise aussi différents tests numériques qui valident les résultats théoriques obtenues
In the first part of this thesis, we introduce two XFEM variants allowing to obtain optimal convergence results for XFEM with a reduced computational cost. The first one, the XFEM with a cutoff function, consists in the introduction of a globalized singular enrichment via a localization function around the crack tip. In the second variant, the singular enrichment is defined globally over a subdomain containing the crack tip. Then, this subdomain is bonded with the rest of the cracked domain using a weak integral matching condition. This approach enhances the approximation with respect to the first one. The second part is dedicated to the introduction of two other XFEM methods allowing to extend the application field of XFEM, while getting benefit of the advantages of the former variants. In the first one, the Spider XFEM, the dependence in theta of the exact singular enrichment is replaced by an approximation computed over an adapted circular mesh. Meanwhile, in the second approach, the reduced basis XFEM, an approximation of the whole singularity, computed on a very refined mesh of a cracked domain, is used as singular enrichment. These two variants allow to use XFEM in some cases when the singularity is partially or completely unknown, or even when it's exact expansion is complicated. We prove mathematical optimal convergence results for these approaches and we perform different numerical experiments that validate the theoretical study
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

De, Vitis Alba Chiara. "Méthodes du noyau pour l’analyse des données de grande dimension". Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4034.

Texto completo
Resumen
Les nouvelles technologies permettant la collecte de données dépendant d’un nombre de plus en plus important de paramètres, les ensembles de données voient leur dimension devenir de plus en plus grande. Les problèmes théoriques, qui dépendent notamment de la dimension intrinsèque de l’ensemble des données, et les problèmes de calcul, liés à la dimension de l’espace où vivent les données, affectent l’analyse de données en grandes dimensions. Dans cette thèse, nous étudions le problème de l’analyse de données en grandes dimensions en nous plaçant dans le cadre des espaces métriques mesurés. Nous utilisons la concentration de la mesure pour produire des outils capables de décrire la structure des ensembles de données de grandes dimensions. Nous visons à introduire un nouveau point de vue sur l’utilisation des distances et des mesures de probabilité définies sur les données. Plus précisément, nous montrons que les méthodes de noyau, déjà utilisées en petites dimensions intrinsèques pour réduire la dimensionnalité, peuvent être utilisées en grandes dimensions et appliquées à des cas non traités dans la littérature
Since data are being collected using an increasing number of features, datasets are of increasingly high dimension. Computational problems, related to the apparent dimension, i.e. the dimension of the vectors used to collect data, and theoretical problems, which depends notably on the effective dimension of the dataset, the so called intrinsic dimension, have affected high dimensional data analysis. In order to provide a suitable approach to data analysis in high dimensions, we introduce a more comprehensive scenario in the framework of metric measure spaces. The aim of this thesis, is to show how to take advantage of high dimensionality phenomena in the pure high dimensional regime. In particular, we aim at introducing a new point of view in the use of distances and probability measures defined on the data set. More specifically, we want to show that kernel methods, already used in the intrinsic low dimensional scenario in order to reduce dimensionality, can be investigated under purely high dimensional hypotheses, and further applied to cases not covered by the literature
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía