Segui questo link per vedere altri tipi di pubblicazioni sul tema: Optimisation et apprentissage distribués.

Tesi sul tema "Optimisation et apprentissage distribués"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Optimisation et apprentissage distribués".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Martinez, Medina Lourdes. "Optimisation des requêtes distribuées par apprentissage". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM015.

Testo completo
Abstract (sommario):
Les systèmes de gestion de données distribuées deviennent de plus en plus complexes. Ils interagissent avec des réseaux de dispositifs fixes et/ou mobiles, tels que des smartphones ou des tablettes, dispositifs hétérogènes, autonomes et possédant des limitations physiques. Ces dispositifs exécutent des applications permettant l'interaction des usagers (i.e. jeux virtuels, réseaux sociaux). Ces applications produisent et consomment des données à tout moment voire même en continu. Les caractéristiques de ces systèmes ajoutent des dimensions au problème de l'optimisation de requêtes, telles que la variabilité des objectifs d'optimisation, l'absence d'information sur les données (métadonnées) ou le manque d'une vision globale du système. Les techniques traditionnelles d'optimisation des requêtes n'abordent pas (ou très peu) les systèmes autonomes. Elles se basent sur les métadonnées et font des hypothèses très fortes sur le comportement du système. En plus, la majorité de ces techniques d'optimisation ciblent uniquement l'optimisation du temps d'exécution. La difficulté d'évaluation des requêtes dans les applications modernes incite à revisiter les techniques traditionnelles d'optimisation. Cette thèse fait face aux défis décris précédemment par l'adaptation du paradigme du Raisonnement à partir de cas (CBR pour Case-Based Reasoning) au problème de l'optimisation des requêtes. Cette adaptation, associée à une exploration pseudo-aléatoire de l'espace de solutions fournit un moyen pour optimiser des requêtes dans les contextes possédant très peu voire aucune information sur les données. Cette approche se concentre sur l'optimisation de requêtes en utilisant les cas générés précédemment dans l'évaluation de requêtes similaires. Un cas de requête et composé par : (i) la requête (le problème), (ii) le plan d'exécution (la solution) et (iii) les mesures de ressources utilisés par l'exécution du plan (l'évaluation de la solution). Cette thèse aborde également la façon que le processus CBR interagit avec le processus de génération de plan d'exécution de la requête qui doit permettre d'explorer l'espace des solutions. Ce processus utilise les heuristiques classiques et prennent des décisions de façon aléatoire lorsque les métadonnées viennent à manquer (e.g. pour l'ordre des jointures, la sélection des algorithmes, voire même le choix des protocoles d'acheminement de messages). Ce processus exploite également le CBR pour générer des plans pour des sous-requêtes, accélérant ainsi l'apprentissage de nouveaux cas. Les propositions de cette thèse ont été validées à l'aide du prototype CoBRA développé dans le contexte du projet UBIQUEST
Distributed data systems are becoming increasingly complex. They interconnect devices (e.g. smartphones, tablets, etc.) that are heterogeneous, autonomous, either static or mobile, and with physical limitations. Such devices run applications (e.g. virtual games, social networks, etc.) for the online interaction of users producing / consuming data on demand or continuously. The characteristics of these systems add new dimensions to the query optimization problem, such as multi-optimization criteria, scarce information on data, lack of global system view, among others. Traditional query optimization techniques focus on semi (or not at all) autonomous systems. They rely on information about data and make strong assumptions about the system behavior. Moreover, most of these techniques are centered on the optimization of execution time only. The difficulty for evaluating queries efficiently on nowadays applications motivates this work to revisit traditional query optimization techniques. This thesis faces these challenges by adapting the Case Based Reasoning (CBR) paradigm to query processing, providing a way to optimize queries when there is no prior knowledge of data. It focuses on optimizing queries using cases generated from the evaluation of similar past queries. A query case comprises: (i) the query, (ii) the query plan and (iii) the measures (computational resources consumed) of the query plan. The thesis also concerns the way the CBR process interacts with the query plan generation process. This process uses classical heuristics and makes decisions randomly (e.g. when there are no statistics for join ordering and selection of algorithms, routing protocols). It also (re)uses cases (existing query plans) for similar queries parts, improving the query optimization, and therefore evaluation efficiency. The propositions of this thesis have been validated within the CoBRa optimizer developed in the context of the UBIQUEST project
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Jankee, Christopher. "Optimisation par métaheuristique adaptative distribuée en environnement de calcul parallèle". Thesis, Littoral, 2018. http://www.theses.fr/2018DUNK0480/document.

Testo completo
Abstract (sommario):
Pour résoudre des problèmes d'optimisation discret de type boîte noire, de nombreux algorithmes stochastiques tels que les algorithmes évolutionnaires ou les métaheuristiques existent et se révèlent particulièrement efficaces selon le problème à résoudre. En fonction des propriétés observées du problème, choisir l'algorithme le plus pertinent est un problème difficile. Dans le cadre original des environnements de calcul parallèle et distribué, nous proposons et analysons différentes stratégies adaptative de sélection d'algorithme d'optimisation. Ces stratégies de sélection reposent sur des méthodes d'apprentissage automatique par renforcement, issu du domaine de l'intelligence artificielle, et sur un partage d'information entre les noeuds de calcul. Nous comparons et analysons les stratégies de sélection dans différentes situations. Deux types d'environnement de calcul distribué synchrone sont abordés : le modèle en île et le modèle maître-esclave. Sur l'ensemble des noeuds de manière synchrone à chaque itération la stratégie de sélection adaptative choisit un algorithme selon l'état de la recherche de la solution. Dans une première partie, deux problèmes OneMax et NK, l'un unimodal et l'autre multimodal, sont utilisés comme banc d'essai de ces travaux. Ensuite, pour mieux saisir et améliorer la conception des stratégies de sélection adaptatives, nous proposons une modélisation du problème d'optimisation et de son opérateur de recherche locale. Dans cette modélisation, une caractéristique importante est le gain moyen d'un opérateur en fonction de la fitness de la solution candidate. Le modèle est utilisé dans le cadre synchrone du modèle maître-esclave. Une stratégie de sélection se décompose en trois composantes principales : l'agrégation des récompenses échangées, la technique d'apprentissage et la répartition des algorithmes sur les noeuds de calcul. Dans une dernière partie, nous étudions trois scénarios et nous donnons des clés de compréhension sur l'utilisation pertinente des stratégies de sélection adaptative par rapport aux stratégies naïves. Dans le cadre du modèle maître-esclave, nous étudions les différentes façons d'agréger les récompenses sur le noeud maître, la répartition des algorithmes d'optimisation sur les noeuds de calcul et le temps de communication. Cette thèse se termine par des perspectives pour le domaine de l'optimisation stochastique adaptative distribuée
To solve discrete optimization problems of black box type, many stochastic algorithms such as evolutionary algorithms or metaheuristics exist and prove to be particularly effective according to the problem to be solved. Depending on the observed properties of the problem, choosing the most relevant algorithm is a difficult problem. In the original framework of parallel and distributed computing environments, we propose and analyze different adaptive optimization algorithm selection strategies. These selection strategies are based on reinforcement learning methods automatic, from the field of artificial intelligence, and on information sharing between computing nodes. We compare and analyze selection strategies in different situations. Two types of synchronous distributed computing environment are discussed : the island model and the master-slave model. On the set of nodes synchronously at each iteration, the adaptive selection strategy chooses an algorithm according to the state of the search for the solution. In the first part, two problems OneMax and NK, one unimodal and the other multimodal, are used as benchmarks for this work. Then, to better understand and improve the design of adaptive selection strategies, we propose a modeling of the optimization problem and its local search operator. In this modeling, an important characteristic is the average gain of an operator according to the fitness of the candidate solution. The model is used in the synchronous framework of the master-slave model. A selection strategy is broken down into three main components : the aggregation of the rewards exchanged, the learning scheme and the distribution of the algorithms on the computing nodes. In the final part, we study three scenarios, and we give keys to understanding the relevant use of adaptive selection strategies over naïve strategies. In the framework of the master-slave model, we study the different ways of aggregating the rewards on the master node, the distribution of the optimization algorithms of the nodes of computation and the time of communication. This thesis ends with perspectives in the field of distributed adaptive stochastic optimization
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Mhanna, Elissa. "Beyond gradients : zero-order approaches to optimization and learning in multi-agent environments". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG123.

Testo completo
Abstract (sommario):
L'essor des dispositifs connectés et des données qu'ils génèrent a stimulé le développement d'applications à grande échelle. Ces dispositifs forment des réseaux distribués avec un traitement de données décentralisé. À mesure que leur nombre augmente, des défis comme la surcharge de communication et les coûts computationnels se présentent, nécessitant des méthodes d'optimisation adaptées à des contraintes de ressources strictes, surtout lorsque les dérivées sont coûteuses ou indisponibles. Cette thèse se concentre sur les méthodes d'optimisation sans dérivées, qui sont idéales quand les dérivées des fonctions sont inaccessibles. Ces méthodes estiment les gradients à partir des évaluations de fonction, ce qui les rend adaptées à l'apprentissage distribué et fédéré, où les dispositifs collaborent pour résoudre des tâches d'optimisation avec peu d'informations et des données bruitées. Dans le premier chapitre, nous traitons de l'optimisation distribuée sans dérivées pour des fonctions fortement convexes sur plusieurs agents. Nous proposons un algorithme distribué de descente de gradient projete sans dérivées, qui utilise des estimations de gradient à un point, où la fonction est interrogée une seule fois par réalisation stochastique, et les évaluations sont bruitées. Ce chapitre démontre la convergence presque sûre de l'algorithme et fournit des bornes théoriques sur le taux de convergence. Avec des pas constants, l'algorithme atteint un taux de convergence linéaire. C'est la première fois que ce taux est établi pour des estimations de gradient à un point (voire même pour des estimations de gradient à deux points) pour des fonctions stochastiques. Nous analysons aussi les effets des pas décroissants, établissant un taux de convergence correspondant aux méthodes centralisées sans dérivées. Le deuxième chapitre se penche sur les défis de l'apprentissage fédéré qui est limité par le coût élevé de la transmission de données sur des réseaux à bande passante restreinte. Pour y répondre, nous proposons un nouvel algorithme qui réduit la surcharge de communication en utilisant des estimations de gradient à un point. Les dispositifs transmettent des valeurs scalaires plutôt que de grands vecteurs de gradient, réduisant ainsi la quantité de données envoyées. L'algorithme intègre aussi directement les perturbations des communications sans fil dans l'optimisation, éliminant le besoin de connaître explicitement l'état du canal. C'est la première approche à inclure les propriétés du canal sans fil dans un algorithme d'apprentissage, le rendant résilient aux problèmes de communication réels. Nous prouvons la convergence presque sûre de cette méthode dans des environnements non convexes et validons son efficacité à travers des expériences. Le dernier chapitre étend l'algorithme précédent au cas des estimations de gradient à deux points. Contrairement aux estimations à un point, les estimations à deux points interrogent la fonction deux fois, fournissant une approximation plus précise du gradient et améliorant le taux de convergence. Cette méthode conserve l'efficacité de communication des estimations à un point, avec uniquement des valeurs scalaires transmises, et assouplit l'hypothèse de bornitude de la fonction objective. Nous prouvons des taux de convergence linéaires pour des fonctions fortement convexes et lisses. Pour les problèmes non convexes, nous montrons une amélioration notable du taux de convergence, en particulier pour les fonctions dominées par le gradient K, atteignant également un taux linéaire. Nous fournissons aussi des résultats montrant l'efficacité de communication par rapport à d'autres techniques d'apprentissage fédéré
The rise of connected devices and the data they produce has driven the development of large-scale applications. These devices form distributed networks with decentralized data processing. As the number of devices grows, challenges like communication overhead and computational costs increase, requiring optimization methods that work under strict resource constraints, especially where derivatives are unavailable or costly. This thesis focuses on zero-order (ZO) optimization methods are ideal for scenarios where explicit function derivatives are inaccessible. ZO methods estimate gradients based only on function evaluations, making them highly suitable for distributed and federated learning environments where devices collaborate to solve global optimization tasks with limited information and noisy data. In the first chapter, we address distributed ZO optimization for strongly convex functions across multiple agents in a network. We propose a distributed zero-order projected gradient descent algorithm that uses one-point gradient estimates, where the function is queried only once per stochastic realization, and noisy function evaluations estimate the gradient. The chapter establishes the almost sure convergence of the algorithm and derives theoretical upper bounds on the convergence rate. With constant step sizes, the algorithm achieves a linear convergence rate. This is the first time this rate has been established for one-point (and even two-point) gradient estimates. We also analyze the effects of diminishing step sizes, establishing a convergence rate that matches centralized ZO methods' lower bounds. The second chapter addresses the challenges of federated learning (FL) which is often hindered by the communication bottleneck—the high cost of transmitting large amounts of data over limited-bandwidth networks. To address this, we propose a novel zero-order federated learning (ZOFL) algorithm that reduces communication overhead using one-point gradient estimates. Devices transmit scalar values instead of large gradient vectors, lowering the data sent over the network. Moreover, the algorithm incorporates wireless communication disturbances directly into the optimization process, eliminating the need for explicit knowledge of the channel state. This approach is the first to integrate wireless channel properties into a learning algorithm, making it resilient to real-world communication issues. We prove the almost sure convergence of this method in nonconvex optimization settings, establish its convergence rate, and validate its effectiveness through experiments. In the final chapter, we extend the ZOFL algorithm to include two-point gradient estimates. Unlike one-point estimates, which rely on a single function evaluation, two-point estimates query the function twice, providing a more accurate gradient approximation and enhancing the convergence rate. This method maintains the communication efficiency of one-point estimates, where only scalar values are transmitted, and relaxes the assumption that the objective function must be bounded. The chapter demonstrates that the proposed two-point ZO method achieves linear convergence rates for strongly convex and smooth objective functions. For nonconvex problems, the method shows improved convergence speed, particularly when the objective function is smooth and K-gradient-dominated, where a linear rate is also achieved. We also analyze the impact of constant versus diminishing step sizes and provide numerical results showing the method's communication efficiency compared to other federated learning techniques
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Vicard, Annie. "Formalisation et optimisation des systèmes informatiques distribués temps réel embarqués". Paris 13, 1999. http://www.theses.fr/1999PA132032.

Testo completo
Abstract (sommario):
Après un état de l'art sur les systèmes informatiques distribués temps reel embarques, permettant de préciser la terminologie employée dans la suite, nous proposons une formalisation de ces systèmes. Cette partie décrit les modèles choisis pour l'algorithme (logiciel), l'architecture (matériel) et l'implantation (mise en correspondance logiciel materiel). L'algorithme est un hypergraphe orienté infiniment itere et conditionne ou les sommets sont des opérations de calcul et les arcs sont des dépendances de données entre ces opérations. L'architecture est un hypergraphe non orienté ou les sommets sont des unités de calcul et de communication, et les aretes sont des connexions entre ces unites. L'implantation est un hypergraphe orienté et conditionne décrivant la distribution et l'ordonnancement des calculs et des communications. Cette partie conduit a une formalisation permettant de décrire, en intention, l'ensemble des implantations valides (respectant l'ordre partiel du graphe de l'algorithme specifie au depart) d'un algorithme donne sur une architecture donnée. La deuxième partie consiste a trouver une implantation optimisée, relativement a la duree d'execution de l'algorithme (latence), parmi l'ensemble des implantations valides. Cette recherche etant un probleme np-difficile, des heuristiques sont utilisées afin d'obtenir une solution en un temps raisonnable. Après un etat de l'art sur ces heuristiques, nous proposons une heuristique gloutonne ainsi qu'une extension voisinage de cette heuristique. Ces deux heuristiques sont comparées avec d'autres proposées dans la litterature sur quelques exemples d'application. La dernière partie concerne la spécification détaillée du modèle d'algorithme conditionné et des heuristiques qui ont été integrés dans le cur du logiciel syndex, logiciel de cao niveau système pour l'implantation d'applications distribuées temps réel embarquées.
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Mériaux, François. "Théorie des jeux et apprentissage pour les réseaux sans fil distribués". Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00952069.

Testo completo
Abstract (sommario):
Dans cette thèse, nous étudions des réseaux sans fil dans lesquels les terminaux mobiles sont autonomes dans le choix de leurs configurations de communication. Cette autonomie de décision peut notamment concerner le choix de la technologie d'accès au réseau, le choix du point d'accès, la modulation du signal, les bandes de fréquences occupées, la puissance du signal émis, etc. Typiquement, ces choix de configuration sont réalisés dans le but de maximiser des métriques de performances propres à chaque terminal. Sous l'hypothèse que les terminaux prennent leurs décisions de manière rationnelle afin de maximiser leurs performances, la théorie des jeux s'applique naturellement pour modéliser les interactions entre les décisions des différents terminaux. Plus précisément, l'objectif principal de cette thèse est d'étudier des stratégies d'équilibre de contrôle de puissance d'émission afin de satisfaire des considérations d'efficacité énergétique. Le cadre des jeux stochastiques est particulièrement adapté à ce problème et nous permet notamment de caractériser la région de performance atteignable pour toutes les stratégies de contrôle de puissance qui mènent à un état d'équilibre. Lorsque le nombre de terminaux en jeu est grand, nous faisons appel à la théorie des jeux à champ moyen pour simplifier l'étude du système. Cette théorie nous permet d'étudier non pas les interactions individuelles entre les terminaux, mais l'interaction de chaque terminal avec un champ moyen qui représente l'état global des autres terminaux. Des stratégies de contrôle de puissance optimales du jeu à champ moyen sont étudiées. Une autre partie de la thèse a été consacrée à des problématiques d'apprentissage de points d'équilibre dans les réseaux distribués. En particulier, après avoir caractérisé les positions d'équilibre d'un jeu de positionnement de points d'accès, nous montrons comment des dynamiques de meilleures réponses et d'apprentissage permettent de converger vers un équilibre. Enfin, pour un jeu de contrôle de puissance, la convergence des dynamiques de meilleures réponses vers des points d'équilibre a été étudiée. Il est notamment proposé un algorithme d'adaptation de puissance convergeant vers un équilibre avec une faible connaissance du réseau.
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Zerrik, El Hassan. "Controlabilité et observalité régionales d'une classe de systèmes distribués". Perpignan, 1994. http://www.theses.fr/1994PERP0176.

Testo completo
Abstract (sommario):
Le travail realise dans cette these entre dans le cadre des mathematiques appliquees a l'automatique theorique. De nombreux concepts d'analyse regionale ont ete introduits pour les systemes gouvernes par les equations aux derivees partielles. Diverses proprietes et caracterisations ont ete etablies, en particulier en relation avec la structure des capteurs et actionneurs. Des algorithmes pour la mise en uvre numerique ont ete developpes et illustres a travers de nombreux exemples
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Van, Grieken Milagros. "Optimisation pour l'apprentissage et apprentissage pour l'optimisation". Phd thesis, Université Paul Sabatier - Toulouse III, 2004. http://tel.archives-ouvertes.fr/tel-00010106.

Testo completo
Abstract (sommario):
Dans de nombreux problèmes industriels, une simple évaluation de la fonction objectif est coûteuse en temps de calcul et son gradient peut ne pas être disponible. Il est alors utile de construire un modèle, rapide à évaluer et facilement dérivable, qui approche le problème étudié. En apportant de nombreuses améliorations à l'apprentissage, nous avons montré que les réseaux de neurones peuvent répondre à ces exigences. En particulier, là où des méthodes neuronales classiques introduisent des oscillations pour approcher une fonction lisse,notre méthode donne un résultat satisfaisant. Mieux encore, notre méthode permet d'approcher des fonctions oscillantes (par exemple le résultat d'un programme entaché d'erreurs numériques), par un modèle lisse. Nous parvenons à ces résultats par le concours de nombreuses méthodes de régularisation : la méthode de Tikhonov, la stratégie d'arrêt de l'apprentissage, la taille du modèle et pour terminer l'utilisation de la méthode de Gauss-Newton (GN). Cette approche de régularisation permet en plus d'éviter les minima locaux (qui posent un serieux problème pour les méthodes classiques), en augmentant la taille du modèle pour assurer l'apprentissage et en la réduisant ensuite pour la régularisation. Pour les problèmes de grande taille, l'application de la méthode de Gauss-Newton est très " gourmande " en place mémoire. Cependant, en combinant les modes adjoint et direct de la différentiation automatique, nous avons proposé une implémentation " zéro-mémoire " qui nous permet d'appliquer cette méthode. Ce procéde, présenté dans le cadre des réseaux neuronaux peuvent, a priori, être adaptés à tout problème inverse. Dans le littérature récente, mais riche sur le sujet, les fonctions définies par un réseau neuronal classique sont optimisées par des techniques globales très coûuteuses. Dans notre cas, nous profitons des qualités du modèle obtenu (régularité, rapidité d'évaluation et disponibilité du gradient pour un coût supplémentaire négligeable) pour utiliser des méthodes d'optimisation efficaces. Nous illustrerons la pertinence de la méthode proposée par différents exemples académiques, reconnus par leur difficulté, et par des exemples issus de l'industrie automobile et l'ingénierie pétrolière.
Gli stili APA, Harvard, Vancouver, ISO e altri
8

BERNY, ARNAUD. "Apprentissage et optimisation statistiques. Application a la radiotelephonie mobile". Nantes, 2000. http://www.theses.fr/2000NANT2081.

Testo completo
Abstract (sommario):
Le sujet de cette these est l'optimisation stochastique. Dans la premiere des trois parties, nous presentons plusieurs problemes d'optimisation combinatoire et des algorithmes approches de resolution, en particulier les algorithmes genetiques. Nous abordons egalement les methodes issues de la physique statistique, en particulier les systemes de spins et l'echantillonnage de gibbs que nous appliquons a la coloration de graphes. Dans la deuxieme partie, nous presentons des algorithmes d'optimisation qui travaillent sur une representation de l'espace de recherche, au contraire des algorithmes de la premiere partie. Par representation, nous entendons une probabilite sur l'espace de recherche decrite par un nombre fini de parametres. L'optimisation est controlee par un systeme dynamique a gradient, a l'instar de l'apprentissage dans les reseaux de neurones, qui agit sur les parametres de la probabilite et maximise un critere statistique. Nous avons introduit deux nouveaux criteres statistiques qui conduisent a des algorithmes d'apprentissage par selection. Dans le cas des vecteurs binaires, nous utilisons les mesures de bernoulli, et dans le cas euclidien, les densites gaussiennes. La troisieme partie porte sur un probleme d'optimisation en radiotelephonie mobile, la planification cellulaire. Apres avoir presente le modele, nous proposons une methode de resolution qui incorpore plusieurs des notions rencontrees dans les deux premieres parties. Elle fait appel en particulier a la recherche locale, aux systemes de spins, a l'echantillonnage de gibbs, au recuit simule et a l'apprentissage par renforcement. La methode est evaluee sur des jeux de donnees reelles de grande taille et comparee a d'autres methodes.
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Le, Lann Marie-Véronique. "Commande prédictive et commande par apprentissage : étude d'une unité pilote d'extraction, optimisation par apprentissage". Toulouse, INPT, 1988. http://www.theses.fr/1988INPT023G.

Testo completo
Abstract (sommario):
Presentation de deux algorithmes de commande adaptative a caractere predictif (commande predictive generalisee et commande predictive generalisee avec modeles de references) et leur application au controle monovariable de l'unite pilote. La commande monovariable a apprentissage est realisee a l'aide d'un seul automate, puis a l'aide d'une structure hierarchique. La commande multivariable (transfert de matiere et hydrodynamique) est effectuee selon trois schemas de commande : deux boucles de commande independantes ; deux boucles interconnectees, et une boucle a deux entrees deux sorties
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Le, Lann Marie-Véronique. "Commande prédictive et commande par apprentissage étude d'une unité pilote d'extraction, optimisation par apprentissage /". Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37615168p.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Bertrand, Hadrien. "Optimisation d'hyper-paramètres en apprentissage profond et apprentissage par transfert : applications en imagerie médicale". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT001/document.

Testo completo
Abstract (sommario):
Ces dernières années, l'apprentissage profond a complètement changé le domaine de vision par ordinateur. Plus rapide, donnant de meilleurs résultats, et nécessitant une expertise moindre pour être utilisé que les méthodes classiques de vision par ordinateur, l'apprentissage profond est devenu omniprésent dans tous les problèmes d'imagerie, y compris l'imagerie médicale.Au début de cette thèse, la construction de réseaux de neurones adaptés à des tâches spécifiques ne bénéficiait pas encore de suffisamment d'outils ni d'une compréhension approfondie. Afin de trouver automatiquement des réseaux de neurones adaptés à des tâches spécifiques, nous avons ainsi apporté des contributions à l’optimisation d’hyper-paramètres de réseaux de neurones. Cette thèse propose une comparaison de certaines méthodes d'optimisation, une amélioration en performance d'une de ces méthodes, l'optimisation bayésienne, et une nouvelle méthode d'optimisation d'hyper-paramètres basé sur la combinaison de deux méthodes existantes : l'optimisation bayésienne et hyperband.Une fois équipés de ces outils, nous les avons utilisés pour des problèmes d'imagerie médicale : la classification de champs de vue en IRM, et la segmentation du rein en échographie 3D pour deux groupes de patients. Cette dernière tâche a nécessité le développement d'une nouvelle méthode d'apprentissage par transfert reposant sur la modification du réseau de neurones source par l'ajout de nouvelles couches de transformations géométrique et d'intensité.En dernière partie, cette thèse revient vers les méthodes classiques de vision par ordinateur, et nous proposons un nouvel algorithme de segmentation qui combine les méthodes de déformations de modèles et l'apprentissage profond. Nous montrons comment utiliser un réseau de neurones pour prédire des transformations globales et locales sans accès aux vérités-terrains de ces transformations. Cette méthode est validé sur la tâche de la segmentation du rein en échographie 3D
In the last few years, deep learning has changed irrevocably the field of computer vision. Faster, giving better results, and requiring a lower degree of expertise to use than traditional computer vision methods, deep learning has become ubiquitous in every imaging application. This includes medical imaging applications. At the beginning of this thesis, there was still a strong lack of tools and understanding of how to build efficient neural networks for specific tasks. Thus this thesis first focused on the topic of hyper-parameter optimization for deep neural networks, i.e. methods for automatically finding efficient neural networks on specific tasks. The thesis includes a comparison of different methods, a performance improvement of one of these methods, Bayesian optimization, and the proposal of a new method of hyper-parameter optimization by combining two existing methods: Bayesian optimization and Hyperband.From there, we used these methods for medical imaging applications such as the classification of field-of-view in MRI, and the segmentation of the kidney in 3D ultrasound images across two populations of patients. This last task required the development of a new transfer learning method based on the modification of the source network by adding new geometric and intensity transformation layers.Finally this thesis loops back to older computer vision methods, and we propose a new segmentation algorithm combining template deformation and deep learning. We show how to use a neural network to predict global and local transformations without requiring the ground-truth of these transformations. The method is validated on the task of kidney segmentation in 3D US images
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Bertrand, Hadrien. "Optimisation d'hyper-paramètres en apprentissage profond et apprentissage par transfert : applications en imagerie médicale". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT001.

Testo completo
Abstract (sommario):
Ces dernières années, l'apprentissage profond a complètement changé le domaine de vision par ordinateur. Plus rapide, donnant de meilleurs résultats, et nécessitant une expertise moindre pour être utilisé que les méthodes classiques de vision par ordinateur, l'apprentissage profond est devenu omniprésent dans tous les problèmes d'imagerie, y compris l'imagerie médicale.Au début de cette thèse, la construction de réseaux de neurones adaptés à des tâches spécifiques ne bénéficiait pas encore de suffisamment d'outils ni d'une compréhension approfondie. Afin de trouver automatiquement des réseaux de neurones adaptés à des tâches spécifiques, nous avons ainsi apporté des contributions à l’optimisation d’hyper-paramètres de réseaux de neurones. Cette thèse propose une comparaison de certaines méthodes d'optimisation, une amélioration en performance d'une de ces méthodes, l'optimisation bayésienne, et une nouvelle méthode d'optimisation d'hyper-paramètres basé sur la combinaison de deux méthodes existantes : l'optimisation bayésienne et hyperband.Une fois équipés de ces outils, nous les avons utilisés pour des problèmes d'imagerie médicale : la classification de champs de vue en IRM, et la segmentation du rein en échographie 3D pour deux groupes de patients. Cette dernière tâche a nécessité le développement d'une nouvelle méthode d'apprentissage par transfert reposant sur la modification du réseau de neurones source par l'ajout de nouvelles couches de transformations géométrique et d'intensité.En dernière partie, cette thèse revient vers les méthodes classiques de vision par ordinateur, et nous proposons un nouvel algorithme de segmentation qui combine les méthodes de déformations de modèles et l'apprentissage profond. Nous montrons comment utiliser un réseau de neurones pour prédire des transformations globales et locales sans accès aux vérités-terrains de ces transformations. Cette méthode est validé sur la tâche de la segmentation du rein en échographie 3D
In the last few years, deep learning has changed irrevocably the field of computer vision. Faster, giving better results, and requiring a lower degree of expertise to use than traditional computer vision methods, deep learning has become ubiquitous in every imaging application. This includes medical imaging applications. At the beginning of this thesis, there was still a strong lack of tools and understanding of how to build efficient neural networks for specific tasks. Thus this thesis first focused on the topic of hyper-parameter optimization for deep neural networks, i.e. methods for automatically finding efficient neural networks on specific tasks. The thesis includes a comparison of different methods, a performance improvement of one of these methods, Bayesian optimization, and the proposal of a new method of hyper-parameter optimization by combining two existing methods: Bayesian optimization and Hyperband.From there, we used these methods for medical imaging applications such as the classification of field-of-view in MRI, and the segmentation of the kidney in 3D ultrasound images across two populations of patients. This last task required the development of a new transfer learning method based on the modification of the source network by adding new geometric and intensity transformation layers.Finally this thesis loops back to older computer vision methods, and we propose a new segmentation algorithm combining template deformation and deep learning. We show how to use a neural network to predict global and local transformations without requiring the ground-truth of these transformations. The method is validated on the task of kidney segmentation in 3D US images
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Henriet, Julien. "Evaluation, optimisation et validation de protocoles distribués de gestion de la concurrence pour les interactions coopératives". Besançon, 2005. http://www.theses.fr/2005BESA2023.

Testo completo
Abstract (sommario):
Le développement fulgurant de la télé-informatique a permis l'apparition de nombreux logiciels pour le travail de groupe d'où les vocables collecticiels, applications coopératives ou collaboratives. Mais le travail collaboratif sur Internet place des contraintes en terme de concurrence d'accès aux données partagées et de communication ; n utilisateurs accédant aux mêmes données doivent en avoir la même vision, une vision cohérente. La première partie de cette thèse est un état de l'art des protocoles de communication et de gestion de la cohérence des données, des outils de communication, ainsi qu'un tour d'horizon des applications et plates-formes dédiées plus particulièrement à la télé-médecine coopérative. La deuxième partie est l'étude et l'amélioration du protocole du Pèlerin. Ce protocole pessimiste est implémenté sur notre plate-forme coopérative nommée CAliF et une version optimiste est proposée, permettant aux utilisateurs de réaliser plus rapidement leurs modifications des objets partagés. Cette partie comporte aussi une étude théorique des performances de ce nouveau protocole par rapport aux performances du Pèlerin classique. La troisième partie présente, modélise et étudie le protocole de gestion des communications de CAliF : le Caméléon. Cette étude est faite au travers de Réseaux de Pétri. La quatrième partie est une étude pratique de ces protocoles à l'aide d'une implémentation basée sur l'intergiciel SOAP et leur adéquation avec les outils de la plate-forme du projet de télé-neurologie TéNeCi. Dans le cadre de ce projet, des neurologues des hôpitaux de Besançon et de Lausanne doivent pouvoir réaliser des diagnostics de manière coopérative en temps réel
Cooperative work over Internet introduces constraints in terms of access and modification of shared objects. Users need to access the same objects concurrently in real-time. At each moment, the same image of the production area is to be shared on each connected site. The first chapter of this thesis is a state of the art of communication protocols, consistency management protocols and telemedicine platforms that allow collaborative work. The second chapter presents an new protocol for consistency management over that kind of platform. A probabilistic study of this new protocol proves and evaluates the optimization and the cost of this new protocol called the Optimistic Pilgrim. An analysis, an optimization and a validation of the Chameleon protocol dedicated to communication management over a collaborative platform is presented in the third chapter. At last, the fourth chapter evaluates the performance of these protocols through an implementation of a prototype and also presents the adequation of each protocol to each tool of the collaborative teleneurological platform of the TéNeCi project
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Larrousse, Benjamin. "Structure d’information, stratégies de communication et application aux réseaux distribués". Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112373/document.

Testo completo
Abstract (sommario):
Cette thèse étudie des problèmes d’optimisation distribuée avec différentes structures d’observationset leurs applications aux réseaux sans fil et aux problèmes de Smart Grids. Spécifiquement,une structure d’observation asymétrique entre deux agents est considérée, où un premieragent a connaissance complète à propos de la réalisation d’un état aléatoire, et l’autre agent neconnaît rien à propos de cet état. Dans ce contexte, la question est de savoir comment transmettrede l’information depuis le premier agent vers le second agent dans le but d’utiliser de manièreoptimale les ressources de communication. Plusieurs modèles sont étudiés dans cette thèse. Pourtous, un élément commun est le fait que la source d’information doit être encodée de manièreappropriée pour optimiser l’utilisation de la configuration du système. Un premier modèle estétudié où aucun canal de communication n’est disponible entre les agents et ils ont une fonctiond’utilité commune. Cependant, le seul moyen de communiquer est via les actions choisiespar les agents. Comme les actions ont une influence sur le paiement, l’agent informé encode saconnaissance à propos de l’état dans ses actions, qui seront observées de manière imparfaite parle second agent. Ce dernier décodera l’information et choisira ses actions dans le but de maximiserla fonction objectif commune. Nous utilisons des outils de théorie de l’information pourcaractériser ce compromis optimal par une contrainte d’information, et appliquons ce scénario àun problème de contrôle de puissance pour un canal à interférence. Notre nouvelle stratégie (lecontrôle de puissance codé) donne des gains très prometteurs comparés aux approches classiques.Dans une seconde partie, nous considérons qu’il existe un canal dédié de communication, c’està-dire que les actions de l’agent informé n’ont pas d’influence sur le paiement et sont seulementutiles pour la transmission d’information. De plus, les agents sont supposés avoir des intérêtsdivergents, si bien que l’agent informé n’a pas nécessairement d’incitation à envoyer tout sonsavoir à l’agent non informé. La théorie des jeux et les jeux de « Cheap talk » en particulier sontle bon cadre pour analyser ce genre de problème. Nous caractérisons le schéma de signal sur lequelles agents se seront mis d’accord. Ce schéma amènera à un équilibre de Nash, est donc optimiserala façon dont la communication est faite. Ce modèle est d’un intérêt particulier pour les réseauxde véhicules électriques où un véhicule électrique doit envoyer son besoin en terme de puissancede charge à un aggrégateur qui choisira un niveau de charge effectif pour le véhicule électrique.Ce dernier ne se souciera que de son besoin, alors que l’aggrégateur se soucie également de l’étatdu réseau. Ce modèle aide à optimiser la façon dont le réseau est utilisé.Enfin, nous considérons un modèle avec plus de deux agents, où le but principal est pourtous les agents de retrouver l’observation parfaite des actions passées de tous les agents. Ceci estd’un intérêt très particulier d’un point de vue de la théorie des jeux pour caractériser les utilitésespérées de long terme des agents. Dans ce modèle, nous ajoutons un encodeur qui observeparfaitement toutes les actions passées et aidera les agents à obtenir l’observation parfaite. Enfait, ceci sera possible si la bonne contrainte d’information est satisfaite. Nous caractérisonsdonc cette dernière, en utilisant un schéma de codage hybride combinant des outils classiques dethéorie de l’information ainsi que des outils de la théorie des graphes
This thesis studies distributed optimization problems with different observation structuresand application to wireless network and Smart Grids problems. Specifically, an asymmetricobservation structure between two agents is considered, where a first agent has full knowledgeabout the realization of a random state, and the other agent does not know anything about thisstate. In this context, the question is how to transmit information from the first agent to thesecond agent in order to use in an optimal way the communication resources. Several modelsare studied in this thesis. For all of them, a common element is that the information source hasto be encoded in an appropriate manner to optimize the use of the system’s configuration. Afirst model is studied where no dedicated channel for communication is available between agentsand they have the same objective function. Therefore, the only way communication is possible isthrough the actions chosen by agents. As actions are payoff relevant, the first agent has to findthe optimal tradeoff between transmission of information and payoff maximization. The informedagent encodes his knowledge about the state into his actions, which will be imperfectly observedby the second agent. The latter will decode the information and choose his actions in order tomaximize the common objective function. We use tools from information theory to characterizethis optimal tradeoff by an information constraint, and apply this scenario to a power controlproblem in an interference channel setting. Our new strategy (the coded power control ) givessome promising gains compare to classical approaches.In a second part, we consider that there exists a dedicated channel for communication, that isto say the actions of the informed agent are not payoff relevant and are only useful for transmissionof information. Furthermore, agents are supposed to have diverging interests, so that the informedagent does not necessarily have an incentive to send all his knowledge to the uninformed agent.Game theory and Cheap talk game in particular appears to be the right framework to analyzethis problem. We characterize the signal scheme that agents will agree on. This scheme willlead to a Nash Equilibrium, thus will optimize the way communication is done. This model is ofparticular interest for electrical vehicles networks where an electrical vehicle has to send his needin term of power to an aggregator which will choose an effective charging level for the electricalvehicle. The latter only cares about his need in term of power whereas the aggregator also takesinto account the network status. The considered model help to optimize the way the network isused.We finally consider a model with more than two agents, where the main goal is for all agentsto retrieve perfect observations of all past actions of all agents. This is of particular interest ina game theory point of view to characterize the long term expected utilities of the agents. Inthis model, we add an encoder who perfectly oberves all past actions and will help agents tohave perfect monitoring. In fact, this is possible if the right information constraint is satisfied.We thus characterized the latter, using a hybrid coding scheme combining classical informationtheoretic scheme and tools from graph theory
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Zennir, Youcef. "Apprentissage par renforcement et systèmes distribués : application à l'apprentissage de la marche d'un robot hexapode". Lyon, INSA, 2004. http://theses.insa-lyon.fr/publication/2004ISAL0034/these.pdf.

Testo completo
Abstract (sommario):
Le but de cette thèse est d'étudier et de proposer des techniques d'apprentissage par renforcement pour l'apprentissage de la marche d'un robot marcheur hexapode. L'hypothèse sur laquelle repose ce travail est que des marches peuvent être obtenues lorsque la commande des mouvements est distribuée au niveau de chaque patte plutôt que d'être centralisée. Une approche distribuée de l'apprentissage par renforcement de type Q-learning a été retenue dans laquelle les agents (les contrôleurs de mouvement) contribuant à une même tâche mènent leur propre apprentissage en tenant compte ou non de l'existence des autres agents. Différentes simulations et tests on été menés avec pour objectif la génération de marches périodiques stables. La marche apparaît comme un phénomène émergeant des mouvements individuels des pattes. L'influence des paramètres d'apprentissage sur les marches obtenues est étudiée. Sont aussi traités des problèmes de tolérances aux fautes et de manque d'information sur l'état du robot. Enfin il est vérifié en simulation que, avec les algorithmes développés, le robot apprend à rattraper une trajectoire prédéfinie tout en contrôlant sa posture
The goal of this thesis is to study and to develop reinforcement learning techniques in order a hexapod robot to learn to walk. The main assumption on which this work is based is that effective gaits can be obtained as the control of the movements is distributed on each leg rather than centralised in a single decision centre. A distributed approach of the Q-learning technique is adopted in which the agents contributing to the same global objective perform their own learning process taking into account or not the other agents. The centralised and distributed approaches are compared. Different simulations and tests are carried out so as to generate stable periodic gaits. The influence of the learning parameters on the quality of the gaits are studied. The walk appears as an emerging phenomenon from the individual movements of the legs. Problems of fault tolerance and lack of state information are investigated. Finally it is verified that with the developed algorithm the simulated robot learns how to reach a desired trajectory while controlling its posture
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Canon, Louis-claude. "Outils et algorithmes pour gérer l'incertitude lors de l'ordonnancement d'application sur plateformes distribuées". Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10097/document.

Testo completo
Abstract (sommario):
Cette thèse traite de l'ordonnancement dans les systèmes distribués. L'objectif est d'étudier l'impact de l'incertitude sur les ordonnancements et de proposer des techniques pour en réduire les effets sur les critères à optimiser. Nous distinguons plusieurs aspects de l'incertitude en considérant celle liée aux limites des méthodes employées (e.g., modèle imparfait) et celle concernant la variabilité aléatoire qui est inhérente aux phénomènes physiques (e.g., panne matérielle). Nous considérons aussi les incertitudes qui se rapportent à l'ignorance portée sur les mécanismes en jeu dans un système donné (e.g., soumission de tâches en ligne dans une machine parallèle). En toute généralité, l'ordonnancement est l'étape qui réalise une association ordonnée entre des requêtes (dans notre cas, des tâches) et des ressources (dans notre cas, des processeurs). L'objectif est de réaliser cette association de manière à optimiser des critères d'efficacité (e.g., temps total consacré à l'exécution d'un application) tout en respectant les contraintes définies. Examiner l'effet de l'incertitude sur les ordonnancements nous amène à considérer les aspects probabilistes et multicritères qui sont traités dans la première partie. La seconde partie repose sur l'analyse de problèmes représentatifs de différentes modalités en terme d'ordonnancement et d'incertitude (comme l'étude de la robustesse ou de la fiabilité des ordonnancements)
This thesis consists in revisiting traditional scheduling problematics in computational environments, and considering the adjunction of uncertainty in the models. We adopt here a wide definition of uncertainty that encompasses the intrinsic stochastic nature of some phenomena (e.g., processor failures that follow a Poissonian distribution) and the imperfection of model characteristics (e.g., inaccuracy of the costs in a model due to a bias in measurements). We also consider uncertainties that stem from indeterminations such as the user behaviors that are uncontrolled although being deterministic. Scheduling, in its general form, is the operation that assigns requests to resources in some specific way. In distributed environments, we are concerned by a workload (i.e., a set of tasks) that needs to be executed onto a computational platform (i.e., a set of processors). Therefore, our objective is to specify how tasks are mapped onto processors. Produced schedules can be evaluated through many different metrics (e.g., processing time of the workload, resource usage, etc) and finding an optimal schedule relatively to some metric constitutes a challenging issue. Probabilistic tools and multi-objectives optimization techniques are first proposed for tackling new metrics that arise from the uncertainty. In a second part, we study several uncertainty-related criteria such as the robustness (stability in presence of input variations) or the reliability (probability of success) of a schedule
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Pasquero, Oudomsack Pierre. "Optimisation de systèmes de télévision numérique terrestre : Estimation de canal, Synchronisation et Schémas multi-antennes distribués". Phd thesis, INSA de Rennes, 2011. http://tel.archives-ouvertes.fr/tel-00635282.

Testo completo
Abstract (sommario):
Le premier système de TV numérique utilisant la modulation OFDM à avoir été standardisé est le système DVB-T. Ses algorithmes d'estimation de canal et de synchronisation fréquentielle sont basés sur l'exploitation de symboles pilotes qui sont connus à l'avance par les récepteurs et sont transmis sur certaines sous-porteuses. Dans notre étude, nous proposons d'étaler chaque symbole pilote sur plusieurs sous-porteuses. De nouveaux algorithmes de réception basés sur ces pilotes étalés sont développés et analysés. Aussi, un nouveau schéma MIMO appelé Space Code Block Code est proposé pour l'estimation de canal. La dernière partie de cette thèse est consacrée à l'optimisation de schémas MIMO dans un réseau mono-fréquence (SFN). Un nouveau schéma MIMO appelé Space Time Space Block Code ou MIMO 3D est proposé. Une analyse sur le choix des différents codes constituant le schéma MIMO 3D est effectuée pour un réseau SFN avec deux sites puis trois sites d'émission.
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Kebbal, Djemai. "Tolérance aux fautes et ordonnancement adaptatif dans les systèmes distribués hétérogènes". Lille 1, 2000. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2000/50376-2000-316.pdf.

Testo completo
Abstract (sommario):
Les reseaux de stations et les clusters de processeurs deviennent de plus en plus des plateformes populaires pour le calcul parallele et distribue. Ils sont caracterises par plusieurs proprietes rendant leur exploitation difficile (heterogeneite materielle et logicielle, frequence de defaillance elevee, charge dynamique imprevisible, etc. ). L'objectif du projet mars, de l'equipe opac du lifl, est d'integrer ces plateformes pour donner une vue unique du systeme (meta-systeme) dans le but de pendre en charge des applications de longue duree de vie. Mars est un systeme d'ordonnancement adaptatif dans lequel, l'application parallele change son degre de parallelisme suivant la disponibilite de ressources. L'objectif principal de ce travail de these est de concevoir un systeme ayant une vue globale du meta-systeme afin d'assurer une gestion efficace des ressources et de repondre aux besoins des applications paralleles. Un environnement d'execution, comportant les outils necessaires pour le controle, la gestion et l'allocation de ressources aux applications paralleles, est mis en uvre. Afin de pouvoir developper aisement des applications adaptatives, nous avons adopte un modele de construction et d'ordonnancement d'applications paralleles adaptatives, fournissant une interface de programmation simple. L'algorithme d'ordonnancement utilise des criteres simples dans le but d'ameliorer les performances de l'application (puissance relative, dependances des taches). Pour pouvoir supporter plusieurs applications paralleles simultanement, nous avons dote le systeme d'un ordonnanceur multi-application. Concernant la tolerance aux fautes, nous avons, d'une part, dote les applications paralleles adaptatives d'un mecanisme de sauvegarde/reprise.
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Philip, Julien. "Édition et rendu à base d’images multi-vues par apprentissage profond et optimisation". Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4048.

Testo completo
Abstract (sommario):
Les images de synthèse (CGI) prennent une place grandissante dans notre environnement. Que ce soit dans les jeux vidéos ou les films, leur qualité ne cesse de s’accroître nécessitant la création fastidieuse de contenus artistiques. L’émergence de la réalité virtuelle et augmentée, entraine la nécessité de rendre des environnements existants. Pour permettre l’utilisation généralisée des images de synthèse dans des applications telles que la télé-présence ou les visites virtuelles, la digitalisation manuelle des contenus par des artistes se doit d’être évitée. Une des solutions peut provenir des techniques de Rendu à Base d’Images (IBR) qui permettent de rendre des scènes, depuis un point de vue libre, à partir d’un ensemble de photographies parcimonieux. Bien que ces méthodes ne nécessitent que peu de travail artistique, elles n’autorisent cependant pas le contrôle ou l’édition du contenu. Dans cette thèse, nous explorons l’Edition et le Rendu d’Images Multi-vues. Afin de permettre à des scènes, capturées avec le moins de contraintes possibles, d’être rendues avec des altérations telles que la suppression d’objets, l’édition d’éclairage, ou la composition de scènes, nous exploitons les techniques d’optimisation et d’apprentissage profond. Nous concevons nos méthodes afin qu’elles tirent pleinement avantage de l’information présente dans le contenu multi-vues, tout en en respectant ses contraintes spécifiques. Pour la suppression d’objets, nous introduisons un algorithme de remplissage automatique, multi-vues cohérent, utilisant une représentation planaire. Les plans sont des objets simples et efficaces pour combler la géométrie, dont la cohérence multi-vues émerge naturellement lorsque le remplissage est effectué dans un espace texture rectifié et partagé. Ils permettent aussi le respect des effets de perspective. Nous démontrons la capacité d’enlever des objets, à grande l’échelle, dans des scènes contenant plusieurs centaines d’images. Nous traitons ensuite le problème du rééclairage des scènes extérieures par une méthode d’apprentissage profond. Elle permet de modifier l’illumination, en enlevant et synthétisant les ombres portées, pour une position du soleil quelconque, tout en tenant compte des variations d’illumination globale. Une représentation géométrique approximative, reconstruite en utilisant la stéréo multi-vues, est utilisée pour générer des images tampons d’illumination et d’ombres qui guident un réseau de neurones. Nous entrainons ce réseau sur un ensemble de scènes synthétiques, permettant une supervision complète. Une augmentation des données minutieuse permet à notre réseau de généraliser aux scènes réelles et de produire l’état de l’art en terme de résultats. Nous démontrons ensuite, la capacité du réseau à être utilisé pour composer des scènes réelles, capturées dans des conditions d’orientation et d’éclairages différentes. Nous présentons ensuite des contributions à la qualité de l'IBR. Nous introduisons un algorithme de maillage de cartes de profondeur et de leur simplification. Nous démontrons son impact sur la qualité et les performances d’une nouvelle méthode d’IBR utilisant l’apprentissage. Enfin, nous introduisons une méthode qui combine rééclairage, IBR, et analyse de matériaux. Afin de permettre un rendu à base d’images, rééclairable et tenant compte des effets spéculaires, nous extrayons du contenu multi-vues les variations d’apparence des matériaux et l’information de texture haute résolution, sous la forme de plusieurs rendus IBR heuristiques. Nous les combinons ensuite avec des rendus d’irradiance, obtenus par lancer de rayons, qui spécifient les conditions d’éclairage initiales et désirées. Cette combinaison permet d’entrainer un réseau de neurones à extraire implicitement les propriétés des matériaux et à produire des points de vue rééclairés réalistes [...]
Computer-generated imagery (CGI) takes a growing place in our everyday environment. Whether it is in video games or movies, CGI techniques are constantly improving in quality but also require ever more qualitative artistic content which takes a growing time to create. With the emergence of virtual and augmented reality, often comes the need to render or re-render assets that exist in our world. To allow widespread use of CGI in applications such as telepresence or virtual visits, the need for manual artistic replication of assets must be removed from the process. This can be done with the help of Image-Based Rendering (IBR) techniques that allow scenes or objects to be rendered in a free-viewpoint manner from a set of sparse input photographs. While this process requires little to no artistic work, it also does not allow for artistic control or editing of scene content. In this dissertation, we explore Multi-view Image Editing and Rendering. To allow casually captured scenes to be rendered with content alterations such as object removal, lighting edition, or scene compositing, we leverage the use of optimization techniques and modern deep-learning. We design our methods to take advantage of all the information present in multi-view content while handling specific constraints such as multi-view coherency. For object removal, we introduce a new plane-based multi-view inpainting algorithm. Planes are a simple yet effective way to fill geometry and they naturally enforce multi-view coherency as inpainting is computed in a shared rectified texture space, allowing us to correctly respect perspective. We demonstrate instance-based object removal at the scale of a street in scenes composed of several hundreds of images. We next address outdoor relighting with a learning-based algorithm that efficiently allows the illumination in a scene to be changed, while removing and synthesizing cast shadows for any given sun position and accounting for global illumination. An approximate geometric proxy built using multi-view stereo is used to generate illumination and shadow related image buffers that guide a neural network. We train this network on a set of synthetic scenes allowing full supervision of the learning pipeline. Careful data augmentation allows our network to transfer to real scenes and provides state of the art relighting results. We also demonstrate the capacity of this network to be used to compose real scenes captured under different lighting conditions and orientation. We then present contributions to image-based rendering quality. We discuss how our carefully designed depth-map meshing and simplification algorithm improve rendering performance and quality of a new learning-based IBR method. Finally, we present a method that combines relighting, IBR, and material analysis. To enable relightable IBR with accurate glossy effects, we extract both material appearance variations and qualitative texture information from multi-view content in the form of several IBR heuristics. We further combine them with path-traced irradiance images that specify the input and target lighting. This combination allows a neural network to be trained to implicitly extract material properties and produce realistic-looking relit viewpoints. Separating diffuse and specular supervision is crucial in obtaining high-quality output
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Nguyen, Tung Lam. "Contrôle et optimisation distribués basés sur l'agent dans les micro-réseaux avec implémentation Hardware-in-the-Loop". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT022/document.

Testo completo
Abstract (sommario):
En ce qui concerne la hiérarchie de contrôle des micro-réseaux, la coordination des contrôleurs locaux est obligatoire aux niveaux secondaire et tertiaire. Au lieu d'utiliser une unité centrale comme approche conventionnelle, dans ce travail, des schémas distribués sont considérés. Les approches distribuées ont récemment fait l'objet d'une attention particulière en raison de leurs avantages en termes de fiabilité, d'évolutivité et de sécurité. Le système multi-agents est une technique avancée dont les propriétés les rendent aptes à servir de base à la construction de systèmes de contrôle distribués modernes. La thèse porte sur la conception d'agents visant à distribuer des algorithmes de contrôle et d'optimisation dans des micro-réseaux avec un déploiement en ligne réaliste sur une plate-forme Hardware-in-the-Loop. Sur la base de l'architecture à trois couches fournie par micro-réseaux, une plate-forme de laboratoire avec configuration Hardware-in-the-Loop est construite au niveau du système. Cette plateforme comprend deux parties : (1) un simulateur numérique en temps réel permet de simuler en temps réel des micro-réseaux de cas de test avec des contrôleurs locaux ; et (2) un cluster de Raspberry PI représente le système multi-agent fonctionnant dans un réseau de communication physique épars. Un agent est un programme en Python exécuté sur un seul Raspberry PI qui permet de transférer des données à ses voisins et d’effectuer des calculs selon des algorithmes de manière distribuée.Dans la thèse, nous appliquons les algorithmes distribués pour les niveaux de contrôle secondaire et tertiaire. Les contrôles secondaires distribués dans un micro-réseau îloté sont présentés selon deux approches d'algorithme de consensus à temps fini et d'algorithme de consensus moyen avec les améliorations des performances. Une extension de la plate-forme avec la Power Hardware-in-the-Loop et la communication basée sur la norme IEC 61850 est traitée pour rapprocher le déploiement des agents des applications industrielles. Au niveau de contrôle supérieur, les agents exécutent la méthode des multiplicateurs à sens alternatif pour déterminer les points de fonctionnement optimaux des systèmes de micro-réseaux en état d'îlot et de connexion au réseau. Les objectifs de contrôle secondaire et tertiaire sont atteints dans un cadre unique qui est rarement mentionné dans d'autres études.Dans l'ensemble, l'agent est explicitement étudié et déployé dans des conditions réalistes pour faciliter l'application des algorithmes distribués pour le contrôle hiérarchique dans les micro-réseaux. Cette recherche constitue une étape supplémentaire qui rapproche les algorithmes distribués de l'implémentation sur site
In terms of the control hierarchy of microgrids, the coordination of local controllers is mandatory in the secondary and tertiary levels. Instead of using a central unit as conventional approaches, in this work, distributed schemes are considered. The distributed approaches have been taken attention widely recently due to the advantages of reliability, scalability, and security. The multi-agent system is an advanced technique having properties that make them suitable for acting as a basis for building modern distributed control systems. The thesis focuses on the design of agents aiming to distributed control and optimization algorithms in microgrids with realistic on-line deployment on a Hardware-in-the-loop platform. Based on the provided three-layer architecture of microgrids, a laboratory platform with Hardware-in-the-loop setup is constructed in the system level. This platform includes two parts: (1) a digital real-time simulator uses to simulate test case microgrids with local controllers in real-time; and (2) a cluster of hardware Raspberry PIs represents the multi-agent system operating in a sparse physical communication network. An agent is a Python-based program run on a single Raspberry PI owing abilities to transfer data with neighbors and computing algorithms to control the microgrid in a distributed manner.In the thesis, we apply the distributed algorithms for both secondary and tertiary control level. The distributed secondary controls in an islanded microgrid are presented in two approaches of finite-time consensus algorithm and average consensus algorithm with the improvements in performances. An extension of the platform with Power Hardware-in-the-Loop and IEC 61850-based communication is processed to make the deployment of agents closer to industrial applications. On the top control level, the agents execute the Alternating Direction Method of Multipliers to find out the optimal operation points of microgrid systems in both islanded and grid-connect state. The secondary and tertiary control objectives are achieved in a single framework which is rarely reported in other studies.Overall, the agent is explicitly investigated and deployed in the realistic conditions to facilitate applications of the distributed algorithms for the hierarchical control in microgrids. This research gives a further step making the distributed algorithms closer to onsite implementation
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Ben, Dhaou Moaiz. "Optimisation du placement de tâches dans les systèmes distribués et de l'allocation de ressources pour les communications multipoints". Paris 11, 2003. http://www.theses.fr/2003PA112282.

Testo completo
Abstract (sommario):
Les problèmes d'optimisation combinatoire consistent à déterminer une solution optimale parmi un ensemble généralement très grand de solutions possibles. Ce type de problèmes se pose de manière cruciale dans de très nombreux domaines. Dans notre thèse, nous avons étudié des problèmes d'optimisation issus des systèmes distribués et des réseaux de télécommunications. Comme les problèmes considérés sont NP-difficiles, il est très peu probable qu'ils puissent être résolus de manière optimale à l'aide d'un algorithme polynomial. Nous avons exploré d'un côté les aspects théoriques, en déterminant les variantes admettant des algorithmes polynomiaux pour les résoudre soit de manière exacte soit de manière approchée, et les aspects pratiques en développant des heuristiques efficaces. Nous avons d'abord étudié un problème de placement de tâches - de type min/max -dont l'objectif est de placer les tâches composant une application sur les différents processeurs d'une architecture parallèle de façon à minimiser le temps total d'exécution de l'application. Nous avons proposé des schémas d'approximation polynomiaux pour résoudre certaines variantes. Nous avons aussi présenté plusieurs heuristiques nouvelles pour résoudre le problème général ainsi que des méthodes de calcul de bornes inférieures. Le deuxième problème considéré est issu du domaine des télécommunications. Il s'agit d'un problème d'allocation de ressources pour des communications multipoints. Cette problématique, relativement récente, est née de la nécessité d'exploiter au mieux les nouvelles applications telles la visioconférence, le travail de groupe, ou les jeux en réseau par exemple. Nous avons étudié deux problèmes
Combinatorial optimization problems consist in finding an optimal solution among a great number of feasible solutions. This kind of problems arise in many fields. In this thesis, we have studied optimization problems occuring in distributed systems and telecommunication networks. The problems we have considered are NP-complete, so there might not exist polynomial time algorithms to solve them optimally. We have, on the one hand, explored theoritical aspects of the problems: we studied some variants that can be solved either optimally or approximately with polynomial time algorithms. On the other hand, we looked at the practical side and proposed efficient heuristics. We first looked at a task assignment problem. For a given application, we seek to assign its tasks among different processors of a parallel architecture so as to minimize its overall completion time. We have proposed polynomial time approximation schemes to solve variants of the problem. Moreover, we have described many new heuristics to solve the general problem and we have provided methods to calculate lower bounds. The second problem we looked at arises in the field of telecommunications. It is a resources allocation problem in a multipoint communications setting. This problem, relatively recent, arised from the necessity of managing new applications for instance video-conference, group communication or network games. We have studied two problems. The first deals with network design (synthesis) under least cost and multipoint communications demand satisfaction. In the second, we seek to maximize the number of simultaneous multipoint communications in a network with fixed link capacities
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Deswarte, Raphaël. "Régression linéaire et apprentissage : contributions aux méthodes de régularisation et d’agrégation". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLX047/document.

Testo completo
Abstract (sommario):
Cette thèse aborde le sujet de la régression linéaire dans différents cadres, liés notamment à l’apprentissage. Les deux premiers chapitres présentent le contexte des travaux, leurs apports et les outils mathématiques utilisés. Le troisième chapitre est consacré à la construction d’une fonction de régularisation optimale, permettant par exemple d’améliorer sur le plan théorique la régularisation de l’estimateur LASSO. Le quatrième chapitre présente, dans le domaine de l’optimisation convexe séquentielle, des accélérations d’un algorithme récent et prometteur, MetaGrad, et une conversion d’un cadre dit “séquentiel déterministe" vers un cadre dit “batch stochastique" pour cet algorithme. Le cinquième chapitre s’intéresse à des prévisions successives par intervalles, fondées sur l’agrégation de prédicteurs, sans retour d’expérience intermédiaire ni modélisation stochastique. Enfin, le sixième chapitre applique à un jeu de données pétrolières plusieurs méthodes d’agrégation, aboutissant à des prévisions ponctuelles court-terme et des intervalles de prévision long-terme
This thesis tackles the topic of linear regression, within several frameworks, mainly linked to statistical learning. The first and second chapters present the context, the results and the mathematical tools of the manuscript. In the third chapter, we provide a way of building an optimal regularization function, improving for instance, in a theoretical way, the LASSO estimator. The fourth chapter presents, in the field of online convex optimization, speed-ups for a recent and promising algorithm, MetaGrad, and shows how to transfer its guarantees from a so-called “online deterministic setting" to a “stochastic batch setting". In the fifth chapter, we introduce a new method to forecast successive intervals by aggregating predictors, without intermediate feedback nor stochastic modeling. The sixth chapter applies several aggregation methods to an oil production dataset, forecasting short-term precise values and long-term intervals
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Baskiotis, Nicolas. "Evaluation d'algorithmes pour et par l'apprentissage". Paris 11, 2008. http://www.theses.fr/2008PA112275.

Testo completo
Abstract (sommario):
Une des principales difficultés concernant les applications issues de l’apprentissage automatique est le choix a priori de l’algorithme susceptible de fournir les meilleures performances en termes de classification. Nos travaux se sont inspirés des recherches dans le domaine de l’optimisation combinatoire portant sur la notion de transition de phase pour proposer une approche duale au traitement usuel de ce problème par le méta-apprentissage. Notre objectif est d’établir une carte de compétence d’un système d’apprentissage selon des descripteurs sur l’espace des problèmes, permettant d’identifier les régimes dans lesquels les performances du système sont stables. Nous illustrons notre approche sur le système C4. 5. La deuxième partie de nos travaux concerne les problèmes d’apprentissage posés par le test logiciel, plus précisément par une méthode de test statistique structurel de logiciel, utilisant l’échantillonnage de chemins dit faisables dans le graphe de contrôle du programme à tester. Dans certains cas, la fraction de chemins faisables est très faible, pénalisant cette méthode. Notre objectif est de proposer un système d’apprentissage et d’optimisation permettant de construire un générateur aléatoire biaisé vers les chemins faisables et garantissant un bon échantillonage du concept cible. Nous proposons le système MLST réalisant de l’apprentissage actif dans un graphe. Nos travaux ont été évalués à la fois sur des problèmes réels et artificiels montrant un gain significatif en termes de couverture des concepts cibles par rapport aux données initiales
One of the main concerns involving machine learning applications is the a priori choice of an algorithm likely to yield the best classification performances. Our work is inspired by research in combinatorial optimisation on the phase transition problem. We suggest a dual approach to the standard view on this problem through metaleraning. Our goal is to build a competence map according to descriptors on the problem space which enables to identify the regimes where the system’s performance are steady. We assess this approach on C 4. 5. The second part of our work deals with machine learning problems in software testing. More precisely, we study a statistical structural method of software testing that uses the sampling of the so-called feasible paths in the control graph of the problems that is to be tested. In certain cases, the portion of feasible paths is very low, which hinders this method. Our goal is to design a learning and optimisation system that yields a random generator biaised towards the feasible paths and that warrantees a suitable sampling of the target concept. We designed the MLST system that implements active learning in a graph. We tested our work on both real and artificial problems and showed that our system achieves significantly improvement regarding the coverage of target concepts with respect to the initial data
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Samir, Sara. "Approches coopératives pour certaines classes de problèmes d'optimisation non convexe : Algorithmes parallèles / distribués et applications". Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0039.

Testo completo
Abstract (sommario):
Dans cette thèse, nous nous intéressons au développement des approches coopératives pour la résolution de certaines classes de problèmes d'optimisation non convexe qui jouent un rôle très important de par leurs applications dans de nombreux domaines. Il s'agit de combiner plusieurs algorithmes connus sous les noms des algorithmes composants (participants). La combinaison est basée principalement sur la programmation DC (Difference of Convex Functions) et DCA (DC Algorithm) avec des métaheuristiques. Pour la conception des logiciels nous utilisons les paradigmes de la programmation parallèle et distribuée. Chaque processus s'occupe d'un algorithme et communique avec les autres en appelant les fonctions de la bibliothèque MPI (Message Passing Interface) qui est un protocole de communication en programmation parallèle et distribuée. Outre l'introduction et la conclusion, la thèse est composée de quatre chapitres. Le chapitre 1 concerne les outils théoriques et algorithmiques comme servant de base méthodologique aux chapitres suivants. Le chapitre 2 s'articule autour les problèmes linéaires à variables mixtes binaires. Pour la résolution de ces problèmes, nous proposons une approche coopérative entre DCA et VNS (Variable Neighborhood Search). Puisque le schéma est constitué de deux algorithmes, nous optons pour la communication point à point entre les processus. Nous adaptons notre schéma pour résoudre le problème de localisation de l'installation avec des contraintes de capacités. Dans le chapitre 3, nous étudions la programmation quadratique à variables binaires. Nous développons une coopération entre DCA-Like (une nouvelle version de DCA) et deux autres métaheuristiques : GA (Genetic Algorithm) et MBO (Migrating Birds Optimization). Pour la communication entre les processus, nous utilisons la communication collective. Plus précisément une fonction qui permet la diffusion simultanée l'information d'un processus à tous les autres. Cette approche est adaptée et appliquée au problème d'affectation quadratique. Dans le chapitre 4, nous résolvons les problèmes de "clustering" via la minimisation de la somme des carrés par deux approches coopératives. La première consiste à combiner le DCA avec VNS et TS (Tabu Search). Quant à la deuxième, elle utilise la MBO avec les trois derniers algorithmes précités. Dans ces deux approches, nous utilisons une fonction de communication qui permet au processus d'accéder aux mémoires des autres et y enregistrer son information sans un temps d'attente
In this thesis, we are interested in developing new cooperative approaches for solving some classes of nonconvex problems which play a very important role to model real-world problems. To design the schemes of our approaches, we combine several algorithms which we call the component (participant) algorithms. The combination is mainly based on DC (Difference of Convex Functions) and DCA (DC Algorithm) with metaheuristics. To develop our solution methods, we use the paradigm of parallel and distributed programming. Therefore, each process deals with an algorithm and communicates with the others by calling the functions of the MPI (Message Passing Interface) library which is a communication protocol in parallel and distributed programming. Besides the introduction and conclusion, this thesis is composed of four chapters. Chapter 1 concerns the theoretical and algorithmic tools serving as a methodological basis for the following chapters. Chapter 2 is about the mixed binary linear programs. To solve these problems, we propose a cooperative approach between DCA and VNS (Variable Neighborhood Search). Since the scheme is constituted by two algorithms, we use the point to point communication between the processes. As an application, we adapt our scheme to solve the capacitated facility location problem. Concerning chapter 3, we study the class of binary quadratic problems. Regarding the solution methods, we develop a cooperation between DCA-like which is a new version of DCA and two other metaheuristics: GA (Genetic Algorithm) and MBO (Migrating Birds Optimization). The exchange of information between the processes is expressed by using collective communication's function. More precisely, we call a function which allows broadcasting information of a process to all the others at the same time. This cooperative approach is adapted to the quadratic assignment problem. In chapter 4, we solve the MSSC (Minimum-Sum-of-Squares Clustering) using two cooperative approaches. The first combines DCA, VNS, and TS (Tabu Search). As for the second, it combines the MBO with the other three algorithms cited before. In these two approaches, we use a function of communication that allows a process to access the memories of the others and save the information there without blocking the work of the receiving processes
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Taton, Christophe. "Vers l’auto-optimisation dans les systèmes autonomes". Grenoble INPG, 2008. http://www.theses.fr/2008INPG0183.

Testo completo
Abstract (sommario):
La complexité croissante des systèmes informatiques rend l'administration des systèmes de plus en plus fastidieuse. Une approche à ce problème vise à construire des systèmes autonomes capables de prendre en charge eux-mêmes leur administration et de réagir aux changements de leur état et de leur environnement. Dans le contexte actuel de l'énergie rare et chère, l'optimisation des systèmes informatiques est un domaine d'administration fondamental pour améliorer leurs performances et réduire leur empreinte énergétique. Gros consommateurs d'énergie, les systèmes actuels sont statiquement configurés et réagissent assez mal aux évolutions de leur environnement, et notamment aux variations des charges de travail auxquelles ils sont soumis. L'auto-optimisation offre une réponse prometteuse à ces différents besoins en dotant les systèmes de la faculté d'améliorer leurs performances de manière autonome. Cette thèse se consacre à l'étude des algorithmes et mécanismes permettant de mettre en œuvre des systèmes autonomes auto-optimisés. Nous étudions plus particulièrement les algorithmes d'auto-optimisation fondés sur l'approvisionnement dynamique des systèmes afin d'en améliorer les performances et de maximiser le rendement des ressources. Dans le cadre du prototype Jade, plate-forme d'administration autonome à base de composants, nous proposons des algorithmes qui améliorent au mieux les performances des systèmes administrés par des adaptations des systèmes en réponse à des variations progressives ou brutales des charges auxquelles ils sont soumis. Nous montrons l'efficacité de ces algorithmes sur des services Internet et des services à messages soumis à des charges variables. Enfin, dans le but de garantir des performances optimales, nous proposons également une politique d'optimisation qui repose sur une modélisation des systèmes administrés servant à l'élaboration de configurations optimales. Cette politique fait l'objet d'une évaluation sur un service de surveillance d'une infrastructure distribuée. L'implantation de politiques d'administration autonome fait apparaître un certain nombre de défis en induisant diverses contraintes : le système doit être capable d'adaptation dynamique, de s'observer et de se manipuler. En réponse à ces besoins, nous nous appuyons sur le langage Oz et sa plateforme distribuée Mozart pour implanter FructOz, un canevas spécialisé dans la construction et la manipulation de systèmes à architectures distribuées dynamiques complexes, et LactOz, une bibliothèque d'interrogation des architectures dynamiques. En combinant FructOz et LactOz, on montre comment implanter des systèmes dynamiques complexes impliquant des déploiements distribués avec un haut niveau de paramétrage et de synchronisation
The increasing complexity of computer systems makes their administration even more tedious and error-prone. A general approach to this problem consists in building autonomic systems that are able to manage themselves and to handle changes of their state and their environment. While energy becomes even more scarce and expensive, the optimization of computer systems is an essential management field to improve their performance and to reduce their energetic footprint. As huge energy consumers, current computer systems are usually statically configured and behave badly in response to changes of their environment, and especially to changes of their workload. Self-optimization appears as a promising approach to these problems as it endows these systems with the ability to improve their own performance in an autonomous manner. This thesis focuses on algorithms and techniques to implement self-optimized autonomic systems. We specifically study self-optimization algorithms that rely on dynamic system provisioning in order to improve their performance and their resources’ efficiency. In the context of the Jade prototype of a component-based autonomic management platform, we propose best-effort algorithms that improve the performance of the managed systems through dynamic adaptations of the systems in response to gradual or sudden changes of their workload. We show the efficiency of these algorithms on Internet services and on messages services submitted to changing workloads. Finally, in order to guarantee optimal performance, we propose an optimization policy relying on the modelling of the managed system so as to generate optimal configurations. This policy is evaluated on a monitoring service for distributed systems. The implementation of autonomic management policies raised a number of challenges: the system is required to support dynamic adaptions, to observe itself and to take actions on itself. We address these needs with the Oz programming language and its distributed platform Mozart to implement the FructOz framework dedicated to the construction and handling of complex dynamic and distributed architecture-based systems, and the LactOz library specialized in the querying and browsing of dynamic architectures. Combining FructOz and LactOz, we show how to build complex dynamic systems involving distributed deployments as well as high levels of synchronizations and parameters
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Arres, Billel. "Optimisation des performances dans les entrepôts distribués avec Mapreduce : traitement des problèmes de partionnement et de distribution des données". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE2012.

Testo completo
Abstract (sommario):
Dans ce travail de thèse, nous abordons les problèmes liés au partitionnement et à la distribution des grands volumes d’entrepôts de données distribués avec Mapreduce. Dans un premier temps, nous abordons le problème de la distribution des données. Dans ce cas, nous proposons une stratégie d’optimisation du placement des données, basée sur le principe de la colocalisation. L’objectif est d’optimiser les traitements lors de l’exécution des requêtes d’analyse à travers la définition d’un schéma de distribution intentionnelle des données permettant de réduire la quantité des données transférées entre les noeuds lors des traitements, plus précisément lors phase de tri (shuffle). Nous proposons dans un second temps une nouvelle démarche pour améliorer les performances du framework Hadoop, qui est l’implémentation standard du paradigme Mapreduce. Celle-ci se base sur deux principales techniques d’optimisation. La première consiste en un pré-partitionnement vertical des données entreposées, réduisant ainsi le nombre de colonnes dans chaque fragment. Ce partitionnement sera complété par la suite par un autre partitionnement d’Hadoop, qui est horizontal, appliqué par défaut. L’objectif dans ce cas est d’améliorer l’accès aux données à travers la réduction de la taille des différents blocs de données. La seconde technique permet, en capturant les affinités entre les attributs d’une charge de requêtes et ceux de l’entrepôt, de définir un placement efficace de ces blocs de données à travers les noeuds qui composent le cluster. Notre troisième proposition traite le problème de l’impact du changement de la charge de requêtes sur la stratégie de distribution des données. Du moment que cette dernière dépend étroitement des affinités des attributs des requêtes et de l’entrepôt. Nous avons proposé, à cet effet, une approche dynamique qui permet de prendre en considération les nouvelles requêtes d’analyse qui parviennent au système. Pour pouvoir intégrer l’aspect de "dynamicité", nous avons utilisé un système multi-agents (SMA) pour la gestion automatique et autonome des données entreposées, et cela, à travers la redéfinition des nouveaux schémas de distribution et de la redistribution des blocs de données. Enfin, pour valider nos contributions nous avons conduit un ensemble d’expérimentations pour évaluer nos différentes approches proposées dans ce manuscrit. Nous étudions l’impact du partitionnement et la distribution intentionnelle sur le chargement des données, l’exécution des requêtes d’analyses, la construction de cubes OLAP, ainsi que l’équilibrage de la charge (Load Balacing). Nous avons également défini un modèle de coût qui nous a permis d’évaluer et de valider la stratégie de partitionnement proposée dans ce travail
In this manuscript, we addressed the problems of data partitioning and distribution for large scale data warehouses distributed with MapReduce. First, we address the problem of data distribution. In this case, we propose a strategy to optimize data placement on distributed systems, based on the collocation principle. The objective is to optimize queries performances through the definition of an intentional data distribution schema of data to reduce the amount of data transferred between nodes during treatments, specifically during MapReduce’s shuffling phase. Secondly, we propose a new approach to improve data partitioning and placement in distributed file systems, especially Hadoop-based systems, which is the standard implementation of the MapReduce paradigm. The aim is to overcome the default data partitioning and placement policies which does not take any relational data characteristics into account. Our proposal proceeds according to two steps. Based on queries workload, it defines an efficient partitioning schema. After that, the system defines a data distribution schema that meets the best user’s needs, and this, by collocating data blocks on the same or closest nodes. The objective in this case is to optimize queries execution and parallel processing performances, by improving data access. Our third proposal addresses the problem of the workload dynamicity, since users analytical needs evolve through time. In this case, we propose the use of multi-agents systems (MAS) as an extension of our data partitioning and placement approach. Through autonomy and self-control that characterize MAS, we developed a platform that defines automatically new distribution schemas, as new queries appends to the system, and apply a data rebalancing according to this new schema. This allows offloading the system administrator of the burden of managing load balance, besides improving queries performances by adopting careful data partitioning and placement policies. Finally, to validate our contributions we conduct a set of experiments to evaluate our different approaches proposed in this manuscript. We study the impact of an intentional data partitioning and distribution on data warehouse loading phase, the execution of analytical queries, OLAP cubes construction, as well as load balancing. We also defined a cost model that allowed us to evaluate and validate the partitioning strategy proposed in this work
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Moujahed, Sana. "Approche multi-agents réactive pour l'optimisation de systèmes spatialement distribués et dynamiques : application aux problèmes de positionnement". Besançon, 2007. http://www.theses.fr/2007BESA2019.

Testo completo
Abstract (sommario):
Ce travail s'inscrit dans la continuité des travaux qui prônent l'idée que la résolution de problèmes complexes peut être élaborée à partir d'éléments réactifs simples en interaction. L'objectif de cette thèse est de proposer une approche auto-organisée d'inspiration physique pour le problème de positionnement mono et multi-niveaux. Ce type de problème concerne le positionnement d'un ensemble de facilities par rapport à des demandes de façon à optimiser un objectif global. L'enjeu de notre approche est la conception d'un comportement intelligent d'un point de vue global à partir d'agents avant des comportements réactifs simples. La solution au problème de positionnement peut être considérée comme un phénomène émergent dû à l'organisation spatiale issue des interactions des agents entre eux et avec leur environnement. Le point nodal est alors la mise au point de comportements élémentaires simples afin d'obtenir un résultat émergent correspondant aux objectifs désirés. Les comportements des agents facilities se basent sur des lois physiques simples d'attraction et de répulsion. Ces agents sont attirés vers la demande pour satisfaire leurs objectifs locaux et repoussés entre eux pour assurer une répartition cohérente sur l'environnement. La solution globale du problème correspond à un agencement cohérent des agents par rapport à la demande. Notre travail porte donc sur plusieurs aspects : l'agentification du problème de positionnement, la définition du processus de résolution, et l'évaluation des caractéristiques quantitatives et qualitatives de l'approche à travers divers cas d'applications. Les applications traitées dans cette thèse sont très variées en terme de caractéristiques et de contraintes. Elles ont permis de traiter plusieurs variantes du problème de positionnement, notamment le problème de positionnement multi-niveaux, et de montrer la pertinence de notre approche
The work presented in this PhD thesis promotes the idea that the resolution of complex problems can be tackled thanks to a population of simple interacting agents. The objective of this thesis is to propose a self-organized approach to solve the single and multi-level facility location problem. This kind of problem requires locating facilies considering a certain demand, in order to optimize some performance criteria. The proposed model relies on a set-organizing simple agents situated in a common environment which interact and attempt to reach a global optimization goal. The agents have neither cognitive abilites nor a representation of the global system. The interactions between agents and their environment, which are based on the artificial potential fields approach, allow to locally optimize the agent's locations. In particular, the agents' behaviors are based on a combination of attractive and repulsive forces. The facility agents are attracted to the demand to satisfy their local objectives and repulsed by each other to ensure a consistent repartition in the environment. The optimization of the whole system is the outcome of a process of agents' self-organization. Our work has several concerns : agentifying the location problem, defining the solving process, and evaluating the approach relying on qualitative and quantitative criteria. We conduct empirical studies on various case studies. These, allow to handle several variants of the location problem, especially the multi-level problem, and to check the relevance of our approach
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Girinon, Sylvain. "Étude de la stabilité et de la qualité des réseaux distribués de puissance". Thesis, Toulouse, INPT, 2010. http://www.theses.fr/2010INPT0010/document.

Testo completo
Abstract (sommario):
L'émergence et le développement des systèmes électriques de ces vingt dernières années nous ont conduits à l'élaboration d'architectures de plus en plus complexes. Nous les retrouvons notamment au niveau d'applications embarquées ainsi qu'au cœur de réseaux de distribution isolés. L'intégration de nombreux équipements de différentes natures soulève la problématique de la stabilité. C'est dans ce contexte que s'insèrent ces travaux de thèse, qui aboutissent sur la mise en œuvre de méthodes d'analyse de la stabilité et de la qualité des réseaux distribués de puissance. Les études menées au cours de ces travaux reposent sur des expressions analytiques représentant le comportement fréquentiel de réseaux continus. Ces modèles sont ensuite associés au critère de Routh-Hurwitz, afin de permettre les études de stabilité selon les évolutions de leurs paramètres. L'analyse des résultats obtenus au niveau d'architectures présentant plusieurs équipements permet d'affiner nos connaissances sur le fonctionnement de ces systèmes. Les phénomènes de couplage, la disposition d'un réseau en fonction du nombre et de la puissance des charges, du point de vue de la stabilité, sont notamment développés. Les recherches de dimensionnements optimaux de plusieurs éléments indéterminés, combinant les notions de stabilité et de qualité et réalisées à l'aide d'algorithmes d'optimisation, sont également présentées. Enfin, les parties fondamentales de ces travaux, que constituent la modélisation ainsi que l'étude de la stabilité, sont validés par une approche expérimentale
The emergence and the development of electrical systems during these last twenty years have led us to the elaboration of more and more complex architectures. They can be particularly found on embedded applications as well as in the heart of isolated distribution networks. The integration of several equipments with various natures raises the problem of stability. Thesis work presented here fits in with this context, leading to the implementation of stability and quality analysis methods, applied to distributed power networks. Studies led during this work are based on analytical expressions representing the continuous networks frequency behaviour. These models are then associated to the Routh-Hurwitz criterion in order to allow stability studies, according to their parameter values evolution. Analysis of results obtained on networks architectures using several equipments allows the refinement of our knowledge on these systems operation. Coupling phenomena, network layout according the loads number and power from a stability point of view, are particularly developed. Optimal sizing research for several undetermined elements, merging stability and quality criteria and carried out using optimization algorithms, is also presented. Finally, fundamental parts of this work which correspond to models building as well as stability studies are validated by an experimental approach
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Montalbano, Pierre. "Contraintes linéaires et apprentissage sans conflit pour les modèles graphiques". Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30340.

Testo completo
Abstract (sommario):
Les modèles graphiques définissent une famille de formalismes et d'algorithmes utilisés en particulier pour le raisonnement logique et probabiliste, dans des domaines aussi variés que l'analyse d'image ou le traitement du langage naturel. Ils sont capables d'être appris à partir de données, donnant une information probabiliste qui peut ensuite être combinée avec des informations logiques. Le but de la thèse est d'améliorer l'efficacité des algorithmes de raisonnement sur ces modèles croisant probabilités et logique en généralisant un mécanisme fondamental des outils de raisonnement purement logique parmi les plus efficaces (solveurs SAT) à ce cas hybride mêlant probabilités et logique: l'apprentissage dirigé par les conflits. Les travaux s'appuient sur le concept de dualité en programmation linéaire et conduisent à un apprentissage sans conflit de contraintes linéaires bénéficiant d'un traitement particulier efficace issu de la résolution d'un problème de sac à dos
Graphical models define a family of formalisms and algorithms used in particular for logical and probabilistic reasoning, in fields as varied as image analysis or natural language processing. They are capable of being learned from data, giving probabilistic information that can then be combined with logical information. The goal of the thesis is to improve the efficiency of reasoning algorithms on these models crossing probabilities and logic by generalizing a fundamental mechanism of the most efficient purely logical reasoning tools (SAT solvers) to this hybrid case mixing probabilities and logic: conflict-based learning. The work is based on the concept of duality in linear programming and our learning mechanism is conflict-free, producing linear constraints efficiently solved using a knapsack formulation
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Virouleau, Alain. "Apprentissage statistique pour la détection de données aberrantes et application en santé". Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX028.

Testo completo
Abstract (sommario):
Le problème de la détection de données aberrantes et celui de régression robuste dans un contexte de grande dimension est fondamental en statistiques et a de nombreuses applications.Dans la lignée de récents travaux proposant de traiter conjointement ces deux problèmes de régression et de détection, nous considérons dans la première partie de ce travail un modèle linéaire gaussien en grande dimension avec ajout d'un paramètre individuel pour chaque observation.Nous proposons une nouvelle procédure pour simultanément estimer les coefficients de la régression linéaire et les paramètres individuels, en utilisant deux pénalités différentes basées toutes les deux sur une pénalisation convexe l1 ordonnée, nommée SLOPE. Nous faisons l'analyse théorique de ce problème: nous obtenons dans un premier temps une borne supérieure pour l'erreur d'estimation à la fois pour le vecteur des paramètres individuels et pour le vecteur des coefficients de régression. Puis nous obtenons un résultat asymptotique sur le contrôle du taux de fausse découverte et sur la puissance concernant la détection du support du vecteur des paramètres individuels.Nous comparons numériquement notre procédure avec les alternatives les plus récentes, à la fois sur des données simulées et sur des données réelles.La seconde partie de ce travail est motivée par un problème issu de la génétique. Des séquences particulières d'ADN, appelées multi-satellites, sont des indicateurs du développement d'un type de cancer colorectal. Le but est de trouver parmi ces séquences celles qui ont un taux de mutation bien plus élevé (resp. bien moindre) qu'attendu selon les biologistes. Ce problème mène à une modélisation probabiliste non-linéaire et n'entre ainsi pas dans le cadre abordé dans la première partie de cette thèse. Nous traitons ainsi dans cette partie le cas de modèles linéaires généralisés, avec de nouveau des paramètres individuels en plus du prédicteur linéaire, et analysons les propriétés statistiques d'une nouvelle procédure estimant simultanément les coefficients de régression et les paramètres individuels. Nous utilisons de nouveau la pénalisation SLOPE mais nous nous restreignons au cas de la petite dimension. La performance de l'estimateur est mesuré comme dans la première partie en terme d'erreur d'estimation des paramètres et de taux de fausse découverte concernant la recherche du support du vecteur des paramètres individuels
The problems of outliers detection and robust regression in a high-dimensional setting are fundamental in statistics, and have numerous applications.Following a recent set of works providing methods for simultaneous robust regression and outliers detection,we consider in a first part a model of linear regression with individual intercepts, in a high-dimensional setting.We introduce a new procedure for simultaneous estimation of the linear regression coefficients and intercepts, using two dedicated sorted-l1 convex penalizations, also called SLOPE.We develop a complete theory for this problem: first, we provide sharp upper bounds on the statistical estimation error of both the vector of individual intercepts and regression coefficients.Second, we give an asymptotic control on the False Discovery Rate (FDR) and statistical power for support selection of the individual intercepts.Numerical illustrations, with a comparison to recent alternative approaches, are provided on both simulated and several real-world datasets.Our second part is motivated by a genetic problem. Among some particular DNA sequences called multi-satellites, which are indicators of the development or colorectal cancer tumors, we want to find the sequences that have a much higher (resp. much lower) rate of mutation than expected by biologist experts. This problem leads to a non-linear probabilistic model and thus goes beyond the scope of the first part. In this second part we thus consider some generalized linear models with individual intercepts added to the linear predictor, and explore the statistical properties of a new procedure for simultaneous estimation of the regression coefficients and intercepts, using again the sorted-l1 penalization. We focus in this part only on the low-dimensional case and are again interested in the performance of our procedure in terms of statistical estimation error and FDR
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Sautet, Bernard. "Spécification et conception d'un outil de développement de systèmes temps-réel-strict distribués". Toulouse 3, 1996. http://www.theses.fr/1996TOU30100.

Testo completo
Abstract (sommario):
Cette these est une contribution au projet r. S. D. P. (real-time system development project) developpe a l'i. R. I. T. , dont l'objectif est d'obtenir la machine dediee la mieux adaptee pour traiter une application complexe temps-reel-strict donnee, sans que le concepteur tienne compte des problemes temporels et materiels. L'objet de cette these concerne l'outil de developpement integrant les differentes etapes d'une methodologie de conception conjointe materiel-logiciel permettant d'automatiser le passage de la specification a la realisation. Le premier chapitre, developpement de systemes temps-reel, introduit les concepts de base sur les systemes temps-reel et dresse un panorama des principales approches de developpement. La methodologie r. S. C. M. (real-time system co-design methodology) qui fait l'objet du deuxieme chapitre, est axee sur un modele d'execution deterministe et realiste en milieu physiquement distribue. Ce modele, qui est a la base de la definition de l'architecture generique et du langage de description r. S. D. L. , doit permettre des transformations (parallelisations, optimisations) automatisant l'obtention d'une configuration optimisee satisfaisant aux contraintes temporelles et conservant la semantique de la description initiale. Le troisieme chapitre, specification de l'outil de developpement, a pour but de preciser les differentes composantes, leurs fonctionnalites et la facon de s'en servir. Ces composantes comportent des primitives dont certaines deja developpees ont dues etre adaptees, alors que d'autres sont issues de cette analyse. L'objectif du quatrieme chapitre est de presenter la partie conception du compilateur de systeme, et plus particulierement le synchroniseur charge de determiner automatiquement les periodes des flots de donnees en entree du systeme, le configurateur qui examine la description fournie par l'utilisateur et lance les transformations necessaires a l'obtention d'une configuration optimisee satisfaisant aux contraintes temporelles, et le paralleliseur qui effectue une transformation de programme sequentiel de type parallelisme de donnees sur un module produisant plusieurs sorties
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Bou, Nader Rami. "Stratégies tarifaires en assurance automobile : optimisation et expérimentation". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN079.

Testo completo
Abstract (sommario):
Le secteur de l'assurance automobile est confronté à plusieurs bouleversements règlementaires, financiers, comportementaux et technologiques. Afin de faire face aux défis résultant de ces changements et maintenir leur profitabilité, les assureurs doivent innover en matière de tarification. Dans ce contexte, nous développons dans cette thèse deux thématiques liées à la tarification en assurance automobile. La première thématique s'articule autour de l'optimisation des stratégies tarifaires, en souscription et au renouvellement. La deuxième thématique est orientée vers l'utilisation des expérimentations dans l'objectif de mieux appréhender les déterminants de la demande d'assurance.Tout d'abord, nous nous intéressons à l'optimisation tarifaire au renouvellement. Nous illustrons comment les modèles de demande empiriques reposant sur les données dont disposent l'assureur peuvent être utilisés afin d'optimiser sa rentabilité et la rétention de ses clients. Nous élargissons ensuite le cadre d'optimisation en tenant compte des dépendances inter-temporelles entre les décisions tarifaires actuelles et les profits générés au cours des périodes ultérieures. Ainsi, nous introduisons le cadre de Valeur Client qui permet à l'assureur d'adapter sa stratégie tarifaire en fonction des comportements des assurés au cours de leur vie client tout en tenant compte du cycle du marché. Les illustrations empiriques des deux premiers chapitres reposent sur des données naturelles observées par l'assureur.Dans la deuxième partie de la thèse, nous illustrons l'apport des expérimentions de terrain et de laboratoire à la compréhension de la demande d'assurance automobile. Une expérimentation de terrain nous permet d'affiner la mesure de l'élasticité prix des clients et de traiter le problème de tarification comme un problème de bandit contextuel. L'évaluation offline de plusieurs stratégies d'apprentissage par renforcement montre que celles appliquant une expérimentation tarifaire ciblée obtiennent de meilleures performances financières en comparaison à la stratégie myope, qui exclut toute possibilité d'expérimentation. Enfin, nous présentons les résultats d'une expérimentation de laboratoire dont l'objectif était de mesurer la valeur ajoutée des variables privées issues des modèles de décision dans le risque. En particulier, nous analysons le rôle de l'aversion au risque et la perception du risque dans l'explication des choix d'assurance automobile. La même expérimentation nous a permis d'analyser la validité externe en assurance expérimentale, c'est-à-dire la ressemblance des comportements des individus dans un contexte expérimental et dans le contexte économique réel du marché.En plus de la dualité expérimentation-optimisation dans le domaine de la tarification assurantielle, cette thèse illustre donc la dualité entre les données privées et les données publiques, ainsi que la dualité entre les modèles empiriques de demande d'assurance et les modèles théoriques
The motor insurance sector currently confronts regulatory, financial, behavioral and technological challenges. Under these circumstances, insurers must uphold in improving their pricing strategies. Two topics related to pricing innovation are discussed in this thesis. We first take up the pricing strategy optimization for new businesses, as well as the renewals. Secondly, we highlight in the usage of experiments in leading us to a better understanding of insurance demand factors.On the first part of this thesis, we address pricing optimization at renewal, then illustrate how empirical demand models that rely on observable data could help the insurers to boost their profits and clients retention rate. We extend afterwards this framework by considering the impact of current pricing decisions on future cash-flows. Consequently, we introduce the Customer Value metric which allows insurers to reflect over the customers' behavior during their lifetime, when it comes to constructing their pricing strategy. The empirical illustrations of the first two chapters rely on natural data observed by the insurer.On the second part of this thesis, field and laboratory experiments will give us better comprehension of the motor insurance demand. Data from a field experiment refine the measure of clients' price elasticity. Offline assessment of several reinforcement learning algorithms shows how pricing experiments can achieve better performances compared with the myopic strategy which does not apply any kind of experiment. Laboratory experiments contribute to the understanding of demand models as well. In particular, we analyze the added value of risk aversion and risk perception in explaining the insurance choices. Furthermore, we examine the external validity of the experiment, i.e. the similarity between the behaviors of the customers in a lab environment versus their factual behaviors in the market.Aside from the duality between experiments and optimization, this thesis also illustrates the duality between private and public data, as well as the duality between empirical and theoretical insurance demand model
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Tavakoli, Amirhossein. "Algorithmes hybrides d'optimisation combinatoire et d'apprentissage automatique pour l'efficacité énergétique des réseaux d'eau potable". Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ4121.

Testo completo
Abstract (sommario):
Les réseaux de distribution d'eau potable sont des systèmes énergivores, en raison principalement du pompage. Cependant, ils offrent des opportunités de réduction et de report de charge, grâce aux châteaux d'eau et à leur capacité de stockage. La gestion opérationnelle optimisée du pompage et du stockage dans les réseaux d'eau, dite aussi « ordonnancement du pompage », est donc est un levier avantageux pour les réseaux électriques, mais c'est aussi un problème d'optimisation mathématique complexe. L'objet de cette thèse est la conception d'algorithmes de résolution efficaces pour un modèle mathématique détaillé, discret et non-convexe. Contrairement à l'essentiel de la littérature sur le sujet, l'accent est mis sur le calcul de solutions strictement réalisables, éventuellement optimales, pour le modèle mathématique. Par ailleurs, l'étude s'efforce de lever la complexité algorithmique du problème engendrée spécifiquement par les contraintes couplantes de stockage et présente différentes approches pour opérer et exploiter la décomposition temporelle et spatiale du modèle.Une première contribution porte ainsi sur la conception de techniques de prétraitement par renforcement de bornes et génération de coupes. Bornes et coupes sont obtenues par optimisation de relaxations détaillées, mais partielles (sur un horizon temporel tronqué ou une partie du réseau), et permettent de renforcer une relaxation plus simple (continue et linéaire), mais générale, sur laquelle est construit un algorithme d'optimisation globale. Une seconde contribution porte sur le développement d'un algorithme original d'optimisation locale, de type « Alternating Direction Method », consistant à raffiner progressivement un profil de stockage jusqu'à aboutir à un ordonnancement du pompage valide associé. En fixant les contraintes couplantes de stockage, à chaque itération, le modèle discret non-convexe restreint peut en effet être résolu de manière exacte, par décomposition temporelle et spatiale. L'algorithme consiste ainsi à reconstruire une solution (un plan de pompage) réalisable à partir d'une solution (un profil de stockage) approchée quasi optimale. Si de nombreuses heuristiques de la littérature peuvent être invoquées pour générer cette solution approchée initiale, nous proposons de l'obtenir en construisant un modèle de données. La troisième contribution de la thèse porte ainsi sur le développement d'un modèle d'apprentissage profond pouvant s'appuyer sur l'historique des opérations d'un réseau donné et résultant en un modèle de données complémentaire au modèle mathématique auquel il est hybridé. Une originalité de l'approche porte sur son potentiel de mise à l'échelle permettant d'apprendre une solution pour une discrétisation temporelle fine à partir d'un jeu de données pour une discrétisation temporelle grossière, et remédier ainsi à la difficulté de génération des données d'apprentissage. À noter enfin que cet algorithme hybride d'optimisation combinatoire et de machine learning trouve des applications à d'autres problèmes de contrôle optimal discret de systèmes avec stockage. L'évaluation empirique a donné lieu à la génération de jeux de données étendus d'apprentissage et d'expérimentation sur des réseaux de la littérature et a mis en évidence la performance des algorithmes exact et approché
Drinking water distribution networks are energy-intensive systems, mainly due to pumping. However, they offer opportunities for load reduction and shifting, thanks to water towers and their storage capacity. Optimized operational management of pumping and storage in water networks, also known as “pump scheduling”, is therefore an advantageous lever for electricity networks, but it is also a complex mathematical optimization problem. The object of this thesis is the design of efficient resolution algorithms for a detailed, discrete and non-convex mathematical model. Unlike most of the literature on the subject, the emphasis is placed on the calculation of strictly feasible, possibly optimal, solutions of the mathematical model. Furthermore, the study strives to mitigate the algorithmic complexity of the problem due specifically to the coupling storage constraints, and presents different approaches to operate and exploit the temporal and spatial decomposition of the model.A first contribution thus concerns the design of preprocessing techniques for bound tightening and cut generation. Bounds and cuts are obtained from detailed partial (on a truncated time horizon or a part of the network) relaxations, and make it possible to reinforce a simpler (continuous and linear) general relaxation, basis of a global optimization algorithm. A second contribution concerns the development of an original local optimization algorithm, of the “Alternating Direction Method” type, which progressively refines a storage profile until reaching the associated valid pump schedule. Indeed, by fixing the coupling storage constraints at each iteration, the restricted non-convex discrete model can be solved exactly, by temporal and spatial decomposition. The algorithm thus recovers a feasible solution (a pumping plan) from a near-feasible near-optimal solution (a storage profile). If many heuristics from the literature can be invoked to generate this initial solution, we propose to obtain it by building a data model. The third contribution of the thesis thus concerns the development of a deep learning model, relying on the history of operations of a given network, and resulting in a data model complementary to the hybridized mathematical model. Scalability is an original feature of the approach, making it possible to learn a solution with a fine temporal discretization from a dataset for a coarse temporal discretization, thus remedying the difficulty of dataset generation. Finally, note that this hybrid combinatorial optimization and machine learning algorithm applies to other discrete optimal control problems of systems with storage. The empirical evaluation went through the generation of extensive training and experimentation datasets on networks from the literature and highlighted the performance of the exact and approximate algorithms
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Canon, Louis-claude. "Outils et algorithmes pour gérer l'incertitude lors de l'ordonnancement d'application sur plateformes distribuées". Electronic Thesis or Diss., Nancy 1, 2010. http://www.theses.fr/2010NAN10097.

Testo completo
Abstract (sommario):
Cette thèse traite de l'ordonnancement dans les systèmes distribués. L'objectif est d'étudier l'impact de l'incertitude sur les ordonnancements et de proposer des techniques pour en réduire les effets sur les critères à optimiser. Nous distinguons plusieurs aspects de l'incertitude en considérant celle liée aux limites des méthodes employées (e.g., modèle imparfait) et celle concernant la variabilité aléatoire qui est inhérente aux phénomènes physiques (e.g., panne matérielle). Nous considérons aussi les incertitudes qui se rapportent à l'ignorance portée sur les mécanismes en jeu dans un système donné (e.g., soumission de tâches en ligne dans une machine parallèle). En toute généralité, l'ordonnancement est l'étape qui réalise une association ordonnée entre des requêtes (dans notre cas, des tâches) et des ressources (dans notre cas, des processeurs). L'objectif est de réaliser cette association de manière à optimiser des critères d'efficacité (e.g., temps total consacré à l'exécution d'un application) tout en respectant les contraintes définies. Examiner l'effet de l'incertitude sur les ordonnancements nous amène à considérer les aspects probabilistes et multicritères qui sont traités dans la première partie. La seconde partie repose sur l'analyse de problèmes représentatifs de différentes modalités en terme d'ordonnancement et d'incertitude (comme l'étude de la robustesse ou de la fiabilité des ordonnancements)
This thesis consists in revisiting traditional scheduling problematics in computational environments, and considering the adjunction of uncertainty in the models. We adopt here a wide definition of uncertainty that encompasses the intrinsic stochastic nature of some phenomena (e.g., processor failures that follow a Poissonian distribution) and the imperfection of model characteristics (e.g., inaccuracy of the costs in a model due to a bias in measurements). We also consider uncertainties that stem from indeterminations such as the user behaviors that are uncontrolled although being deterministic. Scheduling, in its general form, is the operation that assigns requests to resources in some specific way. In distributed environments, we are concerned by a workload (i.e., a set of tasks) that needs to be executed onto a computational platform (i.e., a set of processors). Therefore, our objective is to specify how tasks are mapped onto processors. Produced schedules can be evaluated through many different metrics (e.g., processing time of the workload, resource usage, etc) and finding an optimal schedule relatively to some metric constitutes a challenging issue. Probabilistic tools and multi-objectives optimization techniques are first proposed for tackling new metrics that arise from the uncertainty. In a second part, we study several uncertainty-related criteria such as the robustness (stability in presence of input variations) or the reliability (probability of success) of a schedule
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Tremblet, David. "Apprentissage de contraintes pour améliorer la précision des modèles de planification et ordonnancement". Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2024. http://www.theses.fr/2024IMTA0417.

Testo completo
Abstract (sommario):
Les décisions de fabrication s'appuient souvent sur des modèles mathématiques pour suggérer des décisions aux responsables en charge de la production. Par exemple, les modèles de dimensionnement des lots sont couramment utilisés pour planifier la production des entreprises. Dans ces modèles, la consommation de la capacité du plan est déterminée par une approximation grossière qui ne tient pas compte de toutes les complexités rencontrées dans l'atelier de production. Bien que cette approximation permette une résolution efficace du modèle, la décision qui en résulte conduit généralement à des erreurs lorsque le plan est exécuté dans l'atelier. Cette thèse vise à utiliser l'apprentissage automatique pour améliorer les modèles traditionnellement utilisés dans la recherche opérationnelle pour les problèmes industriels. Cette méthodologie vise à remplacer certaines parties d’un modèle mathématique (contraintes, objectifs) par des modèles d'apprentissage automatique (régression linéaire, réseaux de neurones, etc.) préalablement entraînés sur des données disponibles. Ces outils peuvent s’appuyer sur la quantité massive de données générées dans l'atelier et des sources de données externes pour prendre de meilleures décisions. Cette approche est évaluée sur un problème de dimensionnement des lots où les contraintes liées à la consommation de la capacité sont remplacées par des modèles d'apprentissage automatique. Le modèle qui en résulte détermine des plans de production optimaux pour lesquels les quantités produites restent réalisables une fois transférées vers l'atelier. L'outil qui en résulte est adapté aux systèmes de production actuels, qui sont de plus en plus reconfigurables et en constante évolution. Le modèle peut également être réappris à partir des données de l'atelier au fur et à mesure que des changements se produisent dans l'atelier, ce qui évite à un expert de devoir modifier le modèle d'optimisation à chaque fois que l'atelier évolue
Manufacturing decisions often rely on mathematical models to suggest decisions to the managers in charge of production. For example, lot-sizing models are commonly used to plan factory production. The model calculates capacity usage for a plan with a rough approximation that does not account for all the complexities encountered on the shop floor. Although this approximation allows the model to be solved efficiently, the resulting decision usually leads to errors when the plan is executed on the shop floor. This thesis aims to use machine learning to improve the models traditionally used in operations research for manufacturing applications. The methodology aims to replace parts of the optimization models (constraints, objectives) with machine learning models (linear regression, neural networks, etc.) previously trained on available data. As a result, these tools can take advantage of the massive amount of data generated on the shop floor and external data sources to make better decisions. This approach is evaluated on a lot-sizing model where we learn capacity utilization constraints from the production schedule using machine learning models. The resulting model determines optimal production plans where production quantities remain feasible once sent to the shop floor. The resulting tool is also well adapted to today's production systems, which are increasingly reconfigurable and constantly evolving. The model can be retrained from shop floor data as changes occur on the shop floor, eliminating the need for an optimization expert to modify the optimization model each time the shop floor evolves
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Dubois, Amaury. "Optimisation et apprentissage de modèles biologiques : application à lirrigation [sic l'irrigation] de pomme de terre". Thesis, Littoral, 2020. http://www.theses.fr/2020DUNK0560.

Testo completo
Abstract (sommario):
Le sujet de la thèse porte sur une des thématiques du LISIC : la modélisation et la simulation de systèmes complexes, ainsi que sur l'optimisation et l'apprentissage automatique pour l'agronomie. Les objectifs de la thèse sont de répondre aux questions de pilotage de l'irrigation de la culture de pomme de terre par le développement d'outils d'aide à la décision à destination des exploitants agricoles. Le choix de cette culture est motivé par sa part importante dans la région des Hauts-de-France. Le manuscrit s'articule en 3 parties. La première partie traite de l'optimisation continue mutlimodale dans un contexte de boîte noire. Il en suit une présentation d'une méthodologie d'étalonnage automatique de paramètres de modèle biologique grâce à une reformulation en un problème d'optimisation continue mono-objectif multimodale de type boîte noire. La pertinence de l'utilisation de l'analyse inverse comme méthodologie de paramétrage automatique de modèles de grandes dimensions est ensuite démontrée. La deuxième partie présente 2 nouveaux algorithmes UCB Random with Decreasing Step-size et UCT Random with Decreasing Step-size. Ce sont des algorithmes d'optimisation continue multimodale boîte noire dont le choix de la position initiale des individus est assisté par un algorithmes d'apprentissage par renforcement. Les résultats montrent que ces algorithmes possèdent de meilleures performances que les algorithmes état de l'art Quasi Random with Decreasing Step-size. Enfin, la dernière partie est focalisée sur les principes et les méthodes d'apprentissage automatique (machine learning). Une reformulation du problème de la prédiction à une semaine de la teneur en eau dans le sol en un problème d'apprentissage supervisé a permis le développement d'un nouvel outil d'aide à la décision pour répondre à la problématique du pilotage des cultures
The subject of this PhD concerns one of the LISIC themes : modelling and simulation of complex systems, as well as optimization and automatic learning for agronomy. The objectives of the thesis are to answer the questions of irrigation management of the potato crop and the development of decision support tools for farmers. The choice of this crop is motivated by its important share in the Haut-de-France region. The manuscript is divided into 3 parts. The first part deals with continuous multimodal optimization in a black box context. This is followed by a presentation of a methodology for the automatic calibration of biological model parameters through reformulation into a black box multimodal optimization problem. The relevance of the use of inverse analysis as a methodology for automatic parameterisation of large models in then demonstrated. The second part presents 2 new algorithms, UCB Random with Decreasing Step-size and UCT Random with Decreasing Step-size. Thes algorithms are designed for continuous multimodal black-box optimization whose choice of the position of the initial local search is assisted by a reinforcement learning algorithms. The results show that these algorithms have better performance than (Quasi) Random with Decreasing Step-size algorithms. Finally, the last part focuses on machine learning principles and methods. A reformulation of the problem of predicting soil water content at one-week intervals into a supervised learning problem has enabled the development of a new decision support tool to respond to the problem of crop management
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Rolet, Philippe. "Éléments pour l'Apprentissage et l'Optimisation de Fonctions Chères". Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00551865.

Testo completo
Abstract (sommario):
Ces travaux de doctorat sont centrés sur l'apprentissage artificiel et l'optimisation, c'est à dire la construction de programmes apprenant à identifier un concept, à approximer une fonction ou à trouver un optimum à partir d'exemples de ce concept (ou de points de la fonction). Le contexte applicatif est l'apprentissage et l'optimisation de modèles simplifiés en ingénierie numérique, pour des problèmes industriels pour lesquels les exemples sont coûteux à obtenir. Il est nécessaire d'en utiliser le moins possible pour l'apprentissage; c'est le principe de l'apprentissage actif et de l'optimisation de fonction chères. Mes efforts de recherche ont d'abord porté sur la conception et le développement d'une nouvelle approche de l'apprentissage Actif, fondée sur l'apprentissage par renforcement. Les fondements théoriques de l'approche ont été établis. Parallèlement, l'implémentation d'un logiciel fondé sur cette approche, BAAL, a permis une validation expérimentale (publications: CAP'09, ECML'09). Une extension de cette approche a été réalisée pour l'optimisation de fonction chères (publication: GECCO 2009). La deuxième partie de mon doctorat s'intéresse aux potentiels et aux limites de l'apprentissage actif et de l'optimisation chère d'un point de vue théorique. Une étude des bornes de complexités de l'apprentissage actif par "paquets" a été réalisée (publication: ECML 2010). Dans le domaine de l'optimisation bruitée, des résultats sur le nombre minimal d'exemples nécessaires pour trouver un optimum ont été obtenus (publications: LION 2010, EvoSTAR 2010).
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Nguyen, Manh Cuong. "La programmation DC et DCA pour certaines classes de problèmes en apprentissage et fouille de donées [i.e. données]". Electronic Thesis or Diss., Université de Lorraine, 2014. http://www.theses.fr/2014LORR0080.

Testo completo
Abstract (sommario):
La classification (supervisée, non supervisée et semi-supervisée) est une thématique importante de la fouille de données. Dans cette thèse, nous nous concentrons sur le développement d'approches d'optimisation pour résoudre certains types des problèmes issus de la classification de données. Premièrement, nous avons examiné et développé des algorithmes pour résoudre deux problèmes classiques en apprentissage non supervisée : la maximisation du critère de modularité pour la détection de communautés dans des réseaux complexes et les cartes auto-organisatrices. Deuxièmement, pour l'apprentissage semi-supervisée, nous proposons des algorithmes efficaces pour le problème de sélection de variables en semi-supervisée Machines à vecteurs de support. Finalement, dans la dernière partie de la thèse, nous considérons le problème de sélection de variables en Machines à vecteurs de support multi-classes. Tous ces problèmes d'optimisation sont non convexe de très grande dimension en pratique. Les méthodes que nous proposons sont basées sur les programmations DC (Difference of Convex functions) et DCA (DC Algorithms) étant reconnues comme des outils puissants d'optimisation. Les problèmes évoqués ont été reformulés comme des problèmes DC, afin de les résoudre par DCA. En outre, compte tenu de la structure des problèmes considérés, nous proposons différentes décompositions DC ainsi que différentes stratégies d'initialisation pour résoudre un même problème. Tous les algorithmes proposés ont été testés sur des jeux de données réelles en biologie, réseaux sociaux et sécurité informatique
Classification (supervised, unsupervised and semi-supervised) is one of important research topics of data mining which has many applications in various fields. In this thesis, we focus on developing optimization approaches for solving some classes of optimization problems in data classification. Firstly, for unsupervised learning, we considered and developed the algorithms for two well-known problems: the modularity maximization for community detection in complex networks and the data visualization problem with Self-Organizing Maps. Secondly, for semi-supervised learning, we investigated the effective algorithms to solve the feature selection problem in semi-supervised Support Vector Machine. Finally, for supervised learning, we are interested in the feature selection problem in multi-class Support Vector Machine. All of these problems are large-scale non-convex optimization problems. Our methods are based on DC Programming and DCA which are well-known as powerful tools in optimization. The considered problems were reformulated as the DC programs and then the DCA was used to obtain the solution. Also, taking into account the structure of considered problems, we can provide appropriate DC decompositions and the relevant choice strategy of initial points for DCA in order to improve its efficiency. All these proposed algorithms have been tested on the real-world datasets including biology, social networks and computer security
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Lesfari, Hicham. "Fondements réseaux et l'IA". Electronic Thesis or Diss., Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4056.

Testo completo
Abstract (sommario):
Le domaine de l'Intelligence Artificielle (IA) a un large impact sur la société d'aujourd'hui, ayant conduit notamment à une interaction passionnante entre plusieurs disciplines scientifiques. À cet égard, un double intérêt émerge dans la littérature.D'une part, une tendance croissante dans les réseaux de télécommunication consiste à revisiter les problèmes d'optimisation classiques en utilisant des techniques d'apprentissage automatique afin d'exploiter leurs avantages potentiels. Nous nous focaliserons sur certains défis posés par la détection d'anomalies dans les réseaux ainsi que l'allocation des ressources dans le cadre des réseaux logiciels (SDN) et de la virtualisation des fonctions réseau (NFV). D'autre part, un effort substantiel a été consacré dans le but d'apporter une compréhension théorique du comportement collectif des réseaux. Nous nous focaliserons sur certains défis posés par l'étude de la dynamique majoritaire au sein des systèmes multi-agents ainsi qu'à la compression des réseaux de neurones artificiels dans le but d'augmenter leur efficacité.Dans cette étude, nous contextualisons les points focaux ci-dessus dans le cadre de l'étude de certains fondements de réseaux; vus sous l'angle des réseaux de télécommunications et des réseaux neuronaux. Nous nous concentrons d'abord sur le développement de mesures de similarité de graphes pour la détection d'anomalies dans les réseaux. Ensuite, nous étudions la dynamique majoritaire déterministe et stochastique dans les systèmes multi-agents. Ensuite, nous discutons du problème de la somme de sous-ensembles aléatoires dans le contexte de la compression des réseaux neuronaux. Enfin, nous passons en revue quelques problèmes généraux divers
The field of Artificial Intelligence (AI) has brought a broad impact on today's society, leading to a gripping interaction between several scientific disciplines. In this respect, there has been a strong twofold interest across the literature.On the one hand, a growing trend in telecommunication networks consists in revisiting classic optimization problems using machine learning techniques in order to exploit their potential benefits. We focus on some challenges brought by the detection of anomalies in networks, and the allocation of resources within software-defined networking (SDN) and network function virtualization (NFV).On the other hand, a substantial effort has been devoted towards the theoretical understanding of the collective behavior of networks. We focus on some challenges brought by the study of majority dynamics within multi-agent systems, and the compression of artificial neural networks with the aim at increasing their efficiency.In this study, we contextualize the above focal points in the framework of investigating some foundations of networks; viewed through the lens of telecommunications networks and neural networks. We first focus our attention on developing graph similarity measures for network anomaly detection. Next, we study deterministic and stochastic majority dynamics in multi-agent systems. Then, we discuss the random subset sum problem in the context of neural network compression. Finally, we walk through some other miscellaneous problems
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Nguyen, Manh Cuong. "La programmation DC et DCA pour certaines classes de problèmes en apprentissage et fouille de donées [i.e. données]". Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0080/document.

Testo completo
Abstract (sommario):
La classification (supervisée, non supervisée et semi-supervisée) est une thématique importante de la fouille de données. Dans cette thèse, nous nous concentrons sur le développement d'approches d'optimisation pour résoudre certains types des problèmes issus de la classification de données. Premièrement, nous avons examiné et développé des algorithmes pour résoudre deux problèmes classiques en apprentissage non supervisée : la maximisation du critère de modularité pour la détection de communautés dans des réseaux complexes et les cartes auto-organisatrices. Deuxièmement, pour l'apprentissage semi-supervisée, nous proposons des algorithmes efficaces pour le problème de sélection de variables en semi-supervisée Machines à vecteurs de support. Finalement, dans la dernière partie de la thèse, nous considérons le problème de sélection de variables en Machines à vecteurs de support multi-classes. Tous ces problèmes d'optimisation sont non convexe de très grande dimension en pratique. Les méthodes que nous proposons sont basées sur les programmations DC (Difference of Convex functions) et DCA (DC Algorithms) étant reconnues comme des outils puissants d'optimisation. Les problèmes évoqués ont été reformulés comme des problèmes DC, afin de les résoudre par DCA. En outre, compte tenu de la structure des problèmes considérés, nous proposons différentes décompositions DC ainsi que différentes stratégies d'initialisation pour résoudre un même problème. Tous les algorithmes proposés ont été testés sur des jeux de données réelles en biologie, réseaux sociaux et sécurité informatique
Classification (supervised, unsupervised and semi-supervised) is one of important research topics of data mining which has many applications in various fields. In this thesis, we focus on developing optimization approaches for solving some classes of optimization problems in data classification. Firstly, for unsupervised learning, we considered and developed the algorithms for two well-known problems: the modularity maximization for community detection in complex networks and the data visualization problem with Self-Organizing Maps. Secondly, for semi-supervised learning, we investigated the effective algorithms to solve the feature selection problem in semi-supervised Support Vector Machine. Finally, for supervised learning, we are interested in the feature selection problem in multi-class Support Vector Machine. All of these problems are large-scale non-convex optimization problems. Our methods are based on DC Programming and DCA which are well-known as powerful tools in optimization. The considered problems were reformulated as the DC programs and then the DCA was used to obtain the solution. Also, taking into account the structure of considered problems, we can provide appropriate DC decompositions and the relevant choice strategy of initial points for DCA in order to improve its efficiency. All these proposed algorithms have been tested on the real-world datasets including biology, social networks and computer security
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Bouzid, Salah Eddine. "Optimisation multicritères des performances de réseau d’objets communicants par méta-heuristiques hybrides et apprentissage par renforcement". Thesis, Le Mans, 2020. http://cyberdoc-int.univ-lemans.fr/Theses/2020/2020LEMA1026.pdf.

Testo completo
Abstract (sommario):
Le déploiement des réseaux d’objets communicants «ROCs», dont les densités augmentent sans cesse, conditionne à la fois l’optimalité de leur qualité de service, leur consommation énergétique et par conséquent leur durée de vie. Il s’avère que le problème de déterminer le placement optimal, relativement aux différents critères de qualité, des nœuds de ces réseaux est un problème Np-Complet. Face à cette Np-complétude, et en particulier pour des environnements intérieurs, les approches existantes focalisent sur l’optimisation d’un seul objectif en négligeant les autres critères, ou optent pour une solution manuelle fastidieuse et coûteuse. Des nouvelles approches pour résoudre ce problème sont donc nécessaires. Cette thèse propose une nouvelle approche qui permet de générer automatiquement, dès la phase de conception des réseaux d’objets communicants, le déploiement qui garantit à la fois l’optimalité en termes de performances et de robustesse face aux éventuelles défaillances et instabilités topologiques. Cette approche proposée est basée d’une part sur la modélisation du problème de déploiement sous forme d’un problème d’optimisation combinatoire multi-objectifs sous contraintes, et sa résolution par un algorithme génétique hybride combinant l’optimisation multi-objectifs avec l’optimisation à somme pondérée, et d’autre part sur l’intégration de l’apprentissage par renforcement pour garantir l’optimisation de la consommation énergétique et la prolongation de la durée de vie. Elle est concrétisée par le développement de deux outils. Un premier appelé MOONGA (pour Multi-Objective Optimization of Wireless Network Approach Based on Genetic Algorithm) qui permet de générer automatiquement le placement des nœuds, qui optimise la connectivité, la m-connectivité, la couverture, la k-couverture, la redondance de couverture et le coût. Cette optimisation prend en considération les contraintes liées à l'architecture de l’espace de déploiement, à la topologie du réseau, aux spécificités de l'application pour laquelle le réseau est conçu et aux préférences du concepteur. Après optimisation de déploiement l’outil R2LTO (Pour Reinforcement Learning for Life-Time Optimization), permet d’intégrer un protocole de routage, basé sur l'apprentissage par renforcement, pour garantir l’optimisation de la consommation énergétique et de la durée de vie du ROC après son déploiement tout en conservant la QoS requise
The deployment of Communicating Things Networks (CTNs), with continuously increasing densities, needs to be optimal in terms of quality of service, energy consumption and lifetime. Determining the optimal placement of the nodes of these networks, relative to the different quality criteria, is an NP-Hard problem. Faced to this NP-Hardness, especially for indoor environments, existing approaches focus on the optimization of one single objective while neglecting the other criteria, or adopt an expensive manual solution. Finding new approaches to solve this problem is required. Accordingly, in this thesis, we propose a new approach which automatically generates the deployment that guarantees optimality in terms of performance and robustness related to possible topological failures and instabilities. The proposed approach is based, on the first hand, on the modeling of the deployment problem as a multi-objective optimization problem under constraints, and its resolution using a hybrid algorithm combining genetic multi-objective optimization with weighted sum optimization and on the other hand, the integration of reinforcement learning to guarantee the optimization of energy consumption and the extending the network lifetime. To apply this approach, two tools are developed. A first called MOONGA (Multi-Objective Optimization of wireless Network approach based on Genetic Algorithm) which automatically generates the placement of nodes while optimizing the metrics that define the QoS of the CTN: connectivity, m-connectivity, coverage, k-coverage, coverage redundancy and cost. MOONGA tool considers constraints related to the architecture of the deployment space, the network topology, the specifies of the application and the preferences of the network designer. The second optimization tool is named R2LTO (Reinforcement Learning for Life-Time Optimization), which is a new routing protocol for CTNs, based on distributed reinforcement learning that allows to determine the optimal rooting path in order to guarantee energy-efficiency and to extend the network lifetime while maintaining the required QoS
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Vo, Xuan Thanh. "Apprentissage avec la parcimonie et sur des données incertaines par la programmation DC et DCA". Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0193.

Testo completo
Abstract (sommario):
Dans cette thèse, nous nous concentrons sur le développement des méthodes d'optimisation pour résoudre certaines classes de problèmes d'apprentissage avec la parcimonie et/ou avec l'incertitude des données. Nos méthodes sont basées sur la programmation DC (Difference of Convex functions) et DCA (DC Algorithms) étant reconnues comme des outils puissants d'optimisation. La thèse se compose de deux parties : La première partie concerne la parcimonie tandis que la deuxième partie traite l'incertitude des données. Dans la première partie, une étude approfondie pour la minimisation de la norme zéro a été réalisée tant sur le plan théorique qu'algorithmique. Nous considérons une approximation DC commune de la norme zéro et développons quatre algorithmes basées sur la programmation DC et DCA pour résoudre le problème approché. Nous prouvons que nos algorithmes couvrent tous les algorithmes standards existants dans le domaine. Ensuite, nous étudions le problème de la factorisation en matrices non-négatives (NMF) et fournissons des algorithmes appropriés basés sur la programmation DC et DCA. Nous étudions également le problème de NMF parcimonieuse. Poursuivant cette étude, nous étudions le problème d'apprentissage de dictionnaire où la représentation parcimonieuse joue un rôle crucial. Dans la deuxième partie, nous exploitons la technique d'optimisation robuste pour traiter l'incertitude des données pour les deux problèmes importants dans l'apprentissage : la sélection de variables dans SVM (Support Vector Machines) et le clustering. Différents modèles d'incertitude sont étudiés. Les algorithmes basés sur DCA sont développés pour résoudre ces problèmes
In this thesis, we focus on developing optimization approaches for solving some classes of optimization problems in sparsity and robust optimization for data uncertainty. Our methods are based on DC (Difference of Convex functions) programming and DCA (DC Algorithms) which are well-known as powerful tools in optimization. This thesis is composed of two parts: the first part concerns with sparsity while the second part deals with uncertainty. In the first part, a unified DC approximation approach to optimization problem involving the zero-norm in objective is thoroughly studied on both theoretical and computational aspects. We consider a common DC approximation of zero-norm that includes all standard sparse inducing penalty functions, and develop general DCA schemes that cover all standard algorithms in the field. Next, the thesis turns to the nonnegative matrix factorization (NMF) problem. We investigate the structure of the considered problem and provide appropriate DCA based algorithms. To enhance the performance of NMF, the sparse NMF formulations are proposed. Continuing this topic, we study the dictionary learning problem where sparse representation plays a crucial role. In the second part, we exploit robust optimization technique to deal with data uncertainty for two important problems in machine learning: feature selection in linear Support Vector Machines and clustering. In this context, individual data point is uncertain but varies in a bounded uncertainty set. Different models (box/spherical/ellipsoidal) related to uncertain data are studied. DCA based algorithms are developed to solve the robust problems
Gli stili APA, Harvard, Vancouver, ISO e altri
43

Chen, Xiao. "Contrôle et optimisation de la perception humaine sur les vêtements virtuels par évaluation sensorielle et apprentissage de données expérimentales". Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10019/document.

Testo completo
Abstract (sommario):
Dans un contexte économique où les concurrences internationales sont exacerbées, la customisation, ou personnalisation de masse des produits devient aujourd’hui une stratégie très importante des entreprises pour améliorer la valeur perçue de leurs produits. Cependant, les expériences des plateformes de customisations actuelles en ligne ne sont pas pleinement satisfaisantes car les choix personnalisés sont essentiellement limitées à des couleurs et à des motifs. Les dimensions sensorielles des produits, incluant en particulier l’apparence et le toucher des matières tout autant que le bien-aller du vêtement sont rarement proposés.Dans le cadre de ma thèse doctorale, nous avons proposé une plateforme de co-création, permettant aux commerçants, aux créateurs et aux clients d’acquérir conjointement une nouvelle expérience sur le développement de vêtements personnalisés à la valeur ajoutée plus élevée sans entraîner de surcoûts industriels. La construction de cette plateforme consiste en plusieurs parties. Tout à bord, nous avons sélectionné, par une expérience sensorielle, un logiciel de CAO en confection 3D bien adapté en termes de la qualité de rendu du vêtement virtuel. Ensuite, nous avons proposé un plan d’expérience sensorielle par utilisation d’une nouvelle méthode d’apprentissage actif proposée afin d’acquérir, sans mesures physiques, les paramètres techniques de l’étoffe dans un délai très court. Cette méthode est efficace, rapide, facile à réaliser et notamment très significative pour des transactions des textiles en ligne. Puis nous avons caractérisé quantitativement la perception du vêtement virtuel par des notes numériques sur un ensemble de descripteurs sensoriels normalisés. Ces derniers concernent l’apparence et le toucher de la matière, ainsi que le fit du vêtement. Les données sensorielles ont été obtenues respectivement dans deux autres expériences sensorielles. Par apprentissage de ces données, nous avons établi deux modèles. Le premier permet de caractériser la relation entre la perception sur l’apparence et le toucher du matériau virtuel et les paramètres techniques correspondants, constituant une entrée du logiciel de CAO en confection. Le deuxième modèle permet de caractériser la relation entre la perception du fit du vêtement virtuel et les paramètres des patrons. A l'aide des deux modèles précédents, les créateurs et consommateurs peuvent ajuster les éléments initiaux de conception pour les matières et les patrons du vêtement selon leurs attentes au niveau du sensoriel
Under the exacerbated worldwide competition, the mass customization or personalization of products is now becoming an important strategy for companies to enhance the perceived value of their products. However, the current online customization experiences are not fully satisfying for consumers because the choices are mostly limited to colors and motifs. The sensory fields of products, particularly the material’s appearance and hand as well as the garment fit are barely concerned.In my PhD research project, we have proposed a new collaborative design platform. It permits merchants, designers and consumers to have a new experience during the development of highly valued personalized garments without extra industrial costs. The construction of this platform consists of several parts. At first, we have selected, through a sensory experiment, an appropriate 3D garment CAD software in terms of rending quality. Then we have proposed an active leaning-based experimental design in order to find the most appropriate values of the fabric technical parameters permitting to minimize the overall perceptual difference between real and virtual fabrics in static and dynamic scenarios. Afterwards, we have quantitatively characterized the human perception on virtual garment by using a number of normalized sensory descriptors. These descriptors involve not only the appearance and the hand of the fabric but also the garment fit. The corresponding sensory data have been collected through two sensory experiments respectively. By learning from the experimental data, two models have been established. The first model permits to characterize the relationship between the appearance and hand perception of virtual fabrics and corresponding technical parameters that constitute the inputs of the 3D garment CAD software. The second model concerns the relationship between virtual garment fit perception and the pattern design parameters. These two models constitute the main components of the collaborative design platform. Using this platform, we have realized a number of garments meeting consumer’s personalized perceptual requirements
Gli stili APA, Harvard, Vancouver, ISO e altri
44

Nasri, Ridha. "Paramétrage Dynamique et Optimisation Automatique des Réseaux Mobiles 3G et 3G+". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00494190.

Testo completo
Abstract (sommario):
La télécommunication radio mobile connait actuellement une évolution importante en termes de diversité de technologies et de services fournis à l'utilisateur final. Il apparait que cette diversité complexifie les réseaux cellulaires et les opérations d'optimisation manuelle du paramétrage deviennent de plus en plus compliquées et couteuses. Par conséquent, les couts d'exploitation du réseau augmentent corrélativement pour les operateurs. Il est donc essentiel de simplifier et d'automatiser ces taches, ce qui permettra de réduire les moyens consacrés à l'optimisation manuelle des réseaux. De plus, en optimisant ainsi de manière automatique les réseaux mobiles déployés, il sera possible de retarder les opérations de densification du réseau et l'acquisition de nouveaux sites. Le paramétrage automatique et optimal permettra donc aussi d'étaler voire même de réduire les investissements et les couts de maintenance du réseau. Cette thèse introduit de nouvelles méthodes de paramétrage automatique (auto-tuning) des algorithmes RRM (Radio Resource Management) dans les réseaux mobiles 3G et au delà du 3G. L'auto-tuning est un processus utilisant des outils de contrôle comme les contrôleurs de logique floue et d'apprentissage par renforcement. Il ajuste les paramètres des algorithmes RRM afin d'adapter le réseau aux fluctuations du trafic. Le fonctionnement de l'auto-tuning est basé sur une boucle de régulation optimale pilotée par un contrôleur qui est alimenté par les indicateurs de qualité du réseau. Afin de trouver le paramétrage optimal du réseau, le contrôleur maximise une fonction d'utilité, appelée aussi fonction de renforcement. Quatre cas d'études sont décrits dans cette thèse. Dans un premier temps, l'auto-tuning de l'algorithme d'allocation des ressources radio est présenté. Afin de privilégier les utilisateurs du service temps réel (voix), une bande de garde est réservée pour eux. Cependant dans le cas ou le trafic temps réel est faible, il est important d'exploiter cette ressource pour d'autres services. L'auto-tuning permet donc de faire un compromis optimal de la qualité perçue dans chaque service en adaptant les ressources réservées en fonction du trafic de chaque classe du service. Le second cas est l'optimisation automatique et dynamique des paramètres de l'algorithme du soft handover en UMTS. Pour l'auto-tuning du soft handover, un contrôleur est implémenté logiquement au niveau du RNC et règle automatiquement les seuils de handover en fonction de la charge radio de chaque cellule ainsi que de ses voisines. Cette approche permet d'équilibrer la charge radio entre les cellules et ainsi augmenter implicitement la capacité du réseau. Les simulations montrent que l'adaptation des seuils du soft handover en UMTS augmente la capacité de 30% par rapport au paramétrage fixe. L'approche de l'auto-tuning de la mobilité en UMTS est étendue pour les systèmes LTE (3GPP Long Term Evolution) mais dans ce cas l'auto-tuning est fondé sur une fonction d'auto-tuning préconstruite. L'adaptation des marges de handover en LTE permet de lisser les interférences intercellulaires et ainsi augmenter le débit perçu pour chaque utilisateur du réseau. Finalement, un algorithme de mobilité adaptative entre les deux technologies UMTS et WLAN est proposé. L'algorithme est orchestré par deux seuils, le premier est responsable du handover de l'UMTS vers le WLAN et l'autre du handover dans le sens inverse. L'adaptation de ces deux seuils permet une exploitation optimale et conjointe des ressources disponibles dans les deux technologies. Les résultats de simulation d'un réseau multi-systèmes exposent également un gain important en capacité.
Gli stili APA, Harvard, Vancouver, ISO e altri
45

Vanet, Emmanuelle. "Distribution de l'intelligence et approche hétérarchique des marchés de l'énergie distribués dans les Smart Grids". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT112/document.

Testo completo
Abstract (sommario):
En lien étroit avec le projet européen DREAM, le sujet de thèse s’intègre dans les évolutions opérationnelles des réseaux de distribution de demain intégrant de larges quantités d'énergies renouvelables. Un contrôle centralisé de l'ensemble des acteurs est, certes globalement optimal mais complexe et peu fiable. L'étude porte sur la faisabilité d'un contrôle distribué, auto-adaptatif et temps réel des ressources locales et des composants du réseau. La piste principale explorée correspond à des agents autonomes qui peuvent construire des structures collaboratives ad-hoc suivant les besoins du réseau. Ces structures collaboratives adresseront divers modes de fonctionnement, du marché de l'énergie J-1 à infraday au marché d'ajustement (services systèmes) et au contrôle local (fréquence et auto-cicatrisation)
In close relationship with the European project DREAM, this doctoral thesis focus on operational evolutions in tomorrow’s distribution networks wich will integrate a larger amount of distributed renewable resources. A centralized control of all the entities (from controllable loads to embedded generators) is overall optimal but complex and not so reliable. This study addresses the feasibility of a distributed control, autonomous, self-learning and real time operation of local resources and network’s components. The main concern to explore will be the creation of ad-hoc federations of agents that will flexibly adjust their hierarchy to current needs. These collaborative structures will use different coordination strategies ranging from market-based transactions, to balancing optimization market (ancillary services) and to local control (frequency control and self-healing)
Gli stili APA, Harvard, Vancouver, ISO e altri
46

Leconte, Mathieu. "Équilibrage de charge et répartition de ressources dans les grands systèmes distribués". Phd thesis, Telecom ParisTech, 2013. http://tel.archives-ouvertes.fr/tel-00933645.

Testo completo
Abstract (sommario):
Cette thèse porte principalement sur l'équilibrage de charge dans de grands graphes aléatoires. En informatique, un problème d'équilibrage de charge survient lorsque différentes tâches ont besoin d'accéder à un même ensemble de points de ressources. Il faut alors décider quelles ressources spécifiques seront allouées à quelles tâches. Suivant le contexte, les notions de "tâche" et de "ressource" peuvent avoir différentes interprétations. Afin de prendre des exemples concrets, on se concentrera sur deux applications en particulier: - un système de hachage à choix multiples (plus précisément, le "cuckoo hashing"). L'objectif est ici d'allouer des cellules d'un tableau à des objets, afin de pouvoir ensuite vérifier facilement la présence d'un objet et récupérer les données associées. Les tâches sont liées aux objets à stocker, et les ressources sont les cellules du tableau. - un réseau de distribution de contenu distribué, au sens où les contenus peuvent être stockés sur une multitude de petits serveurs aux capacités individuelles très limitées. Ici, les tâches sont des demandes de téléchargement (ou requêtes) pour un contenu et les ressources sont liées aux serveurs et à la façon dont leurs espaces de stockage sont utilisés. Le problème d'équilibrage de charge consiste à décider quel serveur va servir quelle requête. Les contraintes locales portant sur chaque ressource (en quelle quantité est-elle disponible et pour quelles tâches est-elle convenable?) ainsi que la charge de travail associée avec chaque tâche peuvent être représentées efficacement sur un graphe biparti, avec des contraintes de capacité sur ses sommets et ses arêtes. De plus, en pratique, les systèmes considérés sont souvent de très grande taille (avec parfois des milliers de tâches et de points de ressources différents) et relativement aléatoires (que ce soit par choix ou une conséquence de leur grande taille). Une modélisation à l'aide de grands graphes aléatoires est donc souvent pertinente. L'ensemble des solutions envisageables pour un problème d'équilibrage de charge donné étant vaste, il est primordial de commencer par déterminer des bornes sur les performances que l'on peut espérer. Ainsi, on considérera dans un premier temps une solution optimale du problème (même si elle ne serait pas réalisable avec des contraintes pratiques). Les performances d'une telle solution peuvent être obtenues en étudiant les appariements de taille maximum dans un grand graphe aléatoire, ce que l'on réalisera à l'aide de la méthode de la cavité. Cette méthode vient de l'étude des systèmes désordonnés en physique statistique, et on s'attachera ici à l'appliquer de manière rigoureuse dans le cadre que l'on considère. Dans le contexte du cuckoo hashing, les résultats obtenus permettent de calculer le seuil sur la charge du système (le nombre d'objets à insérer par rapport à la taille du tableau) en-dessous duquel on peut construire une table de hachage correcte avec grande probabilité dans un grand système, et également de traiter de manière similaire de variantes de la méthode de hachage basique qui tentent de diminuer la quantité d'aléa nécessaire au système. Au-delà du problème d'équilibrage de charge, dans le cadre des réseaux de distributions de contenu distribués, un second problème se pose: comment décider quel contenu stocker et en quelle quantité, autrement dit comment répliquer les contenus? On appelle ce second problème un problème d'allocation de ressources. A nouveau, l'étude déjà réalisée permet de quantifier l'efficacité d'une politique de réplication fixée en supposant que la politique d'équilibrage de charge fonctionne de manière optimale. Il reste cependant à optimiser la politique de réplication de contenus utilisée, ce que l'on effectue dans un régime où l'espace de stockage disponible au niveau de chaque serveur est important par rapport à la taille d'un contenu. Finalement, afin de quantifier maintenant les performances minimales atteignables en pratique, on s'intéressera aux mêmes questions lorsque la politique d'équilibrage de charge utilisée est un simple algorithme glouton. Cette étude est réalisée à l'aide d'approximations de champs moyen. On utilisera également les résultats obtenus afin de concevoir des politiques de réplication de contenus adaptatives.
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Paquier, Williams. "Apprentissage ouvert de représentations et de fonctionalités en robotique : analyse, modèles et implémentation". Toulouse 3, 2004. http://www.theses.fr/2004TOU30233.

Testo completo
Abstract (sommario):
L'acquisition autonome de représentations et de fonctionnalités en robotique pose de nombreux problèmes théoriques. Aujourd'hui, les systèmes robotiques autonomes sont conçus autour d'un ensemble de fonctionnalités. Leurs représentations du monde sont issues de l’analyse d'un problème et d'une modélisation préalablement données par les concepteurs. Cette approche limite les capacités d'apprentissage. Nous proposons dans cette thèse un système ouvert de représentations et de fonctionnalités. Ce système apprend en expérimentant son environnement et est guidé par l’augmentation d’une fonction de valeur. L'objectif du système consiste à agir sur son environnement pour réactiver les représentations dont il avait appris une connotation positive. Une analyse de la capacité à généraliser la production d'actions appropriées pour ces réactivations conduit à définir un ensemble de propriétés nécessaires pour un tel système. Le système de représentation est constitué d'un réseau d'unités de traitement semblables et utilise un codage par position. Le sens de l'état d'une unité dépend de sa position dans le réseau. Ce système de représentation possède des similitudes avec le principe de numération par position. Une représentation correspond à l'activation d'un ensemble d'unités. Ce système a été implémenté dans une suite logicielle appelée NeuSter qui permet de simuler des réseaux de plusieurs millions d'unités et milliard de connexions sur des grappes hétérogènes de machines POSIX. Les premiers résultats permettent de valider les contraintes déduites de l'analyse. Un tel système permet d'apprendre dans un même réseau, de façon hiérarchique et non supervisée, des détecteurs de bords et de traits, de coins, de terminaisons de traits, de visages, de directions de mouvement, de rotations, d'expansions, et de phonèmes. NeuSter apprend en ligne en utilisant uniquement les données de ses capteurs. Il a été testé sur des robots mobiles pour l'apprentissage et le suivi d'objets
Autonomous acquisition of representations and functionalities by a machine address several theoretical questions. Today’s autonomous robots are developed around a set of functionalities. Their representations of the world are deduced from the analysis and modeling of a given problem, and are initially given by the developers. This limits the learning capabilities of robots. In this thesis, we propose an approach and a system able to build open-ended representation and functionalities. This system learns through its experimentations of the environment and aims to augment a value function. Its objective consists in acting to reactivate the representations it has already learnt to connote positively. An analysis of the generalization capabilities to produce appropriate actions enable define a minimal set of properties needed by such a system. The open-ended representation system is composed of a network of homogeneous processing units and is based on position coding. The meaning of a processing unit depends on its position in the global network. This representation system presents similarities with the principle of numeration by position. A representation is given by a set of active units. This system is implemented in a suite of software called NeuSter, which is able to simulate million unit networks with billions of connections on heterogeneous clusters of POSIX machines. .
Gli stili APA, Harvard, Vancouver, ISO e altri
48

Ho, Vinh Thanh. "Techniques avancées d'apprentissage automatique basées sur la programmation DC et DCA". Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0289/document.

Testo completo
Abstract (sommario):
Dans cette thèse, nous développons certaines techniques avancées d'apprentissage automatique dans le cadre de l'apprentissage en ligne et de l'apprentissage par renforcement (« reinforcement learning » en anglais -- RL). L'épine dorsale de nos approches est la programmation DC (Difference of Convex functions) et DCA (DC Algorithm), et leur version en ligne, qui sont reconnues comme de outils puissants d'optimisation non convexe, non différentiable. Cette thèse se compose de deux parties : la première partie étudie certaines techniques d'apprentissage automatique en mode en ligne et la deuxième partie concerne le RL en mode batch et mode en ligne. La première partie comprend deux chapitres correspondant à la classification en ligne (chapitre 2) et la prédiction avec des conseils d'experts (chapitre 3). Ces deux chapitres mentionnent une approche unifiée d'approximation DC pour différents problèmes d'optimisation en ligne dont les fonctions objectives sont des fonctions de perte 0-1. Nous étudions comment développer des algorithmes DCA en ligne efficaces en termes d'aspects théoriques et computationnels. La deuxième partie se compose de quatre chapitres (chapitres 4, 5, 6, 7). Après une brève introduction du RL et ses travaux connexes au chapitre 4, le chapitre 5 vise à fournir des techniques efficaces du RL en mode batch basées sur la programmation DC et DCA. Nous considérons quatre différentes formulations d'optimisation DC en RL pour lesquelles des algorithmes correspondants basés sur DCA sont développés. Nous traitons les problèmes clés de DCA et montrons l'efficacité de ces algorithmes au moyen de diverses expériences. En poursuivant cette étude, au chapitre 6, nous développons les techniques du RL basées sur DCA en mode en ligne et proposons leurs versions alternatives. Comme application, nous abordons le problème du plus court chemin stochastique (« stochastic shortest path » en anglais -- SSP) au chapitre 7. Nous étudions une classe particulière de problèmes de SSP qui peut être reformulée comme une formulation de minimisation de cardinalité et une formulation du RL. La première formulation implique la norme zéro et les variables binaires. Nous proposons un algorithme basé sur DCA en exploitant une approche d'approximation DC de la norme zéro et une technique de pénalité exacte pour les variables binaires. Pour la deuxième formulation, nous utilisons un algorithme batch RL basé sur DCA. Tous les algorithmes proposés sont testés sur des réseaux routiers artificiels
In this dissertation, we develop some advanced machine learning techniques in the framework of online learning and reinforcement learning (RL). The backbones of our approaches are DC (Difference of Convex functions) programming and DCA (DC Algorithm), and their online version that are best known as powerful nonsmooth, nonconvex optimization tools. This dissertation is composed of two parts: the first part studies some online machine learning techniques and the second part concerns RL in both batch and online modes. The first part includes two chapters corresponding to online classification (Chapter 2) and prediction with expert advice (Chapter 3). These two chapters mention a unified DC approximation approach to different online learning algorithms where the observed objective functions are 0-1 loss functions. We thoroughly study how to develop efficient online DCA algorithms in terms of theoretical and computational aspects. The second part consists of four chapters (Chapters 4, 5, 6, 7). After a brief introduction of RL and its related works in Chapter 4, Chapter 5 aims to provide effective RL techniques in batch mode based on DC programming and DCA. In particular, we first consider four different DC optimization formulations for which corresponding attractive DCA-based algorithms are developed, then carefully address the key issues of DCA, and finally, show the computational efficiency of these algorithms through various experiments. Continuing this study, in Chapter 6 we develop DCA-based RL techniques in online mode and propose their alternating versions. As an application, we tackle the stochastic shortest path (SSP) problem in Chapter 7. Especially, a particular class of SSP problems can be reformulated in two directions as a cardinality minimization formulation and an RL formulation. Firstly, the cardinality formulation involves the zero-norm in objective and the binary variables. We propose a DCA-based algorithm by exploiting a DC approximation approach for the zero-norm and an exact penalty technique for the binary variables. Secondly, we make use of the aforementioned DCA-based batch RL algorithm. All proposed algorithms are tested on some artificial road networks
Gli stili APA, Harvard, Vancouver, ISO e altri
49

Vo, Xuan Thanh. "Apprentissage avec la parcimonie et sur des données incertaines par la programmation DC et DCA". Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0193/document.

Testo completo
Abstract (sommario):
Dans cette thèse, nous nous concentrons sur le développement des méthodes d'optimisation pour résoudre certaines classes de problèmes d'apprentissage avec la parcimonie et/ou avec l'incertitude des données. Nos méthodes sont basées sur la programmation DC (Difference of Convex functions) et DCA (DC Algorithms) étant reconnues comme des outils puissants d'optimisation. La thèse se compose de deux parties : La première partie concerne la parcimonie tandis que la deuxième partie traite l'incertitude des données. Dans la première partie, une étude approfondie pour la minimisation de la norme zéro a été réalisée tant sur le plan théorique qu'algorithmique. Nous considérons une approximation DC commune de la norme zéro et développons quatre algorithmes basées sur la programmation DC et DCA pour résoudre le problème approché. Nous prouvons que nos algorithmes couvrent tous les algorithmes standards existants dans le domaine. Ensuite, nous étudions le problème de la factorisation en matrices non-négatives (NMF) et fournissons des algorithmes appropriés basés sur la programmation DC et DCA. Nous étudions également le problème de NMF parcimonieuse. Poursuivant cette étude, nous étudions le problème d'apprentissage de dictionnaire où la représentation parcimonieuse joue un rôle crucial. Dans la deuxième partie, nous exploitons la technique d'optimisation robuste pour traiter l'incertitude des données pour les deux problèmes importants dans l'apprentissage : la sélection de variables dans SVM (Support Vector Machines) et le clustering. Différents modèles d'incertitude sont étudiés. Les algorithmes basés sur DCA sont développés pour résoudre ces problèmes
In this thesis, we focus on developing optimization approaches for solving some classes of optimization problems in sparsity and robust optimization for data uncertainty. Our methods are based on DC (Difference of Convex functions) programming and DCA (DC Algorithms) which are well-known as powerful tools in optimization. This thesis is composed of two parts: the first part concerns with sparsity while the second part deals with uncertainty. In the first part, a unified DC approximation approach to optimization problem involving the zero-norm in objective is thoroughly studied on both theoretical and computational aspects. We consider a common DC approximation of zero-norm that includes all standard sparse inducing penalty functions, and develop general DCA schemes that cover all standard algorithms in the field. Next, the thesis turns to the nonnegative matrix factorization (NMF) problem. We investigate the structure of the considered problem and provide appropriate DCA based algorithms. To enhance the performance of NMF, the sparse NMF formulations are proposed. Continuing this topic, we study the dictionary learning problem where sparse representation plays a crucial role. In the second part, we exploit robust optimization technique to deal with data uncertainty for two important problems in machine learning: feature selection in linear Support Vector Machines and clustering. In this context, individual data point is uncertain but varies in a bounded uncertainty set. Different models (box/spherical/ellipsoidal) related to uncertain data are studied. DCA based algorithms are developed to solve the robust problems
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Rigollet, Philippe. "Inégalités d'oracle, agrégation et adaptation". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2006. http://tel.archives-ouvertes.fr/tel-00115494.

Testo completo
Abstract (sommario):
Historiquement, les inégalités d'oracle ont été développées comme des outils particulièrement efficaces pour l'adaptation à un paramètre inconnu en statistique mathématique. Initialement dédiées à la démonstration de propriétés statistiques de certains estimateurs, elles peuvent s'inscrire dans le cadre plus général du problème l'agrégation où elles sont au centre de la définition d'une vitesse optimale d'agrégation. Elles constituent alors d'une part des outils mathématiques et d'autre part des résultats précis et non asymptotiques.
Les travaux faisant l'objet de cette thèse présentent différentes utilisations des inégalités d'oracle, d'abord dans un cadre général d'agrégation puis dans des modèles statistiques plus particuliers, comme l'estimation de densité et la classification. Les résultats obtenus sont une palette non exhaustive mais représentative de l'utilisation des inégalités d'oracle en statistique mathématique.
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia