To see the other types of publications on this topic, follow the link: Optimisation convexe en ligne.

Dissertations / Theses on the topic 'Optimisation convexe en ligne'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Optimisation convexe en ligne.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Fernandez, Camila. "Contributions and applications to survival analysis." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS230.

Full text
Abstract:
L'analyse de survie a suscité l'intérêt de diverses disciplines, allant de la médecine et de la maintenance prédictive à diverses applications industrielles. Sa popularité croissante peut être attribuée aux avancées significatives en matière de puissance de calcul et à la disponibilité accrue des données. Des approches variées ont été développées pour répondre au défi des données censurées, allant des outils statistiques classiques aux techniques contemporaines d'apprentissage automatique. Cependant, il reste encore une marge considérable pour l'amélioration. Cette thèse vise à introduire des approches innovantes qui fournissent des insights plus profonds sur les distributions de survie et à proposer de nouvelles méthodes avec des garanties théoriques qui améliorent la précision des prédictions.Il est notamment remarquable de constater l'absence de modèles capables de traiter les données séquentielles, une configuration pertinente en raison de sa capacité à s'adapter rapidement à de nouvelles informations et de son efficacité à gérer de grands flux de données sans nécessiter d'importantes ressources mémoire. La première contribution de cette thèse est de proposer un cadre théorique pour la modélisation des données de survie en ligne. Nous modélisons la fonction de risque comme une exponentielle paramétrique qui dépend des covariables, et nous utilisons des algorithmes d'optimisation convexe en ligne pour optimiser la vraisemblance de notre modèle, une approche qui est novatrice dans ce domaine. Nous proposons un nouvel algorithme adaptatif de second ordre, SurvONS, qui assure une robustesse dans la sélection des hyperparamètres tout en maintenant des bornes de regret rapides. De plus, nous introduisons une approche stochastique qui améliore les propriétés de convexité pour atteindre des taux de convergence plus rapides. La deuxième contribution de cette thèse est de fournir une comparaison détaillée de divers modèles de survie, incluant les modèles semi-paramétriques, paramétriques et ceux basés sur l'apprentissage automatique. Nous étudions les caractéristiques des ensembles de données qui influencent la performance des méthodes, et nous proposons une procédure d'agrégation qui améliore la précision et la robustesse des prédictions. Enfin, nous appliquons les différentes approches discutées tout au long de la thèse à une étude de cas industrielle : la prédiction de l'attrition des employés, un problème fondamental dans le monde des affaires moderne. De plus, nous étudions l'impact des caractéristiques des employés sur les prédictions d'attrition en utilisant l'importance des caractéristiques par permutation et les valeurs de Shapley
Survival analysis has attracted interest from a wide range of disciplines, spanning from medicine and predictive maintenance to various industrial applications. Its growing popularity can be attributed to significant advancements in computational power and the increased availability of data. Diverse approaches have been developed to address the challenge of censored data, from classical statistical tools to contemporary machine learning techniques. However, there is still considerable room for improvement. This thesis aims to introduce innovative approaches that provide deeper insights into survival distributions and to propose new methods with theoretical guarantees that enhance prediction accuracy. Notably, we notice the lack of models able to treat sequential data, a setting that is relevant due to its ability to adapt quickly to new information and its efficiency in handling large data streams without requiring significant memory resources. The first contribution of this thesis is to propose a theoretical framework for modeling online survival data. We model the hazard function as a parametric exponential that depends on the covariates, and we use online convex optimization algorithms to minimize the negative log-likelihood of our model, an approach that is novel in this field. We propose a new adaptive second-order algorithm, SurvONS, which ensures robustness in hyperparameter selection while maintaining fast regret bounds. Additionally, we introduce a stochastic approach that enhances the convexity properties to achieve faster convergence rates. The second contribution of this thesis is to provide a detailed comparison of diverse survival models, including semi-parametric, parametric, and machine learning models. We study the dataset character- istics that influence the methods performance, and we propose an aggregation procedure that enhances prediction accuracy and robustness. Finally, we apply the different approaches discussed throughout the thesis to an industrial case study : predicting employee attrition, a fundamental issue in modern business. Additionally, we study the impact of employee characteristics on attrition predictions using permutation feature importance and Shapley values
APA, Harvard, Vancouver, ISO, and other styles
2

Reiffers-Masson, Alexandre. "Compétition sur la visibilité et la popularité dans les réseaux sociaux en ligne." Thesis, Avignon, 2016. http://www.theses.fr/2016AVIG0210/document.

Full text
Abstract:
Cette thèse utilise la théorie des jeux pour comprendre le comportement des usagers dans les réseaux sociaux. Trois problématiques y sont abordées: "Comment maximiser la popularité des contenus postés dans les réseaux sociaux?";" Comment modéliser la répartition des messages par sujets?";"Comment minimiser la propagation d’une rumeur et maximiser la diversité des contenus postés?". Après un état de l’art concernant ces questions développé dans le chapitre 1, ce travail traite, dans le chapitre 2, de la manière d’aborder l’environnement compétitif pour accroître la visibilité. Dans le chapitre 3, c’est le comportement des usagers qui est modélisé, en terme de nombre de messages postés, en utilisant la théorie des approximations stochastiques. Dans le chapitre 4, c’est une compétition pour être populaire qui est étudiée. Le chapitre 5 propose de formuler deux problèmes d’optimisation convexes dans le contexte des réseaux sociaux en ligne. Finalement, le chapitre 6 conclue ce manuscrit
This Ph.D. is dedicated to the application of the game theory for the understanding of users behaviour in Online Social Networks. The three main questions of this Ph.D. are: " How to maximize contents popularity ? "; " How to model the distribution of messages across sources and topics in OSNs ? "; " How to minimize gossip propagation and how to maximize contents diversity? ". After a survey concerning the research made about the previous problematics in chapter 1, we propose to study a competition over visibility in chapter 2. In chapter 3, we model and provide insight concerning the posting behaviour of publishers in OSNs by using the stochastic approximation framework. In chapter 4, it is a popularity competition which is described by using a differential game formulation. The chapter 5 is dedicated to the formulation of two convex optimization problems in the context of Online Social Networks. Finally conclusions and perspectives are given in chapter 6
APA, Harvard, Vancouver, ISO, and other styles
3

Akhavanfoomani, Aria. "Derivative-free stochastic optimization, online learning and fairness." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAG001.

Full text
Abstract:
Dans cette thèse, nous étudions d'abord le problème de l'optimisation d'ordre zéro dans le cadre actif pour des fonctions lisses et trois classes différentes de fonctions : i) les fonctions qui satisfont la condition de Polyak-Łojasiewicz, ii) les fonctions fortement convexes, et iii) la classe plus large des fonctions non convexes fortement lisses.De plus, nous proposons un nouvel algorithme basé sur la randomisation de type l1, et nous étudions ses propriétés pour les fonctions convexes Lipschitz dans un cadre d'optimisation en ligne. Notre analyse est due à la dérivation d'une nouvelle inégalité de type Poincar'e pour la mesure uniforme sur la sphère l1 avec des constantes explicites.Ensuite, nous étudions le problème d'optimisation d'ordre zéro dans les schémas passifs. Nous proposons une nouvelle méthode pour estimer le minimiseur et la valeur minimale d'une fonction de régression lisse et fortement convexe f. Nous dérivons des limites supérieures pour cet algorithme et prouvons des limites inférieures minimax pour un tel cadre.Enfin, nous étudions le problème du bandit contextuel linéaire sous contraintes d'équité où un agent doit sélectionner un candidat dans un pool, et où chaque candidat appartient à un groupe sensible. Nous proposons une nouvelle notion d'équité qui est pratique dans l'exemple susmentionné. Nous concevons une politique avide qui calcule une estimation du rang relatif de chaque candidat en utilisant la fonction de distribution cumulative empirique, et nous prouvons sa propriété optimale
In this thesis, we first study the problem of zero-order optimization in the active setting for smooth and three different classes of functions: i) the functions that satisfy the Polyak-Łojasiewicz condition, ii) strongly convex functions, and iii) the larger class of highly smooth non-convex functions.Furthermore, we propose a novel algorithm that is based on l1-type randomization, and we study its properties for Lipschitz convex functions in an online optimization setting. Our analysis is due to deriving a new Poincar'e type inequality for the uniform measure on the l1-sphere with explicit constants.Then, we study the zero-order optimization problem in the passive schemes. We propose a new method for estimating the minimizer and the minimum value of a smooth and strongly convex regression function f. We derive upper bounds for this algorithm and prove minimax lower bounds for such a setting.In the end, we study the linear contextual bandit problem under fairness constraints where an agent has to select one candidate from a pool, and each candidate belongs to a sensitive group. We propose a novel notion of fairness which is practical in the aforementioned example. We design a greedy policy that computes an estimate of the relative rank of each candidate using the empirical cumulative distribution function, and we proved its optimal property
APA, Harvard, Vancouver, ISO, and other styles
4

Ho, Vinh Thanh. "Techniques avancées d'apprentissage automatique basées sur la programmation DC et DCA." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0289/document.

Full text
Abstract:
Dans cette thèse, nous développons certaines techniques avancées d'apprentissage automatique dans le cadre de l'apprentissage en ligne et de l'apprentissage par renforcement (« reinforcement learning » en anglais -- RL). L'épine dorsale de nos approches est la programmation DC (Difference of Convex functions) et DCA (DC Algorithm), et leur version en ligne, qui sont reconnues comme de outils puissants d'optimisation non convexe, non différentiable. Cette thèse se compose de deux parties : la première partie étudie certaines techniques d'apprentissage automatique en mode en ligne et la deuxième partie concerne le RL en mode batch et mode en ligne. La première partie comprend deux chapitres correspondant à la classification en ligne (chapitre 2) et la prédiction avec des conseils d'experts (chapitre 3). Ces deux chapitres mentionnent une approche unifiée d'approximation DC pour différents problèmes d'optimisation en ligne dont les fonctions objectives sont des fonctions de perte 0-1. Nous étudions comment développer des algorithmes DCA en ligne efficaces en termes d'aspects théoriques et computationnels. La deuxième partie se compose de quatre chapitres (chapitres 4, 5, 6, 7). Après une brève introduction du RL et ses travaux connexes au chapitre 4, le chapitre 5 vise à fournir des techniques efficaces du RL en mode batch basées sur la programmation DC et DCA. Nous considérons quatre différentes formulations d'optimisation DC en RL pour lesquelles des algorithmes correspondants basés sur DCA sont développés. Nous traitons les problèmes clés de DCA et montrons l'efficacité de ces algorithmes au moyen de diverses expériences. En poursuivant cette étude, au chapitre 6, nous développons les techniques du RL basées sur DCA en mode en ligne et proposons leurs versions alternatives. Comme application, nous abordons le problème du plus court chemin stochastique (« stochastic shortest path » en anglais -- SSP) au chapitre 7. Nous étudions une classe particulière de problèmes de SSP qui peut être reformulée comme une formulation de minimisation de cardinalité et une formulation du RL. La première formulation implique la norme zéro et les variables binaires. Nous proposons un algorithme basé sur DCA en exploitant une approche d'approximation DC de la norme zéro et une technique de pénalité exacte pour les variables binaires. Pour la deuxième formulation, nous utilisons un algorithme batch RL basé sur DCA. Tous les algorithmes proposés sont testés sur des réseaux routiers artificiels
In this dissertation, we develop some advanced machine learning techniques in the framework of online learning and reinforcement learning (RL). The backbones of our approaches are DC (Difference of Convex functions) programming and DCA (DC Algorithm), and their online version that are best known as powerful nonsmooth, nonconvex optimization tools. This dissertation is composed of two parts: the first part studies some online machine learning techniques and the second part concerns RL in both batch and online modes. The first part includes two chapters corresponding to online classification (Chapter 2) and prediction with expert advice (Chapter 3). These two chapters mention a unified DC approximation approach to different online learning algorithms where the observed objective functions are 0-1 loss functions. We thoroughly study how to develop efficient online DCA algorithms in terms of theoretical and computational aspects. The second part consists of four chapters (Chapters 4, 5, 6, 7). After a brief introduction of RL and its related works in Chapter 4, Chapter 5 aims to provide effective RL techniques in batch mode based on DC programming and DCA. In particular, we first consider four different DC optimization formulations for which corresponding attractive DCA-based algorithms are developed, then carefully address the key issues of DCA, and finally, show the computational efficiency of these algorithms through various experiments. Continuing this study, in Chapter 6 we develop DCA-based RL techniques in online mode and propose their alternating versions. As an application, we tackle the stochastic shortest path (SSP) problem in Chapter 7. Especially, a particular class of SSP problems can be reformulated in two directions as a cardinality minimization formulation and an RL formulation. Firstly, the cardinality formulation involves the zero-norm in objective and the binary variables. We propose a DCA-based algorithm by exploiting a DC approximation approach for the zero-norm and an exact penalty technique for the binary variables. Secondly, we make use of the aforementioned DCA-based batch RL algorithm. All proposed algorithms are tested on some artificial road networks
APA, Harvard, Vancouver, ISO, and other styles
5

Ho, Vinh Thanh. "Techniques avancées d'apprentissage automatique basées sur la programmation DC et DCA." Electronic Thesis or Diss., Université de Lorraine, 2017. http://www.theses.fr/2017LORR0289.

Full text
Abstract:
Dans cette thèse, nous développons certaines techniques avancées d'apprentissage automatique dans le cadre de l'apprentissage en ligne et de l'apprentissage par renforcement (« reinforcement learning » en anglais -- RL). L'épine dorsale de nos approches est la programmation DC (Difference of Convex functions) et DCA (DC Algorithm), et leur version en ligne, qui sont reconnues comme de outils puissants d'optimisation non convexe, non différentiable. Cette thèse se compose de deux parties : la première partie étudie certaines techniques d'apprentissage automatique en mode en ligne et la deuxième partie concerne le RL en mode batch et mode en ligne. La première partie comprend deux chapitres correspondant à la classification en ligne (chapitre 2) et la prédiction avec des conseils d'experts (chapitre 3). Ces deux chapitres mentionnent une approche unifiée d'approximation DC pour différents problèmes d'optimisation en ligne dont les fonctions objectives sont des fonctions de perte 0-1. Nous étudions comment développer des algorithmes DCA en ligne efficaces en termes d'aspects théoriques et computationnels. La deuxième partie se compose de quatre chapitres (chapitres 4, 5, 6, 7). Après une brève introduction du RL et ses travaux connexes au chapitre 4, le chapitre 5 vise à fournir des techniques efficaces du RL en mode batch basées sur la programmation DC et DCA. Nous considérons quatre différentes formulations d'optimisation DC en RL pour lesquelles des algorithmes correspondants basés sur DCA sont développés. Nous traitons les problèmes clés de DCA et montrons l'efficacité de ces algorithmes au moyen de diverses expériences. En poursuivant cette étude, au chapitre 6, nous développons les techniques du RL basées sur DCA en mode en ligne et proposons leurs versions alternatives. Comme application, nous abordons le problème du plus court chemin stochastique (« stochastic shortest path » en anglais -- SSP) au chapitre 7. Nous étudions une classe particulière de problèmes de SSP qui peut être reformulée comme une formulation de minimisation de cardinalité et une formulation du RL. La première formulation implique la norme zéro et les variables binaires. Nous proposons un algorithme basé sur DCA en exploitant une approche d'approximation DC de la norme zéro et une technique de pénalité exacte pour les variables binaires. Pour la deuxième formulation, nous utilisons un algorithme batch RL basé sur DCA. Tous les algorithmes proposés sont testés sur des réseaux routiers artificiels
In this dissertation, we develop some advanced machine learning techniques in the framework of online learning and reinforcement learning (RL). The backbones of our approaches are DC (Difference of Convex functions) programming and DCA (DC Algorithm), and their online version that are best known as powerful nonsmooth, nonconvex optimization tools. This dissertation is composed of two parts: the first part studies some online machine learning techniques and the second part concerns RL in both batch and online modes. The first part includes two chapters corresponding to online classification (Chapter 2) and prediction with expert advice (Chapter 3). These two chapters mention a unified DC approximation approach to different online learning algorithms where the observed objective functions are 0-1 loss functions. We thoroughly study how to develop efficient online DCA algorithms in terms of theoretical and computational aspects. The second part consists of four chapters (Chapters 4, 5, 6, 7). After a brief introduction of RL and its related works in Chapter 4, Chapter 5 aims to provide effective RL techniques in batch mode based on DC programming and DCA. In particular, we first consider four different DC optimization formulations for which corresponding attractive DCA-based algorithms are developed, then carefully address the key issues of DCA, and finally, show the computational efficiency of these algorithms through various experiments. Continuing this study, in Chapter 6 we develop DCA-based RL techniques in online mode and propose their alternating versions. As an application, we tackle the stochastic shortest path (SSP) problem in Chapter 7. Especially, a particular class of SSP problems can be reformulated in two directions as a cardinality minimization formulation and an RL formulation. Firstly, the cardinality formulation involves the zero-norm in objective and the binary variables. We propose a DCA-based algorithm by exploiting a DC approximation approach for the zero-norm and an exact penalty technique for the binary variables. Secondly, we make use of the aforementioned DCA-based batch RL algorithm. All proposed algorithms are tested on some artificial road networks
APA, Harvard, Vancouver, ISO, and other styles
6

Weiss, Pierre. "Algorithmes rapides d'optimisation convexe. Applications à la reconstruction d'images et à la détection de changements." Phd thesis, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00349452.

Full text
Abstract:
Cette thèse contient des contributions en analyse numérique et en vision par ordinateur. Dans une première partie, nous nous intéressons à la résolution rapide, par des méthodes de premier ordre, de problèmes d'optimisation convexe. Ces problèmes apparaissent naturellement dans de nombreuses tâches telles que la reconstruction d'images, l'échantillonnage compressif ou la décomposition d'images en texture et en géométrie. Ils ont la particularité d'être non différentiables ou très mal conditionnés. On montre qu'en utilisant des propriétés fines des fonctions à minimiser on peut obtenir des algorithmes de minimisation extrêmement efficaces. On analyse systématiquement leurs taux de convergence en utilisant des résultats récents dûs à Y. Nesterov. Les méthodes proposées correspondent - à notre connaissance - à l'état de l'art des méthodes de premier ordre. Dans une deuxième partie, nous nous intéressons au problème de la détection de changements entre deux images satellitaires prises au même endroit à des instants différents. Une des difficultés principales à surmonter pour résoudre ce problème est de s'affranchir des conditions d'illuminations différentes entre les deux prises de vue. Ceci nous mène à l'étude de l'invariance aux changements d'illuminations des lignes de niveau d'une image. On caractérise complètement les scènes qui fournissent des lignes de niveau invariantes. Celles-ci correspondent assez bien à des milieux urbains. On propose alors un algorithme simple de détection de changements qui fournit des résultats très satisfaisants sur des images synthétiques et des images Quickbird réelles.
APA, Harvard, Vancouver, ISO, and other styles
7

Karimi, Belhal. "Non-Convex Optimization for Latent Data Models : Algorithms, Analysis and Applications." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX040/document.

Full text
Abstract:
De nombreux problèmes en Apprentissage Statistique consistent à minimiser une fonction non convexe et non lisse définie sur un espace euclidien. Par exemple, les problèmes de maximisation de la vraisemblance et la minimisation du risque empirique en font partie.Les algorithmes d'optimisation utilisés pour résoudre ce genre de problèmes ont été largement étudié pour des fonctions convexes et grandement utilisés en pratique.Cependant, l'accrudescence du nombre d'observation dans l'évaluation de ce risque empirique ajoutée à l'utilisation de fonctions de perte de plus en plus sophistiquées représentent des obstacles.Ces obstacles requièrent d'améliorer les algorithmes existants avec des mis à jour moins coûteuses, idéalement indépendantes du nombre d'observations, et d'en garantir le comportement théorique sous des hypothèses moins restrictives, telles que la non convexité de la fonction à optimiser.Dans ce manuscrit de thèse, nous nous intéressons à la minimisation de fonctions objectives pour des modèles à données latentes, ie, lorsque les données sont partiellement observées ce qui inclut le sens conventionnel des données manquantes mais est un terme plus général que cela.Dans une première partie, nous considérons la minimisation d'une fonction (possiblement) non convexe et non lisse en utilisant des mises à jour incrémentales et en ligne. Nous proposons et analysons plusieurs algorithmes à travers quelques applications.Dans une seconde partie, nous nous concentrons sur le problème de maximisation de vraisemblance non convexe en ayant recourt à l'algorithme EM et ses variantes stochastiques. Nous en analysons plusieurs versions rapides et moins coûteuses et nous proposons deux nouveaux algorithmes du type EM dans le but d'accélérer la convergence des paramètres estimés
Many problems in machine learning pertain to tackling the minimization of a possibly non-convex and non-smooth function defined on a Many problems in machine learning pertain to tackling the minimization of a possibly non-convex and non-smooth function defined on a Euclidean space.Examples include topic models, neural networks or sparse logistic regression.Optimization methods, used to solve those problems, have been widely studied in the literature for convex objective functions and are extensively used in practice.However, recent breakthroughs in statistical modeling, such as deep learning, coupled with an explosion of data samples, require improvements of non-convex optimization procedure for large datasets.This thesis is an attempt to address those two challenges by developing algorithms with cheaper updates, ideally independent of the number of samples, and improving the theoretical understanding of non-convex optimization that remains rather limited.In this manuscript, we are interested in the minimization of such objective functions for latent data models, ie, when the data is partially observed which includes the conventional sense of missing data but is much broader than that.In the first part, we consider the minimization of a (possibly) non-convex and non-smooth objective function using incremental and online updates.To that end, we propose several algorithms exploiting the latent structure to efficiently optimize the objective and illustrate our findings with numerous applications.In the second part, we focus on the maximization of non-convex likelihood using the EM algorithm and its stochastic variants.We analyze several faster and cheaper algorithms and propose two new variants aiming at speeding the convergence of the estimated parameters
APA, Harvard, Vancouver, ISO, and other styles
8

DANIILIDIS, Aris. "Analyse convexe et quasi-convexe ; applications en optimisation." Habilitation à diriger des recherches, Université de Pau et des Pays de l'Adour, 2002. http://tel.archives-ouvertes.fr/tel-00001355.

Full text
Abstract:
Ce document de synthèse s'articule autour de l'analyse convexe, de l'analyse quasi-convexe et des applications en optimisation. Dans le premier domaine on aborde les thèmes de la continuité, de la différentiabilité et des critères de coïncidence pour les fonctions convexes, puis la convexification des fonctions semi-continues inférieurement. Pour l'étude des fonctions quasi-convexes deux approches sont adoptées : une approche analytique, via un sous-différentiel généralisé, et une approche géométrique, basée sur les normales aux tranches. La dernière partie est consacrée à des applications à l'intégration d'opérateurs multivoques, aux inéquations variationnelles et à des problèmes d'optimisation multicritères en dimension finie et infinie. Parmi les nouveautés de ce travail, on trouve la notion de monotonie fortement cyclique, qui caractérise le sous-différentiel d'une fonction convexe dont la restriction à son domaine est continue, la quasi-monotonie cyclique, qui est une propriété intrinsèque du sous-différentiel d'une fonction quasi-convexe avec des applications importantes en économie mathématique, et la notion de quasi-monotonie propre, qui caractérise les opérateurs pour lesquels l'inéquation variationnelle associée a toujours des solutions sur toute sous-partie convexe et faiblement compacte de leur domaine. Notons encore une nouvelle caractérisation de la propriété de Radon-Nikodym, et une extension à la dimension infinie d'un résultat de Janin concernant l'intégration d'un opérateur maximal cycliquement sous-monotone, résultat qui généralise le théorème classique de Rockafellar pour les opérateurs maximaux cycliquement monotones.
APA, Harvard, Vancouver, ISO, and other styles
9

Bahraoui, Mohamed-Amin. "Suites diagonalement stationnaires en optimisation convexe." Montpellier 2, 1994. http://www.theses.fr/1994MON20153.

Full text
Abstract:
Dans ce travail nous etudions la convergence des suites diagonalement stationnaires en optimisation convexe via la theorie de la convergence variationnelle. Nous etablirons ensuite les liens entre le bon comportement asymptotique, probleme bien pose et conditionnement en introduisant des versions diagonales appropriees. Comme application, nous proposons et etudions la convergence d'une version diagonale de la methode des faisceaux qui permet de prendre en compte des contraintes: quelques experiences numeriques sont presentees (faisceaux-penalisation). Enfin, nous etendons a la version diagonale la caracterisation variationnelle de la limite de la suite engendree par la methode proximale, dans l'ensemble optimal
APA, Harvard, Vancouver, ISO, and other styles
10

Yagoubi, Mohamed. "Commande robuste structurée et optimisation convexe." Nantes, 2003. http://www.theses.fr/2003NANT2027.

Full text
Abstract:
Les systèmes informatiques de contrôle commande deviennent chaque jour plus performants et permettent la mise en oeuvre de régulateurs de sophistication croissante. De façon parallèle à cette évolution technologique, la théorie des systèmes linéaires se développe afin de tenir davantage compte des problèmes pratiques. La prise en compte des incertitudes de modélisation a conduit à développer l'axe "robustesse" de la commande des systèmes linéaires. Ce travail prolonge cette réflexion en cherchant à intégrer des contraintes (technologiques ou conceptuelles) sur la structure du régulateur à concevoir. L'approche "commande optimale" au sens d'un critère H2 ou H[infini] est privilégiée. . .
APA, Harvard, Vancouver, ISO, and other styles
11

Henrion, Didier. "Polynômes et optimisation convexe en commande robuste." Habilitation à diriger des recherches, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00246118.

Full text
Abstract:
A l'aide de quelques exemples illustratifs, des pistes sont évoquées pour combiner les méthodes polynomiales (algèbre, géométrie algébrique) et l'optimisation convexe (inégalités matricielles linéaires, LMI) dans le but de développer des outils numériques de résolution de problèmes basiques en automatique, et en particulier pour la commande robuste des systèmes linéaires. Dans le chapitre 2, nous évoquons les liens étroits entre ensembles semi-algébriques convexes et LMI,ainsi que la notion sous-jacente de convexité cachée remettant en question la traditionnelle dichomotime entre convexité et non-convexité. Dans le chapitre 3, nous décrivons les méthodes classiques permettant d'approcher les problèmes de commande linéaire robuste à l'aide des polynômes, en insistant sur l'interaction entre algèbre et géométrie. Le chapitre 4 mentionne les différents outils logiciels développés dans ce cadre. Finalement le chapitre 5 contient quelques suggestions d'axes de recherche cohérents avec ces développements.
APA, Harvard, Vancouver, ISO, and other styles
12

Ostrovskii, Dmitrii. "Reconstruction adaptative des signaux par optimisation convexe." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM004/document.

Full text
Abstract:
Nous considérons le problème de débruitage d'un signal ou d'une image observés dans le bruit gaussien. Dans ce problème les estimateurs linéaires classiques sont quasi-optimaux quand l'ensemble des signaux, qui doit être convexe et compact, est connu a priori. Si cet ensemble n'est pas spécifié, la conception d'un estimateur adaptatif qui ``ne connait pas'' la structure cachée du signal reste un problème difficile. Dans cette thèse, nous étudions une nouvelle famille d'estimateurs des signaux satisfaisant certains propriétés d'invariance dans le temps. De tels signaux sont caractérisés par leur structure harmonique, qui est généralement inconnu dans la pratique.Nous proposons des nouveaux estimateurs capables d'exploiter la structure harmonique inconnue du signal è reconstruire. Nous démontrons que ces estimateurs obéissent aux divers "inégalités d'oracle," et nous proposons une implémentation algorithmique numériquement efficace de ces estimateurs basée sur des algorithmes d'optimisation de "premier ordre." Nous évaluons ces estimateurs sur des données synthétiques et sur des signaux et images réelles
We consider the problem of denoising a signal observed in Gaussian noise.In this problem, classical linear estimators are quasi-optimal provided that the set of possible signals is convex, compact, and known a priori. However, when the set is unspecified, designing an estimator which does not ``know'' the underlying structure of a signal yet has favorable theoretical guarantees of statistical performance remains a challenging problem. In this thesis, we study a new family of estimators for statistical recovery of signals satisfying certain time-invariance properties. Such signals are characterized by their harmonic structure, which is usually unknown in practice. We propose new estimators which are capable to exploit the unknown harmonic structure of a signal to reconstruct. We demonstrate that these estimators admit theoretical performance guarantees, in the form of oracle inequalities, in a variety of settings.We provide efficient algorithmic implementations of these estimators via first-order optimization algorithm with non-Euclidean geometry, and evaluate them on synthetic data, as well as some real-world signals and images
APA, Harvard, Vancouver, ISO, and other styles
13

Durante, Valentin. "Optimisation convexe pour les modèles graphiques discrets." Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30323.

Full text
Abstract:
Les modèles graphiques définissent une famille de formalismes et d'algorithmes utilisés en particulier pour le raisonnement logique et probabiliste, dans des domaines aussi variés que l'analyse d'image ou le traitement du langage naturel. Ils sont capables d'être appris à partir de données, donnant une information probabiliste qui peut ensuite être combinée avec des informations logiques. L'objectif de la thèse est d'améliorer l'efficacité des algorithmes de raisonnement sur ces modèles afin d'augmenter la puissance du mécanisme de raisonnement fondamental utilisé dans ces outils (le calcul de minorant) en exploitant les progrès réalisés ces dernières années dans le domaine de l'optimisation convexe. Ceci devrait permettre de résoudre des problèmes jusqu'ici hors de portée de nos outils les plus efficaces
Graphical models define a family of formalisms and algorithms used for logical and probabilistic reasoning, in fields as varied as image analysis or natural language processing. They can be learned from data, giving probabilistic information which can later be combined with logical information. The objective of the thesis is to improve the efficiency of the reasoning algorithms on these models in order to increase the power of the fundamental reasoning mechanism used in these tools (minorant computation) by exploiting the progress made in the field of convex optimisation. We should be able to solve problems that are currently beyond the reach of our most efficient tools
APA, Harvard, Vancouver, ISO, and other styles
14

Melliani, Mohamed. "Analyse numérique d'algorithmes proximaux généralisés en optimisation convexe." Rouen, 1997. http://www.theses.fr/1997ROUES030.

Full text
Abstract:
La thèse a pour objet l'étude d'une généralisation de l'algorithme du point proximal en optimisation convexe tant d'un point de vue théorique que numérique. L'équivalent de cette généralisation pour l'algorithme de Tikhonov est également proposé. S'inscrivant, dans un premier temps, dans le cadre de la convergence variationnelle, la méthode proximale généralisée est tout d'abord combinée avec les méthodes des pénalités. Puis, lorsqu'appliquée au problème dual, elle permet d'obtenir de nouvelles méthodes de multiplicateurs, différentes de celles introduites par Eckstein et Teboulle. Ces méthodes des multiplicateurs englobent, en particulier, la méthode de Hestenes et Powell, celle de Rockafellar et certaines des méthodes de Kort et Bertsekas.
APA, Harvard, Vancouver, ISO, and other styles
15

Prochazka, Hynek. "Synthèse de régulateurs numériques robustes multivariables par optimisation convexe." Phd thesis, Grenoble INPG, 2004. http://tel.archives-ouvertes.fr/tel-00169982.

Full text
Abstract:
La thèse concerne essentiellement les méthodes de synthèse de régulateurs numériques robustes, monovariables ou multivariables, pour la commande des procédés temps-continu. Pour la synthèse, il est supposé que l'on dispose d'un modèle linéaire échantillonné (discrétisé) du procédé continue à commander. La robustesse de régulateur est traitée par l'analyse fréquentielle des sensibilités (fonctions/matrices de transfert de la boucle fermée). Comme dans le cas de la commande H∞, les valeurs singulières des réponses fréquentielles sont examinées pour ces analyses.

Le mémoire est divisé en cinq parties. La première partie concerne les systèmes monovariables et le reste est concentré sur les problèmes de synthèse dans le domaine multivariable. Les cinq parties traitent les problématiques suivantes:

• La première partie (Chapitre 2) touche la synthèse de régulateurs robustes monovariables par le placement de pôles, le calibrage de sensibilités et l'optimisation convexe [LK98, LL99]. Elle présente une nouvelle approche de la synthèse par placement de pôles en utilisant les filtres bande-étroite du 2$^e$ ordre et un logiciel associé développé dans le cadre de ce travail. Le logiciel reflète les améliorations apportées qui ont radicalement simplifiées la procédure de synthèse. La section qui concerne l'optimisation convexe rappelle les principes est introduit la notation utilisée ultérieurement pour la théorie multivariable.
• La deuxième partie (Chapitre 3 et 4) évoque la théorie fondamentale de la commande multivariable et développe l'idée de la synthèse de régulateurs robustes multivariables par placement de pôles et calibrage des sensibilités. Le régulateur a la forme d'observateur avec le retour des états estimés et il est utilisé dans la suite comme le régulateur central pour la synthèse de régulateurs par optimisation convexe.
• La troisième partie (Chapitre 5) est la partie essentielle et elle développe la méthode de synthèse de régulateurs robustes multivariables par calibrage de sensibilités et optimisation convexe. La méthode est basée sur la même principe que celui utilisé dans le domaine monovariable [Lan98, LL99] et elle est réalisé comme une boite à outils interactive pour Matlab. Le placement de pôles multivariable est aussi intégré dans cette application. Le logiciel développé fait partie de la thèse et il est brièvement décrit dans ce chapitre.
• La quatrième partie (Chapitre 6) traite la synthèse par optimisation convexe du pré-compensateur multivariable pour la poursuite. Le pré-com\-pen\-sa\-teur nous permet de séparer les spécifications sur la robustesse (rejet de perturbations et traitement des incertitudes) et les spécifications sur la poursuite (temps de montée, dépassement maximal).
• La cinquième partie (Chapitre 7) concerne la technique de réduction des régulateurs multivariables par identification en boucle fermée. La méthode développée fait suite à un approche similaire développé pour les régulateurs monovariables dans [LKC01].
APA, Harvard, Vancouver, ISO, and other styles
16

Álvarez, Daziano Felipe. "Systèmes dynamiques dissipatifs et méthodes d'approximation en optimisation convexe." Montpellier 2, 1998. http://www.theses.fr/1998MON20241.

Full text
Abstract:
Dans la premiere partie de cette these on etudie le comportement asymptotique des trajectoires de systemes dynamiques dissipatifs associes a l'etude de problemes d'optimisation convexes en dimension finie et infinie. On considere tout d'abord la methode de newton continue pour laquelle on montre, sous des hypotheses de forte convexite, que les trajectoires convergent vers l'unique minimum. On construit un nouveau systeme couplant la methode de newton avec des schemas d'approximation, ce qui permet de selectionner des solutions particulieres dans le cas de problemes d'optimisation mal poses en unicite. On etudie d'autre part le systeme de la boule pesante avec frottement, un systeme oscillant amorti, dont on montre la convergence faible des trajectoires vers des optima. Des versions discretes des systemes dynamiques precedents sont etudies pour lesquels on obtient des resultats de convergence similaires. Dans la deuxieme partie, on considere des methodes d'approximation pour certaines classes de problemes variationnels. En dimension finie, on etudie la methode de penalisation exponentielle en programmation mathematique convexe, et l'on montre que cette methode selectionne a la limite une solution particuliere que l'on caracterise par un schema hierarchique de problemes min-max. En dimension infinie, on etudie l'approximation l#p du probleme de l'extension lipschitzienne minimale, dans le cas non homogene. On obtient un resultat de selection, utilisant la notion de solution de viscosite pour une equation elliptique degeneree. Enfin, on etudie l'homogeneisation de problemes d'elasticite non lineaire par des methodes directes de -convergence.
APA, Harvard, Vancouver, ISO, and other styles
17

Lebret, Hervé. "Synthese de diagrammes de reseaux d'antennes par optimisation convexe." Rennes 1, 1994. http://www.theses.fr/1994REN10153.

Full text
Abstract:
Cette these montre que de tres nombreux problemes de synthese de diagrammes de reseaux d'antennes peuvent etre resolus par des techniques numeriques d'optimisation convexe. En effet, les reseaux d'antennes consideres peuvent avoir une geometrie quelconque et les diagrammes elementaires des antennes peuvent etre tres generaux. Ces reseaux peuvent egalement etre a fonctionnement large bande. Les questions importantes de robustesse sont egalement abordees. Enfin on peut noter que les methodes numeriques utilisees sont applicables a de nombreux autres techniques de l'ingenieur, notamment a la synthese de filtres. La convexite est une notion mathematique fondamentale qui n'a guere ete utilisee dans le domaine des reseaux d'antennes. Elle a pourtant deux proprietes essentielles qui sont exposees dans ce rapport: tout d'abord elle garantit toujours une optimalite globale, c'est a dire que tout minimum local d'une fonction convexe est un minimum global ; ensuite la convexite permet d'obtenir des informations detaillees sur l'optimisation grace a la theorie de la dualite. Bien que ces problemes n'aient pas de solution analytique, ils peuvent etre traites numeriquement, et de maniere plus efficace encore depuis l'apparition recente de nouveaux algorithmes: il s'agit de la famille des algorithmes de l'ellipsoide et des tres efficaces methodes de points interieurs. De nombreuses simulations effectuees avec ces deux groupes d'algorithmes sont presentees, en particulier le probleme classique de la minimisation des lobes secondaires. D'autres simulations traitent de la valeur des poids et de minimisation de puissance
APA, Harvard, Vancouver, ISO, and other styles
18

Cadoux, Florent. "Optimisation et analyse convexe pour la dynamique non-régulière." Phd thesis, Grenoble 1, 2009. http://www.theses.fr/2009GRE10231.

Full text
Abstract:
L'objectif de ce travail est de proposer une nouvelle approche pour la résolution du problème de contact unilatéral avec frottement de Coulomb tridimensionnel en mécanique des solides. On s'intéresse à des systèmes dynamiques composés de plusieurs corps possédant un nombre fini de degrés de liberté: rigides, ou déformables qui sont des approximations spatiales de modèles continus. Le frottement entre les corps est modélisé en utilisant une formulation classique de la loi de Coulomb. Après discrétisation en temps (ou approximation quasi-statique), on obtient à chaque pas de temps un problème contenant des équations de complémentarité sur un produit de cônes du second ordre, et d'autres équations. Plusieurs méthodes de résolution ont été proposées pour différentes formulations équivalentes de ce problème, en particulier par Moreau, Alart et Curnier, et De Saxcé. En considérant les équations de complémentarité comme celles des conditions d'optimalité (KKT) d'un problème d'optimisation, on propose une reformulation équivalente nouvelle sous forme d'un problème de minimisation paramétrique convexe couplé avec un problème de point fixe. Grâce à ce point de vue, on démontre l'existence de solutions sous une hypothèse assez faible, et vérifiable en pratique. De plus, on peut souvent calculer effectivement l'une de ces solutions en résolvant numériquement l'équation de point fixe. Les performances de cette approche sont comparées à celles des méthodes existantes
The aim of this work is to propose a new approach to the solution of 3D unilateral contact problems with Coulomb friction in solid mechanics. We consider dynamical systems composed of several bodies with a finite number of degrees of freedom: rigid bodies, or deformable bodies which are spatial approximations of continuous models. Friction between bodies is modelled using a classical formulation of Coulomb's law. After time discretization (or quasi-static approximation), we get at each time step a problem containing complementarity equations posed on a product of second order cones, plus other equations. Several methods have been proposed in the literature for different equivalent formulations of this problem, in particular by Moreau, Alart and Curnier, and De Saxcé. Considering the complementarity equations as optimality conditions (KKT) of an optimization problem, we propose a new equivalent reformulation as a parametric convex minimization problem coupled with a fixed point problem. Thanks to this viewpoint, we prove the existence of solutions under a quite mild assumption which can be checked in practice. Moreover, we can practically compute one of these solutions by solving numerically the fixed point equation. The performance of this approach is compared with existing methods
APA, Harvard, Vancouver, ISO, and other styles
19

Cadoux, Florent. "Optimisation et analyse convexe pour la dynamique non-régulière." Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00440798.

Full text
Abstract:
L'objectif de ce travail est de proposer une nouvelle approche pour la résolution du problème de contact unilatéral avec frottement de Coulomb tridimensionnel en mécanique des solides. On s'intéresse à des systèmes dynamiques composés de plusieurs corps possédant un nombre fini de degrés de liberté: rigides, ou déformables qui sont des approximations spatiales de modèles continus. Le frottement entre les corps est modélisé en utilisant une formulation classique de la loi de Coulomb. Après discrétisation en temps (ou approximation quasi-statique), on obtient à chaque pas de temps un problème contenant des équations de complémentarité sur un produit de cônes du second ordre, et d'autres équations. Plusieurs méthodes de résolution ont été proposées pour différentes formulations équivalentes de ce problème, en particulier par Moreau, Alart et Curnier, et De Saxcé. En considérant les équations de complémentarité comme celles des conditions d'optimalité (KKT) d'un problème d'optimisation, on propose une reformulation équivalente nouvelle sous forme d'un problème de minimisation paramétrique convexe couplé avec un problème de point fixe. Grâce à ce point de vue, on démontre l'existence de solutions sous une hypothèse assez faible, et vérifiable en pratique. De plus, on peut souvent calculer effectivement l'une de ces solutions en résolvant numériquement l'équation de point fixe. Les performances de cette approche sont comparées à celles des méthodes existantes.
APA, Harvard, Vancouver, ISO, and other styles
20

El, Gueddari Loubna. "Proximal structured sparsity regularization for online reconstruction in high-resolution accelerated Magnetic Resonance imaging." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS573.

Full text
Abstract:
L'imagerie par résonance magnétique (IRM) est la technique d'imagerie médicale de référence pour sonder in vivo et non invasivement les tissus mous du corps humain, en particulier le cerveau.L'amélioration de la résolution de l'IRM en un temps d'acquisition standard (400µm isotrope en 15 minutes) permettrait aux médecins d'améliorer considérablement leur diagnostic et le suivi des patients. Cependant, le temps d'acquisition en IRM reste long. Pour réduire ce temps, la récente théorie de l'échantillonnage comprimée (EC) a révolutionné la façon d'acquérir des données dans plusieurs domaines dont l'IRM en surmontant le théorème de Shannon-Nyquist. Avec l'EC, les données peuvent alors être massivement sous-échantillonnées tout en assurant des conditions optimales de reconstruction des images.Dans ce contexte, les thèses de doctorat précédemment soutenue au sein du laboratoire ont été consacrées à la conception et à la mise en oeuvre de scénarios d'acquisition physiquement plausibles pour accélérer l'acquisitions. Un nouvel algorithme d'optimisation pour la conception de trajectoire non cartésienne avancée appelée SPARKLING pour Spreading Projection Algorithm for Rapid K-space samplING en est né. Les trajectoires SPARKLING générées ont conduit à des facteurs d'accélération allant jusqu'à 20 en 2D et 70 pour les acquisitions 3D sur des images à haute résolution pondérées en T*₂ acquises à 7 Tesla. Ces accélérations n'étaient accessibles que grâce au rapport signal/bruit d'entrée élevé fourni par l'utilisation de bobines de réception multi-canaux (IRMp). Cependant, ces résultats ont été obtenus au détriment d'une reconstruction longue et complexe. Dans cette thèse, l'objectif est de proposer une nouvelle approche de reconstruction en ligne d'images acquies par IRMp non cartésiennes. Pour atteindre cet objectif, nous nous appuyons sur une approche en ligne où reconstruction et acquisition s'entremèlent. Par conséquent, la reconstruction débute avant la fin de l'acquisition et un résultat partiel est délivré au cours de l'examen. L'ensemble du pipeline est compatible avec une implémentation réelle à travers l'interface Gadgetron pour produire les images reconstruites à la console du scanner.Ainsi, après avoir exposé la théorie de l'échantillonage comprimé, nous présentons l'état de l'art de la méthode dédiée à la reconstruction en imagerie multi-canaux. En particulier, nous nous concentrerons d'abord sur les méthodes d'autocalibration qui présentent l'avantage d'être adaptées à l'échantillonnage non cartésien et nous proposons une méthode simple mais efficace pour estimer le profil de sensibilité des différents cannaux. Cependant, en raison de leur dépendance au profil de sensibilité, ces méthodes ne sont pas adapatable à la reconstruction en ligne. Par conséquent, la deuxième partie se concentre sur la suppression des ces profils et celà grâce à l'utilisation de norme mixte promouvant une parcimonie structurée. Ensuite, nous adaptons différentes réularization basées sur la parcimonie structurée pour reconstruire ces images fortement corrélées. Enfin, la méthode retenue sera appliquée à l'imagerie en ligne
Magnetic resonance imaging (MRI) is the reference medical imaging technique for probing in vivo and non-invasively soft tissues in the human body, notably the brain. MR image resolution improvement in a standard scanning time (e.g., 400µm isotropic in 15 min) would allow medical doctors to significantly improve both their diagnosis and patients' follow-up. However the scanning time in MRI remains long, especially in the high resolution context. To reduce this time, the recent Compressed Sensing (CS) theory has revolutionized the way of acquiring data in several fields including MRI by overcoming the Shannon-Nyquist theorem. Using CS, data can then be massively under-sampled while ensuring conditions for optimal image recovery.In this context, previous Ph.D. thesis in the laboratory were dedicated to the design and implementation of physically plausible acquisition scenarios to accelerate the scan. Those projects deliver new optimization algorithm for the design of advanced non-Cartesian trajectory called SPARKLING: Spreading Projection Algorithm for Rapid K-space samplING. The generated SPARKLING trajectories led to acceleration factors up to 20 in 2D and 60 for 3D-acquisitions on highly resolved T₂* weighted images acquired at 7~Tesla.Those accelerations were only accessible thanks to the high input Signal-to-Noise Ratio delivered by the usage of multi-channel reception coils. However, those results are coming at a price of long and complex reconstruction.In this thesis, the objective is to propose an online approach for non-Cartesian multi-channel MR image reconstruction. To achieve this goal we rely on an online approach where the reconstruction starts from incomplete data.Hence acquisition and reconstruction are interleaved, and partial feedback is given during the scan. After exposing the Compressed Sensing theory, we present state-of the art method dedicated to multi-channel coil reconstruction. In particular, we will first focus on self-calibrating methods that presents the advantage to be adapted to non-Cartesian sampling and we propose a simple yet efficient method to estimate the coil sensitivity profile.However, owing to its dependence to user-defined parameters, this two-step approach (extraction of sensitivity maps and then image reconstruction) is not compatible with the timing constraints associated with online reconstruction. Then we studied the case of calibration-less reconstruction methods and splits them into two categories, the k-space based and the domain-based. While the k-space calibration-less method are sub-optimal for non-Cartesian reconstruction, due to the gridding procedure, we will retain the domain-based calibration-less reconstruction and prove theirs for online purposes. Hence in the second part, we first prove the advantage of mixed norm to improve the recovery guarantee in the pMRI setting. Then we studied the impact of structured sparse induced norm on the reconstruction multi-channel purposes, where then and adapt different penalty based on structured sparsity to handle those highly correlated images. Finally, the retained method will be applied to online purposes. The entire pipeline, is compatible with an implementation through the Gadgetron pipeline to deliver the reconstruction at the scanner console
APA, Harvard, Vancouver, ISO, and other styles
21

Royer, Martin. "Optimalité statistique du partitionnement par l'optimisation convexe." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS442/document.

Full text
Abstract:
Ces travaux traitent de la problématique du partitionnement d'un ensemble d'observations ou de variables en groupes d'éléments similaires. Elle sert de nombreuses applications essentielles comme la classification de gènes en biologie ou l'apprentissage automatique en analyse d'image. Les travaux modélisent la notion de similarité entre éléments pour analyser les propriétés statistiques d'algorithmes de partitionnement, comme l'estimateur des K-moyennes. Ce dernier est équivalent au maximum de vraisemblance quand les groupes considérés sont homoscedastiques ; dans le cas contraire, on s'aperçoit que l'estimateur est biaisé, en ce qu'il tend à séparer les groupes ayant une plus grande dispersion. En utilisant une formulation équivalente qui fait intervenir l'optimisation semi-définie positive, on propose une correction opérationnelle de ce biais. On construit et étudie ainsi des algorithmes de complexité polynomiale qui sont quasi-minimax pour le partitionnement exact dans les deux contextes étudiés. Ces résultats s'interprètent dans le cadre de modèles standards comme le modèle de mélange ou le modèle à variables latentes, et s'étendent à de nouveaux modèles plus généraux et plus robustes, les modèles $G$-block. Les contrôles peuvent être adaptés au nombre intrinsèque de groupes, ainsi qu'à la dimension effective de l'espace des données. Ils apportent une meilleure compréhension d'estimateurs classiques du partitionnement comme les estimateurs spectraux. Ils sont appuyés par des expériences extensives sur données de synthèse, ainsi que sur des jeux de données réelles. Enfin lorsqu'on cherche à améliorer l'efficacité computationnelle des algorithmes étudiés, on peut utiliser une connexion forte avec le domaine de l'optimisation convexe et notamment exploiter des techniques de relaxation de faible rang motivées par des problématiques de grande dimension
This work focuses on the problem of point and variable clustering, that is the grouping of either similar vectors or similar components of a vector in a metric space. This has applications in many relevant fields including pattern recognition in image analysis or gene expression data classification. Through adequate modeling of the similarity between points or variables within a cluster we analyse the statistical properties of known clustering algorithms such as K-means.When considering homoscedastic elements for all groups the K-means algorithm is equivalent to a maximum-likelihood procedure. Otherwise the algorithm shows bias in the sense that it tends to separate groups with larger dispersion, regardless of actual group separation. By using a semi definite positive reformulation of the estimator, we suggest a pattern of correction for the algorithm that leads to the construction of computational algorithm with quasiminimax properties for hard clustering of points or variables.Those results can be studied under the classical mixture model or latent variables model, and can be extended to more general and robust class of $G$-block models. The stochastic controls can be made adaptive to the unknown number of classes as well as to the effective dimension of the problem. They help understand the behavior of the class of spectral estimators that are also widely used for clustering problems. They are supported by extensive simulation studies as well as data analysis stemming from the biological field.When focus is brought on the computational aspect of those algorithms, we exploit ideas based on a strong connexion with the domain of convex optimisation and specifically the technique of low-rank relaxation, of importance when dealing with high dimensional problems
APA, Harvard, Vancouver, ISO, and other styles
22

Cornejo, Zuniga Oscar. "Conditionnement et algorithmes proximaux en localisation et optimisation non convexe." Dijon, 2000. http://www.theses.fr/2000DIJOS015.

Full text
Abstract:
Cette thèse est consacrée à l'étude du conditionnement des problèmes d'optimisation et à l'étude de plusieurs algorithmes en optimisation non différentiable. Dans la première partie on étudie le conditionnement des fonctions semi-continues inférieurement. On étend la notion d'application multivoque sur-Lipschitz et on montre, en travaillant avec un sous différentiel abstrait défini de façon axiomatique, que le conditionnement local d'une fonction, a priori non convexe, est assure par la propriété de sur-Lipschitz de l'inverse de son sous différentiel. Dans le cas convexe on obtient plusieurs caractérisations primales et duales du conditionnement global. On retrouve ainsi certains résultats de b. Lemaire, de r. Zhang et de J. Traiman. Dans la seconde partie, on propose une approche proximale pour résoudre une famille de problèmes de localisation de type minimax. On montre qu'une reformulation adéquate du problème permet de construire un schéma de dualité au sens de Fenchel. On en déduit alors des conditions d'optimalité qui peuvent être résolues par un algorithme proximal. Cette approche permet de résoudre des problèmes faisant intervenir des normes ou jauges mixtes. Elle permet aussi de prendre en compte une grande variété de contraintes convexes et conduit à des calculs qui peuvent être effectues en parallèle. La troisième partie est consacrée à l'étude d'un algorithme pour trouver un point critique d'une fonction semi-continue inférieurement non convexe. En utilisant la moreau régularisation ainsi que des résultats sur les fonctions composites et sur la résolution des systèmes d'équations non différentiables, on obtient un algorithme qui converge vers un point critique pour des fonctions d'un type particulier, appelées fonctions r-prox-régulières. On montre que, dans certains cas, la convergence est superlinéaire.
APA, Harvard, Vancouver, ISO, and other styles
23

Hbaïeb, Slim. "Analyse de cahier des charges en automatique par optimisation convexe." Paris 11, 2002. http://www.theses.fr/2002PA112137.

Full text
Abstract:
Les travaux présentés dans ce mémoire portent sur l'analyse de faisabilité de cahier des charges en automatique linéaire continu. Deux approches ont été développées : une approche "trajectoires" qui permet d'étudier les limites de performances intrinsèques atteignables en entrées sorties d'un système, et une approche "transfert" qui permet d'étudier la compatibilité de spécifications temporelles et fréquentielles exprimées en entrées sorties du système bouclé. Cette deuxième approche utilise la paramétrisation de Youla. Une interprétation physique basée sur une présentation originale est présentée. Un formalisme mathématique pour l'approximation des problèmes d'optimisation de dimensions infinies a été développé. Nous avons distingué deux classes d'approximation : avec garantie de convergence simple et avec garantie de convergence uniforme. Les deux permettent de résoudre de manière effective les problèmes d'optimisations considérés. Nous présentons et comparons les avantages et les inconvénients de ces approches. Des expressions en dimensions finies de ces problèmes sous formes linéaires, quadratiques ou LMI ont été développées pour la résolution numérique. Les techniques développées ont en particulier été appliquées pour un cas industriel : "la régulation du niveau d'eau dans un générateur de vapeur pour un réacteur à eau pressurisé". Ce travail a été mené en collaboration avec le département contrôle commande EDF Chatou
This PhD thesis deals with the analysis of specifications for linear continuous time control design. Two complementary approaches are developed: the first uses the input output trajectories as parameters and allows to study the limits of performances reachable by a given system; the second uses closed loop transfers as parameters and allows to analyze compatibility of several input output demands in time and frequency domains. A physical interpretation of Youla parameterization, used in this approach, is introduced too. A mathematical framework for finite dimensional approximation problems is developed. Tow kind of approximations were formulated: the first has simple convergence properties and the second has uniform convergence properties. Both allow to solve effectively the considered optimization problems. Advantages and drawbacks of each approach are presented and compared. Finite dimensional formulation in term of linear, quadratic or LM constrained optimization problems are developed for numerical application. These techniques are applied to an industrial case: "the steam generator water level control of a pressurized water reactor". This study was realized in collaboration with the department of "controle commande EDF Chatou". Keywords: feasibility, specifications, convex optimization, linear system, Youla parameterization, finite dimensional approximation, steam generator
APA, Harvard, Vancouver, ISO, and other styles
24

Hadj-Saïd, Souad. "Optimisation énergétique Convexe pour véhicule Hybride électrique : vers une solution analytique." Thesis, Orléans, 2018. http://www.theses.fr/2018ORLE2028/document.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de la gestion d'énergie d'un Véhicule Hybride Électrique. Pour ce type de véhicule, l'optimisation énergétique est un enjeu majeur. Cela consiste à calculer les commandes optimales minimisant la consommation énergétique du véhicule sous un nombre fini de contraintes. Deux types de méthodes peuvent être utilisées pour résoudre ce problème d'optimisation. La première méthode et la plus utilisée, la méthode numérique, utilisant des modèles cartographiques basés sur des données. Elle présente deux inconvénients majeurs: temps de calcul et mémoire importants. La deuxième méthode, appelée analytique, qui permet de remédier à ces deux problèmes, a été utilisée dans cette thèse. Plus l'architecture du véhicule devient complexe (plusieurs machines électriques, moteur thermique, élévateur de tension), plus l'intérêt de cette approche sera important. La méthodologie analytique, proposée dans cette thèse, est composée principalement de trois étapes : la modélisation convexe, le calcul analytique des commandes et la validation des commandes analytiques sur un simulateur de véhicule. Cette méthodologie a été appliquée sur les trois configurations possibles du véhicule étudié : parallèle, bi-parallèle et série. Finalement, l'ajout de l'élévateur de tension dans la gestion d'énergie ainsi que l'étude de son impact sur la consommation énergétique du véhicule sont présentés dans le dernier chapitre. Les résultats obtenus en simulation montrent que la méthode analytique a permis de réduire considérablement le temps de calcul tout en ayant une sous-optimalité très faible
This thesis focuses on the energy management of Hybrid Electric Vehicle. In this type of vehicle, energy optimization is a major challenge. It consists of calculating optimal commands that minimize the vehicle’s energy consumption under a finite number of constraints. The optimization issue could be solved using a digital method or an analytical method. This choice depends on the nature of energy models that monitor the optimization criteria: analytical or maps of experimental measurements. However, this method presents numerous disadvantages. Its calculation is extremely time-consuming for instance. Therefore, the works presented in this thesis were directed in order to develop an analytical solution where the calculation is lesstime consuming. The architecture of the vehicle is complex. In fact, the vehicle contains two electrical machines, a thermal engine and a step-up. These components have all a straight impact on the vehicle’s energy consumption so several optimization variables were defining. Consequently, working on an analytical solution was a natural choice. The proposed analytical methodology consists of three steps: convex modeling, the command analytical calculation as well as the analytical command validation on a vehicle simulator. This methodology was applied to three possible configurations of the studied vehicle: parallel, biparallel and in serial. Finally, the step-up addition to the energy management as well as the study of itsimpact on the vehicle’s energy consumption are presented in the last chapter. The simulation results show that the analytical method reduces considerably the computing time and has an extremely low suboptimality
APA, Harvard, Vancouver, ISO, and other styles
25

Zaourar, Sofia. "Optimisation convexe non-différentiable et méthodes de décomposition en recherche opérationnelle." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM099.

Full text
Abstract:
Les méthodes de décomposition sont une application du concept de diviser pour régner en optimisation. L'idée est de décomposer un problème d'optimisation donné en une séquence de sous-problèmes plus faciles à résoudre. Bien que ces méthodes soient les meilleures pour un grand nombre de problèmes de recherche opérationnelle, leur application à des problèmes réels de grande taille présente encore de nombreux défis. Cette thèse propose des améliorations méthodologiques et algorithmiques de méthodes de décomposition. Notre approche est basée sur l'analyse convexe et l'optimisation non-différentiable. Dans la décomposition par les contraintes (ou relaxation lagrangienne) du problème de planification de production électrique, même les sous-problèmes sont trop difficiles pour être résolus exactement. Mais des solutions approchées résultent en des prix instables et chahutés. Nous présentons un moyen simple d'améliorer la structure des prix en pénalisant leurs oscillations, en utilisant en particulier une régularisation par variation totale. La consistance de notre approche est illustrée sur des problèmes d'EDF. Nous considérons ensuite la décomposition par les variables (ou de Benders) qui peut avoir une convergence excessivement lente. Avec un point de vue d'optimisation non-différentiable, nous nous concentrons sur l'instabilité de l'algorithme de plans sécants sous-jacent à la méthode. Nous proposons une stabilisation quadratique de l'algorithme de Benders, inspirée par les méthodes de faisceaux en optimisation convexe. L'accélération résultant de cette stabilisation est illustrée sur des problèmes de conception de réseau et de localisation de plates-formes de correspondance (hubs). Nous nous intéressons aussi plus généralement aux problèmes d'optimisation convexe non-différentiable dont l'objectif est coûteux à évaluer. C'est en particulier une situation courante dans les procédures de décomposition. Nous montrons qu'il existe souvent des informations supplémentaires sur le problème, faciles à obtenir mais avec une précision inconnue, qui ne sont pas utilisées dans les algorithmes. Nous proposons un moyen d'incorporer ces informations incontrôlées dans des méthodes classiques d'optimisation convexe non-différentiable. Cette approche est appliquée avec succès à desproblèmes d'optimisation stochastique. Finalement, nous introduisons une stratégie de décomposition pour un problème de réaffectation de machines. Cette décomposition mène à une nouvelle variante de problèmes de conditionnement vectoriel (vectorbin packing) où les boîtes sont de taille variable. Nous proposons des heuristiques efficaces pour ce problème, qui améliorent les résultats de l'état de l'art du conditionnement vectoriel. Une adaptation de ces heuristiques permet de construire des solutions réalisables au problème de réaffectation de machines de Google
Decomposition methods are an application of the divide and conquer principle to large-scale optimization. Their idea is to decompose a given optimization problem into a sequence of easier subproblems. Although successful for many applications, these methods still present challenges. In this thesis, we propose methodological and algorithmic improvements of decomposition methods and illustrate them on several operations research problems. Our approach heavily relies on convex analysis and nonsmooth optimization. In constraint decomposition (or Lagrangian relaxation) applied to short-term electricity generation management, even the subproblems are too difficult to solve exactly. When solved approximately though, the obtained prices show an unstable noisy behaviour. We present a simple way to improve the structure of the prices by penalizing their noisy behaviour, in particular using a total variation regularization. We illustrate the consistency of our regularization on real-life problems from EDF. We then consider variable decomposition (or Benders decomposition), that can have a very slow convergence. With a nonsmooth optimization point of view on this method, we address the instability of Benders cutting-planes algorithm. We present an algorithmic stabilization inspired by bundle methods for convex optimization. The acceleration provided by this stabilization is illustrated on network design andhub location problems. We also study more general convex nonsmooth problems whose objective function is expensive to evaluate. This situation typically arises in decomposition methods. We show that it often exists extra information about the problem, cheap but with unknown accuracy, that is not used by the algorithms. We propose a way to incorporate this coarseinformation into classical nonsmooth optimization algorithms and apply it successfully to two-stage stochastic problems.Finally, we introduce a decomposition strategy for the machine reassignment problem. This decomposition leads to a new variant of vector bin packing problems, where the bins have variable sizes. We propose fast and efficient heuristics for this problem that improve on state of the art results of vector bin packing problems. An adaptation of these heuristics is also able to generate feasible solutions for Google instances of the machine reassignment problem
APA, Harvard, Vancouver, ISO, and other styles
26

Ghouali, Noureddine. "Optimisation en ligne des systemes interconnectes en etat statique." Nantes, 1988. http://www.theses.fr/1988NANT2026.

Full text
Abstract:
Presentation et mise en oeuvre de quelques methodes basees sur les techniques duales, dans lesquelles le coordonnateur doit determiner le vecteur prix, fonction de la difference entre les interactions calculees et mesurees. On propose une extension de cette technique a une large classe de problemes non convexes en introduisant l'approche par penalite deplacee
APA, Harvard, Vancouver, ISO, and other styles
27

Ghouali, Noureddine. "Optimisation en ligne des systèmes interconnectés en état statique." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37613897q.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Lazare, Arnaud. "Global optimization of polynomial programs with mixed-integer variables." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLY011.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l'étude des programmes polynomiaux, c'est à dire les problème d'optimisation dont la fonction objectif et/ou les contraintes font intervenir des polynômes de plusieurs variables. Ces problèmes ont de nombreuses applications pratiques et constituent actuellement un champ de recherche très actif. Différentes méthodes permettent de les résoudre de façon exacte ou approchée, en utilisant par exemple des relaxationssemidéfinies positives du type "moments-somme de carrés". Mais ces problèmes restent très difficiles et on ne sait résoudre en toute généralité que des instances de petite taille.Dans le cas quadratique, une approche de résolution exacte efficace a été initialement proposée à travers la méthode QCR. Elle se base sur une reformulation quadratique convexe "optimale" au sens de la borne par relaxation continue.Une des motivations de cette thèse est de généraliser cette approche pour le cas des problèmes polynomiaux. Dans la majeure partie de ce manuscrit, nous étudions les problèmes d'optimisation en variables binaires. Nous proposons deux familles de reformulations convexes pour ces problèmes: des reformulations "directes" et des reformulations passant par la quadratisation.Pour les reformulations directes, nous nous intéressons tout d'abord aux linéarisations. Nous introduisons le concept de q-linéarisation, une linéarisation utilisant q variables additionnelles, et comparons les bornes obtenues par relaxation continue pour différentes valeurs de q. Ensuite, nous appliquons la reformulation convexe au problème polynomial, en ajoutant des termes supplémentaires à la fonction objectif, mais sans ajouter de variables ou de contraintes additionnelles.La deuxième famille de reformulations convexes vise à étendre la reformulation quadratique convexe au cas polynomial. Nous proposons plusieurs nouvelles reformulations alternatives que nous comparons aux méthodes existantes sur des instances de la littérature. En particulier nous présentons l'algorithme PQCR pour résoudre des problèmes polynomiaux binaires sans contrainte. La méthode PQCR permet de résoudre des instances jusqu'ici non résolues. En plus des expérimentations numériques, nous proposons aussi une étude théorique visant à comparer les différentes reformulations quadratiques de la littérature puis à leur appliquer une reformulation convexe.Enfin nous considérons des cas plus généraux et nous proposons une méthode permettant de calculer des relaxations convexes pour des problèmes continus
In this thesis, we are interested in the study of polynomial programs, that is optimization problems for which the objective function and/or the constraints are expressed by multivariate polynomials. These problems have many practical applications and are currently actively studied. Different methods can be used to find either a global or a heuristic solution, using for instance, positive semi-definite relaxations as in the "Moment/Sum of squares" method. But these problems remain very difficult and only small instances are addressed. In the quadratic case, an effective exact solution approach was initially proposed in the QCR method. It is based on a quadratic convex reformulation, which is optimal in terms of continuous relaxation bound.One of the motivations of this thesis is to generalize this approach to the case of polynomial programs. In most of this manuscript, we study optimization problems with binary variables. We propose two families of convex reformulations for these problems: "direct" reformulations and quadratic ones.For direct reformulations, we first focus on linearizations. We introduce the concept of q-linearization, that is a linearization using q additional variables, and we compare the bounds obtained by continuous relaxation for different values of q. Then, we apply convex reformulation to the polynomial problem, by adding additional terms to the objective function, but without adding additional variables or constraints.The second family of convex reformulations aims at extending quadratic convex reformulation to the polynomial case. We propose several new alternative reformulations that we compare to existing methods on instances of the literature. In particular we present the algorithm PQCR to solve unconstrained binary polynomial problems. The PQCR method is able to solve several unsolved instances. In addition to numerical experiments, we also propose a theoretical study to compare the different quadratic reformulations of the literature and then apply a convex reformulation to them.Finally, we consider more general problems and we propose a method to compute convex relaxations for continuous problems
APA, Harvard, Vancouver, ISO, and other styles
29

Sudhakara, Murthy Prasad. "Modèles Parcimonieux et Optimisation Convexe pour la Séparation Aveugle de Sources Convolutives." Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00586610.

Full text
Abstract:
La séparation aveugle de sources à partir de mélanges sous-déterminés se fait traditionnellement en deux étapes: l'estimation des filtres de mélange, puis celle des sources. L'hypothèse de parcimonie temps-fréquence des sources facilite la séparation, qui reste cependant difficile dans le cas de mélanges convolutifs à cause des ambiguités de permutation et de mise à l'échelle. Par ailleurs, la parcimonie temporelle des filtres facilite les techniques d'estimation aveugle de filtres fondées sur des corrélations croisées, qui restent cependant limitées au cas où une seule source est active. Dans cette thèse, on exploite conjointement la parcimonie des sources et des filtres de mélange pour l'estimation aveugle de filtres parcimonieux à partir de mélanges convolutifs stéréophoniques de plusieurs sources. Dans un premier temps, on montre comment la parcimonie des filtres permet de résoudre le problème de permutation, en l'absence de problème de mise à l'échelle. Ensuite, on propose un cadre constitué de deux étapes pour l'estimation, basé sur des versions temps-fréquence de la corrélation croisée et sur la minimisation de norme ℓ1: a) un clustering qui regroupe les points temps-fréquence où une seule source est active; b) la résolution d'un problème d'optimisation convexe pour estimer les filtres. La performance des algorithmes qui en résultent est évalués numériquement sur des problèmes de filtre d'estimation de filtres et de séparation de sources audio.
APA, Harvard, Vancouver, ISO, and other styles
30

Al, Sarray Basad. "Estimation et choix de modèle pour les séries temporelles par optimisation convexe." Besançon, 2016. http://www.theses.fr/2016BESA2084.

Full text
Abstract:
Les séries temporelles sont définies comme une séquence ordonnée d’observation à travers le temps. La structure des séries temporelles est représentée par la somme des composantes indépendantes. Généralement, ces composantes sont estimées indépendamment les unes des autres chaque composant fait partie d’une catégorie particulière. Les modèles Auto régressifs et Moyenne Mobile sont utilisées pour la modélisation des séries chronologiques il y a un grand nombre d’applications telle que le traitement du signal, la finance, l’imagerie médicale le radar, et la communication. […] Cette étude présente quelques-unes des méthodes d’apprentissage machine, et des méthodes convexes pour la sélection de modèle ARMA et l’estimation est basée sur la conversion des modèles ARMA-AR et des modèles ARMA aux modèle espace d’état. […]
[…] this study presents some of machine learning and convex methodes for ARMA model selection and estimation based on the conversion between ARMA –AR models and ARMA-State Space Models. Also in this study, for a time series decomposition and time series components analysis some of convex methods are implemented and simulated. The results show the ability of convex methods of analysing and modelling a given series
APA, Harvard, Vancouver, ISO, and other styles
31

Plassart, Stéphan. "Optimisation en-ligne pour les systèmes dynamiques en temps-réel." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM017.

Full text
Abstract:
La consommation d'énergie est un enjeu crucial pour les systèmes temps réel,c'est pourquoi l'optimisation en ligne, c'est-à-dire pendant l'exécution du processeur, est devenue essentielle et sera le but de cette thèse.Cette optimisation se fait en adaptant la vitesse du processeur lors de l'exécution des tâches.Cette thèse aborde plusieurs situations avec des connaissances différentes sur les caractéristiques des tâches passées, actuelles et futures.Tout d'abord, nous considérons que toutes les caractéristiques des tâches sont connues (le cas hors ligne),et nous proposons un algorithme linéaire en temps pour déterminer les choix de vitesses pour exécuter n tâches sur un seul processeur.Deuxièmement, en utilisant les processus de décision de Markov, nous résolvons le cas où les caractéristiques des tâches passées et actuelles sont entièrement connues,et pour les futures tâches, seule la distribution de probabilité des caractéristiques des tâches (heures d'arrivée, temps d'exécution et délais) est connue.Troisièmement, nous étudions un cas plus général : le temps d'exécution n'est découvert que lorsque la tâche est terminée.En outre, nous considérons également le cas où nous n'avons aucune connaissance statistique des tâches,nous devons donc utiliser des méthodes d'apprentissage pour déterminer les vitesses optimales du processeur en ligne.Enfin, nous proposons une analyse de faisabilité (la capacité du processeur à exécuter toutes les tâches avant leurs échéances quand il fonctionne toujours à vitesse maximale) de plusieurs politiques en ligne classiques,et nous montrons que notre algorithme de programmation dynamique est également le meilleur en terme de faisabilité
The energy consumption is a crucial issue for real-time systems,that's why optimizing it online, i.e. while the processor is running, has become essential and will be the goal of this thesis.This optimization is done by adapting the processor speed during the job execution.This thesis addresses several situations with different knowledge on past, active and future job characteristics.Firstly, we consider that all job characteristics are known (the offline case),and we propose a linear time algorithm to determine the speed schedule to execute n jobs on a single processor.Secondly, using Markov decision processes, we solve the case where past and active job characteristics are entirely known,and for future jobs only the probability distribution of the jobs characteristics (arrival times, execution times and deadlines) are known.Thirdly we study a more general case: the execution is only discovered when the job is completed.In addition we also consider the case where we have no statistical knowledge on jobs,so we have to use learning methods to determine the optimal processor speeds online.Finally, we propose a feasibility analysis (the processor ability to execute all jobs before its deadline when it works always at maximal speed) of several classical online policies,and we show that our dynamic programming algorithm is also the best in terms of feasibility
APA, Harvard, Vancouver, ISO, and other styles
32

Haddou, Mounir. "Contribution à l'étude des méthodes de décomposition et de barrières en optimisation convexe." Clermont-Ferrand 2, 1995. http://www.theses.fr/1995CLF21729.

Full text
Abstract:
Cette thèse se compose de trois parties principales indépendantes. Dans la première partie, nous proposons une méthode de décomposition parallèle pour résoudre une grande classe de problèmes d'optimisation convexe (problèmes convexes a cout fortement convexe). Nous établissons des résultats de convergence globale pour cette méthode et présentons une série de résultats et comparaisons numériques effectues sur une machine du type cm-5. Dans la deuxième partie, nous étendons le champ d'application des méthodes entropie-proximales (qui ne s'appliquaient qu'aux problèmes d'optimisation convexe sur l'orthant positif) aux problèmes d'optimisation convexe sous contraintes linéaires et aux problèmes d'inégalités variationnelles sur des polyèdres. De plus, en programmation linéaire, nous donnons un résultat de convergence quadratique et présentons quelques résultats numériques. La dernière partie est consacrée à l'étude d'une grande classe de méthodes de pénalités et de barrières recouvrant la plupart des méthodes existantes. Nous donnons des moyens systématiques pour obtenir de telles fonctions et analysons l'existence des séquences primales et duales générées par ces méthodes. Ensuite, nous étudions la convergence de ces séquences vers les ensembles de solutions du problème primal et du problème dual. Dans le cas de programmation linéaire, nous montrons que ces séquences convergent vers des limites uniques et présentons quelques résultats numériques
APA, Harvard, Vancouver, ISO, and other styles
33

Chine, Abderrazek. "Algorithmes robustes en optimisation non convexe : codes et simulations numériques en grande dimension." Phd thesis, Grenoble 1, 1991. http://tel.archives-ouvertes.fr/tel-00340403.

Full text
Abstract:
Cette thèse est consacrée a l'étude des algorithmes en optimisation non convexe, a l'implémentation des codes a l'usage industriel et aux simulations numériques dans les problèmes de grande tailles. L'étude des problèmes quadratiques (convexes ou non convexes) sous contraintes linéaires et quadratiques ainsi que celle des méthodes de région de confiance pour minimisation d'une fonction de classe c#2, font l'objet de deux premiers chapitres. Les chapitres 3 et 4 sont réservés a l'optimisation non convexe (classification, dualité, stabilité et les algorithmes de sous gradients de resolution). Enfin, les simulations numériques dans les problèmes concrets de grande taille sont présentées et commentées dans le dernier chapitre
APA, Harvard, Vancouver, ISO, and other styles
34

Chine, Abderrazek Pham Dinh Tao Laurent Pierre Jean. "Algorithmes robustes en optimisation non convexe codes et simulations numériques en grande dimension /." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00340403.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Tran, Duc Quynh. "Optimisation non convexe en finance et en gestion de production : modèles et méthodes." Thesis, Metz, 2011. http://www.theses.fr/2011METZ019S/document.

Full text
Abstract:
Cette thèse porte sur la recherche des techniques d’optimisation pour la résolution de certains problèmes importants en deux domaines : gestion de production. Il s’agit des problèmes d’optimisation non convexe de grande dimension. Notre travail est basé sur la programmation DC (Différence de fonctions convexes), DCA (DC algorithmes), la méthode par séparation et évaluation (SE). Cette démarche est motivée par la robustesse et la performance DC et DCA comparée aux autres méthodes. La thèse comprend trois parties : dans la première partie, nous présentons les outils fondamentaux et les techniques essentielles en programmation DC, DCA ainsi que les méthodes par séparation et évaluation. La deuxième partie concerne les problèmes d’optimisation non convexes en gestion de portefeuille. Nous avons étudié deux problèmes : problème min max continu en gestion de portefeuille en présence des contraintes de cardinalité ; une classe des problèmes d’optimisation à deux niveaux et son application en sélection de portefeuille. La troisième partie est consacrée à la recherche sur les problèmes d’optimisation non convexe en gestion de production. Trois problèmes ont été étudiés : minimisation du coût de maintenance comprenant le temps de séjour et la pénalité du retard ; minimisation du coût d’un système de production/stockage multi-étapes en présence de goulot d’étrangement. Détermination des prix de transfert et les politiques de stockage pour une chaîne d’approvisionnement de deux entreprises
This thesis deals with optimization techniques for solving some optimization problems in two domains : portfolio selection and production management. They are large scale non convex optimization problems due to integer variables and/or the non convexity of the objective function. Our approach is based on DC programming and DCA, DC relaxation techniques and the algorithm Branch and Bound. This work is motivated by the robustness and the performance of the DC programming and DCA compared to other methods. The thesis includes three parts : In the first part, we present the fundamental tools and the essential techniques in DC programming, DCA as well as the method Branch and Bound. The second one concerns some non convex optimization problem in portfolio selection. Two following problems are considered : Min max continuous problem with the cardinality constraints in portfolio selection ; A class of bilevel programming problems and its application in portfolio selection. The third part contains some non convex optimization problems in production management. We study three problems : Minimization of the maintenance cost involving the flow time and the tardiness penalty ; Minimization of the cost of multi-stages production/inventory systems with bottleneck ; Determination of transfer prices and inventory policy in supply chain of two enterprises
APA, Harvard, Vancouver, ISO, and other styles
36

Tran, Duc Quynh. "Optimisation non convexe en finance et en gestion de production : modèles et méthodes." Electronic Thesis or Diss., Metz, 2011. http://www.theses.fr/2011METZ019S.

Full text
Abstract:
Cette thèse porte sur la recherche des techniques d’optimisation pour la résolution de certains problèmes importants en deux domaines : gestion de production. Il s’agit des problèmes d’optimisation non convexe de grande dimension. Notre travail est basé sur la programmation DC (Différence de fonctions convexes), DCA (DC algorithmes), la méthode par séparation et évaluation (SE). Cette démarche est motivée par la robustesse et la performance DC et DCA comparée aux autres méthodes. La thèse comprend trois parties : dans la première partie, nous présentons les outils fondamentaux et les techniques essentielles en programmation DC, DCA ainsi que les méthodes par séparation et évaluation. La deuxième partie concerne les problèmes d’optimisation non convexes en gestion de portefeuille. Nous avons étudié deux problèmes : problème min max continu en gestion de portefeuille en présence des contraintes de cardinalité ; une classe des problèmes d’optimisation à deux niveaux et son application en sélection de portefeuille. La troisième partie est consacrée à la recherche sur les problèmes d’optimisation non convexe en gestion de production. Trois problèmes ont été étudiés : minimisation du coût de maintenance comprenant le temps de séjour et la pénalité du retard ; minimisation du coût d’un système de production/stockage multi-étapes en présence de goulot d’étrangement. Détermination des prix de transfert et les politiques de stockage pour une chaîne d’approvisionnement de deux entreprises
This thesis deals with optimization techniques for solving some optimization problems in two domains : portfolio selection and production management. They are large scale non convex optimization problems due to integer variables and/or the non convexity of the objective function. Our approach is based on DC programming and DCA, DC relaxation techniques and the algorithm Branch and Bound. This work is motivated by the robustness and the performance of the DC programming and DCA compared to other methods. The thesis includes three parts : In the first part, we present the fundamental tools and the essential techniques in DC programming, DCA as well as the method Branch and Bound. The second one concerns some non convex optimization problem in portfolio selection. Two following problems are considered : Min max continuous problem with the cardinality constraints in portfolio selection ; A class of bilevel programming problems and its application in portfolio selection. The third part contains some non convex optimization problems in production management. We study three problems : Minimization of the maintenance cost involving the flow time and the tardiness penalty ; Minimization of the cost of multi-stages production/inventory systems with bottleneck ; Determination of transfer prices and inventory policy in supply chain of two enterprises
APA, Harvard, Vancouver, ISO, and other styles
37

Swaminathan, Bhargav Prasanna. "Gestion prévisionnelle des réseaux actifs de distribution - relaxation convexe sous incertitude." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT039/document.

Full text
Abstract:
Les réseaux électriques subissent deux changements majeurs : le taux croissant de générateurs d’énergie distribuée (GED) intermittents et la dérégulation du système électrique. Les réseaux de distribution et leurs gestionnaires (GRD) sont plus particulièrement touchés. La planification, construction et exploitation des réseaux de la plupart des GRD doivent évoluer face à ces change- ments. Les réseaux actifs de distribution et la gestion intelligente de associée est une solution potentielle. Les GRD pourront ainsi adopter de nouveaux rôles, interagir avec de nouveaux acteurs et proposer de nouveaux services. Ils pourront aussi utiliser la flexibilité de manière optimale au travers, entre autres, d’outils intelligents pour la gestion prévisionnelle de leurs réseaux de moyenne tension (HTA). Développer ces outils est un défi, car les réseaux de distribution ont des spécificités techniques. Ces spécificités sont la présence d’éléments discrets comme les régleurs en charge et la reconfiguration, les flexibilités exogènes, la non-linéarité des calculs de répartition de charge, et l’incertitude liée aux prévisions des GED intermittents. Dans cette thèse, une analyse économique des flexibilités permet d’établir une référence commune pour une utilisation rentable et sans biais dans la gestion prévisionnelle. Des modèles linéaires des flexibilités sont développés en utilisant des reformulations mathématiques exactes. Le calcul de répartition de charge est “convexifié” à travers des reformulations. L’optimalité globale des solutions obtenues, avec ce modèle d’optimisation exact et convexe de gestion prévisionnelle, sont ainsi garanties. Les tests sur deux réseaux permettent d’en valider la performance. L’incertitude des prévisions de GED peut pourtant remettre en cause les solutions obtenues. Afin de résoudre ce problème, trois formulations différentes pour traiter cette incertitude sont développées. Leurs performances sont testées et comparées à travers des simulations. Une analyse permet d’identifier les formulations les plus adaptées pour la gestion prévisionnelle sous incertitude
Power systems are faced by the rising shares of distributed renewable energy sources (DRES) and the deregulation of the electricity system. Distribution networks and their operators (DSO) are particularly at the front-line. The passive operational practives of many DSOs today have to evolve to overcome these challenges. Active Distribution Networks (ADN), and Active Network Management (ANM) have been touted as a potential solution. In this context, DSOs will streamline investment and operational decisions, creating a cost-effective framework of operations. They will evolve and take up new roles and optimally use flexibility to perform, for example, short-term op- erational planning of their networks. However, the development of such methods poses particular challenges. They are related to the presence of discrete elements (OLTCs and reconfiguration), the use of exogenous (external) flexibilities in these networks, the non-linear nature of optimal power flow (OPF) calculations, and uncertainties present in forecasts. The work leading to this thesis deals with and overcomes these challenges. First, a short-term economic analysis is done to ascertain the utilisation costs of flexibilities. This provides a common reference for different flexibilities. Then, exact linear flexibility models are developed using mathematical reformulation techniques. The OPF equations in operational planning are then convexified using reformulation techniques as well. The mixed-integer convex optimisation model thus developed, called the novel OP formulation, is exact and can guarantee globally optimal solutions. Simulations on two test networks allow us to evaluate the performance of this formulation. The uncertainty in DRES forecasts is then handled via three different formulations developed in this thesis. The best performing formulations under uncertainty are determined via comparison framework developed to test their performance
APA, Harvard, Vancouver, ISO, and other styles
38

Nguyen, Van Vinh. "Méthodes exactes pour l'optimisation DC polyédrale en variables mixtes 0-1 basées sur DCA et des nouvelles coupes." INSA de Rouen, 2006. http://www.theses.fr/2006ISAM0003.

Full text
Abstract:
Cette thèse est consacrée à l'étude des méthodes exactes pour la programmation DC polyédrale en variables mixtes 0-1, qui occupe une place très importante en Aide à la Décision et Recherche Opérationnelle de par ses nombreuses applications dans différentes branches de sciences appliquées. La thèse comprend deux parties : la première servant de références à l'ensemble du travail, comporte deux chapitres. Dans le premier nous présentons une généralité des méthodes de coupes tandis qu'une introduction à la programmation DC et DCA est décrite dans le deuxième. La seconde partie concernant la programmation DC polyédrale en variables mixtes 0-1 constitue l'épine dorsale de la thèse. Cette partie comporte quatre chapitres. Dans le chapitre 3, nous présentons une nouvelle coupe pour la programmation linéaire en variables mixtes 0-1. Le schéma de DCA&CUT combiné de DCA et cette coupe pour la programmation linéaire en variables mixtes 0-1 est étudié dans le chapitre 4. Des applications de ce modèle dans différents domaines sont ensuite développées dans le chapitre 5. Enfin, la généralisation logique et naturelle de ce schéma de DCA&CUT est traitée dans le dernier chapitre.
APA, Harvard, Vancouver, ISO, and other styles
39

Rahmouni, Abdelouahed. "Etude de l'effet d'une perturbation variationnelle sur le comportement primal-dual en optimisation convexe." Perpignan, 1993. http://www.theses.fr/1993PERP0169.

Full text
Abstract:
Le fil conducteur de ce travail est l'étude de la convergence tant des problèmes primaux que duaux quand on fait varier la fonction de perturbation suivant diverses topologies variationnelles. Ce type de résultat permet d'envisager la convergence simultanées des variables primales et duales des problèmes approchés vers les variables primales et duales du problème limite. Nous traitons principalement le cas de perturbations suivant la topologie de Attouch-Wets, la slice topologie et diverses topologie intermédiaires entre celle-ci. Dans ce but on est conduit à résoudre certaies questions : estimations quantitatives pour la continuité de la transformée de Legendre-Fenchel, étude de problèmes d'optimisation bien posés en un sens généralisé, problème de la convergence d'une somme finie de fonctions convexes.
APA, Harvard, Vancouver, ISO, and other styles
40

Chaarani, Jamal Pham Dinh Tao Laurent Pierre Jean. "Etude d'une classe d'algorithmes d'optimisation non convexe implémentation et applications /." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00333443.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Benacer, Rachid Pham Dinh Tao. "Contribution à l'étude des algorithmes de l'optimisation non convexe et non différentiable." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00320986.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Sudhakara, Murthy Prasad. "Sparse models and convex optimisation for convolutive blind source separation." Rennes 1, 2011. https://tel.archives-ouvertes.fr/tel-00586610.

Full text
Abstract:
Blind source separation from underdetermined mixtures is usually a two-step process: the estimation of the mixing filters, followed by that of the sources. An enabling assumption is that the sources are sparse and disjoint in the time-frequency domain. For convolutive mixtures, the solution is not straightforward due to the permutation and scaling ambiguities. The sparsity of the filters in the time-domain is also an enabling factor for blind filter estimation approaches that are based on cross-relation. However, such approaches are restricted to the single source setting. In this thesis, we jointly exploit the sparsity of the sources and mixing filters for blind estimation of sparse filters from stereo convolutive mixtures of several sources. First, we show why the sparsity of the filters can help solve the permutation problem in convolutive source separation, in the absence of scaling. Then, we propose a twostage estimation framework, which is primarily based on the time-frequency domain cross-relation and an ℓ1 minimisation formulation: a) a clustering step to group the time-frequency points where only one source is active, for each source; b) a convex optimisation step which estimates the filters. The resulting algorithms are assessed on audio source separation and filter estimation problems
La séparation aveugle de sources à partir de mélanges sous-déterminés se fait traditionnellement en deux étapes: l’estimation des filtres de mélange, puis celle des sources. L’hypothèse de parcimonie temps-fréquence des sources facilite la séparation, qui reste cependant difficile dans le cas de mélanges convolutifs à cause des ambiguités de permutation et de mise à l’échelle. Par ailleurs, la parcimonie temporelle des filtres facilite les techniques d’estimation aveugle de filtres fondées sur des corrélations croisées, qui restent cependant limitées au cas où une seule source est active. Dans cette thèse, on exploite conjointement la parcimonie des sources et des filtres de mélange pour l’estimation aveugle de filtres parcimonieux à partir de mélanges convolutifs stéréophoniques de plusieurs sources. Dans un premier temps, on montre comment la parcimonie des filtres permet de résoudre le problème de permutation, en l’absence de problème de mise à l’échelle. Ensuite, on propose un cadre constitu é de deux étapes pour l’estimation, basé sur des versions temps-fréquence de la corrélation croisée et sur la minimisation de norme ℓ1 : a) un clustering qui regroupe les points temps-fréquence où une seule source est active; b) la résolution d’un problème d’optimisation convexe pour estimer les filtres. La performance des algorithmes qui en résultent est évalués numériquement sur des problèmes de filtre d’estimation de filtres et de séparation de sources audio
APA, Harvard, Vancouver, ISO, and other styles
43

Fontaine, Xavier. "Sequential learning and stochastic optimization of convex functions." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASM024.

Full text
Abstract:
Dans cette thèse nous étudions plusieurs problèmes d'apprentissage automatique qui sont tous liés à la minimisation d'une fonction bruitée, qui sera souvent convexe.Du fait de leurs nombreuses applications nous nous concentrons sur des problèmes d'apprentissage séquentiel, qui consistent à traiter des données ``à la volée'', ou en ligne.La première partie de cette thèse est ainsi consacrée à l'étude de trois différents problèmes d'apprentissage séquentiel dans lesquels nous rencontrons le compromis classique ``exploration vs. exploitation''.Dans chacun de ces problèmes un agent doit prendre des décisions pour maximiser une récompense ou pour évaluer un paramètre dans un environnement incertain, dans le sens où les récompenses ou les résultats des différentes actions sont inconnus et bruités.Nous étudions tous ces problèmes à l'aide de techniques d'optimisation stochastique convexe, et nous proposons et analysons des algorithmes pour les résoudre.Dans la deuxième partie de cette thèse nous nous concentrons sur l'analyse de l'algorithme de descente de gradient stochastique qui est vraisemblablement l'un des algorithmes d'optimisation stochastique les plus utilisés en apprentissage automatique.Nous en présentons une analyse complète dans le cas convexe ainsi que dans certaines situations non convexes en étudiant le modèle continu qui lui est associé, et obtenons de nouveaux résultats de convergence optimaux
In this thesis we study several machine learning problems that are all linked with the minimization of a noisy function, which will often be convex.Inspired by real-life applications we focus on sequential learning problems which consist in treating the data ``on the fly'', or in an online manner.The first part of this thesis is thus devoted to the study of three different sequential learning problems which all face the classical ``exploration vs. exploitation'' trade-off.Each of these problems consists in a situation where a decision maker has to take actions in order to maximize a reward or to evaluate a parameter under uncertainty, meaning that the rewards or the feedback of the possible actions are unknown and noisy.We demonstrate that all of these problems can be studied under the scope of stochastic convex optimization, and we propose and analyze algorithms to solve them.In the second part of this thesis we focus on the analysis of the Stochastic Gradient Descent algorithm, which is likely one of the most used stochastic optimization algorithms in machine learning.We provide an exhaustive analysis in the convex setting and in some non-convex situations by studying the associated continuous-time model, and obtain new optimal convergence results
APA, Harvard, Vancouver, ISO, and other styles
44

Kulunchakov, Andrei. "Optimisation stochastique pour l'apprentissage machine à grande échelle : réduction de la variance et accélération." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM057.

Full text
Abstract:
Cette thèse vise à explorer divers sujets liés à l'analyse des méthodes de premier ordre appliquées à des problèmes stochastiques de grande dimension. Notre première contribution porte sur divers algorithmes incrémentaux, tels que SVRG, SAGA, MISO, SDCA, qui ont été analysés de manière approfondie pour les problèmes avec des informations de gradient exactes. Nous proposons une nouvelle technique, qui permet de traiter ces méthodes de manière unifiée et de démontrer leur robustesse à des perturbations stochastiques lors de l'observation des gradients. Notre approche est basée sur une extension du concept de suite d'estimation introduite par Yurii Nesterov pour l'analyse d'algorithmes déterministes accélérés.Cette approche permet de concevoir de façon naturelle de nouveaux algorithmes incrémentaux offrant les mêmes garanties que les méthodes existantes tout en étant robustes aux perturbations stochastiques.Enfin, nous proposons un nouvel algorithme de descente de gradient stochastique accéléré et un nouvel algorithme SVRG accéléré robuste au bruit stochastique. Dans le dernier cas il s'agit essentiellement de l'accélération déterministe au sens de Nesterov, qui préserve la convergence optimale des erreurs stochastiques.Finalement, nous abordons le problème de l'accélération générique. Pour cela, nous étendons l'approche multi-étapes de Catalyst, qui visait à l'origine l'accélération de méthodes déterministes. Afin de l'appliquer aux problèmes stochastiques, nous le modifions pour le rendre plus flexible par rapport au choix des fonctions auxiliaires minimisées à chaque étape de l'algorithme. Finalement, à partir d'une méthode d'optimisation pour les problèmes fortement convexes, avec des garanties standard de convergence, notre procédure commence par accélérer la convergence vers une région dominée par le bruit, pour converger avec une vitesse quasi-optimale ensuite. Cette approche nous permet d'accélérer diverses méthodes stochastiques, y compris les algorithmes à variance réduite. Là encore, le cadre développé présente des similitudes avec l'analyse d'algorithmes accélérés à l'aide des suites d'estimation. En ce sens, nous essayons de combler l'écart entre l'optimisation déterministe et stochastique en termes d'accélération de Nesterov. Une autre contribution est une analyse unifiée d'algorithmes proximaux stochastiques lorsque l'opérateur proximal ne peut pas être calculé de façon exacte.Ensuite, nous étudions des propriétés d'algorithmes stochastique non-Euclidiens appliqués au problème d'estimation parcimonieuse. La structure de parcimonie permet de réduire de façon significative les effets du bruit dans les observation du gradient. Nous proposons un nouvel algorithme stochastique, appelé SMD-SR, permettant de faire meilleur usage de cette structure. Là encore, la méthode en question est une routine multi-étapes qui utilise l'algorithme stochastique de descente en miroir comme élément constitutif de ses étapes. Cette procédure comporte deux phases de convergence, dont la convergence linéaire de l'erreur pendant la phase préliminaire, et la convergence à la vitesse asymptotique optimale pendant la phase asymptotique. Par rapport aux solutions existantes les plus efficaces aux problèmes d’optimisation stochastique parcimonieux, nous proposons une amélioration sur plusieurs aspects. Tout d'abord, nous montrons que l'algorithme proposé réduit l'erreur initiale avec une vitesse linéaire (comme un algorithme déterministe de descente de gradient, utilisant l'observation complète du gradient), avec un taux de convergence optimal par rapport aux caractéristiques du bruit. Deuxièmement, nous obtenons ce taux pour une grande classe de modèles de bruit, y compris les distributions sous-gaussiennes, de Rademacher, de Student multivariées, etc. Enfin, ces résultats sont obtenus sous la condition optimale sur le niveau de parcimonie qui peut approcher le nombre total d'iterations de l'algorithme (à un facteur logarithmique près)
A goal of this thesis is to explore several topics in optimization for high-dimensional stochastic problems. The first task is related to various incremental approaches, which rely on exact gradient information, such as SVRG, SAGA, MISO, SDCA. While the minimization of large limit sums of functions was thoroughly analyzed, we suggest in Chapter 2 a new technique, which allows to consider all these methods in a generic fashion and demonstrate their robustness to possible stochastic perturbations in the gradient information.Our technique is based on extending the concept of estimate sequence introduced originally by Yu. Nesterov in order to accelerate deterministic algorithms.Using the finite-sum structure of the problems, we are able to modify the aforementioned algorithms to take into account stochastic perturbations. At the same time, the framework allows to derive naturally new algorithms with the same guarantees as existing incremental methods. Finally, we propose a new accelerated stochastic gradient descent algorithm and a new accelerated SVRG algorithm that is robust to stochastic noise. This acceleration essentially performs the typical deterministic acceleration in the sense of Nesterov, while preserving the optimal variance convergence.Next, we address the problem of generic acceleration in stochastic optimization. For this task, we generalize in Chapter 3 the multi-stage approach called Catalyst, which was originally aimed to accelerate deterministic methods. In order to apply it to stochastic problems, we improve its flexibility on the choice of surrogate functions minimized at each stage. Finally, given an optimization method with mild convergence guarantees for strongly convex problems, our developed multi-stage procedure, accelerates convergence to a noise-dominated region, and then achieves the optimal (up to a logarithmic factor) worst-case convergence depending on the noise variance of the gradients. Thus, we successfully address the acceleration of various stochastic methods, including the variance-reduced approaches considered and generalized in Chapter 2. Again, the developed framework bears similarities with the acceleration performed by Yu. Nesterov using the estimate sequences. In this sense, we try to fill the gap between deterministic and stochastic optimization in terms of Nesterov's acceleration. A side contribution of this chapter is a generic analysis that can handle inexact proximal operators, providing new insights about the robustness of stochastic algorithms when the proximal operator cannot be exactly computed.In Chapter 4, we study properties of non-Euclidean stochastic algorithms applied to the problem of sparse signal recovery. A sparse structure significantly reduces the effects of noise in gradient observations. We propose a new stochastic algorithm, called SMD-SR, allowing to make better use of this structure. This method is a multi-step procedure which uses the stochastic mirror descent algorithm as a building block over its stages. Essentially, SMD-SR has two phases of convergence with the linear bias convergence during the preliminary phase and the optimal asymptotic rate during the asymptotic phase.Comparing to the most effective existing solution to the sparse stochastic optimization problems, we offer an improvement in several aspects. First, we establish the linear bias convergence (similar to the one of the deterministic gradient descent algorithm, when the full gradient observation is available), while showing the optimal robustness to noise. Second, we achieve this rate for a large class of noise models, including sub-Gaussian, Rademacher, multivariate Student distributions and scale mixtures. Finally, these results are obtained under the optimal condition on the level of sparsity which can approach the total number of iterations of the algorithm (up to a logarithmic factor)
APA, Harvard, Vancouver, ISO, and other styles
45

Delyon, Alexandre. "Shape Optimisation Problems Around the Geometry of Branchiopod Eggs." Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0123.

Full text
Abstract:
Dans cette thèse nous nous intéressons à un problème de mathématiques appliquées à la biologie. Le but est d'expliquer la forme des œufs d'Eulimnadia, un petit animal appartenant à la classe des Branchiopodes, et plus précisément les Limnadiides. En effet, d'après la théorie de l'évolution il est raisonnable de penser que la forme des êtres vivants où des objets issus d'êtres vivants est optimisée pour garantir la survie et l'expansion de l'espèce en question. Pour ce faire nous avons opté pour la méthode de modélisation inverse. Cette dernière consiste à proposer une explication biologique à la forme des œufs, puis de la modéliser sous forme d'un problème de mathématique, et plus précisément d'optimisation de forme, que l'on cherche à résoudre pour enfin comparer la forme obtenue à la forme réelle des œufs. Nous avons étudié deux modélisations, l'une amenant à des problèmes de géométrie et de packing, l'autre à des problèmes d'optimisation de forme en élasticité linéaire. Durant la résolution du premier problème issue de la modélisation, une autre question mathématique s'est naturellement posée à nous, et nous sommes parvenus à la résoudre, donnant lieu à l'obtention du diagramme de Blaschke Santalo (A,D,r) complet. En d'autre mots nous pouvons répondre à la question suivante : étant donné trois nombres A,D, et r positifs, est-il possible de trouver un ensemble convexe du plan dont l'aire est égale à A, le diamètre égal à D, et le rayon du cercle inscrit égal à r ?
In this thesis we are interested in a problem of mathematics applied to biology. The aim is to explain the shape of the eggs of Eulimnadia, a small animal belonging to the class Branchiopods}, and more precisely the Limnadiidae. Indeed, according to the theory of evolution it is reasonable to think that the shape of living beings or objects derived from living beings is optimized to ensure the survival and expansion of the species in question. To do this we have opted for the inverse modeling method. The latter consists in proposing a biological explanation for the shape of the eggs, then modeling it in the form of a mathematical problem, and more precisely a shape optimisation problem which we try to solve and finally compare the shape obtained to the real one. We have studied two models, one leading to geometry and packing problems, the other to shape optimisation problems in linear elasticity. After the resolution of the first modeling problem, another mathematical question naturally arose to us, and we managed to solve it, resulting in the complete Blaschke-Santalò (A,D,r) diagram. In other words we can answer the following question: given three positive numbers A,D, and r, and it is possible to find a convex set of the plane whose area is equal to A, diameter equal to D, and radius of the inscribed circle equal to r
APA, Harvard, Vancouver, ISO, and other styles
46

Pasche, Claude. "Optimisation convexe dans les réseaux avec applications au trafic routier et à l'énergie électrique /." [S.l.] : [s.n.], 1987. http://library.epfl.ch/theses/?nr=669.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Bose, Gibin. "Approximation H infini, interpolation analytique et optimisation convexe : application à l’adaptation d’impédance large bande." Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4007.

Full text
Abstract:
La thèse étudie en profondeur l'un des problèmes classiques de la conception de circuits RF, le problème de l'adaptation d'impédance. L’adaptation d’impédance consiste à maximiser le transfert de puissance d'une source à une charge dans une bande de fréquences. Les antennes sont l'un des dispositifs classiques dans lesquels l'adaptation d'impédance joue un rôle important. La conception d'un circuit d'adaptation pour une charge donnée revient principalement à trouver une matrice de diffusion sans perte qui, lorsqu'elle est enchaînée à la charge, minimise la réflexion de la puissance dans l'ensemble du système.Dans ce travail, les aspects théoriques du problème de l'adaptation et l'applicabilité pratique des approches développées sont dûment pris en compte. La partie I de la thèse couvre deux approches différentes mais étroitement liées du problème de l'adaptation large bande. Le cadre développé dans la première approche consiste à trouver la meilleure approximation H infini d'une fonction L infini, Փ via la théorie de Nehari. Cela revient à réduire le problème à un problème généralisé de valeurs propres basé sur un opérateur défini sur H2, l'opérateur de Hankel, HՓ. La réalisabilité d'un gain donné est fournie par la contrainte, opérateur norme de HՓ inférieure ou égale à un. La seconde approche formule le problème de l'adaptation comme un problème d'optimisation convexe où une plus grande flexibilité est fournie aux profils de gain par rapport à l'approche précédente. Il est basé sur deux théories riches, à savoir la théorie de l'adaptation de Fano-Youla et l'interpolation analytique. La réalisabilité d'un gain donné est basée sur les conditions de dé-chaînage de Fano-Youla qui se réduisent à la positivité d'une matrice classique en théorie d'interpolation analytique, la matrice de Pick. La concavité de la matrice de Pick concernée permet de trouver la solution au problème au moyen de l'implémentation d'un problème de programmation semi-défini non linéaire. Ainsi, nous estimons des limites inférieures nettes au niveau d'adaptation pour les circuits d'adaptation de degré fini et fournissons des circuits atteignant ces limites.La partie II de la thèse vise à réaliser les circuits d'adaptation sous forme de réseaux en échelle constitués d'inductances et de condensateurs et aborde également certaines contraintes importantes de réalisabilité. Les circuits d'adaptation sont conçus pour plusieurs antennes non-adaptées, testant la robustesse de l'approche développée. La théorie développée dans la première partie de la thèse offre un moyen efficace de comparer le niveau d'adaptation atteint aux limites théoriques
The thesis makes an in-depth study of one of the classical problems in RF circuit design,the problem of impedance matching. Matching problem addresses the issue of transmitting the maximum available power from a source to a load within a frequency band. Antennas are one of the classical devices in which impedance matching plays an important role. The design of a matching circuit for a given load primarily amounts to find a lossless scattering matrix which when chained to the load minimize the reflection of power in the total system.In this work, both the theoretical aspects of the broadband matching problem and thepractical applicability of the developed approaches are given due importance. Part I of the thesis covers two different yet closely related approaches to the matching problem. These are based on the classical approaches developed by Helton and Fano-Youla to study the broadband matching problems. The framework established in the first approach entails in finding the best H infinity approximation to an L infinity function, Փ via Nehari's theory. This amounts to reduce the problem to a generalized eigen value problem based on an operator defined on H2, the Hankel operator, HՓ. The realizability of a given gain is provided by the constraint, operator norm of HՓ less than or equal to one. The second approach formulates the matching problem as a convex optimisation problem where in further flexibility is provided to the gain profiles compared to the previous approach. It is based on two rich theories, namely Fano-Youla matching theory and analytic interpolation. The realizabilty of a given gain is based on the Fano-Youla de-embedding conditions which reduces to the positivity of a classical matrix in analytic interpolation theory, the Pick matrix. The concavity of the concerned Pick matrix allows finding the solution to the problem by means of implementing a non-linear semi-definite programming problem. Most importantly, we estimate sharp lower bounds to the matching criterion for finite degree matching circuits and furnish circuits attaining those bounds.Part II of the thesis aims at realizing the matching circuits as ladder networks consisting of inductors and capacitors and discusses some important realizability constraints as well. Matching circuits are designed for several mismatched antennas, testing the robustness of the developed approach. The theory developed in the first part of the thesis provides an efficient way of comparing the matching criterion obtained to the theoretical limits
APA, Harvard, Vancouver, ISO, and other styles
48

Fuentes, Marc. "Analyse et optimisation de problèmes sous contraintes d'autocorrélation." Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00195013.

Full text
Abstract:
Dans ce travail de thèse, nous étudions, dans un contexte d'analyse convexe et d'optimisation, la prise en compte des contraintes dites d'autocorrélation, c'est-à-dire : nous considérons les situations où les vecteurs représentant les variables à optimiser sont contraintes à être les coefficients d'autocorrélation d'un signal discret à support fini. Cet ensemble des vecteurs à composantes autocorrélées se trouve être un cône convexe ; nous essayons d'en établir le plus de propriétés possibles : concernant sa frontière (lisse/polyédrale), ses faces, l'acuité, l'expression du cône polaire, l'évaluation du cône normal en un point, etc. Ensuite, nous étudions divers algorithmes pour résoudre des problèmes d'optimisation où le cône des vecteurs à composantes autocorrélées entre en jeu. Notre principal objet d'étude est le problème de la projection sur ce cône, dont nous proposons la résolution par trois algorithmes différents : algorithmes dits de suivi de chemin, celui des projections alternées, et via une relaxation non-convexe. Enfin, nous abordons la généralisation de la situation d'autocorrélation au cas de signaux bi-dimensionnels, avec toute la complexité que cela engendre : multiples définitions possibles, non-convexité des problèmes résultants, et complexité calculatoire accrue pour les algorithmes.
APA, Harvard, Vancouver, ISO, and other styles
49

Akoa, François Bertrand. "Approches de points intérieurs et de la programmation DC en optimisation non convexe. Codes et simulations numériques industrielles." Rouen, INSA, 2005. http://www.theses.fr/2005ISARA001.

Full text
Abstract:
Cette thèse est principalement consacrée à l'association des méthodes de points intérieurs et des techniques de l'optimisation DC et DCA pour résoudre les problèmes d'optimisation non convexe de grande taille. La thèse comporte trois parties : La première partie est consacrée aux techniques d'optimisations locales et s'articule autour des méthodes de points intérieurs et de la programmation DC. Nous y développons deux algorithmes. La seconde partie de la thèse est consacrée à l'intégration de l'algorithme des points intérieurs dans un schéma séparation-évaluation. La dernière partie de la thèse est consacrée aux applications industrielles. Nous y appliquons les deux nouveaux algorithmes développés dans la première partie à un problème de mécanique de structure de grande dimension, puis à un problème de séparateur à vaste marge
APA, Harvard, Vancouver, ISO, and other styles
50

Chibani, Akram. "Optimisation dynamique des chaînes logistiques agiles : application au cas d'approvisionnement en ligne." Thesis, Clermont-Ferrand 2, 2015. http://www.theses.fr/2015CLF22633/document.

Full text
Abstract:
Les nouvelles technologies de l’information deviennent un moyen incontournable pour réaliser des transactions instantanées dont tirent profit certaines chaînes logistiques. De ce fait, de nouveaux moyens liés aux opérations d’approvisionnement se développent. Leur émergence est directement liée à l’environnement volatile où évoluent désormais de plus en plus de chaînes logistiques. Les opérations d’approvisionnement du type «e-Procurement» sont des exemples de ces nouvelles pratiques où les chaînes logistiques sont qualifiées d’agiles. L’objectif de cette thèse est d’aborder des problématiques d’approvisionnement où un décideur est confronté au problème de choix de fournisseurs ainsi que la quantité de produits commandée durant le temps. Ces systèmes évoluent dans un environnement changeant caractérisé par des variations asynchrones et répétitives des prix d’achat et de commande ainsi que des capacités des fournisseurs et où l’évolution de ces données est inconnue. L’exemple des systèmes d’achat sur Internet ainsi que les systèmes d’enchères inversées en ligne s’inscrivent parfaitement dans la problématique traitée ici. Dans ce cadre, les approches classiques d’optimisation peuvent s’avérer inadaptées pour ce problème. Les travaux récents sur l’optimisation dynamique peuvent répondre à ce type de questionnement mais n’ont pour l’instant pas été étudiées dans le contexte des chaînes logistiques. Nous proposons, dans cette thèse, une approche basée sur des algorithmes génétiques dynamiques que nous avons illustrée avec trois cas d’application dans le cadre de l’approvisionnement en ligne
In a context of increased competition between enterprises, supply chains are struggling to respond to an increasingly volatile and complex environment. With technological advances, current practices to build efficient supply chains have changed. Indeed, the enthusiasms of companies with the use of internet have lead researchers to find adequate methods to cope with the dynamic nature of logistics networks. The purpose of this thesis is to address a dynamic procurement issue under asynchronous and repetitive variations over time. The supply chain considered is composed of two levels (buyer-suppliers) operating in highly agile environment. The questions facing the buyer is how many units of product should be purchased and from which supplier in response to variation in term of price and capacity. Because of this highly changing environment characterized by frequents changes in a short time, most of the classical optimization approaches seems inadequate to address these problems. Recently, dynamic optimization has been used successfully to deal with such problems. However, we have no knowledge of its application in a supply chain context. We propose a dynamic genetic approach which is applied to an e-procurement context in aim to optimize the procurement process during time
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography