Literatura científica selecionada sobre o tema "Dynamiques d'optimisation"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Consulte a lista de atuais artigos, livros, teses, anais de congressos e outras fontes científicas relevantes para o tema "Dynamiques d'optimisation".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Artigos de revistas sobre o assunto "Dynamiques d'optimisation"

1

Parent, E., F. Lebdi e P. Hurand. "Gestion stratégique d'un système de ressources en eau : l'exemple du système NESTE". Revue des sciences de l'eau 4, n.º 4 (12 de abril de 2005): 543–68. http://dx.doi.org/10.7202/705115ar.

Texto completo da fonte
Resumo:
L'article que nous proposons s'inscrit dans le cadre des problèmes d'optimisation bimensionnelle (irrigation & salubrité) des ressources en eau durant la période d'étiage. Sur le cas du système NESTE, la résolution est effectuée selon deux approches : - un modèle de programmation dynamique avec état de dimension deux (niveau des réserves, niveau dans la rivière) où, dans la solution numérique, les variables sont discrétisées; - un modèle « synthétique » où l'on calcule une probabilité de non dépassement caractérisant l'état hydrique des ressources du système. Une règle empirique permet d'associer à cette grandeur une décision de consigne à effectuer. Les résultats numériques sont comparés sur une série de chroniques historiques. Les avantages et les inconvénients de chacune des deux approches sont mis en lumière sur le cas réel du système NESTE.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Benabou. "Le modèle d'optimisation dynamique de la consommation et del'offre de travail: Un test sur données françaises". Annales de l'inséé, n.º 57 (1985): 75. http://dx.doi.org/10.2307/20076540.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Faye, R. M., S. Sawadogo e F. Mora-Camino. "Logique floue Appliquée à la gestion à long terme des ressources en eau". Revue des sciences de l'eau 15, n.º 3 (12 de abril de 2005): 579–96. http://dx.doi.org/10.7202/705470ar.

Texto completo da fonte
Resumo:
Dans le contexte de la rareté des ressources en eau, une approche globale de la gestion à long terme d'un système de stockage/transfert/distribution d'eau est proposée. L'objectif principal de la gestion d'un tel type de système est de gérer les réserves et les délestages de manière à minimiser les écarts entre offre et demande, ceci à partir d'une prédiction de la demande et des apports. Ainsi, on propose une approche à horizon glissant et surtout une procédure d'adaptation des pondérations du critère fondée sur la logique floue. Cette notion d'adaptation du critère parait tout à fait judicieuse quand on connaît la difficulté de définir les pondérations de tels problèmes d'optimisation et son influence sur la pertinence de la solution obtenue. On vérifie ici l'apport essentiel de la logique floue qui permet d'appréhender finement les enjeux en présence dans la gestion de long terme du système stockage/transfert/distribution d'eau. Le problème de gestion à long terme est résolu par une heuristique améliorée utilisant la programmation linéaire et la programmation dynamique pour réduire les effets de la discrétisation spatiale qui est si limitative dans ce contexte. L'approche de gestion proposée est effectivement appliquée à un cas d'étude qui permet de mettre en évidence sa relative simplicité de mise en œuvre.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Millet, Pierre-Alain. "Une modélisation objet des processus industriels." Revue Française de Gestion Industrielle 14, n.º 3-4 (1 de dezembro de 1995): 27–37. http://dx.doi.org/10.53102/1995.14.03-4.242.

Texto completo da fonte
Resumo:
Les techniques de la production au plus juste (juste à temps,réduction des temps de cycle, production unitaire, à la commande,configurateur, gestion par activité...) conduisent à rechercher des systèmes d'informations capables de réactivité, flexibilité, communication, intégration...pour s'adapter aux mutations accélérées des technologies et des produits, aux contraintes toujours plus fortes de coûts, délais, qualité. Or, les applications existantes de gestion industrielle s'appuient en général sur le modèle M.R.P et sur la modélisation classique des processus industriels en nomenclatures et gammes linéaires issue de l'entreprise taylorisée. Elles ne peuvent alors prendre en compte la diversité et la complexité des produits et ressources industrielles. Les approches nouvelles de "gestion hiérarchisée" proposent un cadre pour une décentralisation maîtrisée des outils de pilotage de systèmes industriels. Les approches objets constituent un cadre nouveau de modélisation, conception et développement de systèmes informatisés. Cet article propose donc une modélisation orientée objet des processus industriels à partir d'une expérience de terrain dans l'industrie et les services. Cette modélisation hiérarchisée permet de prendre en compte les notions de coproduit, sous-produit, multi-produits, variantes, ressources usables, différenciation retardée, découpe, tri sélectif, bains ou fours avec contraintes de configurations, modélisation à base de règles... Une telle modélisation va dans le sens d'une reconception des applications industrielles autour d'un serveur dynamique d'objets avec contraintes dialoguant avec des serveurs d'optimisation et résolution de problèmes, de communication et messagerie dans une architecture distribuée.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Sotomayor, O. A. Z., S. W. Park e C. Garcia. "Modèle de référence pour évaluer différentes stratégies de contrôle dans des usines de traitement des eaux usées". Revue des sciences de l'eau 15, n.º 2 (12 de abril de 2005): 543–56. http://dx.doi.org/10.7202/705468ar.

Texto completo da fonte
Resumo:
Dans la majorité des pays, il existe des lois strictes pour réglementer la qualité de l'eau provenant des systèmes de traitement d'eaux usées. Ces spécifications légales sont essentiellement influencées par des questions telles que la santé publique, l'environnement et les facteurs économiques. Les objectifs fondamentaux des procédés de traitement des eaux usées sont d'atteindre, avec l'utilisation d'énergie et à des coûts opérationnels minimaux, une concentration de matière biodégradable et de nutriments suffisamment basse dans les effluents et une production minimale de boues. Les systèmes de traitement des eaux usées sont de grandes dimensions et complexes. Ils sont aussi sujets à des variations importantes dans le flux d'entrée et dans la composition de l'eau à l'entrée, qui ne sont pas bien connues. Le procédé est multivariable, avec beaucoup de couplages croisés et nonlinéarités importantes. La dynamique dépend de la variabilité des flux d'entrée et de la complexité des phénomènes physico-chimiques et biochimiques. Le comportement dynamique démontre une énorme variation de temps de réponse (de quelques minutes jusqu'à plusieurs jours). Ces problèmes, combinés aux objectifs les plus importants du traitement des eaux usées, donnent lieu à une demande de techniques de commande avancées, qui peuvent conduire à une réduction du volume à traiter, une diminution importante dans l'utilisation des produits chimiques, et une possibilité d'économie d'énergie et une diminution des coûts d'opération. Dans ce travail, un " benchmark " (modèle de référence) d'un système complet de traitement des eaux usées a été développé, pour évaluer, à partir de simulations, la performance des différentes stratégies de commande proposées, y compris les techniques de respirométrie ("respirometry"). Ce travail s'aparente au Programme Européen d'Action COST (COST 624), et au projet "Respirometry in Control of the Activated Sludge Process (IWA Respirometry Task Group"). Le "Benchmark" représente un procédé de prédénitrification de la boue activée pour éliminer la matière organique et l'azote des effluents domestiques. Le simulateur est basé sur des modèles largement acceptés par la communauté internationale et il a été implanté dans un environnement Matlab/Simulink. La topologie du système et le développement complet du simulateur sont présentés dans ce travail. L'effet des conditions initiales et des caractéristiques du flux d'entrée (valeurs moyennes) sont analysés, aussi bien qu'un test en boucle ouverte. Les stratégies suivantes ont été sélectionnées en guise d'illustration de l'application de la commande automatique dans le "benchmark" (seulement avec commande proportionnel-intégral monovariable): commande basée sur la concentration d'oxygène dissous ("DO concentration-based control"), commande par respirométrie (commande par biomasse active et commande par taux de respiration bactérienne), et commande par concentration de nitrate (commande par dosage externe de carbone et recyclage du flux interne). Le "benchmark" est continuellement mis a jour et sa prochaine version va incorporer des fonctions d'optimisation en temps réel (on line) pour le procédé.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Livshits, Veniamin. "Mathematical methods used in the field of transport policy in the Soviet Union and in the CIS". Les Cahiers Scientifiques du Transport - Scientific Papers in Transportation 27 | 1993 (31 de março de 1993). http://dx.doi.org/10.46298/cst.11929.

Texto completo da fonte
Resumo:
In the former Soviet Union, since 40 years, some economic analysis methods in the field of transportation were imperatively developed in relation to the fixed national plans.The author notes four periods: from 1950 to 1965, general models were used, based upon the linear programming, especially to minimize multi-products transportation costs with capacity constraint in a network. Then, as far as the beginning of the seventies, the general econometric models were adapted to the specific field of transportation. They used non-linear programming, particularly non-linear dynamic methods for networks optimization, modal split and assignment models in a network ; two examples illustrate this period : the development of a long distance transport network (dynamic model with discrete and continuous variables) and the renewal of vehicle fleet (simulation model). During the 1975-1985 period, these previous methods were criticized: it was beginning of a system analysis of transportation for the purpose of planning and national policy. Nowadays, since 1985, with the "perestroïka" and the market economy application, the self interest of the various actors, users, private companies... is taken into consideration (equilibrium models, multicriteria models of optimization). Special interest is given to forecasting or simulation models, particularly to generalized models of diffusion or forecasting models of optimal synthesizes. Dans l'ancienne URSS, depuis quarante ans, des outils de calcul économique en transports ont été développés, en fonction des plans impératifs fixés au niveau de l'économie nationale.L'auteur relève quatre étapes : de 1950 à 1965, ont été appliqués des modèles généraux fondés sur la programmation linéaire, notamment pour minimiser les coûts de transports multi-produits avec contrainte de capacité dans un réseau. Puis, jusqu'au début des années 70, on a cherché à adapter les modèles économétriques généraux à la spécificité du secteur transports en développant la programmation non linéaire, en particulier, les méthodes dynamiques non linéaires d'optimisation de réseaux, les modèles de répartition modale et les modèles d'affectation sur un réseau ; cette période est illustrée par deux exemples portant sur le développement d'un réseau de transport à longue distance (modèle dynamique aux variables discrètes et continues) et sur le renouvellement d'un parc de véhicules (modèle de simulation). La période1975-1985, période de critique des méthodes antérieures, a favorisé l'approche systémique du transport à des fins de planification et de gestion nationales. Enfin, depuis 1985, avec la « perestroïka » et le passage à l'économie de marché, sont pris en compte les intérêts particuliers des divers acteurs, usagers, sociétés privées... (modèles d'équilibre, modèles multicritères d'optimisation). Un intérêt particulier se manifeste pour les modèles de prévision ou de simulation, notamment pour les modèles généralisés de diffusion ou encore de synthèse optimale de prévisions.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Wu, Lin, Philippe De Reffye, Bao-Gang Hu, François-Xavier Le Dimet e Paul-Henry Cournède. "A Water Supply Optimization Problem for Plant Growth Based on GreenLab Model". Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 3, Special Issue... (12 de setembro de 2005). http://dx.doi.org/10.46298/arima.1836.

Texto completo da fonte
Resumo:
International audience GreenLab is a structural-functional model for plant growth based on multidisciplinary knowledge. Its mathematical formalism allows dynamic simulation of plant growth and model analysis. A simplified soil water balance equation is introduced to illustrate the interactions and feedbacks between the plant functioning and water resources. A water supply optimization problem is then described and solved: the sunflower fruit weight is optimized with respect to different water supply strategies in a theoretical case. Intuitive searching method and genetic algorithms are used to solve this mixed integer nonlinear problem. The optimization results are analyzed and reveal possible agronomic applications. GreenLab est un modèle structure-fonction de croissance des plantes. Son formalisme mathématique permet la simulation dynamique de la croissance et l'analyse du modèle. Dans cet article est introduit une équation bilan de l'eau dans le sol afin de décrire les interactions entre la croissance de la plante et les ressources en eau disponibles. Un problème d'optimisation des apports d'eau au cours de la croissance est présenté et résolu par la méthode de recherche intuitive et par les algorithmes génétiques: le poids du fruit de tournesol est maximisé en fonction dedifférentes stratégies d'apports d'eau, pour une quantité d'eau totale identique. Le formalisme présenté est intéressant en ce qu'il ouvre la voieà d'importantes applications en agronomie.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Bughin, Jacques. "Le monde avant et après Willow: quelle stratégie d'entreprise liée au mariage quantique et IA?" Management & Data Science, 2025. https://doi.org/10.36863/mds.a.39967.

Texto completo da fonte
Resumo:
Notre histoire est marquée par des investissements audacieux, depuis la construction des pyramides égyptiennes jusqu'au programme d'alunissage de la NASA dans les années 1960. Aujourd'hui, cet esprit d'ambition se manifeste dans la poursuite de technologies de pointe telles que l'intelligence artificielle (IA) et l'informatique quantique (QC), qui représentent les prochaines frontières de l'innovation économique et technologique. Alors que les investissements dans l'IA ont augmenté rapidement depuis les années 2010, stimulés par des percées dans l'IA générative promet de dépasser largement les paradigmes informatiques traditionnels au vu des étapes récentes telles que la puce Willow de Google démontrant des capacités de calcul sans précédent et des taux d'erreur radicalement réduits. Cet article présente dix considérations clés pour tirer parti de l'informatique quantique dans l'ère post-Willow : Le passage du quantique de la physique théorique à l'ingénierie pratique, permettant de nouveaux paradigmes de calcul grâce aux qubits et à des phénomènes tels que la superposition et l'enchevêtrement. Des études de cas de Volkswagen, JPMorgan Chase et d'autres entreprises, présentant les premières réussites en matière d'optimisation du trafic, de modélisation financière et de simulation moléculaire. La percée de Google avec la puce Willow, qui a permis de réduire les erreurs de manière exponentielle et de résoudre des problèmes dépassant les limites de l'informatique classique. les synergies entre l'IA et l'informatique quantique, en particulier pour l'entraînement des réseaux neuronaux et l'optimisation des problèmes combinatoires Le potentiel incertain mais très prometteur du marché de l'IA quantique (QAI), avec des modèles hybrides quantiques-classiques qui accélèrent l'adoption. La dynamique du marché façonnée par les acteurs établis (Google, IBM, Nvidia) et les startups perturbatrices (D-Wave, Quantinuum). Les points de basculement, notamment la réduction des coûts, les percées technologiques et l'intégration hybride, nécessaires à une adoption plus large. Les défis émergents et les inconnues, tels que les comportements des données spécifiques aux quanta et les risques de sécurité. L'impératif de traiter les risques uniques de cybersécurité introduits par les modèles d'IA quantique. Une stratégie « sans regret » axée sur l'acquisition d'une culture quantique, l'exploration de plateformes hybrides et la réalisation d'expériences ciblées. Négliger le potentiel perturbateur de l'informatique quantique pourrait constituer un faux pas stratégique.
Estilos ABNT, Harvard, Vancouver, APA, etc.

Teses / dissertações sobre o assunto "Dynamiques d'optimisation"

1

Semerjian, Guilhem. "Modeles dilues en physique statistique : Dynamiques hors d'equilibre et algorithmes d'optimisation". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2004. http://tel.archives-ouvertes.fr/tel-00006329.

Texto completo da fonte
Resumo:
Cette these est consacree a l'etude des proprietes dynamiques des modeles dilues. Ces derniers sont des systemes de physique statistique de type champ moyen, mais dont la connectivite locale est finie. Leur etude est notamment motivee par l'etroite analogie qui les relient aux problemes d'optimisation combinatoire, la K-satisfiabilite aleatoire par exemple. On expose plusieurs approches analytiques visant a decrire le regime hors d'equilibre de ces systemes, qu'il soit du a une divergence des temps de relaxation dans une phase vitreuse, a l'absence de condition de balance detaillee pour un algorithme d'optimisation, ou a une preparation initiale dans une configuration loin de l'equilibre pour un ferromagnetique. Au cours de ces etudes on rencontrera egalement un probleme de matrices aleatoires, et une generalisation du theoreme de fluctuation-dissipation aux fonctions a n temps.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Thévenet, Jean-Baptiste. "Techniques d'optimisation avancées pour la synthèse de lois de commande". Toulouse 3, 2005. http://www.theses.fr/2005TOU30125.

Texto completo da fonte
Resumo:
La résolution de nombreux problèmes d'automatique n'est pas couverte par les techniques disponibles actuellement. Elle nécessite des développements algorithmiques importants en optimisation, dans le domaine des inégalités matricielles non-convexes. Cette thèse met en oeuvre plusieurs approches complémentaires dans ce contexte. En premier lieu, les méthodes "spectral SDP", baseés sur l'utilisation de Lagrangiens augmentés, nous conduisent à la conception d'un logiciel, specSDP, et à la résolution d'un grand nombre de problèmes en commande : synthèse multimodèle ou structurée, contrôle d'ordre réduit. Une étude de convergence locale est également menée pour le cas classique, présageant d'évolutions positives. La deuxième approche proposée s'inspire d'une formulation non-lisse des problèmes BMI et des techniques associées. Nous exhibons, pour cette méthode, des résultats numériques probants, obtenus sur des exemples de grande dimension, qui mettent en échec les rares méthodes existantes
This thesis research area belongs to the class of nonlinear semidefinite programming, an emerging and challenging domain in optimization which is of central importance in robust control and relaxation of hard decision problems. Our contribution addresses convergence of algorithms, practical implementations and testing on applications in the field of reduced-order output feedback control. Firstly, our augmented Lagrangian-type "spectral SDP" method has shown to be extremely efficient on a variety of middle-scale BMI programs, including simultaneous, structured, or mixed H2/Hinf synthesis problems. Local convergence properties of the algorithm were studied as well, as far as classical nonlinear programs are concerned. On the other hand, we then focused on nonsmooth strategies for large bilinear matrix inequalities. Problems with up to a few thousand variables were successfully handled through this method, where alternative approaches usually give failure
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Stefanovitch, Nicolas. "Contributions à la résolution de problèmes d'optimisation de contraintes distribuées dynamiques à l'aide de modèles graphiques pour la coordination multiagents". Paris 6, 2010. http://www.theses.fr/2010PA066668.

Texto completo da fonte
Resumo:
Les systèmes informatiques sont de plus en plus autonomes et couplés. Le contrôle de leur comportement nécessite le développement d'algorithmes dédiés prenant en compte simultanément les problèmes auxquels ceux-ci ont à faire face et l'architecture distribuée sous-jacente de ces systèmes. Ce domaine est celui de la coordination de systèmes multiagents. Les systèmes multiagents sont persistants, ouverts et doivent gérer des problèmes évoluant dynamiquement tout en garantissant leur comportement dans un contexte opérationnel incertain. En tant que système artificiel, il est souhaitable qu'une procédure de coordination garantisse l'optimalité des décisions. En tant que système réel, il est souhaitable qu'une solution soit trouvée le plus rapidement possible. En tant que programme informatique distribué, il est souhaitable que la procédure de coordination soit capable de s'adapter aux pannes. Dans cette thèse nous abordons le problème de la coordination modélisé en tant qu'un problème d'optimisation de contraintes distribué dynamique, et utilisons les modèles graphiques comme mécanismes de base pour résoudre ceux-ci. Notre démarche consiste à étendre ces approches pour les adapter aux contraintes d'exécution des systèmes multiagents. Nos deux principales contributions sont un algorithme approché avec garantie permettant de réaliser un compromis entre optimalité et décentralisation, et un algorithme adaptant la création du modèle graphique aux caractéristiques du système multiagents et à l'ordonnancement des calculs sur celui-ci.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Ghoumari, Asmaa. "Métaheuristiques adaptatives d'optimisation continue basées sur des méthodes d'apprentissage". Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1114/document.

Texto completo da fonte
Resumo:
Les problèmes d'optimisation continue sont nombreux, en économie, en traitement de signal, en réseaux de neurones, etc. L'une des solutions les plus connues et les plus employées est l'algorithme évolutionnaire, métaheuristique basée sur les théories de l'évolution qui emprunte des mécanismes stochastiques et qui a surtout montré de bonnes performances dans la résolution des problèmes d'optimisation continue. L’utilisation de cette famille d'algorithmes est très populaire, malgré les nombreuses difficultés qui peuvent être rencontrées lors de leur conception. En effet, ces algorithmes ont plusieurs paramètres à régler et plusieurs opérateurs à fixer en fonction des problèmes à résoudre. Dans la littérature, on trouve pléthore d'opérateurs décrits, et il devient compliqué pour l'utilisateur de savoir lesquels sélectionner afin d'avoir le meilleur résultat possible. Dans ce contexte, cette thèse avait pour objectif principal de proposer des méthodes permettant de remédier à ces problèmes sans pour autant détériorer les performances de ces algorithmes. Ainsi nous proposons deux algorithmes :- une méthode basée sur le maximum a posteriori qui utilise les probabilités de diversité afin de sélectionner les opérateurs à appliquer, et qui remet ce choix régulièrement en jeu,- une méthode basée sur un graphe dynamique d'opérateurs représentant les probabilités de passages entre les opérateurs, et en s'appuyant sur un modèle de la fonction objectif construit par un réseau de neurones pour mettre régulièrement à jour ces probabilités. Ces deux méthodes sont détaillées, ainsi qu'analysées via un benchmark d'optimisation continue
The problems of continuous optimization are numerous, in economics, in signal processing, in neural networks, and so on. One of the best-known and most widely used solutions is the evolutionary algorithm, a metaheuristic algorithm based on evolutionary theories that borrows stochastic mechanisms and has shown good performance in solving problems of continuous optimization. The use of this family of algorithms is very popular, despite the many difficulties that can be encountered in their design. Indeed, these algorithms have several parameters to adjust and a lot of operators to set according to the problems to solve. In the literature, we find a plethora of operators described, and it becomes complicated for the user to know which one to select in order to have the best possible result. In this context, this thesis has the main objective to propose methods to solve the problems raised without deteriorating the performance of these algorithms. Thus we propose two algorithms:- a method based on the maximum a posteriori that uses diversity probabilities for the operators to apply, and which puts this choice regularly in play,- a method based on a dynamic graph of operators representing the probabilities of transitions between operators, and relying on a model of the objective function built by a neural network to regularly update these probabilities. These two methods are detailed, as well as analyzed via a continuous optimization benchmark
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

M'Rad, Mohamed. "Utilités Progressives Dynamiques". Phd thesis, Ecole Polytechnique X, 2009. http://pastel.archives-ouvertes.fr/pastel-00005815.

Texto completo da fonte
Resumo:
En 2002, Marek Musiela et Thaleia Zariphopoulo ont introduit la notion de {\em forward utility}, c'est à dire une utilité dynamique, progressive, cohérente avec un marché financier donné. On peut voir ce processus comme un champ aléatoire $U(t,x)$ adapté à l'information disponible, qui a chaque instant est une utilité standard (donc en particulier à la date $0$, compatible avec une famille de stratégies données $(X^{\pi})$ au sens où pour tout $t,h>0$, $ \mathbb{E}(U(t+h,X^{\pi}_{t+h})|\mathcal{F}_t)\leq U(t,X^{\pi}_t)$ et il existe un portefeuille optimal $X^*$ pour lequel l'inégalité est une égalité.\\ Les auteurs ont fait plusieurs articles sur ce sujet, montrant en particulier comment les utilités classiques, puissance, exponentielle, etc doivent être modifiées pour être des utilités dynamique progressives. Une attention limitée a été portée à l'univers d'investissement. \noindent Dans mon travail de thèse, je considère un cadre beaucoup plus général. En effet, le marché est incomplet dans le sens où un investisseur est contraint, à chaque date $t\ge 0$, de choisir ces stratégies admissibles dans des cones convexes fermés, adaptés $\K_t (X_t)$ dépendent du niveau de sa richesse $X_t$. Je considère par la suite que les champs aléatoires $U(t,x)$ évoluent selon la dynamique \begin{equation}\label{eq:champ} dU(t,x)=\beta(t,x)+\Gamma(t,x) dW_t,~U(0,.)=u(.) (\text{donnée}) \end{equation} Comme dans l'optimisation classique, (dite rétrograde puisqu'on reconstruit l'information à partir de la fin), %je montre que le terme %$\beta(t,x)$ contient, contient nécéssairement, un terme de type hamiltonien classique %modifié par la présence de la dérivée de la volatilité %$\Gamma(t,x)$ de l'utilité progressive. Et par conséquent toute utilité progressive qui % satisfait les hypothèses de régularités du lemme d'Itô-Ventzell % satisfait je me propose d'étudier les équations de type Hamilton-Jacobi-Bellman que satisfait une utilités progressive $u(t,x)$. Pour mener cette étude, j'utilise une formule d'Itô généralisée apellée la formule de Ventzell-Friedlin, qui permet d'établir la décomposition de type Itô de la composée d'un champ aléatoire avec un processus d'Itô. Je montre alors que le terme $\beta(t,x)$ contient, nécéssairement, un terme de type hamiltonien classique modifié par la présence de la dérivée de la volatilité $\Gamma(t,x)$ de l'utilité progressive. Et par conséquent toute utilité progressive qui satisfait les hypothèses de régularités du lemme d'Itô-Ventzell satisfont l' équation différentielle stochastique suivante \begin{equation}\label{EDPSU} dU(t,x)=\Big\{-xU'_{x}\, r_t dt+ \frac{1}{2U''_{xx}(t,x)}\|\prod_{\K_t(x)\sigma_t}\big(U'_{x}(t,x) \eta_t+\Gamma'_x(t,x)\big) \|^2\Big\}(t,x)\,dt\>+\Gamma(t,x)\,dW_t. \end{equation} avec comme portefeuille optimal $X^*$ le processus associé à la stratégie $\pi^*$ donnée par \begin{equation} x\pi^*(t,x)\sigma_t=- \frac{1}{U''_{xx}(t,x)}\|\prod_{\K_t(x)\sigma_t}\big(U'_{x}(t,x) \eta_t+\Gamma'_x(t,x)\big)(t,x) \end{equation} \noindent où $r$ est le taux court, $\eta$ la prime de marché, $\sigma$ la matrice de variance covariance des actifs et $ \prod_{\K_t(x)\sigma_t}$ désigne l'opérateur de projection sur le cône $\K_t(x)\sigma_t$. \\ Ce point de vue permet de vérifier que le champ aléatoire, s'il existe est compatible avec l'univers d'investissement. Cependant, la question de la convexité et de la monotonie est complexe a priori, car il n'existe pas de théorèmes de comparaison pour les équations progressives (qui sont {\em forward}), contrairement au cas des équations rétrogrades. La question de l'interprétation et du rôle de la volatilité s'avère alors être centrale dans cette étude. Contrairement au cadre général que je considère ici, M.Musiela et T.Zariphopoulo, puis C.Rogers et al se sont restreint au cas où la volatilité de l'utilité est identiquement nulle. Le processus progressif $u(t,x)$ est alors une fonction déterministe satisfaisant une EDP non linéaire, que les auteurs ont transformé en solution harmonique espace temps de l'équation de la chaleur. \\ Mon choix a été d'étudire la question de la volatilité par des techniques de changement de numéraire; ainsi, je montre la stabilité de la notion d'utilité progressive par changement de numéraire. L'avantage considérable de cette technique, comparée à la méthode classique, % Comme dans le cas % classique, le problème est compliqué par le fait que l'espace des % contraites n'est pas invariant par changement de numéraire. est le fait qu'elle permet de se ramener toujours à un marché "martingale" ($r=0$ et $\eta=0$), ce qui simplifie considérablement les équations et les calculs. La dérivée de la volatilité apparaît alors comme une prime de risque instantanée que le marché introduit, et qui dépend du niveau de la richesse de l'investisseur. Ce point de vue nouveau permet de répondre à la question de l'interprétation de la volatilité de l'utilité. Dans la suite, j'étudie le problème dual et je montre que la transformée de {\em Fenchel} $\tU$ de la fonction concave $U(t,x)$ est un champ markovien lui aussi satisfaisant la dynamique \begin{eqnarray}\label{EDPSDuale'} d\tilde{U}(t,y)=\left[\frac{1}{2\tU_{yy}''}(\|\tilde{\Gamma}'\|^2-\|\prod_{\K_t(-\tU_y'(t,y))\sigma_t}(\tilde{\Gamma}^{'}_y-y\eta_t)\|^2) +y\tU_{y}' r_t\right](t,y)dt +\tilde{\Gamma}(t,y)dW_t,~~\tilde{\Gamma}(t,y)=\Gamma(t,\tU_y'(t,y)). \end{eqnarray} À partir de ce résultat je montre que le problème dual admet une unique solution $Y^*$ dans la volatilté $\nu^*$ est donnée par \begin{equation} y\nu^*(t,y)= -\frac{1}{\tU_{yy}''}\Big(\tilde{\Gamma}'+y\eta_t-\prod_{\K_t(-\tU_y')\sigma_t}(\tilde{\Gamma}^{'}_y-y\eta_t)\Big)(t,y). \end{equation} \noindent Ce ci permettra d'établir les identités clé suivantes: \begin{eqnarray} &Y^*(t,(U_x')^{-1}(0,x))=U'_x(t,X^*(t,x)) \label{A}\\ &(\Gamma'_x+U'_x\eta)(t,x)=(xU''(t,x)\pi^*(t,x)\sigma_t+\nu^*(U_x'(t,x))\label{B}. \end{eqnarray} % Remarquons que le terme $(\Gamma'_x+U'_x\eta)$ se décompose de manière unique sous forme % de sa projection sur le cone $\K\sigma$, qui est la stratégie optimale, et la projection sur le cone dual $\K^* \sigma$, % qui est la volatilité du processus optimal dual. Mais notre but est deux termes projétés su comme la projection % Á partir de la première identité nous savons que $U'_x(t,X^*(t,x))$ n'est autre que le processus optimal dual %Á ce stade rapellons que le but de cette étude est de carracteriser les utilités progressives. La question par la suite est la suivante: peut-on caractériser l'utilité $U(t,x)$ pour tout $x>0$ à partir de la première identité? Ceci peut paraître trop demander car nous cherchons à caractériser le champ $U$ connaissant seulement son comportement le long de l'unique trajectoire optimale $X^*$. Cependant, la réponse à cette question s'avère être positive et assez simple. En effet, notons par $\Y(t,x):=Y^*(t,(U_x')^{-1}(0,x))$, et supposons que le flot stochastique $X^*$ soit inversible, $\X$ désigne son inverse. Alors, en inversant dans (\ref{A}), je déduis que $U_x'(t,x)=\Y(t,\X(t,x))$. En intégrant par rapport à $x$, j'obtiens que $U(t,x)=\int_0^x\Y(t,\X(t,z))dz$, ce qui prouve le théorème suivant: \begin{theo} Sous des hypothèses de régularités et d'inversion du flot $X^*$, les processus $U$ définis par $U(t,x)=\int_0^x\Y(t,\X(t,z))dz$ sont des utilités progressives solutions de l'EDP stochastique (\ref{EDPSU}). \end{theo} % %\noindent Inversement, je montre le théorème d'EDP stochastique suivant: \begin{theo} Soit $U$ un champ aléatoire solutions de l'EDP stochastique (\ref{EDPSU}). En utilisant la décompostion (\ref{B}), si les EDS suivantes \begin{eqnarray*} & dX^*_t(x)=X^*_t(x)(r_tdt+\pi^*(t,X^*_t(x))\sigma_t(dW_t+\eta_tdt)),X^*_0(x)=x ~\\ & dY^*_t(y)=Y^*_t(y)(-r_tdt+\nu^*(t,Y^*_t(y))dW_t),~Y^*_0(y)=y \end{eqnarray*} admettent des solutions fortes unique et monotonnes, alors, en notant par $ \Y(t,x):=Y^*(t,(U_x')^{-1}(0,x))$ et par $\X$ le flot inverse de $X$, on obtient que $U(t,x)= \int_0^x\Y(t,\X(t,z))dz$. Si de plus $X^*$ et $Y^*$ sont croissants, $U$ est concave. \end{theo} \noindent %Dans ce travail, je considère toujours un marché incomplet, Dans une seconde partie de ce travail, je me place dans un cadre beaucoup plus général dans le sens où les actifs sont supposés être cadlag locallement bornés, et par conséquent la filtration n'est plus une filtration brownienne. Je remplace les contraintes de type cône convexe par des contraintes plus générales de type ensemble convexe. Le but de cette partie est de caractériser toutes les utilités progressives avec le minimum d'hypothèses, notamment avec moins d'hypothèses de régularités sur les champs aléatoires $U$. Je ne suppose plus que $U$ est deux fois différentiable et par conséquent je ne peut plus appliquer le lemme d'Itô-Ventzell. L'approche est alors différente: je commence par établir des conditions d'optimalité sur le processus de richesses optimale ainsi que le processus optimal dual, et ce en utilisant des méthodes d'analyse. En utilisant ces résultats je démontre, par des éléments d'analyse, la convexité ainsi que les conditions d'optimalités que toutes les utilités progressives générant une richesse croissante est de la forme $\int_0^x\Y(t,\X(t,z))dz$ avec $\Y$ : $\Y X$ est une surmartingale pour toute richesse $X$ et une martingale si $X=X^*$.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Bou, Nader Wissam. "Méthodologie de choix et d'optimisation de convertisseurs d'énergie pour les applications chaînes de traction automobile". Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM047.

Texto completo da fonte
Resumo:
D'importants efforts de recherche ont été investis dans l'industrie automobile sur les nouveaux carburants et les nouvelles chaînes de traction hybride électrique afin de réduire les émissions de carbone des véhicules. La consommation de carburant de ces groupes motopropulseurs hybrides dépend des performances du convertisseur d'énergie utilisé, des besoins énergétiques du véhicule, ainsi que de la stratégie de gestion énergétique déployée à bord. Cette thèse examine le potentiel de nouveaux convertisseurs d'énergie comme substitut du moteur thermique à combustion interne (ICE). Les systèmes de turbines à gaz sont considérés comme des convertisseurs d'énergie potentiel pour les chaînes de traction hybride série (SHEV), car ils offrent de nombreux avantages intrinsèques à l'automobile, tels que la capacité de fonctionner avec plusieurs carburants, la compacité, la réduction du nombre de pièces mobiles, la réduction du bruit et des vibrations. Une analyse exergo-technologique explicite est proposée pour identifier les configurations thermodynamiques réalistes. Une étude préconceptionnelle a été réalisée pour déterminer les rapports puissance/poids de ces systèmes. Un modèle SHEV est développé et les composants du groupe motopropulseur sont dimensionnés en fonction des critères de performance du véhicule. Des simulations de consommation sont effectuées sur le cycle d’homologation WLTC, en prenant en compte les besoins en énergie électrique et thermique du véhicule en plus des besoins en énergie mécanique, et en utilisant une méthode innovante d'optimisation comme stratégie de gestion de l'énergie. Le cycle turbine à gaz (avec compression refroidie, régénérateur et réchauffe durant la détente (IRReGT)) est priorisé car il offre un rendement et une densité de puissance plus élevés ainsi qu'une consommation de carburant réduite par rapport aux autres systèmes investigués. De plus, un modèle dynamique a été développé et des simulations ont été effectuées pour tenir compte de la surconsommation de carburant pendant les phases transitoires du démarrage. Des essais ont également été mis en œuvre sur certains sous-systèmes du cycle IRReGT identifié. Les résultats montrent une amélioration de la consommation de carburant avec l'IRReGT comme groupe auxiliaire de puissance par rapport à l'ICE. Par conséquent, le système IRReGT sélectionné présente un potentiel, non négligeable, qui remplacerait le moteur thermique à combustion interne dans les futures chaînes de traction hybride électriques
Significant research efforts have been invested in the automotive industry on alternative fuels and new hybrid electric powertrain in attempt to reduce carbon emissions from passenger cars. Fuel consumption of these hybrid powertrains strongly relies on the energy converter performance, the vehicle energetic needs, as well as on the energy management strategy deployed on-board. This thesis investigates the potential of new energy converters as substitute of actual internal combustion engine in automotive powertrain applications. Gas turbine systems is identified as potential energy converter for series hybrid electric vehicle (SHEV), as it offers many automotive intrinsic benefits such as multi-fuel capability, compactness, reduced number of moving parts, reduced noise and vibrations among others. An exergo-technological explicit analysis is conducted to identify the realistic GT-system thermodynamic configurations. A pre-design study have been carried out to identify the power to weight ratios of those systems. A SHEV model is developed and powertrain components are sized considering vehicle performance criteria. Energy consumption simulations are performed on the worldwide-harmonized light vehicles test cycle (WLTC), which account for the vehicle electric and thermal energy needs in addition to mechanical energy needs, using an innovative bi-level optimization method as energy management strategy. The intercooled regenerative reheat gas turbine (IRReGT) cycle is prioritized, offering higher efficiency and power density as well as reduced fuel consumption compared to the other investigated GT-systems. Also a dynamic model was developed and simulations were performed to account for the over fuel consumption during start-up transitory phases. Tests were also performed on some subsystems of the identified IRReGT-system. Results show improved fuel consumption with the IRReGT as auxiliary power unit (APU) compared to ICE. Consequently, the selected IRReGT-system presents a potential for implementation on futur SHEVs
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Delbot, François. "Au delà de l'évaluation en pire cas : comparaison et évaluation en moyenne de processus d'optimisation pour le problème du vertex cover et des arbres de connexion de groupes dynamiques". Phd thesis, Université d'Evry-Val d'Essonne, 2009. http://tel.archives-ouvertes.fr/tel-00927315.

Texto completo da fonte
Resumo:
La théorie de la complexité distingue les problèmes que l'on sait résoudre en un temps polynomial en la taille des données (que l'on peut qualifier de raisonnable), des problèmes NP-complets, qui nécessitent (en l'état actuel des connaissances) un temps de résolution exponentiel en la taille des données (que l'on peut qualifier de déraisonnable). C'est pour cette raison que la communauté scientifique s'est tournée vers les algorithmes (polynomiaux) d'approximation dont la mesure de qualité se fait le plus souvent grâce au rapport d'approximation en pire cas (pour un problème de minimisation de taille, un algorithme a un rapport d'approximation de k si la taille de toute solution pouvant être retournée par l'algorithme est inférieure ou égale à k fois la taille de la solution optimale). Dans la littérature, on en vient à considérer qu'un algorithme est plus performant qu'un autre lorsqu'il possède un plus petit rapport d'approximation en pire cas. Cependant, il faut être conscient que cette mesure, désormais "classique", ne prend pas en compte la réalité de toutes les exécutions possibles d'un algorithme (elle ne considère que les exécutions menant à la plus mauvaise solution). Mes travaux de thèse ont pour objet de mieux "capturer" le comportement des algorithmes d'approximation en allant plus loin que le simple rapport d'approximation en pire cas, et ce sur deux problèmes distincts : I. Le problème du Vertex Cover En montrant que les performances moyennes d'un algorithme peuvent être décorélées des performances en pire cas. Par exemple, nous avons montré que dans la classe des graphes spécialement conçus pour le piéger en pire cas, l'algorithme glouton "Maximum Degree Greedy" retourne, en moyenne, des solutions dont la taille tend vers l'optimum lorsque n tend vers l'infini. En évaluant les performances moyennes d'un algorithme. Nous avons prouvé que l'algorithme online présenté par Demange et Paschos en 2005 (dont le rapport d'approximation en pire cas est égal au degré maximum du graphe) est au plus 2-approché en moyenne dans n'importe quel graphe. Ce résultat, combiné à d'autres, montre que cet algorithme est "en pratique" meilleur que la plupart des algorithmes 2-approchés connus, malgré un mauvais rapport d'approximation en pire cas . En comparant les performances de différents algorithmes (analytiquement et expérimentalement). Nous avons proposé un algorithme de liste et nous avons prouvé analytiquement qu'il retourne toujours une meilleure solution que celle construite par un autre algorithme de liste récent [ORL 2006] quand ils traitent la même liste de sommets (dans certains graphes particuliers, la différence de taille peut être arbitrairement grande). Nous avons également comparé analytiquement (en utilisant des outils comme les séries génératrices) les performances moyennes de six algorithmes sur les chemins. Nous les avons ensuite expérimentées sur un grand nombre de graphes de diverses familles bien choisies. On constate dans ces études que les algorithmes 2-approchés étudiés sont ceux qui obtiennent les plus mauvaises performances en moyenne et que ceux qui ont les meilleurs comportements moyens ont de mauvais rapports d'approximation (fonction du degré max. du graphe). Tous ces résultats montrent que le rapport d'approximation en pire cas n'est pas toujours suffisant pour caractériser l'intégralité de la qualité d'un algorithme et que d'autres analyses (en moyenne notamment) doivent être effectuées pour en faire le tour. II. Le problème de la connexion de groupes dynamiques dans les réseaux Nous avons analysé un processus de mise-à-jour d'un arbre connectant dans un réseau un groupe que les membres peuvent rejoindre ou quitter à tout moment. Notre processus possède de bonnes propriétés : il est simple à implémenter et il garantit, après chaque opération d'ajout ou de retrait, que le diamètre de l'arbre est au plus 2 fois l'optimal. Cependant, pour obtenir cette garantie, nous devons autoriser la reconstruction totale de l'arbre lorsque le membre identifié comme sa racine quitte le groupe. Ces étapes de reconstruction sont très coûteuses et nous cherchons donc à en évaluer le nombre. Des travaux précédents montraient que dans le pire cas, il faut reconstruire (quasiment) à chaque étape pour conserver la garantie sur le diamètre. Nous montrons dans cette thèse (en utilisant les marches aléatoires, etc.) que, en fonction de certains paramètres du problèmes (comme les probabilités associées aux opérations d'ajout et de retrait), l'espérance du nombre de reconstructions est soit logarithmique en le nombre d'évènements (ajout ou retrait), soit constant. Ce résultat montre que le comportement moyen est très bon (malgré un pire cas très défavorable) et que notre processus de mise-à-jour peut être une solution viable en pratique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Mabed, Hakim. "Modèles et techniques d'optimisation dynamique pour les réseaux radiomobiles". Angers, 2003. http://www.theses.fr/2003ANGE0019.

Texto completo da fonte
Resumo:
Le design représente une étape indispensable à la conception, le déploiement et l'extension des réseaux radiomobiles. La nature dynamique de l'environnement des réseaux radiomobiles rend difficile l'établissement des critères de performance liés à la robustesse et à l'évolutivité des réseaux. La contribution de cette thèse se situe sur deux plans. Au niveau de la modélisation nous proposons plusieurs modèles de planification de fréquences tenant compte de l'évolution court et moyen terme du trafic. Comme nous présentons un modèle de planification des capacités cellulaires bi-critères. Sur un plan algorithmique, nous étudions plusieurs techniques d'optimisation dynamique et multicritère basées sur une hybridation des techniques de recherche tabou et d'algorithmes génétiques. Des tests sont effectués sur des réseaux fictifs et réels afin de valider les modèles et les techniques proposés
Cellular network design is a crucial task during the conception, the deployment and the extension of radio phone network. The dynamic aspect of cellular network environnent makes difficult the establishment of performance criteria related to the robustness and the upgradeability of networks. The contribution of this thesis is two folds. On the modelling level, we propose several models for frequency planning taking into account short, medium and long term traffic evolution. We present also a bi-criteria model for cell capacity planning. On the algorithmic level, we study several dynamic and multi-criteria optimization techniques based on hybridization of tabu search and genetic algorithm heuristics. Tests are carried out on both fictitious and real word problems in order to validate proposed models and techniques
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Fournier, Frantz. "Méthodologie d'optimisation dynamique et de commande optimale des réacteurs électrochimiques discontinus". Vandoeuvre-les-Nancy, INPL, 1998. http://docnum.univ-lorraine.fr/public/INPL_T_1998_FOURNIER_F.pdf.

Texto completo da fonte
Resumo:
Les procédés électrochimiques occupent une part non-négligeable dans l'industrie chimique. Des études préliminaires montrent cependant que le mode de fonctionnement traditionnel de ces procédés (à potentiel ou à courant constant) n'est pas toujours le meilleur. Elles encouragent à envisager l'amélioration du fonctionnement des procédés électrochimiques par l'utilisation des méthodes d'optimisation dynamique. L’étude présentée dans cette thèse propose une méthodologie de l'optimisation dynamique et de la commande optimale dans le cas des procédés électrochimiques discontinus. On cherche ainsi à formuler et résoudre les problèmes d'optimisation du fonctionnement dynamique des réacteurs électrochimiques, à analyser les différentes sensibilités des paramètres du modèle et à appliquer les profils optimaux de commande en boucle fermée dans des conditions expérimentales aussi réalistes que possibles. La méthodologie est appliquée à différents problèmes électrochimiques tels que la minimisation de la consommation d'énergie électrique, la maximisation du rendement, de la sélectivité ou encore la minimisation du temps opératoire. Toutes les méthodes d'optimisation utilisées sont fondées sur le principe du maximum. Un inventaire non exhaustif des techniques de résolution de problèmes d'optimisation dynamique et leurs principales caractéristiques sont ainsi présentées. En intégrant au problème, des contraintes physiques, ces méthodes fournissent des conditions optimales de fonctionnement réalistes. Les performances de l'optimisation dynamique sont comparées à celles résultant des meilleures conditions de fonctionnement statiques. Les améliorations entre le mode de fonctionnement optimisé et le meilleur mode usuel peuvent s'élever à plusieurs dizaine de pourcent. Différentes formes de l'analyse de la sensibilité des paramètres du modèle soulignent la validité des résultats optimaux dans des conditions opératoires qui diffèrent de celles idéalement représentée dans le modèle des réacteurs considérés. Pour la mise en œuvre de la commande optimale, des techniques de reconstruction de l'état et une loi de commande en boucle fermée ont été mis au point.
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Bonnefoy, Antoine. "Elimination dynamique : accélération des algorithmes d'optimisation convexe pour les régressions parcimonieuses". Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4011/document.

Texto completo da fonte
Resumo:
Les algorithmes convexes de résolution pour les régressions linéaires parcimonieuses possèdent de bonnes performances pratiques et théoriques. Cependant, ils souffrent tous des dimensions du problème qui dictent la complexité de chacune de leur itération. Nous proposons une approche pour réduire ce coût calculatoire au niveau de l'itération. Des stratégies récentes s'appuyant sur des tests d'élimination de variables ont été proposées pour accélérer la résolution des problèmes de régressions parcimonieuse pénalisées tels que le LASSO. Ces approches reposent sur l'idée qu'il est profitable de dédier un petit effort de calcul pour localiser des atomes inactifs afin de les retirer du dictionnaire dans une étape de prétraitement. L'algorithme de résolution utilisant le dictionnaire ainsi réduit convergera alors plus rapidement vers la solution du problème initial. Nous pensons qu'il existe un moyen plus efficace pour réduire le dictionnaire et donc obtenir une meilleure accélération : à l'intérieur de chaque itération de l'algorithme, il est possible de valoriser les calculs originalement dédiés à l'algorithme pour obtenir à moindre coût un nouveau test d'élimination dont l'effet d'élimination augmente progressivement le long des itérations. Le dictionnaire est alors réduit de façon dynamique au lieu d'être réduit de façon statique, une fois pour toutes, avant la première itération. Nous formalisons ce principe d'élimination dynamique à travers une formulation algorithmique générique, et l'appliquons en intégrant des tests d'élimination existants, à l'intérieur de plusieurs algorithmes du premier ordre pour résoudre les problèmes du LASSO et Group-LASSO
Applications in signal processing and machine learning make frequent use of sparse regressions. Resulting convex problems, such as the LASSO, can be efficiently solved thanks to first-order algorithms, which are general, and have good convergence properties. However those algorithms suffer from the dimension of the problem, which impose the complexity of their iterations. In this thesis we study approaches, based on screening tests, aimed at reducing the computational cost at the iteration level. Such approaches build upon the idea that it is worth dedicating some small computational effort to locate inactive atoms and remove them from the dictionary in a preprocessing stage so that the regression algorithm working with a smaller dictionary will then converge faster to the solution of the initial problem. We believe that there is an even more efficient way to screen the dictionary and obtain a greater acceleration: inside each iteration of the regression algorithm, one may take advantage of the algorithm computations to obtain a new screening test for free with increasing screening effects along the iterations. The dictionary is henceforth dynamically screened instead of being screened statically, once and for all, before the first iteration. Our first contribution is the formalisation of this principle and its application to first-order algorithms, for the resolution of the LASSO and Group-LASSO. In a second contribution, this general principle is combined to active-set methods, whose goal is also to accelerate the resolution of sparse regressions. Applying the two complementary methods on first-order algorithms, leads to great acceleration performances
Estilos ABNT, Harvard, Vancouver, APA, etc.
Mais fontes

Capítulos de livros sobre o assunto "Dynamiques d'optimisation"

1

FRIOUX, Clémence, e Anne SIEGEL. "Problèmes d’optimisation combinatoire pour l’étude du métabolisme". In Approches symboliques de la modélisation et de l’analyse des systèmes biologiques, 51–96. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9029.ch2.

Texto completo da fonte
Resumo:
Les modèles basés sur les réseaux métaboliques permettent de prédire le potentiel de production de molécules des organismes dans des conditions données. L’obtention de ces réseaux passe par une étape de complétion basée sur la résolution de problèmes d’optimisation combinatoire. Ce chapitre définit et décrit ces problèmes d'optimisation à partir de différents paradigmes de modélisation dynamique qui peuvent être associés à un système biologique.
Estilos ABNT, Harvard, Vancouver, APA, etc.

Trabalhos de conferências sobre o assunto "Dynamiques d'optimisation"

1

"LA VALEUR DE RENDEMENT DYNAMIQUE UN OUTIL D'OPTIMISATION DE LA VALEUR". In 7th European Real Estate Society Conference: ERES Conference 2000. ERES, 2000. http://dx.doi.org/10.15396/eres2000_110.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia