Teses / dissertações sobre o tema "Optimisation par essaims de particules"

Siga este link para ver outros tipos de publicações sobre o tema: Optimisation par essaims de particules.

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Optimisation par essaims de particules".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Sun, Yanxia. "Improved particle swarm optimisation algorithms". Thesis, Paris Est, 2011. http://encore.tut.ac.za/iii/cpro/DigitalItemViewPage.external?sp=1000395.

Texto completo da fonte
Resumo:
D. Tech. Electrical Engineering.
Particle Swarm Optimisation (PSO) is based on a metaphor of social interaction such as birds flocking or fish schooling to search a space by adjusting the trajectories of individual vectors, called "particles" conceptualized as moving points in a multidimensional space. This thesis presents several algorithms/techniques to improve the PSO's global search ability. Simulation and analytical results confirm the efficiency of the proposed algorithms/techniques when compared to the other state of the art algorithms.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Lu, Yanping. "Optimisation par essaim de particules application au clustering des données de grandes dimensions". Thèse, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/5112.

Texto completo da fonte
Resumo:
Clustering high-dimensional data is an important but difficult task in various data mining applications. A fundamental starting point for data mining is the assumption that a data object, such as text document, can be represented as a high-dimensional feature vector. Traditional clustering algorithms struggle with high-dimensional data because the quality of results deteriorates due to the curse of dimensionality. As the number of features increases, data becomes very sparse and distance measures in the whole feature space become meaningless. Usually, in a high-dimensional data set, some features may be irrelevant or redundant for clusters and different sets of features may be relevant for different clusters. Thus, clusters can often be found in different feature subsets rather than the whole feature space. Clustering for such data sets is called subspace clustering or projected clustering, aimed at finding clusters from different feature subspaces. On the other hand, the performance of many subspace/projected clustering algorithms drops quickly with the size of the subspaces in which the clusters are found. Also, many of them require domain knowledge provided by the user to help select and tune their settings, like the maximum distance between dimensional values, the threshold of input parameters and the minimum density, which are difficult to set. Developing effective particle swarm optimization (PSO) for clustering high-dimensional data is the main focus of this thesis. First, in order to improve the performance of the conventional PSO algorithm, we analyze the main causes of the premature convergence and propose a novel PSO algorithm, call InformPSO, based on principles of adaptive diffusion and hybrid mutation. Inspired by the physics of information diffusion, we design a function to achieve a better particle diversity, by taking into account their distribution and the number of evolutionary generations and by adjusting their"social cognitive" abilities. Based on genetic self-organization and chaos evolution, we build clonal selection into InformPSO to implement local evolution of the best particle candidate, gBest, and make use of a Logistic sequence to control the random drift of gBest. These techniques greatly contribute to breaking away from local optima. The global convergence of the algorithm is proved using the theorem of Markov chain. Experiments on optimization of unimodal and multimodal benchmark functions show that, comparing with some other PSO variants, InformPSO converges faster, results in better optima, is more robust, and prevents more effectively the premature convergence. Then, special treatments of objective functions and encoding schemes are proposed to tailor PSO for two problems commonly encountered in studies related to high-dimensional data clustering. The first problem is the variable weighting problem in soft projected clustering with known the number of clusters k . With presetting the number of clusters k, the problem aims at finding a set of variable weights for each cluster and is formulated as a nonlinear continuous optimization problem subjected to bound. constraints. A new algorithm, called PSOVW, is proposed to achieve optimal variable weights for clusters. In PSOVW, we design a suitable k -means objective weighting function, in which a change of variable weights is exponentially reflected. We also transform the original constrained variable weighting problem into a problem with bound constraints, using a non-normalized representation of variable weights, and we utilize a particle swarm optimizer to minimize the objective function in order to obtain global optima to the variable weighting problem in clustering. Our experimental results on both synthetic and real data show that the proposed algorithm greatly improves cluster quality. In addition, the results of the new algorithm are much less dependent on the initial cluster centroids. The latter problem aims at automatically determining the number of clusters k as well as identifying clusters. Also, it is formulated as a nonlinear optimization problem with bound constraints. For the problem of automatical determination of k , which is troublesome to most clustering algorithms, a PSO algorithm called autoPSO is proposed. A special coding of particles is introduced into autoPSO to represent partitions with different numbers of clusters in the same population. The DB index is employed as the objective function to measure the quality of partitions with similar or different numbers of clusters. autoPSO is carried out on both synthetic high-dimensional datasets and handcrafted low-dimensional datasets and its performance is compared to other selected clustering techniques. Experimental results indicate that the promising potential pertaining to autoPSO applicability to clustering high-dimensional data without the preset number of clusters k.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Gouda, Eid Abdelbaki Ahmed. "Transmission planétaire magnétique : étude, optimisation et réalisation". Thesis, Nancy 1, 2011. http://www.theses.fr/2011NAN10024/document.

Texto completo da fonte
Resumo:
Le travail présenté dans ce mémoire porte sur l'étude, l'optimisation et la réalisation d'une transmission planétaire magnétique. Dans notre thèse nous essayons de répondre à quelques questions intéressantes sur la possibilité de remplacer un train planétaire mécanique par un train planétaire magnétique, est-ce que la formule de Willis reste valable pour le train planétaire magnétique et est-ce que les trains magnétiques ont des performances similaires à celles des trains mécaniques ? Donc nous étudions, le remplacement du train mécanique par une transmission magnétique. Nous montrons que le train magnétique a un volume moindre, des pertes inférieures et plusieurs autres avantages. Notre but dans cette thèse est d'obtenir un "design" optimal d'un train magnétique. Nous utilisons un logiciel de calcul par éléments finis pour l'étude électromagnétique et nous cherchons également à optimiser les dimensions de ce train. Pour cela nous utilisons la méthode d'optimisation par essaim de particules (OEP). Un prototype a été réalisé ce qui permet de confronter les résultats de simulation et expérimentaux
The work presented in this thesis deals with the study, the optimisation and the realisation of a magnetic planetary transmission. We try to answer some questions about the possibility of replacing the mechanical planetary gear used in industrial machines by a magnetic planetary gear; is the formula of Willis still valid for the magnetic planetary gear and are the magnetic planetary gear performances at least similar to ones of the mechanical gears? We study the replacement of the mechanical planetary gear by a magnetic one. We show that the magnetic one has a smaller volume, lower losses and many other benefits. The objective of this work is to obtain an optimum design of a magnetic planetary gear. We use a finite element software to study the magnetic behaviour of the device and we also perform the optimization of the dimensions of the magnetic planetary gear. The particle swarm optimization method (PSO) has been used. A prototype has been built so the computation results has been compared to the experimental ones
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Li, Xiaolin. "Numerical study to improve the effectiveness and accuracy of particle swarm optimization for structural damage detection of a cantilever beam". Electronic Thesis or Diss., Bourges, INSA Centre Val de Loire, 2021. http://www.theses.fr/2021ISAB0010.

Texto completo da fonte
Resumo:
La détection des dommages structurels (DDS) basée sur les vibrations est un problème typique d'optimisation inverse. L'optimisation par essaims de particules (OEP) a été utilisée numériquement ou expérimentalement pour résoudre ce problème en raison de son concept simple, de sa convergence rapide et de ses quelques paramètres de réglage. Cependant, il existe encore quelques inconvénients, tels que la convergence prématurée, la consommation de temps et l'inconstance des performances, qui peuvent détériorer les résultats de la détection des dommages. L'objectif de ce manuscrit est d'améliorer l'efficacité et la précision d'OEP pour la DDS.Les principales contributions peuvent être résumées en trois aspects. Premièrement, les deux facteurs critiques, la fonction physique et la structure de topologie, qui ont un impact significatif sur la performance de l'EPS pour la DDS, sont étudiés séparément. Leurs résultats de simulation respectifs pour la DDS d'une poutre en porte-à-faux ont vérifié que la fonction physique basée sur l'ECBI est plus favorable ; la topologie à quatre groupes fournit la meilleure performance globale. Deuxièmement, un cadre multi-composants est construit et amélioré en combinant plusieurs variantes d’OEP différentes, permettant aux particules de suivre différentes stratégies de recherche dans l'optimisation afin que les avantages de chaque variante d’OEP puissent être exploités. Dans la version améliorée, les particules peuvent autoréguler leur comportement de recherche en fonction de leur taux de mise à jour réussie en mémoire. Des résultats de simulation sur des cas de détection de dommages multiples sur la poutre en porte-à-faux ont démontré l'efficacité du cadre et la supériorité de la version améliorée. Troisièmement, une approche en deux étapes, qui permet de localiser et de quantifier les dommages séparément, a été développée pour résoudre le problème de l’OEP, qui prend beaucoup de temps. Les résultats de la simulation montrent que la méthode en deux étapes proposée offre une convergence plus rapide, un temps de calcul moindre et une meilleure tolérance au bruit
Vibration-based based structural damage detection (SDD) is a typical inverse optimization problem. While the particle swarm optimization (PSO) has been used numerically or experimentally to solve this problem due to its simple concept, fast convergence, and few tuning parameters. However, there are still some drawbacks, such as premature convergence, time consumption, and inconsistent performance, which can deteriorate its damage detection results. This manuscript aims to improve the effectiveness and accuracy of particle swarm optimization (PSO) for structural damage detection (SDD). The main contributions can be summarized in three aspects. First, the two critical factors, fitness function and topology structure, which have significant impacts on the performance of the PSO in SDD, are investigated separately. Their respective simulation results in SDD of a cantilever beam verified that the ECBI-based fitness function is more favorable; the Four Cluster topology provides the best overall performance. Second, a multi-component framework is constructed and improved by combining several different PSO variants, allowing the particles to follow different search strategies in the optimization so that the advantages of each PSO variant can be exploited. In the improved version, the particles can self-regulate their search behavior based on their successful update rate in memory. Simulation results on multi-damage detection cases of the cantilever beam demonstrated the effectiveness of the framework and the superiority of the improved version. Thirdly, a two-stage approach that allows damage localization and quantification to be carried out separately was developed to address the time-consuming problem of PSO. Simulation results show that the proposed two-stage method provides faster convergence, less computation time, and better noise tolerance
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

El, Hami Norelislam. "Contribution aux méthodes hybrides d'optimisation heuristique : Distribution et application à l'interopérabilité des systèmes d'information". Phd thesis, INSA de Rouen, 2012. http://tel.archives-ouvertes.fr/tel-00771360.

Texto completo da fonte
Resumo:
Les travaux présentés dans ce mémoire proposent une nouvelle méthode d'optimisation globale dénommée MPSO-SA. Cette méthode hybride est le résultat d'un couplage d'une variante d'algorithme par Essaim de particules nommé MPSO (Particle Swarm Optimization) avec la méthode du recuit simulé nommé SA (Simulted Annealing). Les méthodes stochastiques ont connu une progression considérable pour la résolution de problèmes d'optimisation. Parmi ces méthodes, il y a la méthode Essaim de particules (PSO° qui est développée par [Eberhart et Kennedy (1995)]. Quant à la méthode recuit simulé (SA), elle provient du processus physique qui consiste à ordonner les atomes d'un cristal afin de former une structure cristalline parfaite. Pour illustrer les performances de la méthode MPSO-SA proposée, une comparaison avec MPSO et SA est effectuée sur des fonctions tests connues dans la littérature. La métode MPSO-SA est utilisée pour la résolution des problèmes réels interopérabilité des systèmes d'information, ainsi qu'aux problèmes d'optimisation et de fiabilité des structures mécaniques.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Ilea, Dan. "Conception optimale des moteurs à réluctance variable à commutation électronique pour la traction des véhicules électriques légers". Phd thesis, Ecole Centrale de Lille, 2011. http://tel.archives-ouvertes.fr/tel-00794100.

Texto completo da fonte
Resumo:
Le domaine de la traction électrique a suscité un très grand intérêt dans les dernières années. La conception optimale de l'ensemble moteur électrique de traction - onduleur doit prendre en compte une variété de critères et contraintes. Étant donnée la liaison entre la géométrie du moteur et la stratégie de commande de l'onduleur, l'optimisation de l'ensemble de traction doit prendre en considération, en même temps, les deux composants.L'objectif de la thèse est la conception d'un outil d'optimisation appliqué à un système de traction électrique légère qu'emploie un moteur à réluctance variable alimenté (MRVCE) par un onduleur triphasé en pont complet. Le MRVCE est modélisé en utilisant la technique par réseau de perméances. En même temps, la technique de commande électronique peut être facilement intégrée dans le modèle pour effectuer l'analyse dynamique du fonctionnement du moteur. L'outil d'optimisation réalisé utilise l'algorithme par essaim de particules, modifié pour résoudre des problèmes multi-objectif. Les objectifs sont liés à la qualité des caractéristiques de fonctionnement du moteur, en temps que les variables d'optimisation concernent la géométrie du moteur aussi que la technique de commande. Les performances de l'algorithme sont comparées avec ceux de l'algorithme génétique (NSGA-II) et d'une implémentation classique de l'algorithme par essaim de particules multi-objectif.Finalement, un prototype de moteur à réluctance variable est construit et le fonctionnement du MRVCE alimenté depuis l'onduleur triphasé en pont complet est implémenté et les outils de modélisation et d'optimisation sont validés
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Peng, Zhihao. "Optimisation par essaims particulaires pour la logistique urbaine". Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCA010/document.

Texto completo da fonte
Resumo:
Dans cette thèse, nous nous intéressons à la gestion des flux de marchandises en zone urbaine aussi appelée logistique du dernier kilomètre, et associée à divers enjeux d’actualité : économique, environnemental, et sociétal. Quatre principaux acteurs sont concernés par ces enjeux : chargeurs, clients, transporteurs et collectivités, ayant chacun des priorités différentes (amélioration de la qualité de service, minimisation de la distance parcourue, réduction des émissions de gaz à effet de serre, …). Face à ces défis dans la ville, un levier d’action possible consiste à optimiser les tournées effectuées pour la livraison et/ou la collecte des marchandises. Trois types de flux urbains sont considérés : en provenance ou à destination de la ville, et intra-urbains. Pour les flux sortants et entrants dans la ville, les marchandises sont d’abord regroupées dans un entrepôt situé en périphérie urbaine. S’il existe plusieurs entrepôts, le problème de planification associé est de type Location Routing Problem (LRP). Nous en étudions une de ses variantes appelée Capacitated Location Routing Problem (CLRP). Dans cette dernière, en respectant la contrainte de capacité imposée sur les véhicules et les dépôts, la localisation des dépôts et la planification des tournées sont considérées en même temps. L’objectif est de minimiser le coût total qui est constitué du coût d’ouverture des dépôts, du coût d’utilisation des véhicules, et du coût de la distance parcourue. Pour tous les flux, nous cherchons également à résoudre un problème de tournées de type Pickup and Delivery Problem (PDP), dans lequel une flotte de véhicules effectue simultanément des opérations de collecte et de livraison. Nous nous sommes focalisés sur deux de ses variantes : la variante sélective où toutes les demandes ne sont pas toujours satisfaites, dans un contexte de demandes appairées et de sites contraints par des horaires d’ouverture et fermeture (Selective Pickup and Delivery Problem with Time Windows and Paired Demands, ou SPDPTWPD). La seconde variante étudiée est l’extension de la première en ajoutant la possibilité d’effectuer les transports en plusieurs étapes par l’introduction d’opérations d’échanges des marchandises entre véhicules en des sites de transfert (Selective Pickup and Delivery with Transfers ou SPDPT). Les objectifs considérés pour ces deux variantes de PDP sont de maximiser le profit et de minimiser la distance. Chaque problème étudié fait l’objet d’une description formelle, d’une modélisation mathématique sous forme de programme linéaire, puis d’une résolution par des méthodes exactes, heuristiques et/ou métaheuristiques. En particulier nous avons développé des algorithmes basés sur une métaheuristique appelée Particle Swarm Optimization, que nous avons hybridée avec de la recherche locale. Les approches sont validées sur des instances de différentes tailles issues de la littérature et/ou que nous avons générées. Les résultats sont analysés de façon critique pour mettre en évidence les avantages et inconvénients de chaque méthode
In this thesis, we are interested in the management of goods flows in urban areas, also called last mile logistics, and associated with various current issues: economic, environmental, and societal. Four main stakeholders are involved by these challenges: shippers, customers, carriers and local authorities, each with different priorities (improving service quality, minimizing the travelling distance, reducing greenhouse gas emissions, etc.). Faced with these challenges in the city, one possible action lever is to optimize the routes for the pickup and/or delivery of goods. Three types of urban flows are considered: from or to the city, and intra-urban. For outgoing and incoming flows into the city, the goods are first grouped in a warehouse located on the suburban area of the city. If there are several warehouses, the associated planning problem is the Location Routing Problem (LRP). We are studying one of its variants called the Capacitated Location Routing Problem (CLRP). In this problem, by respecting the capacity constraint on vehicles and depots, the location of depots and route planning are considered at the same time. The objective is to minimize the total cost, which consists of the cost of opening depots, the cost of using vehicles, and the cost of the travelling distance. For all flows, we are also looking to solve a Pickup and Delivery Problem (PDP), in which a fleet of vehicles simultaneously carries out pickup and delivery operations. We focus on two of its variants: the selective variant where not all requests are satisfied, in a context of paired demands and time windows on sites (Selective Pickup and Delivery Problem with Time Windows and Paired Demands, or SPDPTWPD). The second studied variant is the extension of the first one by adding the possibility of carrying out transport in several stages by introducing operations for the exchange of goods between vehicles at transfer sites (Selective Pickup and Delivery with Transfers or SPDPT). The considered objectives for these two variants of PDP are to maximize profit and to minimize distance. Each studied problem is formally described, mathematically modelled as a linear program and then solved by exact, heuristic and/or metaheuristic methods. In particular, we have developed algorithms based on a metaheuristic called Particle Swarm Optimization, which we have hybridized with local search operators. The approaches are validated on instances of different sizes from the literature and/or on instances that we have generated. The results are critically analyzed to highlight the advantages and drawbacks of each method
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Chaigne, Benoît. "Méthodes hiérarchiques pour l'optimisation géométrique de structures rayonnantes". Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00429366.

Texto completo da fonte
Resumo:
Une antenne à réflecteur est un dispositif largement utilisé pour la communication satellite. La durée de vie d'un tel dispositif est étroitement liée à la fatigue due à la consommation d'énergie pour émettre le signal. Un des enjeux de la conception optimale d'une antenne revient donc à produire des systèmes dont le rendement est le meilleur possible par rapport à une tâche donnée. La particularité d'une antenne à réflecteur se traduit par la présence de surfaces rayonnantes dont la géométrie constitue le paramètre principal pour assumer cette tâche. Sur la base de la simulation de la propagation d'une onde électromagnétique en espace libre et en régime harmonique, on est capable de développer des méthodes d'optimisation numérique de la forme de surfaces rayonnantes. On cherche à minimiser un critère qui traduit en terme mathématique la tâche à effectuer d'un point de vue énergétique. Cependant, les méthodes utilisées sont souvent soumis à des difficultés liées au fait que ces problèmes sont mal posés et numériquement raides. Le contrôle étant géométrique, on a examiné dans cette thèse les contributions potentielles de représentations hiérarchiques afin d'étendre les performances d'algorithmes classiques d'optimisation. Ces extensions empruntent ses fondements aux méthodes multigrilles pour la résolution d'EDP. Un exemple théorique d'optimisation de forme permet d'assoir les stratégies appliquées à l'optimisation d'antennes. Puis des expériences numériques d'optimisation montrent que les algorithmes de bases sont améliorés en terme de robustesse comme en terme de vitesse de convergence.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Boudjelaba, Kamal. "Contribution à la conception des filtres bidimensionnels non récursifs en utilisant les techniques de l’intelligence artificielle : application au traitement d’images". Thesis, Orléans, 2014. http://www.theses.fr/2014ORLE2015/document.

Texto completo da fonte
Resumo:
La conception des filtres a réponse impulsionnelle finie (RIF) peut être formulée comme un problème d'optimisation non linéaire réputé pour être difficile sa résolution par les approches conventionnelles. Afin d'optimiser la conception des filtres RIF, nous explorons plusieurs méthodes stochastiques capables de traiter de grands espaces. Nous proposons un nouvel algorithme génétique dans lequel certains concepts innovants sont introduits pour améliorer la convergence et rendre son utilisation plus facile pour les praticiens. Le point clé de notre approche découle de la capacité de l'algorithme génétique (AG) pour adapter les opérateurs génétiques au cours de la vie génétique tout en restant simple et facile à mettre en oeuvre. Ensuite, l’optimisation par essaim de particules (PSO) est proposée pour la conception de filtres RIF. Finalement, un algorithme génétique hybride (HGA) est proposé pour la conception de filtres numériques. L'algorithme est composé d'un processus génétique pur et d’une approche locale dédiée. Notre contribution vise à relever le défi actuel de démocratisation de l'utilisation des AG’s pour les problèmes d’optimisation. Les expériences réalisées avec différents types de filtres mettent en évidence la contribution récurrente de l'hybridation dans l'amélioration des performances et montrent également les avantages de notre proposition par rapport à d'autres approches classiques de conception de filtres et d’autres AG’s de référence dans ce domaine d'application
The design of finite impulse response (FIR) filters can be formulated as a non-linear optimization problem reputed to be difficult for conventional approaches. In order to optimize the design of FIR filters, we explore several stochastic methodologies capable of handling large spaces. We propose a new genetic algorithm in which some innovative concepts are introduced to improve the convergence and make its use easier for practitioners. The key point of our approach stems from the capacity of the genetic algorithm (GA) to adapt the genetic operators during the genetic life while remaining simple and easy to implement. Then, the Particle Swarm Optimization (PSO) is proposed for FIR filter design. Finally, a hybrid genetic algorithm (HGA) is proposed for the design of digital filters. The algorithm is composed of a pure genetic process and a dedicated local approach. Our contribution seeks to address the current challenge of democratizing the use of GAs for real optimization problems. Experiments performed with various types of filters highlight the recurrent contribution of hybridization in improving performance. The experiments also reveal the advantages of our proposal compared to more conventional filter design approaches and some reference GAs in this field of application
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Bracikowski, Nicolas. "Modélisation multi-physique par modèles à constantes localisées ; application à une machine synchrone à aimants permanents en vue de son dimensionnement". Phd thesis, Ecole Centrale de Lille, 2012. http://tel.archives-ouvertes.fr/tel-00905641.

Texto completo da fonte
Resumo:
Afin de définir une conception optimale d'un système électromécanique, celui-ci doit intégrer des contraintes toujours plus drastiques et de nombreux phénomènes physiques issus de : l'électromagnétique, l'aérothermique, l'électronique, la mécanique et l'acoustique. L'originalité de cette thèse est de proposer une modélisation multi-physique pour la conception reposant sur des modèles à constantes localisées : solution intermédiaire entre la modélisation analytique et numérique. Ces différents modèles permettront l'étude et la conception sous contraintes d'une machine synchrone à aimants permanents dédiée pour la traction ferroviaire. Les résultats de simulations seront comparés à des résultats éléments finis mais aussi à des essais expérimentaux. Ce modèle multi-physique est entièrement paramétré afin d'être associé à des outils d'optimisation. On utilisera ici une optimisation par essaim de particules pour chercher des compromis entre différents objectifs sous forme de Front de Pareto. Dans ce papier, nous ciblerons les objectifs suivants : le couple d'origine électromagnétique et le bruit d'origine électromagnétique. Finalement une étude de sensibilité valide la robustesse de la conception retenue quand celle-ci est soumise aux contraintes de fabrication. L'objectif étant de poser les bases d'un outil d'aide à la décision pour le choix d'une machine électrique
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Amer, Motaz. "Power consumption optimization based on controlled demand for smart home structure". Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4354.

Texto completo da fonte
Resumo:
Cette thèse propose un concept d'optimisation de la consommation d'énergie dans les maisons intelligentes basées sur la gestion de la demande qui repose sur l'utilisation de système d e gestion de l'énergie à la maison (HEMS) qui est en mesure de contrôler les appareils ménagers. L'avantage de ce concept est l'optimisation de la consommation d'énergie sans réduire les utilisateurs vivant confort. Un mécanisme adaptatif pour une croissance intelligente système de gestion de l'énergie de la maison qui a composé des algorithmes qui régissent l'utilisation des différents types de charges par ordre de priorité pré-sélectionné dans la maison intelligente est proposé. En outre, une méthode pourl'optimisation de la puissance générée à partir d'un hybride de systèmes d'énergie renouvelables (HRES) afin d'obtenir la demande de charge. particules technique d'optimisation essaim (PSO) est utilisé comme l'optimisation algorithme de recherche en raison de ses avantages par rapport à d'autres techniques pour réduire le coût moyen actualisé de l'énergie (LCE) avec une plage acceptable de la production en tenant compte des pertes entre la production et la demande. Le problème est défini et la fonction objective est introduite en tenant compte des valeurs de remise en forme de sensibilité dans le processus d’essaim de particules. La structure de l'algorithme a été construite en utilisant un logiciel MATLAB et Arduino 1.0.5 du logiciel.Ce travail atteint le but de réduire la charge de l'électricité et la coupure du rapport pic-moyenne (PAR)
This thesis proposes a concept of power consumption optimization in smart homes based on demand side management that reposes on using Home Energy Management System (HEMS) that is able to control home appliances. The advantage of the concept is optimizing power consumption without reducing the users living comfort. An adaptive mechanism for smart home energy management system which composed of algorithms that govern the use of different types of loads in order of pre-selected priority in smart home is proposed. In addition a method for the optimization of the power generated from a Hybrid Renewable Energy Systems (HRES) in order to achieve the load demand. Particle Swarm Optimization Technique (PSO) is used as optimization searching algorithm due to its advantages over other techniques for reducing the Levelized Cost of Energy (LCE) with an acceptable range of the production taking into consideration the losses between production and demand sides. The problem is defined and the objective function is introduced taking into consideration fitness values sensitivity in particle swarm process. The algorithm structure was built using MATLAB software and Arduino 1.0.5 Software. This work achieves the purpose of reducing electricity expense and clipping the Peak-toAverage Ratio (PAR). The experimental setup for the smart meter implementing HEMS is built relying on the Arduino Mega 2560 board as a main controller and a web application of URL http://www.smarthome-em.com to interface with the proposed smart meter using the Arduino WIFI Shield
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Mahanfar, Alireza. "Contribution au développement de méthodes d'optimisation avancées pour la conception électromagnétique de circuits et dispositifs microondes". Limoges, 2005. http://aurore.unilim.fr/theses/nxfile/default/fc1e3b95-dc2d-4ba7-9b7a-c8fa46ecb1c8/blobholder:0/2005LIMO0063.pdf.

Texto completo da fonte
Resumo:
Ce mémoire est dédié à l'amélioration des méthodes d'optimisation classiquement utilisées pour la conception électromagnétique des circuits et dispositifs micro-ondes. Les améliorations apportées par ce travail ont concerné deux axes : - L'utilisation de modèles électromagnétiques paramétrés permettant d'accélérer les procédures d'optimisation en court-circuitant les simulations numériques. Le travail est consacré à la paramétrisation de la géométrie et à son application à l'optimisation des dispositifs micro-ondes. Il est montré qu'en utilisant la paramétrisation géométrique, la boucle d'optimisation classique peut être fondamentalement modifiée, de sorte à limiter au strict minimum le nombre d'analyses électromagnétiques. La paramétrisation du maillage est une étape essentielle pour la paramétrisation géométrique efficace du modèle électromagnétique: plusieurs techniques sont alors présentées et illustrées avec quelques exemples. - L'utilisation de méthodes évolutionnaires efficaces comme stratégie d'optimisation pour réduire les risques de divergence ou d'optimum local traditionnellement rencontrés avec les stratégies de type gradient. Une nouvelle technique évolutionnaire, très récemment introduite dans le domaine de l'électromagnétisme est la méthode des « essaims particulaires » (particle Swarm Optimization - PSO). Les détails de la technique sont tout d'abord donnés puis appliqués à l'optimisation de circuits et dispositifs micro-ondes à travers plusieurs exemples
This dissertation deals with the improvement of the optimization methods classically used for the electromagnetic design of the microwave devices and circuits. The improvement are addressed mainly through two distinct approaches : - The use of parameterized electromagnetic models that enables accelerating the procedures of optimization by avoiding multiple calculations of the electromagnetic fields. The major attention is devoted to tbe parameterization of the geometry and its application to the optimization of the microwave devices. It is shown that by using geometrical parameterization, the traditionalloop of optimization can be basically modified, so that the number of required electromagnetic analyses will be minimal. The parameterization of mesh is essential for effective geometrical parameterization of an electromagnetic model: several techniques are then presented and illustrated with some examples. - The use of effective evolutionary methods to reduce the risks of divergence that happens when using gradient-based techniques. This is specifically important when there is no or a little knowledge about the initial structure dimensions and/or its topology. A new evolutionary technique, very lately introduced into the field ofelectromagnetism is the method of the Particle Swarm Optimization (PSO). The technique and its different variants are discussed in detail followed by several examples which deploys different potentials ofthis technique
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Alkindy, Bassam. "Combining approaches for predicting genomic evolution". Thesis, Besançon, 2015. http://www.theses.fr/2015BESA2012/document.

Texto completo da fonte
Resumo:
En bio-informatique, comprendre comment les molécules d’ADN ont évolué au cours du temps reste un problème ouvert etcomplexe. Des algorithmes ont été proposés pour résoudre ce problème, mais ils se limitent soit à l’évolution d’un caractèredonné (par exemple, un nucléotide précis), ou se focalisent a contrario sur de gros génomes nucléaires (plusieurs milliardsde paires de base), ces derniers ayant connus de multiples événements de recombinaison – le problème étant NP completquand on considère l’ensemble de toutes les opérations possibles sur ces séquences, aucune solution n’existe à l’heureactuelle. Dans cette thèse, nous nous attaquons au problème de reconstruction des séquences ADN ancestrales en nousfocalisant sur des chaînes nucléotidiques de taille intermédiaire, et ayant connu assez peu de recombinaison au coursdu temps : les génomes de chloroplastes. Nous montrons qu’à cette échelle le problème de la reconstruction d’ancêtrespeut être résolu, même quand on considère l’ensemble de tous les génomes chloroplastiques complets actuellementdisponibles. Nous nous concentrons plus précisément sur l’ordre et le contenu ancestral en gènes, ainsi que sur lesproblèmes techniques que cette reconstruction soulève dans le cas des chloroplastes. Nous montrons comment obtenirune prédiction des séquences codantes d’une qualité telle qu’elle permette ladite reconstruction, puis comment obtenir unarbre phylogénétique en accord avec le plus grand nombre possible de gènes, sur lesquels nous pouvons ensuite appuyernotre remontée dans le temps – cette dernière étant en cours de finalisation. Ces méthodes, combinant l’utilisation d’outilsdéjà disponibles (dont la qualité a été évaluée) à du calcul haute performance, de l’intelligence artificielle et de la biostatistique,ont été appliquées à une collection de plus de 450 génomes chloroplastiques
In Bioinformatics, understanding how DNA molecules have evolved over time remains an open and complex problem.Algorithms have been proposed to solve this problem, but they are limited either to the evolution of a given character (forexample, a specific nucleotide), or conversely focus on large nuclear genomes (several billion base pairs ), the latter havingknown multiple recombination events - the problem is NP complete when you consider the set of all possible operationson these sequences, no solution exists at present. In this thesis, we tackle the problem of reconstruction of ancestral DNAsequences by focusing on the nucleotide chains of intermediate size, and have experienced relatively little recombinationover time: chloroplast genomes. We show that at this level the problem of the reconstruction of ancestors can be resolved,even when you consider the set of all complete chloroplast genomes currently available. We focus specifically on the orderand ancestral gene content, as well as the technical problems this raises reconstruction in the case of chloroplasts. Weshow how to obtain a prediction of the coding sequences of a quality such as to allow said reconstruction and how toobtain a phylogenetic tree in agreement with the largest number of genes, on which we can then support our back in time- the latter being finalized. These methods, combining the use of tools already available (the quality of which has beenassessed) in high performance computing, artificial intelligence and bio-statistics were applied to a collection of more than450 chloroplast genomes
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Cooren, Yann Siarry Patrick. "Perfectionnement d'un algorithme adaptatif d'Optimisation par Essaim Particulaire application en génie médical et en électronique /". S. l. : Paris Est, 2008. http://doxa.scd.univ-paris12.fr:80/theses/th0494552.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Boukef, Hela. "Sur l'ordonnancement d'ateliers job-shop flexibles et flow-shop en industries pharmaceutiques : optimisation par algorithmes génétiques et essaims particulaires". Phd thesis, Ecole Centrale de Lille, 2009. http://tel.archives-ouvertes.fr/tel-00577101.

Texto completo da fonte
Resumo:
Pour la résolution de problèmes d'ordonnancement d'ateliers de type flow-shop en industries pharmaceutiques et d'ateliers de type job-shop flexible, deux méthodes d'optimisation ont été développées : une méthode utilisant les algorithmes génétiques dotés d'un nouveau codage proposé et une méthode d'optimisation par essaim particulaire modifiée pour être exploitée dans le cas discret. Les critères retenus dans le cas de lignes de conditionnement considérées sont la minimisation des coûts de production ainsi que des coûts de non utilisation des machines pour les problèmes multi-objectifs relatifs aux industries pharmaceutiques et la minimisation du Makespan pour les problèmes mono-objectif des ateliers job-shop flexibles.Ces méthodes ont été appliquées à divers exemples d'ateliers de complexités distinctes pour illustrer leur mise en œuvre. L'étude comparative des résultats ainsi obtenus a montré que la méthode basée sur l'optimisation par essaim particulaire est plus efficace que celle des algorithmes génétiques, en termes de rapidité de la convergence et de l'approche de la solution optimale
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Boukef, Hela. "Sur l’ordonnancement d’ateliers job-shop flexibles et flow-shop en industries pharmaceutiques : optimisation par algorithmes génétiques et essaims particulaires". Thesis, Ecole centrale de Lille, 2009. http://www.theses.fr/2009ECLI0007/document.

Texto completo da fonte
Resumo:
Pour la résolution de problèmes d’ordonnancement d’ateliers de type flow-shop en industries pharmaceutiques et d’ateliers de type job-shop flexible, deux méthodes d’optimisation ont été développées : une méthode utilisant les algorithmes génétiques dotés d’un nouveau codage proposé et une méthode d’optimisation par essaim particulaire modifiée pour être exploitée dans le cas discret. Les critères retenus dans le cas de lignes de conditionnement considérées sont la minimisation des coûts de production ainsi que des coûts de non utilisation des machines pour les problèmes multi-objectifs relatifs aux industries pharmaceutiques et la minimisation du Makespan pour les problèmes mono-objectif des ateliers job-shop flexibles.Ces méthodes ont été appliquées à divers exemples d’ateliers de complexités distinctes pour illustrer leur mise en œuvre. L’étude comparative des résultats ainsi obtenus a montré que la méthode basée sur l’optimisation par essaim particulaire est plus efficace que celle des algorithmes génétiques, en termes de rapidité de la convergence et de l’approche de la solution optimale
For flexible job-shop and pharmaceutical flow-shop scheduling problems resolution, two optimization methods are considered: a genetic algorithm one using a new proposed coding and a particle swarm optimization one modified in order to be used in discrete cases.The criteria retained for the considered packaging lines in pharmaceutical industries multi-objective problems are production cost minimization and total stopping cost minimization. For the flexible job-shop scheduling problems treated, the criterion taken into account is Makespan minimization.These two methods have been applied to various work-shops with distinct complexities to show their efficiency.After comparison of these methods, the obtained results allowed us to notice the efficiency of the based particle swarm optimization method in terms of convergence and reaching optimal solution
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Schreuders, Cornelis. "Synthèse par plasma inductif de particules nanométriques de silicium : optimisation de la trempe". Limoges, 2006. http://aurore.unilim.fr/theses/nxfile/default/eaa5dec8-f4a4-4245-9423-2e6d8d1337a5/blobholder:0/2006LIMO0029.pdf.

Texto completo da fonte
Resumo:
Une étape importante de la synthèse de nanoparticules par plasma inductif est la trempe de la phase gazeuse. Cette trempe modifie les profiles de température et de vitesse des gaz, et donc la distribution de taille des particules produites ainsi que leur composition cristallographique. Cette étude théorique et expérimentale démontre ces effets sur les propriétés des particules en fonction de paramètres de trempe, tels que la géométrie de l’anneau de trempe, le nombre d’injecteurs et le flux de gaz. Les profiles de température et de vitesse du plasma ont été modélisés par CFD puis validés expérimentalement en fonction de paramètres de procédé, tels que la puissance de couplage, la pression du réacteur, les flux de gaz du plasma. La croissance des particules a aussi été modélisée, puis comparée à des résultats expérimentaux sur la synthèse de nanopoudres de silicium. L’influence de la trempe sur la formation de différentes phases cristallines a été démontrée sur le carbure de tungstène
An important step in the synthesis of nanoparticles by means of an inductively coupled plasma (ICP) process is quenching, which is the fast controlled cooling of the plasma gas. As quenching is influencing the temperature and velocity profiles, it is also affecting the particle size, size distribution, and phase composition of the product. In this work, the effect of several quench parameters, like nozzle number, nozzle diameter, quench gas flow rate, etc. , on the final particle size has been investigated both theoretically and experimentally. The influence of the quench and other process parameters (plate power, pressure, gas flow rates, …) on the plasma’s temperature and velocity profiles has been modelled using CFD and validated with experimental results. The particle size was modelled using a particle growth model and has been compared to results obtained from experiments with silicon. The effect of quenching on the product chemistry has been demonstrated for tungsten carbide
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Matriche, Yacine. "Détection et identification d’objets enfouis par sondage électromagnétique". Nantes, 2015. http://www.theses.fr/2015NANT2067.

Texto completo da fonte
Resumo:
La problématique de la thèse est liée à la recherche de solutions pouvant conduire à la détection et la localisation de mines antipersonnel en se basant sur des méthodes électromagnétiques. L'étude bibliographique a permis de s'orienter vers l'utilisation conjointe de deux techniques électromagnétiques complémentaires, à savoir le système de Radar à Pénétration de Sol (GPR) et le système à Induction Electro Magnétique (EMI). La modélisation par GPR est basée sur la méthode FDTD (Finite Difference Time Domain) tandis que celle utilisant l'EMI s'appuie sur la méthode des éléments finis (MEF). L'exploitation de l'un ou l'autre des systèmes GPR et EMI suit trois étapes complémentaires. La première étape consiste à localiser les objets suspects par détection de ruptures au niveau des données EMI et/ou GPR causées par la présence d'objets, et ce par l'emploi de la méthode KCD (Kernel Change Detection). La deuxième étape traite de la caractérisation de l'objet en exploitant la méthode PSO (Particle Swarm Optimization). Pour garantir la convergence vers un minimum global, et donc une solution unique, des éléments d'amélioration des performances de la méthode PSO sont introduits et concernent notamment l'exploration de l'espace de définition des particules, le suivi de leur comportement et la vitesse de convergence. L'association de la technique PSO aux deux méthodes FDTD et MEF a conduit à la localisation d'objets enfouis et la détermination de leurs caractéristiques géométriques et physiques. La dernière étape consiste à introduire les données géométriques et physiques issues de la deuxième étape dans un programme SVM (Support Vector Machine), et ce à des fins de classification de l'objet. La méthodologie est ensuite appliquée à la simulation de trois types de mines quant à leur identification et leur classification. Des données réelles issues d'une compagne de mesures ont conduit à la validation de la méthodologie
The thesis work is related to the search for solutions which may lead to the detection and location of landmines using electromagnetic methods. The bibliographical study allowed moving towards joint use of two complementary electromagnetic techniques, namely the Ground Penetration Radar (GPR) and the Electro Magnetic Induction (EMI) systems. GPR modeling is based on the Finite Difference Time Domain (FDTD), while that using the EMI is based on the Finite Element Method (FEM). The exploitation of one or other of the GPR and EMI follows three complementary steps. The first step is to locate suspicious objects by detecting ruptures at the EMI and/or GPR data caused by the presence of objects, using the KCD method (Kernel Change Detection). The second step deals with the characterization of the object by exploiting the Particle Swarm Optimization (PSO) technique. To guarantee convergence to a global minimum, and therefore a unique solution, improving performing elements are introduced into the PSO method, concerning in particular the exploration of the particles definition space, their behavior monitoring and the speed convergence. The association of the PSO technique to FDTD and MEF methods led to the location of buried objects and determination of their geometrical and physical characteristics. The last step is to introduce the geometrical and physical data provided from the second step, in a program SVM (Support Vector Machine), for the purpose of classification of the object. The methodology was then applied to the simulation of three types of mines for their identification and classification. Real data coming from measurements led to the methodology validation
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Dubreil, Hervé. "Méthodes d'optimisation de contrôleurs de logique floue pour le paramétrage automatique des réseaux mobiles UMTS". Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001822.

Texto completo da fonte
Resumo:
Les opérateurs pourraient améliorer la qualité de service et les performances des réseaux UMTS en adaptant judicieusement les paramètres de gestion de ressource radio (RRM). L'objectif de cette thèse est de développer des méthodes de paramétrage automatique des réseaux UMTS. Deux modes de fonctionnement ont été envisagés: le paramétrage off-line et l'adaptation on-line. Le premier mode permet à l'aide d'un simulateur de réseau mobile de déterminer le réglage des paramètres RRM le plus adapté pour une demande en trafic donnée. Le second mode ou ingénierie dynamique est un processus qui permettra d'ajuster dynamiquement certains paramètres contrôlant des algorithmes de RRM pour adapter le réseau mobile aux fluctuations de trafic. Le processus d'ingénierie automatique est basé sur une boucle de régulation qui est orchestrée par un contrôleur de logique floue. Ce contrôleur reçoit en entrées des indicateurs de qualité filtrés et produit en sortie un jeu de paramètres RRM modifiés. Pour améliorer les performances de ces contrôleurs, deux méthodes d'optimisation automatique ont été développées et testées numériquement à l'aide d'un simulateur de réseaux mobiles. La première est une méthode d'optimisation itérative stochastique: l'optimisation par essaim de particules. La seconde approche est fondée sur l'algorithme de Q-learning qui appartient à la famille des méthodes d'apprentissage par renforcement. Pour cela, il a été nécessaire de modéliser nos contrôleurs comme des systèmes d'inférence floue (SIF). Ces méthodes de contrôle ont été testées sur deux algorithmes RRM importants des réseaux UMTS: le contrôle d'admission et la macro-diversité. La méthode de contrôle automatique par SIF nous apparaît suffisamment générique pour pouvoir non seulement s'adapter aux autres algorithmes RRM, mais aussi à différents scénarii de gestion coordonnée des réseaux d'accès radio multi-systèmes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Yalaoui, Naïm. "Agencement et ordonnancement d'un atelier de l'industrie automobile et aéronautique". Troyes, 2010. http://www.theses.fr/2010TROY0021.

Texto completo da fonte
Resumo:
Dans cette thèse, nous avons étudié une problématique industrielle d’agencement et d’ordonnancement. Nous avons résolu le problème d’agencement en utilisant une approche nouvelle en 3 étapes. La première est un regroupement technologique des produits et des machines pour la minimisation des flux intercellulaires avec un algorithme génétique. Les machines sont ensuite affectées à des positions dans la deuxième étape avec la prise en compte de leurs appartenances aux familles. L’objectif est de minimiser les distances entre les machines en utilisant un algorithme à colonies de fourmis. La dernière étape est une évaluation par une agrégation pondérée des deux objectifs précédents. Nous nous sommes ensuite intéressés au niveau opérationnel avec la résolution d’un problème d’ordonnancement flow shop hybride avec pré affectation. L’objectif est la minimisation de la somme des retards. Une formulation mathématique a été proposée avec une résolution exacte. Un algorithme génétique et un algorithme d’essaim particulaire ont été développés. Ceux-ci ont été hybridés avec la logique floue afin de contrôler leurs paramètres. Une autre étude a été menée sur une autre problématique d’ordonnancement avec un aspect réentrant. Des métaheuristiques telles que l’algorithme génétique, l’algorithme à essaim particulaire ainsi que ces deux méthodes sous contrôleurs de logique floue ont été appliquées. Les résultats obtenus sur les différentes problématiques ont permit d’apporter des améliorations conséquentes comparées au cas industriel ainsi que l’implémentation d’applications informatiques
In this thesis, we studied an industrial layout and a scheduling problem. We solved the first one using a new approach. This is done on three steps. The first one is used to group ma-chines and products into families according to their production technology for the minimization of inter-cells flows using a genetic algorithm. The machines are then assigned to positions in the second stage with consideration of their memberships families. This step aims to minimize distances between machines using for its resolution an ant colony optimisation method. The last step is an assessment by a weighted aggregation of the two previous objectives. We further studied an hybrid flow shop problem with pre assigned orders. The objective is to minimize the total tardiness. A mathematical formulation was given with an exact resolution. A genetic algorithm and a particle swarm optimisation were developed. Both methods were associated with fuzzy logic to control their parameters. Improvement as well as the quality of solutions found is very interesting. Another study was conducted on another scheduling problem with re-entrant orders. Metaheuristics such as a genetic algorithm and particle swarm optimization were applied under fuzzy logic controller. The results obtained on different issues are very interesting compared to the industrial case. A computer application was also implemented on different topics
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Mey, Sébastien. "Absorbeur solaire volumique haute température à propriétés optiques contrôlées". Thesis, Perpignan, 2016. http://www.theses.fr/2016PERP0014/document.

Texto completo da fonte
Resumo:
La production d’électricité par voie solaire apparait comme la solution la plus prometteuse pour l’avenir, tant en termes de coûts que de pollution. Cependant, afin d’atteindre le niveau de technologie requis pour envisager l’implémentation de telles centrales à grande échelle, plusieurs verrous technologiques et scientifiques sont encore à lever.Dans cette optique, les récepteurs/absorbeurs volumiques pourraient permettre d’atteindre de plus hautes températures que les récepteurs surfaciques (technologie actuellement utilisée dans les tours solaires à concentration), permettant l’usage de cycles thermodynamiques à haute rendement, tels que les cycles Brayton. Via le projet ANR-OPTISOL, la thèse présentée ici veut répondre en partie à ces problématiques par l’étude des absorbeurs solaires volumiques :- Une étude expérimentale des mousses céramiques utilisées comme absorbeur solaire volumique haute température a été menée au laboratoire CNRS-PROMES (UPR 8521). Une expérience a été conçue afin de tester des échantillons de 5cm de diamètre soumis au flux solaire concentré en conditions quasi-1D au foyer d’un four solaire à axe vertical ;- Un code de calcul des transferts thermiques couplés en milieu poreux a été développé utilisant l’hypothèse de « milieu homogène équivalent », puis validé sur les campagnes expérimentales ;- Finalement, un algorithme d’optimisation par essaim de particules a été utilisé afin de déterminer les propriétés géométriques optimales de mousses céramiques maximisant l’efficacité de conversion thermosolaire
Solar-to-electricity power plants appear to be the most promises way for large electricity production in the future, in terms of costs as well as environmental impacts. Thus, reaching the required technology level still requires research and innovations in order to implement such power plants at large scale.In this context, volumetric solar receivers/absorbers could allow us to reach higher temperatures in comparison to surface receivers (actual concentrating solar power technology used in solar towers), leading to high efficiency thermodynamical cycles such as Brayton cycles. With the ANR-OPTISOL project, this thesis tends to give new answers on volumetric solar absorbers using ceramic foams:- Experimental studies of open pores ceramic foams used as high temperature volumetric solar absorber have been conducted at CNRS-PROMES laboratory (UPR 8521), with designed of a dedicated experiment for 5cm diameter samples operating under quasi-1D conditions submitted to concentrated solar power at the focal point of a vertical axis solar furnace;- A numerical code has been developed in order to solve coupled heat transfers in porous medium using the “equivalent homogeneous medium” hypothesis, then validated on the experimental campaigns;- Finally, an optimization algorithm has been used (“particle swarm optimization”) aiming the identification of the optimal geometrical characteristics maximizing the solar-to-thermal efficiency of ceramic foams
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Madiouni, Riadh. "Contribution à la synthèse et l’optimisation multi-objectif par essaims particulaires de lois de commande robuste RST de systèmes dynamiques". Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1053/document.

Texto completo da fonte
Resumo:
Ces travaux de recherche portent sur la synthèse systématique et l’optimisation de correcteurs numériques à structure polynomiale RST par approches métaheuristiques. Les problèmes classiques de placement de pôles et de calibrage des fonctions de sensibilité de la boucle fermée RST sont formulés sous forme de problèmes d’optimisation multi-objectif sous contraintes pour lequel des algorithmes métaheuristiques de type NSGA-II, MODE, MOPSO et epsilon-MOPSO sont proposés et adaptés. Deux formulations du problème de synthèse RST ont été proposées. La première approche, formulée dans le domaine temporel, consiste à minimiser des indices de performance, de type ISE et MO, issus de la théorie de la commande optimale et liés essentiellement à la réponse indicielle du système corrigé. Ces critères sont optimisés sous des contraintes non analytiques définis par des gabarits temporels sur la dynamique de la boucle fermée. Dans la deuxième approche de synthèse RST, une formulation dans le domaine fréquentiel est retenue. La stratégie proposée consiste à définir et calculer une fonction de sensibilité de sortie désirée en satisfaisant des contraintes de robustesse de H∞. L’utilisation de parties fixes dans la fonction de sensibilité de sortie désirée assurera un placement partiel des pôles de la boucle fermée RST. L’inverse d’une telle fonction de sensibilité désirée définira le filtre de pondération H∞ associé. Un intérêt particulier est porté à l’approche d’optimisation par essaim particulière PSO pour la résolution des problèmes multi-objectif de commande reformulés. Un algorithme MOPSO à grille adaptative est proposé et puis perfectionné à base des concepts de l’epsilon-dominance. L’algorithme epsilon-MOPSO obtenu a montré, par comparaison avec les algorithmes MOPSO, NSGA-II et MODE, des performances supérieures en termes de diversité des solutions de Pareto et de rapidité en temps de convergence. Des métriques de type distance générationnelle, taux d’erreurs et espacement sont toutefois considérées pour l’analyse statistique des résultats de mise en œuvre obtenus. Une application à la commande en vitesse variable d’un moteur électrique DC est effectuée, également pour la commande en position d’un système de transmission flexible à charges variables. La mise en œuvre par simulations numériques sur les procédés considérés est également présentée dans le but de montrer la validité et l’efficacité de l’approche de commande optimale RST proposée
This research focuses on the systematic synthesis and optimization of digital RST structure based controllers thanks to global metaheuristics approaches. The classic and hard problems of closed-loop poles placement and sensitivity functions shaping of RST control are well formulated as constrained multi-objective problems to be solved with proposed metaheuristics algorithms NSGA-II, MODE, MOPSO and especially epsilon-MOPSO. Two formulations of the metaheuristics-tuned RST problem have been proposed. The first one, which is given in the time domain, deals with the minimization of several performance criteria like the Integral Square Error (ISE) and the Maximum Overshoot (MO) indices. These optimal criteria, related primarily to the step response of the controlled plant, are optimized under non-analytical constraints defined by temporal templates on the closed-loop dynamics. In the second approach, a formulation in the frequency domain is retained. The proposed strategy aims to optimize a desired output sensitivity function satisfying H∞ robustness constraints. The use of a suitable fixed part of the optimized output sensitivity function will provide partial pole placement of the closed-loop dynamics of the digital RST controller. The opposite of such desired sensitivity function will define the associated H∞ weighting filter. The Multi-Objective Particle Swarm Optimization (MOPSO) technique is particularly retained for the resolution of all formulated multi-objective RST control problems. An adaptive grid based MOPSO algorithm is firstly proposed and then improved based on the epsilon-dominance concepts. Such proposed epsilon-MOPSO algorithm, with a good diversity of the provided Pareto solutions and fast convergence time, showed a remarkable superiority compared to the standard MOPSO, NSGA-II and MODE algorithms. Performance metrics, such as generational distance, error rate and spacing, are presented for the statistical analysis of the achieved multi-optimization results. An application to the variable speed RST control of an electrical DC drive is performed, also for the RST position control of a flexible transmission plant with varying loads. Demonstrative simulations and comparisons are carried out in order to show the validity and the effectiveness of the proposed metaheuristics-based tuned RST control approach, which is formulated in the multi-objective optimization framework
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Kessentini, Sameh. "Modélisation et optimisation de nanostructures plasmoniques : applications biomédicales". Troyes, 2012. http://www.theses.fr/2012TROY0024.

Texto completo da fonte
Resumo:
Cette thèse porte sur la modélisation et l’optimisation des structures plasmoniques : les biocapteurs nanostructurés dédiés à un diagnostic précoce de maladie et les nanoparticules utilisées en thérapie photothermique. Le mode opératoire de ces structures se base sur l’interaction avec la lumière. Pour les modéliser, le problème de diffusion électromagnétique est résolu en utilisant la théorie de Mie ou l’approximation discrétisation de dipôles. Le modèle numérique a été développé pour décrire l’effet de plusieurs paramètres des biocapteurs. Ensuite, le modèle est validé par comparaison à des résultats expérimentaux. Pour l’optimisation de ce type de problèmes à variables continues, l’optimisation par essaims particulaires est choisie. Certaines faiblesses des algorithmes ont été décryptées en introduisant un jeu d’essai plasmonique et des développements algorithmiques ont été proposés et validées sur un jeu d’essai de référence et celui plasmonique. L’optimisation du biocapteur montre que sa sensibilité (donnée par le gain en spectroscopie Raman) peut être augmentée de six fois par rapport au meilleur résultat expérimental. L’optimisation des nanoparticules (maximisation de leur absorption de la lumière) donne aussi des résultats nettement meilleurs que ceux reportés en littérature. De plus ces nanoparticules optimisées sont comparées entre elles. Enfin, la tolérance de la conception des structures optimisées est discutée
The present work deals with the modelling and optimization of the plasmonic structures: nanostructured biosensor for early disease diagnosis, and gold nanoparticles for photothermal therapy. Both structures are based on interaction with light. For modelling, the electromagnetic scattering problem is therefore solved using Mie theory and discrete dipole approximation (DDA). The numerical model is extended to take into account many parameters of biosensors. Then, the validity of the model is checked through comparison to experimental results. To optimize such problems of continuous variables, the particle swarm optimisation (PSO) is chosen. A plasmonic benchmark is introduced to test a set of algorithms and reveals some limitations. For this, we introduce a new memetic adaptive PSO (AMPSO) algorithm. The AMPSO is tested on a set of reference benchmark as well as the plasmonic benchmark and demonstrates its ability to find the global optimum solution rapidly. The optimization of biosensor shows that its sensitivity (given by the surface enhanced Raman spectroscopy gain) can be improved six times compared with the best experimental results. The optimization of nanoparticules (maximization of light absorption) reveals, as well, improved results compared to previous studies. Moreover, the optimized nanoparticles are compared to each other. Finally, the design tolerance of these nanostructures is also discussed
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Dubreil, Hervé. "Méthodes d'optimisation de contrôleurs de logique floue pour le paramétrage automatique des mobiles UMTS /". Paris : École nationale supérieure des télécommunications, 2006. http://catalogue.bnf.fr/ark:/12148/cb409496371.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Lefrançois, Julie. "Optimisation du rendement d'une turbine multi-ailes à l'aide d'une méthode lagrangienne par particules vortex". Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25539/25539.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Yousef, Labib. "Contribution à la résolution des problèmes de placement en trois dimensions". Thesis, Amiens, 2017. http://www.theses.fr/2017AMIE0020/document.

Texto completo da fonte
Resumo:
Les problèmes de découpe/placement interviennent dans de nombreux domaines industriels tels que le transport, la logistique et la production. Ils apparaissent soit en tant que problème principal, soit en tant que sous-problèmes de problèmes plus complexes. Ce travail s'intéresse à la résolution approchée (heuristique et métaheuristique) de nombreuses variantes du problème de découpe/placement (Cutting & Packing, notée C&P). Le problème de placement de sphères dans un container parallélépipède ouvert représente la première variante du problème traitée dans cette thèse. Le placement de sphères dans un container parallélépipède fermé est la deuxième variante du problème traitée. Finalement, le placement de sphères dans un container sphérique, qui représente la troisième variante abordée dans cette thèse. Pour ces variantes, nous proposons quatre méthodes de résolution. La première méthode s'appuie sur une recherche dichotomique et une recherche arborescente par faisceaux. Le but est de minimiser la longueur du container ouvert tout en plaçant l'ensemble des sphères disponibles.La deuxième méthode peut être vue comme une amélioration de la première méthode pour résoudre la même variante du problème de placement. Elle s'appuie sur la recherche par faisceaux combinée à la recherche dichotomique et une nouvelle estimation de la borne inférieure pour ce problème. En effet, la notion d'estimation a été introduite afin d'explorer efficacement des espaces de recherche dans lesquelles la qualité des solutions est à privilégier. La troisième méthode s'appuie sur la recherche à voisinage large combinée à une méthode d'optimisation continue. Le but, étant de maximiser la densité du placement dans un container fermé. Cette approche démarre d'une configuration quelconque et converge vers une solution réalisable en s'appuyant sur une recherche par voisinage large pour la diversification et en appliquant une méthode d'optimisation continue. Finalement, nous proposons une méthode d'optimisation par essaims articulaires combinée avec une procédure d'optimisation continue pour résoudre le problème de placement de sphères identiques dans un container sphérique fermé ou un container de forme parallélépipède ouvert. La procédure d'optimisation continue est utilisée pour réparer les solutions non réalisables produites lors de la résolution
Cutting and Packing (C&P) problems are encountered in numerous industrial domains such as transportation, logistics, reliability, and production. They appear either as standalone problems or as subproblems of more complex problems. The goal of the thesis is to investigate the use of heuristics and meta-heuristics for solving variants of cutting and packing problems. Packing spheres into an open container represents the first variant of the problem. Packing spheres into a closed container is the second variant. Finally, packing spheres into a spherical container is the third variant studied in the thesis.These variants are solved by using four solution methods. The first approach is based upon a dichotomous search and a truncated tree search (beam search). The goal is to determine the minimum length of the open container that contains all spheres without overlapping between all items. The second approach can be viewed as a modified version of the first one, for solving the same variant of the problem, where a tree search (beam search) combined with the dichotomous search and the estimate of the lower bound is proposed. Herein, the lower bound is used in order to guide the search process more efficiently where primarily the quality of the solutions is preferred. The third method is based upon the large neighborhood search combined with a continuous optimization algorithm for solving the problem of packing spheres into a close container. Starting from any configuration, the goal of the continuous optimization is to converge to a feasible solution whereas the large neighborhood search offers a diversification of the search space to enable convergence toward the solutions of best qualities. Finally, the particle swarm optimization combined with a continuous optimization algorithm is proposed to tackling the (identical) sphere packing problem into different containers
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Tsafarakis, Stelios. "An integrated marketing system for the optimal product line design problem, in a competitive reaction context, based on the qualitative consumer behavior analysis". Paris 9, 2010. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2010PA090056.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Salmon, Sébastien. "Caractérisation, identification et optimisation des systèmes mécaniques complexes par mise en oeuvre de simulateurs hybrides matériels/logiciels". Phd thesis, Université de Technologie de Belfort-Montbeliard, 2012. http://tel.archives-ouvertes.fr/tel-00823562.

Texto completo da fonte
Resumo:
La conception de systèmes complexes, et plus particulièrement de micro-systèmes complexes embarqués, posent des problèmes tels que l'intégration des composants, la consommation d'énergie, la fiabilité, les délais de mise sur marché, ...La conception mécatronique apparait comme étant particulièrement adaptée à ces systèmes car elle intègre intimement simulations, expérimentations, interactions entre sous-systèmes et cycles de reconception à tous les niveaux. Le produit obtenu est plus optimisé, plus performant et les délais de mise sur le marché sont réduits.Cette thèse a permis de trouver des méthodes de caractérisation, d'identification de paramètres ainsi que d'optimisation de systèmes mécatroniques actifs par la constitution de modèles numériques, de bancs d'expériences numériques, physiques et hybrides. Le cadre est bien précis : c'est celui d'un actionneur piézoélectrique amplifié, de sa commande ainsi que de la constitution générale de la boucle fermée d'un système mécatronique l'intégrant, les conclusions étant généralisables.Au cours de cette thèse, ont été introduits, avec succès, différents concepts :- Le " Signal Libre ". Un nouveau signal de commande des actionneurs piézoélectriques, basé sur les splines, maximise la vitesse de déplacement de l'actionneur et minimise sa consommation énergétique.- Deux améliorations de l'algorithme d'optimisation par essais de particules. La première introduit un arrêt de l'algorithme par la mesure du rayon de l'essaim ; le rayon limite est défini par la limite de mesurabilité des paramètres à optimiser ("Radius") ; la seconde ajoute la possibilité pour l'essaim de se transférer à une meilleure position tout en gardant sa géométrie. Ceci permet d' accélérer la convergence ("BSG-Starcraft")- L'optimisation expérimentale. Le modèle numérique étant très incertain, il est remplacé directement par le système réel dans le processus d'optimisation. Les résultats sont de qualité supérieure à ceux obtenus à partir de la simulation numérique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Bardolle, Frédéric. "Modélisation des hydrosystèmes par approche systémique". Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAH006/document.

Texto completo da fonte
Resumo:
Dans l'état actuel des connaissances, il est impossible de poser correctement toute la physique permettant de modéliser les hydrosystèmes dans leur ensemble, notamment à cause de la dynamique très contrastée des différents compartiments. Les modèles systémiques simplifient la représentation des hydrosystèmes en ne considérant que leurs flux d’échange. L’objet de ce travail est de proposer un outil de modélisation systémique fournissant des informations sur le fonctionnement physique des hydrosystèmes, tout en étant simple et parcimonieux. Ce modèle nommé MASH (pour Modélisation des Hydrosystèmes par Approche Systémique) est basé sur l’utilisation de fonctions de transfert paramétriques choisies en fonction de leur faible paramétrisation, leur caractère général et leur interprétation physique. Il est versatile, dans le sens que son architecture est modulable et que le nombre d’entrées, le nombre de fonctions de transfert en série et le type de fonctions de transfert utilisé est laissée à la discrétion de l’utilisateur. Ce modèle est inversé en utilisant de récentes avancées en apprentissage automatique grâce à une famille d’heuristiques basée sur l’intelligence en essaim nommé « optimisation par essaim de particule » (ou PSO pour « Particle Swarm Optimization »). Le modèle et ses algorithmes d’inversion sont testés sur un cas d’école synthétique, puis sur un cas d’application réel
In the light of current knowledge, hydrosystems cannot be modelled as a whole since underlying physical principles are not totally understood. Systemic models simplify hydrosystem representation by considering only water flows. The aim of this work is to provide a systemic modelling tool giving information about hydrosystem physical behavior while being simple and parsimonious. This model, called HMSA (for Hydrosystem Modelling with a Systemic Approach) is based on parametric transfer functions chose for their low parametrization, their general nature and their physical interpretation. It is versatile, since its architecture is modular, and the user can choose the number of inputs, outputs and transfer functions. Inversion is done with recent machine learning heuristic family, based on swarm intelligence called PSO (Particle Swarm Optimization). The model and its inversion algorithms are tested first with a textbook case, and then with a real-world case
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Hachimi, Hanaa. "Hybridations d'algorithmes métaheuristiques en optimisation globale et leurs applications". Electronic Thesis or Diss., Rouen, INSA, 2013. http://www.theses.fr/2013ISAM0017.

Texto completo da fonte
Resumo:
L’optimisation des structures est un processus essentiel dans la conception des systèmes mécaniques et électroniques. Cette thèse s’intéresse à la résolution des problèmes mono-objectifs et multi-objectifs des structures mécaniques et mécatroniques. En effet, les industriels ne sont pas seulement préoccupés à améliorer les performances mécaniques des pièces qu’ils conçoivent, mais ils cherchent aussi à optimiser leurs poids, leurs tailles, ainsi que leurs coûts de production. Pour résoudre ce type de problème, nous avons fait appel à des métaheuristiques robustes qui nous permettent de minimiser le coût de production de la structure mécanique et de maximiser le cycle de vie de la structure. Alors que des méthodes inappropriées de l’évolution sont plus difficiles à appliquer à des modèles mécaniques complexes en raison de temps calcul exponentiel. Il est connu que les algorithmes génétiques sont très efficaces pour les problèmes NP-difficiles, mais ils sont très lourds et trop gourmands quant au temps de calcul, d’où l’idée d’hybridation de notre algorithme génétique par l’algorithme d’optimisation par essaim de particules (PSO) qui est plus rapide par rapport à l’algorithme génétique (GA). Dans notre expérimentation, nous avons obtenu une amélioration de la fonction objectif et aussi une grande amélioration de la minimisation de temps de calcul. Cependant, notre hybridation est une idée originale, car elle est différente des travaux existants. Concernant l’avantage de l’hybridation, il s’agit généralement de trois méthodes : l’hybridation en série, l’hybridation en parallèle et l’hybridation par insertion. Nous avons opté pour l’hybridation par insertion par ce qu’elle est nouvelle et efficace. En effet, les algorithmes génétiques se composent de trois étapes principales : la sélection, le croisement et la mutation. Dans notre cas, nous remplaçons les opérateurs de mutation par l’optimisation par essaim de particules. Le but de cette hybridation est de réduire le temps de calcul ainsi que l’amélioration la solution optimale
This thesis focuses on solving single objective problems and multiobjective of mechanical and mechatronic structures. The optimization of structures is an essential process in the design of mechanical and electronic systems. Industry are not only concerned to improve the mechanical performance of the parts they design, but they also seek to optimize their weight, size and cost of production. In order to solve this problem we have used Meta heuristic algorithms robust, allowing us to minimize the cost of production of the mechanical structure and maximize the life cycle of the structure. While inappropriate methods of evolution are more difficult to apply to complex mechanical models because of exponential calculation time. It is known that genetic algorithms are very effective for NP-hard problems, but their disadvantage is the time consumption. As they are very heavy and too greedy in the sense of time, hence the idea of hybridization of our genetic algorithm optimization by particle swarm algorithm (PSO), which is faster compared to the genetic algorithm (GA). In our experience, it was noted that we have obtained an improvement of the objective function and also a great improvement for minimizing computation time. However, our hybridization is an original idea, because it is a different and new way of existing work, we explain the advantage of hybridization and are generally three methods : hybridization in series, parallel hybridization or hybridization by insertion. We opted for the insertion hybridization it is new and effective. Indeed, genetic algorithms are three main parts : the selection, crossover and mutation. In our case,we replace the operators of these mutations by particle swarm optimization. The purpose of this hybridization is to reduce the computation time and improve the optimum solution
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Rupprecht, Jean-Francois. "Optimisation de processus de recherche par des marcheurs aleatoires symetriques, avec biais ou actifs". Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066488/document.

Texto completo da fonte
Resumo:
Les marches aléatoires avec recherche de cible peuvent modéliser des réactions nucléaires ou la quête de nourriture par des animaux. Dans cette thèse, nous identifions des stratégies qui minimisent le temps moyen de première rencontre d’une cible (MFPT) pour plusieurs types de marches aléatoires. Premièrement, pour des marches symétriques ou avec biais, nous déterminons la distribution des temps de première sortie par une ouverture dans une paroi en forme de secteur angulaire, d’anneau ou de rectangle. Nous concluons sur la minimisation du MFPT en termes de la géométrie du confinement. Deuxièmement, pour des marches alternant entre diffusions volumique et surfacique, nous déterminons le temps moyen de première sortie par une ouverture dans la surface de confine- ment. Nous montrons qu’il existe un taux de désorption optimal qui minimise le MFPT. Nous justifions la généralité de l’optimalité par l’étude des rôles de la géométrie, de l’adsorption sur la surface et d’un biais en phase volumique. Troisièmement, pour des marches actives composées de phases balistiques entrecoupées par des réorientations aléatoires, nous obtenons l’expression du taux de réorientation qui minimise le MFPT en géométries sphériques de dimension deux ou trois. Dans un dernier chapitre, nous modélisons le mouvement de cellules eucaryotes par des marches browniennes actives. Nous expliquons pourquoi le temps de persistance évolue expo- nentiellement avec la vitesse de la cellule. Nous obtenons un diagramme des phases des types de trajectoires. Ce modèle minimal permet de quantifier l’efficacité des processus de recherche d’antigènes par des cellules immunitaires
Random search processes can model nuclear reactions or animal foraging. In this thesis, we identify optimal search strategies which minimize the mean first passage time (MFPT) to a target for various processes. First, for symmetric and biased Brownian particles, we compute the distribution of exit times through an opening within the boundary of angular sectors, annuli and rectangles. We conclude on the optimizability of the MFPT in terms of geometric parameters. Second, for walks that switch between volume and surface diffusions, we determine the mean exit time through an opening inside the bounding surface. Under analytical criteria, an optimal desorption rate minimizes the MFPT. We justify that this optimality is a general property through a study of the roles of the geometry, of the adsorption properties and of a bias in the bulk random walk. Third, for active walks composed of straight runs interrupted by reorientations in a random direction, we obtain the expression of the optimal reorientation rate which minimizes the MFPT to a centered spherical target within a spherical confinement, in two and three dimensions. In a last chapter, we model the motion of eukaryotic cells by active Brownian walks. We explain an experimental observation: the persistence time is exponentially coupled with the speed of the cell. We also obtain a phase diagram for each type of trajectories. This model is a first step to quantify the search efficiency of immune cells in terms of a minimal number of biological parameters
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Souakri, Sonia. "Optimisation des performances d'un procédé industriel d'électrofiltration alimenté par hautes puissances pulsées". Thesis, Pau, 2016. http://www.theses.fr/2016PAUU3028/document.

Texto completo da fonte
Resumo:
La lutte contre la pollution atmosphérique est un enjeu majeur de ce XXIème siècle. Le centre deMarcoule du CEA développe différents procédés de traitement de déchets issus du nucléaire parincinération/vitrification qui génèrent des gaz de combustion nécessitant un traitement. Pour cefaire, le CEA utilise la précipitation électrostatique, technique de traitement d’effluents gazeuxemployée pour la filtration des particules fines.Cette thèse est consacrée à l’optimisation des performances d’un électrofiltre alimenté parhautes puissances pulsées. L’un des objectifs est de dimensionner et réaliser une nouvelle électrodeémissive adaptée au développement d’un nouveau procédé d’incinération. Cette nouvelle électrodecouplée à son alimentation HT, dont les paramètres électriques ont été optimisés, ont permisd’obtenir des rendements de filtration maximum durant des temps de fonctionnement enadéquation avec des applications industrielles. L’impact des caractéristiques physico-chimiques despoussières sur l’efficacité de filtration a été analysé.Une étude spécifique a également porté sur l’évolution des différents régimes de décharge quise développent dans l’électrofiltre de manière à identifier les phénomènes responsables de la chuted’efficacité du procédé. Les bénéfices de l’électrode émissive et d’un générateur hybride, combinantdes impulsions de tension superposées à un fond continu, ont clairement été mis en évidence parleurs effets sur l’initiation des "back corona" et par conséquent sur la durée de fonctionnement àrendement optimal
The fight against air pollution is a major issue in the twenty-first century. The center of Marcouleof CEA develops different waste treatment processes by incineration / vitrification that generatecombustion gases requiring treatment. To do this, the CEA uses the electrostatic precipitation, atechnical waste gas treatment employed for thin particles filtration.This thesis is dedicated to optimizing the performance of an electrofilter supplied by high pulsedpowered. One of the goals is to size and achieve a new emissive electrode adapted to thedevelopment of a new incineration process. This new electrode coupled to its High Voltage (HV)power supply, which electrical parameters were optimized, allowed to obtain maximum filtrationefficiency during operating times in line with industrial applications. The impact of thephysicochemical characteristics of dusts on the filtration efficiency was analyzed.A specific study also focused on the evolution of different discharge conditions that develop inthe electrofilter to identify the phenomena responsible for the process efficiency fall. The intake ofthe emissive electrode and a hybrid generator, combining a continuous background voltagesuperimposed with impulses, has clearly been demonstrated by their effects on back coronainitiation and therefore on the optimal efficiency operation duration
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Kemmoe, Tchomte Sylverin. "Métaheuristiques, modèles mathématiques, modèles d'évaluation de performances pour le problème d'ordonnancement de projets sous contraintes de ressources". Clermont-Ferrand 2, 2007. http://www.theses.fr/2007CLF21757.

Texto completo da fonte
Resumo:
Cette thèse s'inscrit dans le domaine scientifique appelé recherche opérationnelle, elle traite des problèmes d'ordonnancement de projets sous contraintes de ressources ainsi que les méthodes de résolution. Pour ce dernier, elle reprend les principales méthodes approchées et exactes publiées dans la littérature pour résoudre le problème classique du RCPSP (Resource-Constrained Scheduling Problem) ainsi que ses extensions. Dans cette thèse nous avons proposé deux extensions de la méthode d'opimisation à population appelée Optimisation par essaims particulaires ou OEP et une modélisation du problème de RCPSP basée sur les flots. L'OEP, issue de l'étude de l'organisation des groupes d'animaux a été introduite par un psychologue social et par un ingénieur électricien (Kennedy Eberhart, 1995). L'évolution d'une particule se souvient du meilleur point (le plus proche de l'objectif) par lequel il est passé au cours de ses évolutions et tend à y retourner ; chaque particule est informée du meilleur point connu au sein de la population et tend à s'y rendre. La première extension consiste à favoriser davantage le processus d'intensification par rapport au processus de diversification (notions présentées par Blum et Rolli, 2003). Ce qui a conduit à définir la notion d'attracteurs puissants. La deuxième extension porte sur l'adaptation du cadre général proposé par M. Clerc, 2004, aux problèmes d'optimisation combinatoire ayant des contraintes de précédence. Ce qui a amené à redéfinir différents opérateurs et concepts : position d'une particule, différence de deux positions, vitesse d'une particule, somme de deux vitesses, etc. Dans cette thèse, une modélisation du problème de RCPSP basée sur les flots a été proposée. Les concepts de graphe-support, graphe-problème et de graphe-solution ont été définis. Ce qui a conduit à mettre en oeuvre une métaheuristique avec les problèmes de voisinage suivants : le chemin critique, la permutation des activités de la séquence et la pénalisation de certains arcs du graphe. Elle s'est enfin intéressée à un problème industriel, celui des chantiers polyvalents de PSA PEUGEOT CITROEN. Problème industriel complexe dont il a fallu utiliser la méthodologie ASCI (Analyse Spécification Conception et Implantation) pour le décomposer en trois sous-systèmes (physique, logique et décisionnel) disjoints mais communicants. Des methodes approchées (heuristiques, métaheuristiques et simulation) et exactes (programmation linéaire et méthodes de décomposition) ont été utilisées pour résoudre ce problème industriel. Des tests numériques ont été réalisés et les résultats sont comparables et parfois meilleurs à ceux publiés dans la littérature
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Gõni, Javier. "Les matériaux composites à matrice de cuivre renforcée par des particules de graphite : caractérisation physico-chimique et optimisation des conditions d'élaboration". Bordeaux 1, 1997. http://www.theses.fr/1997BOR10673.

Texto completo da fonte
Resumo:
Les composites a matrice metallique font partie d'un groupe de materiaux a hautes performances specifiques tres etudies de par le monde tant du point de vue scientifique qu'industriel. Dans ce sens, l'objectif de ce travail est axe sur l'optimisation du procede de fabrication d'un materiau cu-c(gr) ; celui-ci est elabore par un procede industriel usuel : le forgeage liquide, l'etude du mouillage et de la reactivite renfort-matrice ont ete realisees et optimisees. L'ensemble des proprietes mecaniques et physiques attendues ne peut etre optimise que par une bonne connaissance des mecanismes interfaciaux ce qui passe, dans notre cas, par l'optimisation de la composition chimique de la matrice de cuivre par ajout d'un agent mouillant. Enfin, le coefficient de friction et le comportement a l'usure des materiaux renforces ont ete mesures et compares a la matrice de reference pour mesurer les gains apportes par ces nouveaux materiaux composites.
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Smairi, Nadia. "Optimisation par essaim particulaire : adaptation de tribes à l'optimisation multiobjectif". Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00981558.

Texto completo da fonte
Resumo:
Dans le cadre de l'optimisation multiobjectif, les métaheuristiques sont reconnues pour être des méthodes performantes mais elles ne rencontrent qu'un succès modéré dans le monde de l'industrie. Dans un milieu où seule la performance compte, l'aspect stochastique des métaheuristiques semble encore être un obstacle difficile à franchir pour les décisionnaires. Il est donc important que les chercheurs de la communauté portent un effort tout particulier sur la facilité de prise en main des algorithmes. Plus les algorithmes seront faciles d'accès pour les utilisateurs novices, plus l'utilisation de ceux-ci pourra se répandre. Parmi les améliorations possibles, la réduction du nombre de paramètres des algorithmes apparaît comme un enjeu majeur. En effet, les métaheuristiques sont fortement dépendantes de leur jeu de paramètres. Dans ce cadre se situe l'apport majeur de TRIBES, un algorithme mono-objectif d'Optimisation par Essaim Particulaire (OEP) qui fonctionne automatiquement,sans paramètres. Il a été mis au point par Maurice Clerc. En fait, le fonctionnement de l'OEP nécessite la manipulation de plusieurs paramètres. De ce fait, TRIBES évite l'effort de les régler (taille de l'essaim, vitesse maximale, facteur d'inertie, etc.).Nous proposons dans cette thèse une adaptation de TRIBES à l'optimisation multiobjectif. L'objectif est d'obtenir un algorithme d'optimisation par essaim particulaire multiobjectif sans paramètres de contrôle. Nous reprenons les principaux mécanismes de TRIBES auxquels sont ajoutés de nouveaux mécanismes destinés à traiter des problèmes multiobjectif. Après les expérimentations, nous avons constaté, que TRIBES-Multiobjectif est moins compétitif par rapport aux algorithmes de référence dans la littérature. Ceci peut être expliqué par la stagnation prématurée de l'essaim. Pour remédier à ces problèmes, nous avons proposé l'hybridation entre TRIBES-Multiobjectif et un algorithme de recherche locale, à savoir le recuit simulé et la recherche tabou. L'idée était d'améliorer la capacité d'exploitation deTRIBES-Multiobjectif. Nos algorithmes ont été finalement appliqués sur des problèmes de dimensionnement des transistors dans les circuits analogiques
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

El, Dor Abbas. "Perfectionnement des algorithmes d'optimisation par essaim particulaire : applications en segmentation d'images et en électronique". Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00788961.

Texto completo da fonte
Resumo:
La résolution satisfaisante d'un problème d'optimisation difficile, qui comporte un grand nombre de solutions sous-optimales, justifie souvent le recours à une métaheuristique puissante. La majorité des algorithmes utilisés pour résoudre ces problèmes d'optimisation sont les métaheuristiques à population. Parmi celles-ci, nous intéressons à l'Optimisation par Essaim Particulaire (OEP, ou PSO en anglais) qui est apparue en 1995. PSO s'inspire de la dynamique d'animaux se déplaçant en groupes compacts (essaims d'abeilles, vols groupés d'oiseaux, bancs de poissons). Les particules d'un même essaim communiquent entre elles tout au long de la recherche pour construire une solution au problème posé, et ce en s'appuyant sur leur expérience collective. L'algorithme PSO, qui est simple à comprendre, à programmer et à utiliser, se révèle particulièrement efficace pour les problèmes d'optimisation à variables continues. Cependant, comme toutes les métaheuristiques, PSO possède des inconvénients, qui rebutent encore certains utilisateurs. Le problème de convergence prématurée, qui peut conduire les algorithmes de ce type à stagner dans un optimum local, est un de ces inconvénients. L'objectif de cette thèse est de proposer des mécanismes, incorporables à PSO, qui permettent de remédier à cet inconvénient et d'améliorer les performances et l'efficacité de PSO. Nous proposons dans cette thèse deux algorithmes, nommés PSO-2S et DEPSO-2S, pour remédier au problème de la convergence prématurée. Ces algorithmes utilisent des idées innovantes et se caractérisent par de nouvelles stratégies d'initialisation dans plusieurs zones, afin d'assurer une bonne couverture de l'espace de recherche par les particules. Toujours dans le cadre de l'amélioration de PSO, nous avons élaboré une nouvelle topologie de voisinage, nommée Dcluster, qui organise le réseau de communication entre les particules. Les résultats obtenus sur un jeu de fonctions de test montrent l'efficacité des stratégies mises en oeuvre par les différents algorithmes proposés. Enfin, PSO-2S est appliqué à des problèmes pratiques, en segmentation d'images et en électronique
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Mazhoud, Issam. "Contribution à l'optimisation en conception préliminaire de produit". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENI028/document.

Texto completo da fonte
Resumo:
L'optimisation en conception de produit constitue une activité à forte valeur ajoutée en entreprise. Ceci est d'autant plus important qu'elle est appliquée dans les premières phases du processus de conception. Les travaux dans cette thèse se placent dans ce contexte et proposent des outils adaptés d'aide à la décision en pré-dimensionnement de produits suivant deux critères: présence ou non de fonctionnelles dans le modèle, prise en compte ou non des incertitudes dans le modèle. Une méthode à base de calcul d'intervalles et de propagation de contraintes qui permet de faire de l'optimisation déterministe est introduite. Cette méthode permet de traiter les modèles d'optimisation sans fonctionnelles et sans prise en compte d'incertitudes. Une reformulation qui permet d'améliorer la convergence de l'algorithme est introduite. Une méthode d'optimisation stochastique à base d'essaims particulaires est présentée pour traiter les modèles de plus grande dimension. Un nouveau mécanisme de gestion de contraintes est introduit. Cet algorithme a aussi été étendu pour traiter les problèmes de conception en présence de contraintes du type équations différentielles. Afin de traiter les incertitudes dans les modèles, une méthode d'optimisation robuste est présentée. Elle combine un algorithme d'optimisation stochastique avec une méthode de propagation d'incertitude (PoV). Cette méthode de propagation d'incertitude est étendu aux modèles incluant des fonctionnelles
The optimization in product design is a high added-value activity. This is all the more important when it is performed at the early stages of the design process. The work presented in this thesis is placed in this context. It proposes adapted decision making tools in preliminary design following two criteria: whether or not the model contains functionals, and whether it takes into considerations the uncertainties. A method based on interval arithmetic and constraint propagation allowing to perform deterministic global optimization is introduced. This method allows handling optimization models without functionals and without considering uncertainties. A reformulation that permits to improve the algorithm convergence is introduced. A stochastic optimization method based on particular swarms is introduced in order to handle higher dimensional problems. A new constraint handling mechanism is introduced and tested on engineering problems. This algorithm has also been extended to design problems with ordinary differential equations constraints. In order to consider uncertainties, a robust optimization method is introduced. It combines a stochastic optimization method with an uncertainty propagation method called PoV. An extension of PoV to models involving functionals is introduced
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Chaabo, Tarek. "Optimisation d'une métrologie 4D-PTV pour la caractérisation d'un écoulement turbulent à très petites échelles". Electronic Thesis or Diss., Centrale Lille Institut, 2022. http://www.theses.fr/2022CLIL0021.

Texto completo da fonte
Resumo:
L'étude fondamentale de la turbulence revêt d’une importance significative en raison de son rôle dominant dans de nombreux domaines de la physique, des sciences de l'ingénieur, de l'astrophysique, de l'aéronautique, etc. La dissipation turbulente joue un rôle central dans l'écoulement turbulent et est donc une quantité importante dans les modèles de turbulence. Dans le but de caractériser cette dissipation, le présent travail est basé sur une technique de suivi de particules appelée "Shake-The Box" pour mesurer les champs de vitesse tridimensionnels en fonction du temps à une résolution pouvant avoisiner l'échelle dissipative. Le dispositif expérimental et le traitement de la technique Shake the Box ont été optimisés et poussés à leurs limites afin d'améliorer la résolution spatiale et la précision des trajectoires lagrangiennes mesurées. L'approche utilisée dans cette thèse est basée non seulement sur des données expérimentales mais aussi sur les images synthétiques PIV basées sur une simulation numérique directe des équations de Navier Stokes. L'investigation quantitative et qualitative nous permet de définir les paramètres optimaux pour notre application ciblée sur un écoulement de Von Karman Géant et donne les limites de la méthode
The fundamental study of turbulence is of significant importance due to its dominant role in many fields of physics, engineering sciences, astrophysics, aeronautics, etc. Turbulent dissipation plays a central role in turbulent flow and is therefore an important quantity in turbulence models. With the aim of characterizing this dissipation, the present work is based on a particle tracking technique called "Shake-The Box" to measure three-dimensional velocity fields as function of time at a resolution which can approach dissipative scale. The experimental setup and processing of the Shake the Box technique have been optimized and pushed to their limits in order to improve the spatial resolution and the accuracy of the measured Lagrangian trajectories. The approach used in this thesis was based not only on experimental data but also on the synthetic PIV images based on direct numerical simulation of the Navier Stokes equations. The quantitative and qualitative investigation allows us to define the optimal parameters for our targeted application on a Giant Von Karmen flow and gives the limits of the method
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Willkomm, Nancy. "Optimisation d'un antigène Gp140 d'enveloppe de VIH-1 par modifications du manteau de glycanes et expression dans un contexte de pseudo-particules". Lyon, École normale supérieure (sciences), 2008. http://www.theses.fr/2008ENSL0500.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Lachance, Étienne. "Résolution de conflits et séquençage d'avions par algorithmes évolutionnaires multiobjectifs". Thèse, Université de Sherbrooke, 2014. http://savoirs.usherbrooke.ca/handle/11143/119.

Texto completo da fonte
Resumo:
L'augmentation grandissante du trafic aérien rend le travail des contrôleurs aériens de plus en plus ardu, spécialement en ce qui a trait aux tâches de résolution de conflits et de séquençage d'avions en arrivée. L'automatisation de la résolution de conflits et du séquençage reste toujours un problème ouvert aujourd'hui. L'automatisation de ces deux problèmes permettrait d'une part de mieux modéliser le comportement des contrôleurs aériens dans un simulateur de vol, ou d'améliorer les outils de gestion du trafic aérien. Les caractéristiques combinatoires de ces problèmes conduisent à l'utilisation de techniques numériques stochastiques, plus spécifiquement des algorithmes évolutionnaires. De plus, les nombreux paramètres intervenant dans une situation de gestion de trafic aérien incitent à l'utilisation d'algorithmes multiobjectif. Dans un premier temps, un algorithme génétique multiobjectif (SPEA-MOD) et un algorithme de colonies de particules (PSO-MO) également multiobjectif ont été développés. Ces deux algorithmes ont été comparés à des problèmes multiobjectif contraints et non-contraints. Les résultats ont montré que SPEA-MOD et PSO-MO sont en général supérieurs à ce que l'on rapporte dans la littérature. Dans un deuxième temps, les deux algorithmes ont résolu plusieurs situations conflictuelles de la phase de vol en route (régime de croisière). Les instructions fournies par les algorithmes peuvent être en deux ou en trois dimensions. Les objectifs et les contraintes représentent des paramètres tels que la minimisation d'instructions fournies aux avions et une séparation minimale entre les avions. De ces solutions numériques réalisées, l'algorithme SPEA-MOD s'est avéré particulièrement efficace à des problèmes fortement contraints. Une modélisation novatrice de trajectoires complexes a permis de résoudre des problèmes de séquençage d'avions dans la phase d'arrivée. Le séquençage d'avions en arrivée par un algorithme évolutionnaire fut réalisé pour la première fois dans le cadre de cette recherche. Cette modélisation a également rendu possible la résolution de conflits de deux flux d'avions se croisant.
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Hassine, Hichem. "Modélisation, simulation et optimisation pour l'éco-fabrication". Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2015. http://www.theses.fr/2015ECAP0016/document.

Texto completo da fonte
Resumo:
Cette thèse se focalise sur la proposition et l’application des approches pour la modélisation de l’éco-fabrication. Ces approches permettent de préparer et simuler une démarche de fabrication des produits en assurant le couplage entre les objectifs écologiques et économiques.Les approches développées dans cette thèse sont basées sur les notions d’aide à la décision ainsi que l’optimisation multi objectifs. L’aide à la décision permet l’intervention en deux différents niveaux : le choix des impacts environnementaux à quantifier ainsi que le choix du scénario final de fabrication. Pour l’optimisation multi objectifs, elle assure le couplage entre les deux piliers principaux de l’éco-fabrication : l’écologie et l’économie. Au niveau de l’aide à la décision multi critères, les méthodes Evamix et Promethee ont été appliqués, tandis que les essaims particulaires ont été développés dans le cadre de l’optimisation multi objectifs.Ces approches ont été appliquées tout d’abord aux quelques opérations d’usinage : tournage et fraisage. Finalement, la chaîne de fabrication de l’acide phosphorique ainsi que celle d’acide sulfurique ont été le sujet de l’application des deux approches développées
This thesis focuses on the proposal and implementation of approaches for modeling sustainable manufacturing. These approaches are used to prepare and simulate a process of manufacturing products providing coupling between environmental and economic objectives.The approaches developed in this thesis are based on the concepts of decision support as well as multi-objective optimization. The decision support allows intervention in two different levels: the choice of indicator to quantify the environmental impacts and the choice of the final manufacturing scenario. For multi-objective optimization, it provides the coupling between the two main pillars of sustainable manufacturing: ecology and economy. In terms of multi criteria decision aid methods, Evamix and Promethee were applied, while particulate swarms were developed as part of the multi-objective optimization. These approaches have been applied initially to some machining operations: turning and milling. Finally, the production line of phosphoric acid and sulfuric acid were the subject of application of the two approaches developed
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Bimbot, Stéphane. "Optimisation par réseaux de neurones du potentiel de découverte du boson de Higgs dans le canal H ->ZZⁿ->2e⁰2e⁻ sur le détecteur CMS et étude des primitives de déclenchement du calorimètre électromagnétique". Palaiseau, Ecole polytechnique, 2006. http://www.theses.fr/2006EPXX0071.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Chen, Linjie. "Approche générique pour la prise de décisions multi-niveaux, contribution à la gestion des systèmes de production de soins en réseau". Thesis, Saint-Etienne, 2015. http://www.theses.fr/2015STET4006/document.

Texto completo da fonte
Resumo:
Le système de santé français est confronté au défi d’augmentation permanente de la demande en soins, sous une forte pression financière. Dans la stratégie nationale de santé, une des grandes orientations est de développer une base de coopération impliquant l’ensemble des acteurs et de leur engagement. Ces enjeux demandent au génie hospitalier de rechercher une efficience dans une échelle encore plus globale, ce qui demande d’intégrer les problèmes locaux et leurs outils d’optimisation qui présentent en général un haut degré de fragmentation, afin de contribuer à l’amélioration globale du système. Dans ce contexte-là, initialisé par un projet de conception du système de soins en réseau avec ressource de production mutualisée, nous proposons à travers ce mémoire de thèse une méthode générique pour résoudre le problème d’optimisation multi-niveaux dans lequel les décisions interdépendantes doivent être prises à différents niveaux dans une structure hiérarchique, ou aux étapes successives. Les décisions faites sont souvent corrélées, surtout pour une topologie de décisions enchaînées en hiérarchique que nous définissons sous le terme de « sous-structure optimale feedback ». La résolution de ce type de problème doit s’adapter pour prendre en compte autant que possible les implications liées aux décisions corrélées. La méthode proposée est basée sur la méta-heuristique PSO, elle utilise une procédure récursive pour définir le transfert des paramètres des sous-problèmes descendant et des évaluations ascendant à travers de multiples espaces de recherche, en assurant la cohérence de la convergence du problème global. Les applications et les analyses ont montrées que la méthode est assez générique et capable de produire la performance et la qualité de résolution proche de celles de la littérature
French healthcare system confronts the challenges of permanent increase in demand for healthcare, under heavy financial pressure. In the national healthcare strategy, a key focus is to develop a cooperation framework involving all organizations and units. These challenges require healthcare engineering to find efficiency in a more global scale, which means to integrate local optimization problems and decision tools that have generally a high degree of fragmentation in order to contribute to the overall improvement of the system. In this thesis, initiated by a shared unit-dose drug distribution system design project, a generic method was developed to solve the multi-level optimization problem in which interdependent decisions are made at different levels in a hierarchical structure, or at successive stages. The decisions made are often correlated, particularly for decisions in hierarchical topologies that we define by the term "optimal substructure with feedback". The resolution of this problem must be adapted to take into account all implications for correlated decisions. The proposed method is based on the meta-heuristic PSO, it uses a recursive procedure to define the top-down transfer of parameters and the bottom-up feedback of fitness through multiple search spaces, and ensures the consistency of global problem convergence. Our applications and analyzes have shown that this method is generic and is able to provide similar resolution performance and quality compared to the literature references
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Aubry, Judicaël. "Optimisation du dimensionnement d'une chaîne de conversion électrique directe incluant un système de lissage de production par supercondensateurs : application au houlogénérateur SEAREV". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00662488.

Texto completo da fonte
Resumo:
Le travail présenté dans cette thèse porte sur l'étude du dimensionnement d'une chaine de conversion électrique en entrainement direct d'un système direct de récupération de l'énergie des vagues (searev). Cette chaine de conversion est composée d'une génératrice synchrone à aimants permanents solidaire d'un volant pendulaire, d'un convertisseur électronique composé de deux ponts triphasés à modulation de largeur d'impulsion, l'un contrôlant la génératrice, l'autre permettant d'injecter l'énergie électrique au réseau. En complément, un système de stockage de l'énergie (batterie de supercondensateurs) est destiné au lissage de la puissance produite. Le dimensionnement de tous ces éléments constitutifs nécessite une approche d'optimisation sur cycle, dans un contexte de fort couplage multi-physique notamment entre les parties hydrodynamique et électromécanique. Dans un premier temps, l'ensemble génératrice-convertisseur, dont le rôle est d'amortir le mouvement d'un volant pendulaire interne, est optimisé en vue de minimiser le coût de production de l'énergie (coût du kWh sur la durée d'usage). Cette optimisation sur cycle est réalisée en couplage fort avec le système houlogénérateur grâce à la prise en compte conjointe de variables d'optimisation relatives à l'ensemble convertisseur-machine mais aussi à la loi d'amortissement du volant pendulaire. L'intégration d'une stratégie de défluxage, intéressante pour assurer un fonctionnement en écrêtage de la puissance, permet, dès l'étape de dimensionnement, de traiter l'interaction convertisseur-machine. Dans un second temps, la capacité énergétique du système de stockage de l'énergie fait l'objet d'une optimisation en vue de la minimisation de son coût économique sur cycle de vie. Pour ce faire, nous définissons des critères de qualité de l'énergie injectée au réseau, dont un lié au flicker, et nous comparons des stratégies de gestion de l'état de charge tout en tenant compte du vieillissement en cyclage des supercondensateurs dû à la tension et à leur température. Dans un troisième temps, à partir de données d'états de mer sur une année entière, nous proposons des dimensionnements de chaines de conversion électrique qui présentent les meilleurs compromis en termes d'énergie totale récupérée et de coût d'investissement.
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Lazaar, Nouhaila. "Optimisation des alimentations électriques des Data Centers". Thesis, Normandie, 2021. http://www.theses.fr/2021NORMC206.

Texto completo da fonte
Resumo:
Les data centers, des usines abritant des milliers de serveurs informatiques, fonctionnent en permanence pour échanger, stocker, traiter des données et les rendre accessibles via l'internet. Avec le développement du secteur numérique, leur consommation énergétique, en grande partie d’origine fossile, n’a cessé de croitre au cours de la dernière décennie, représentant une réelle menace pour l’environnement. Le recours aux énergies renouvelables constitue un levier prometteur pour limiter l’empreinte écologique des data centers. Néanmoins, le caractère intermittent de ces sources freine leur intégration dans un système nécessitant un degré de fiabilité élevée. L’hybridation de plusieurs technologies pour la production d’électricité verte, couplée à des dispositifs de stockage est actuellement une solution efficace pour pallier ce problème. De ce fait, ce travail de recherche étudie un système multi-sources, intégrant des hydroliennes, des panneaux photovoltaïques, des batteries et un système de stockage d’hydrogène pour alimenter un data center à l’échelle du MW. L'objectif principal de cette thèse est l’optimisation de l'alimentation électrique d'un data center, aussi bien pour des sites isolés que des installations raccordées au réseau. Le premier axe de ce travail est la modélisation des différents composants du système à l’aide de la représentation énergétique macroscopique (REM). Une gestion d’énergie reposant sur le principe de séparation fréquentielle est adoptée dans un premier temps pour répartir l’énergie entre des organes de stockage présentant des caractéristiques dynamiques différentes. Le deuxième axe concerne le dimensionnement optimal du système proposé afin de trouver la meilleure configuration qui satisfasse les contraintes techniques imposées à un coût minimum, en utilisant l’optimisation par essaims particulaires (PSO) et l’algorithme génétique (AG). Ici, une technique de gestion d’énergie basée sur des règles simples est utilisée pour des raisons de simplicité et de réduction de temps de calcul. Le dernier axe se focalise sur l’optimisation de la gestion d’énergie via l’AG, en tenant compte des problèmes de dégradation des systèmes de stockage en vue de réduire leur coût d’exploitation et de prolonger leur durée de vie. Il est bien entendu que chaque axe précédemment abordé a fait l’objet d’une analyse de sensibilité spécifique, afin d’évaluer les performances du système hybride dans différentes conditions de fonctionnement
Data centers, factories housing thousands of computer servers that work permanently to exchange, store, process data and make it accessible via the Internet. With the digital sector development, their energy consumption, which is largely fossil fuel-based, has grown continuously over the last decade, posing a real threat to the environment. The use of renewable energy is a promising way to limit the ecological footprint of data centers. Nevertheless, the intermittent nature of these sources hinders their integration into a system requiring a high reliability degree. The hybridization of several technologies for green electricity production, coupled with storage devices, is currently an effective solution to this problem. As a result, this research work studies a multi-source system, integrating tidal turbines, photovoltaic panels, batteries and a hydrogen storage system to power an MW-scale data center. The main objective of this thesis is the optimization of a data center power supply, both for isolated sites and grid-connected ones. The first axis of this work is the modeling of the system components using the energetic macroscopic representation (EMR). Energy management strategy based on the frequency separation principle is first adopted to share power between storage devices with different dynamic characteristics. The second axis concerns the optimal sizing of the proposed system, in order to find the best configuration that meets the technical constraints imposed at minimum cost, using particle swarm optimization (PSO) and genetic algorithm (GA). Here, a rules-based energy management technique is used for simplicity and reduced computing time purposes. The last axis focuses on the energy management optimization through GA, taking into account the storage systems degradation in order to reduce their operating costs and extend their lifetime. It should be noted that each axis previously discussed has been the subject of a specific sensitivity analysis, which aims to evaluate the performance of the hybrid system under different operating conditions
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Ahmed, Bacha Adda Redouane. "Localisation multi-hypothèses pour l'aide à la conduite : conception d'un filtre "réactif-coopératif"". Thesis, Evry-Val d'Essonne, 2014. http://www.theses.fr/2014EVRY0051/document.

Texto completo da fonte
Resumo:
“ Lorsqu'on utilise des données provenant d'une seule source,C'est du plagiat;Lorsqu'on utilise plusieurs sources,C'est de la fusion de données ”Ces travaux présentent une approche de fusion de données collaborative innovante pour l'égo-localisation de véhicules routiers. Cette approche appelée filtre de Kalman optimisé à essaim de particules (Optimized Kalman Particle Swarm) est une méthode de fusion de données et de filtrage optimisé. La fusion de données est faite en utilisant les données d'un GPS à faible coût, une centrale inertielle, un compteur odométrique et un codeur d'angle au volant. Ce travail montre que cette approche est à la fois plus robuste et plus appropriée que les méthodes plus classiques d'égo-localisation aux situations de conduite urbaine. Cette constatation apparait clairement dans le cas de dégradations des signaux capteurs ou des situations à fortes non linéarités. Les méthodes d'égo-localisation de véhicules les plus utilisées sont les approches bayésiennes représentées par le filtre de Kalman étendu (Extended Kalman Filter) et ses variantes (UKF, DD1, DD2). Les méthodes bayésiennes souffrent de sensibilité aux bruits et d'instabilité pour les cas fortement non linéaires. Proposées pour couvrir les limitations des méthodes bayésiennes, les approches multi-hypothèses (à base de particules) sont aussi utilisées pour la localisation égo-véhiculaire. Inspiré des méthodes de simulation de Monte-Carlo, les performances du filtre à particules (Particle Filter) sont fortement dépendantes des ressources en matière de calcul. Tirant avantage des techniques de localisation existantes et en intégrant les avantages de l'optimisation méta heuristique, l'OKPS est conçu pour faire face aux bruits, aux fortes dynamiques, aux données non linéaires et aux besoins d'exécution en temps réel. Pour l'égo-localisation d'un véhicule, en particulier pour les manœuvres très dynamiques sur route, un filtre doit être robuste et réactif en même temps. Le filtre OKPS est conçu sur un nouvel algorithme de localisation coopérative-réactive et dynamique inspirée par l'Optimisation par Essaim de Particules (Particle Swarm Optimization) qui est une méthode méta heuristique. Cette nouvelle approche combine les avantages de la PSO et des deux autres filtres: Le filtre à particules (PF) et le filtre de Kalman étendu (EKF). L'OKPS est testé en utilisant des données réelles recueillies à l'aide d'un véhicule équipé de capteurs embarqués. Ses performances sont testées en comparaison avec l'EKF, le PF et le filtre par essaim de particules (Swarm Particle Filter). Le filtre SPF est un filtre à particules hybride intéressant combinant les avantages de la PSO et du filtrage à particules; Il représente la première étape de la conception de l'OKPS. Les résultats montrent l'efficacité de l'OKPS pour un scénario de conduite à dynamique élevée avec des données GPS endommagés et/ou de qualité faible
“ When we use information from one source,it's plagiarism;Wen we use information from many,it's information fusion ”This work presents an innovative collaborative data fusion approach for ego-vehicle localization. This approach called the Optimized Kalman Particle Swarm (OKPS) is a data fusion and an optimized filtering method. Data fusion is made using data from a low cost GPS, INS, Odometer and a Steering wheel angle encoder. This work proved that this approach is both more appropriate and more efficient for vehicle ego-localization in degraded sensors performance and highly nonlinear situations. The most widely used vehicle localization methods are the Bayesian approaches represented by the EKF and its variants (UKF, DD1, DD2). The Bayesian methods suffer from sensitivity to noises and instability for the highly non-linear cases. Proposed for covering the Bayesian methods limitations, the Multi-hypothesis (particle based) approaches are used for ego-vehicle localization. Inspired from monte-carlo simulation methods, the Particle Filter (PF) performances are strongly dependent on computational resources. Taking advantages of existing localization techniques and integrating metaheuristic optimization benefits, the OKPS is designed to deal with vehicles high nonlinear dynamic, data noises and real time requirement. For ego-vehicle localization, especially for highly dynamic on-road maneuvers, a filter needs to be robust and reactive at the same time. The OKPS filter is a new cooperative-reactive localization algorithm inspired by dynamic Particle Swarm Optimization (PSO) metaheuristic methods. It combines advantages of the PSO and two other filters: The Particle Filter (PF) and the Extended Kalman filter (EKF). The OKPS is tested using real data collected using a vehicle equipped with embedded sensors. Its performances are tested in comparison with the EKF, the PF and the Swarm Particle Filter (SPF). The SPF is an interesting particle based hybrid filter combining PSO and particle filtering advantages; It represents the first step of the OKPS development. The results show the efficiency of the OKPS for a high dynamic driving scenario with damaged and low quality GPS data
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Hachimi, Hanaa. "Hybridations d'algorithmes métaheuristiques en optimisation globale et leurs applications". Phd thesis, INSA de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00905604.

Texto completo da fonte
Resumo:
L'optimisation des structures est un processus essentiel dans la conception des systèmes mécaniques et électroniques. Cette thèse s'intéresse à la résolution des problèmes mono-objectifs et multi-objectifs des structures mécaniques et mécatroniques. En effet, les industriels ne sont pas seulement préoccupés à améliorer les performances mécaniques des pièces qu'ils conçoivent, mais ils cherchent aussi à optimiser leurs poids, leurs tailles, ainsi que leurs coûts de production. Pour résoudre ce type de problème, nous avons fait appel à des métaheuristiques robustes qui nous permettent de minimiser le coût de production de la structure mécanique et de maximiser le cycle de vie de la structure. Alors que des méthodes inappropriées de l'évolution sont plus difficiles à appliquer à des modèles mécaniques complexes en raison de temps calcul exponentiel. Il est connu que les algorithmes génétiques sont très efficaces pour les problèmes NP-difficiles, mais ils sont très lourds et trop gourmands quant au temps de calcul, d'où l'idée d'hybridation de notre algorithme génétique par l'algorithme d'optimisation par essaim de particules (PSO) qui est plus rapide par rapport à l'algorithme génétique (GA). Dans notre expérimentation, nous avons obtenu une amélioration de la fonction objectif et aussi une grande amélioration de la minimisation de temps de calcul. Cependant, notre hybridation est une idée originale, car elle est différente des travaux existants. Concernant l'avantage de l'hybridation, il s'agit généralement de trois méthodes : l'hybridation en série, l'hybridation en parallèle et l'hybridation par insertion. Nous avons opté pour l'hybridation par insertion par ce qu'elle est nouvelle et efficace. En effet, les algorithmes génétiques se composent de trois étapes principales : la sélection, le croisement et la mutation. Dans notre cas, nous remplaçons les opérateurs de mutation par l'optimisation par essaim de particules. Le but de cette hybridation est de réduire le temps de calcul ainsi que l'amélioration la solution optimale.
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Aubry, Judicaël. "Optimisation du dimensionnement d’une chaîne de conversion électrique directe incluant un système de lissage de production par supercondensateurs : application au houlogénérateur SEAREV". Thesis, Cachan, Ecole normale supérieure, 2011. http://www.theses.fr/2011DENS0042/document.

Texto completo da fonte
Resumo:
Le travail présenté dans cette thèse porte sur l'étude du dimensionnement d'une chaine de conversion électrique en entrainement direct d'un système direct de récupération de l'énergie des vagues (searev). Cette chaine de conversion est composée d'une génératrice synchrone à aimants permanents solidaire d'un volant pendulaire, d'un convertisseur électronique composé de deux ponts triphasés à modulation de largeur d'impulsion, l'un contrôlant la génératrice, l'autre permettant d'injecter l'énergie électrique au réseau. En complément, un système de stockage de l'énergie (batterie de supercondensateurs) est destiné au lissage de la puissance produite. Le dimensionnement de tous ces éléments constitutifs nécessite une approche d'optimisation sur cycle, dans un contexte de fort couplage multi-physique notamment entre les parties hydrodynamique et électromécanique. Dans un premier temps, l'ensemble génératrice-convertisseur, dont le rôle est d'amortir le mouvement d'un volant pendulaire interne, est optimisé en vue de minimiser le coût de production de l'énergie (coût du kWh sur la durée d'usage). Cette optimisation sur cycle est réalisée en couplage fort avec le système houlogénérateur grâce à la prise en compte conjointe de variables d'optimisation relatives à l'ensemble convertisseur-machine mais aussi à la loi d'amortissement du volant pendulaire. L'intégration d'une stratégie de défluxage, intéressante pour assurer un fonctionnement en écrêtage de la puissance, permet, dès l'étape de dimensionnement, de traiter l'interaction convertisseur-machine. Dans un second temps, la capacité énergétique du système de stockage de l'énergie fait l'objet d'une optimisation en vue de la minimisation de son coût économique sur cycle de vie. Pour ce faire, nous définissons des critères de qualité de l'énergie injectée au réseau, dont un lié au flicker, et nous comparons des stratégies de gestion de l'état de charge tout en tenant compte du vieillissement en cyclage des supercondensateurs dû à la tension et à leur température. Dans un troisième temps, à partir de données d'états de mer sur une année entière, nous proposons des dimensionnements de chaines de conversion électrique qui présentent les meilleurs compromis en termes d'énergie totale récupérée et de coût d'investissement
The work presented in this thesis sets forth the study of the sizing of a direct-drive electrical conversion chain for a direct wave energy converter (SEAREV). This electrical chain is made up of a permanent magnet synchronous generator attached to a pendular wheel and a power-electronic converter made up of two three-phase pulse width modulation bridge, one controlling the generator, the other allowing injecting electrical energy into the grid. In addition, an energy storage system (bank of supercapacitors) is intended to smooth the power output. The sizing of all these components needs an operating cycle optimization approach, in a system context with strong multi-physics coupling, more particularly between hydrodynamical and electromechanical parts. At first, the generator-converter set, whose role is to damp the pendular movement of an internal wheel, is optimized with a view to minimize the cost of energy (kWh production cost). This optimization, based on torque-speed operating profiles, is carried out considering a strong coupling with the wave energy converter thanks to the consideration as design variables, some relatives to the generator-converter sizing but also some relatives to the damping law of the pendular wheel. In addition, the consideration of a flux-weakening strategy, interesting to ensure a constant power operation (levelling), allows, as soon as the sizing step, to deal with the generator-converter interaction. In a second step, the rated energy capacity of the energy storage system is being optimized with a view of the minimization of its economical life-cycle cost. To do this, we define quality criteria of the power output, including one related to the flicker, and we compare three energy managment rules while taking into account the power cycling aging of the supercapacitors due to the voltage and their temperature. In a third step, from yearly sea-states data, we provide sizings of the direct-drive electrical conversion chain that are the best trades-offs in terms of total electrical produced energy and economical investment cost
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Béjannin, Baptiste. "Optimisation du pilotage d’un parc diffus de ballons d'eau chaude pour la fourniture d’offres de flexibilités au réseau électrique". Thesis, Université Paris sciences et lettres, 2020. http://www.theses.fr/2020UPSLM010.

Texto completo da fonte
Resumo:
En France, les chauffe-eau électriques à accumulation représentent un gisement important de flexibilité pour le réseau électrique. Cette thèse se situe dans le contexte du déploiement de solutions innovantes de télécommunication permettant d’envoyer rapidement et individuellement des ordres aux chauffe-eau électriques Joule ou thermodynamiques. Ce travail propose un modèle de chauffe-eau électrique suffisamment détaillé pour permettre une évaluation fine du confort mais assez simple pour maîtriser les ressources de calcul. Avec un temps de calcul unitaire faible et un paramétrage simple, il permet de représenter le parc français dans toute sa diversité à l’aide des bases de données de description du territoire français (données INSEE). En parallèle, un modèle de comportement des consommateurs a été élaboré pour permettre de simuler des puisages annuels d’eau chaude sur des pas de temps fins. Le modèle de comportement, ainsi que d’équipements, sont représentatifs du parc réel dans leur valeurs moyennes, mais aussi par leur diversité. Ce parc est ainsi adapté à l’optimisation de milliers de chauffe-eau électriques pour atteindre des objectifs de flexibilité. Dans un second temps, un processus d’optimisation reposant sur l’utilisation d’un algorithme métaheuristique par « essaim particulaire » est développé afin d’élaborer des stratégies d’optimisation du pilotage des chauffe-eau et proposer des flexibilités au réseau tout en prenant en compte l’inconfort des utilisateurs. Les configurations réalistes de pilotage promises par les innovations en matière de télécommunication sont testées au regard de la flexibilité qu’elles pourraient apporter aux opérateurs de réseau. Enfin, la robustesse des ordres de commande obtenus est évaluée avec différents scénarios de soutirage. L’ensemble des modèles et des algorithmes sont intégrés dans Smart-E, l’outil de simulation énergétique des territoires du CES
In France, electric water heaters represent an important source of flexibility for the grid. This thesis stands within the scope of the deployment of innovative telecommunication solutions which aim to quickly and individually address orders to Joule or thermodynamic electric water heaters. Therefore, the approach consists in proposing a model of an electric water heater sufficiently detailed to allow an evaluation of comfort while saving the calculation resources. The model has a low unit calculation time and can be configured easily to represent the French stock in all its diversity using the French territory description databases (INSEE data). In parallel, a consumer behavior model has been developed to simulate annual hot water draws over short time steps. The behavior model, as well as the equipment, is representative of the actual stock in average, but also in their diversity. This stock is adapted to the optimization of thousands of electric water heaters to achieve flexibility objectives. In a second step, an optimization process based on the use of a metaheuristic algorithm by "particulate swarm" is implemented in order to develop strategies for optimizing the control of water heaters and to propose flexibilities to the grid while taking into account the discomfort of users. The realistic control configurations promised by the telecommunication innovations are tested for the flexibility they could provide to grid operators. Finally, the robustness of the obtained control orders with different drop-off scenarios is evaluated. All models and algorithms are integrated into Smart-E, the energy simulation tool for territories at CES
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Laborde, Maxime. "Systèmes de particules en interaction, approche par flot de gradient dans l'espace de Wasserstein". Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLED014/document.

Texto completo da fonte
Resumo:
Depuis l’article fondateur de Jordan, Kinderlehrer et Otto en 1998, il est bien connu qu’une large classe d’équations paraboliques peuvent être vues comme des flots de gradient dans l’espace de Wasserstein. Le but de cette thèse est d’étendre cette théorie à certaines équations et systèmes qui n’ont pas exactement une structure de flot de gradient. Les interactions étudiées sont de différentes natures. Le premier chapitre traite des systèmes avec des interactions non locales dans la dérive. Nous étudions ensuite des systèmes de diffusions croisées s’appliquant aux modèles de congestion pour plusieurs populations. Un autre modèle étudié est celui où le couplage se trouve dans le terme de réaction comme les systèmes proie-prédateur avec diffusion ou encore les modèles de croissance tumorale. Nous étudierons enfin des systèmes de type nouveau où l’interaction est donnée par un problème de transport multi-marges. Une grande partie de ces problèmes est illustrée de simulations numériques
Since 1998 and the seminal work of Jordan, Kinderlehrer and Otto, it is well known that a large class of parabolic equations can be seen as gradient flows in the Wasserstein space. This thesis is devoted to extensions of this theory to equations and systems which do not have exactly a gradient flow structure. We study different kind of couplings. First, we treat the case of nonlocal interactions in the drift. Then, we study cross diffusion systems which model congestion for several species. We are also interested in reaction-diffusion systems as diffusive prey-predator systems or tumor growth models. Finally, we introduce a new class of systems where the interaction is given by a multi-marginal transport problem. In many cases, we give numerical simulations to illustrate our theorical results
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia