Дисертації з теми "Optimisation déterministe (génétique algorithme)"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Optimisation déterministe (génétique algorithme).

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Optimisation déterministe (génétique algorithme)".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Ghribi, Dhafer. "Optimisation des corrections de forme dans les engrenages droits et hélicoïdaux : Approches déterministes et probabilistes." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00873973.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse a pour objectif de mener une optimisation des corrections de forme des engrenages cylindriques, droits et hélicoïdaux. Le travail se décompose en quatre parties principales. Dans la première partie, on présente un état de l'art sur les différents types de corrections de forme proposées dans la littérature. Une analyse des travaux d'optimisation, menés jusqu'à présent, est conduite. La deuxième partie est focalisée sur une approche déterministe visant à cerner l'influence des corrections de dentures sur les principaux critères de performance. Dans ce contexte, on propose un développement analytique qui caractérise les fluctuations d'erreur de transmission quasi-statique permettant d'obtenir des relations approchées originales. En présence de plusieurs paramètres de corrections, un algorithme génétique est utilisé afin d'identifier, en un temps réduit, les solutions optimales. Nous proposons, en troisième partie, une étude probabiliste pour caractériser les corrections robustes. Ainsi, on définit une fonction objectif de robustesse faisant intervenir des paramètres statistiques. Après une étape de validation, l'estimation de ces paramètres est effectuée en utilisant les formules de quadrature de Gauss. Plusieurs études paramétriques sont ensuite menées et qui reflètent entre autre l'influence des classes de qualité, la forme de la correction, etc. Enfin, on a conduit une optimisation multicritère en utilisant un algorithme d'optimisation spécifique : " NSGA-II ".
2

Ghilardi, Jean-Pierre. "Optimisation de la représentation de graphes par approche hybride déterministe et stochastique." Aix-Marseille 3, 2002. http://www.theses.fr/2002AIX30032.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le domaine de la bibliométrie il est courant d'avoir à retraiter des corpus d'informations importants difficiles à interpréter par lecture directe. Des outils, intégrant des traitements mathématiques complexes, ont été développés pour traiter l'information massive structurée et en extraire l'information pertinente susceptible d'alimenter les processus de prise de décision. Le Centre de Recherche Rétrospective de Marseille s'est depuis de nombreuses années spécialisé en traitement de l'information et a développé des outils informatiques basés sur la représentation graphique de relations reliant des entités : les graphes de paires. S'inscrivant dans cette démarche, ce travail de recherche a permis de définir des traitements innovants s'appuyant sur la théorie des graphes, les algorithmes de recuit simulé et les algorithmes génétiques qui permettent d'aboutir à une expression géométrique organisée des graphes de paire et ainsi d'en faciliter l'exploitation par le plus grand nombre
In bibliometrie scope, we frequently have to compute database which constitute a quantitive information corpus, difficult to interpret by direct reading. That's the reason why some tools with complex mathematic treatments have been created, this is how structured data bank can be processing to obtain relevant information available for decision makers. The Centre de Recherche Rétrospective de Marseille is specialized in information processing for a long time. Automatic tools based on geometrical representation of relationship between entities have been developed. During this research, an innovant data processing implemented to automatically produce an organized representation of graph easily understandable have been defined. The treatment chain is based on two different approach, a determinist approach issuing from graph theory and a stochastic approach composed of simulated annealing algorithm and genetic algorithm, which allow to make easier graph reading
3

Girard, Frédéric. "Optimisation de stratifiés en utilisant un algorithme génétique." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23613/23613.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces travaux portent sur l’optimisation de structures stratifiées en utilisant un algorithme génétique. Un programme d’optimisation est développé et est ensuite appliqué à la résolution d’une série de problèmes d’optimisation pour lesquels les variables de design peuvent appartenir soit à un domaine discret soit à un domaine continu. Tout d’abord, il est question de problèmes où le nombre de plis, le matériau et l’épaisseur des plis sont fixés. Les variables de design sont alors l’orientation de chaque pli qui peut prendre, dans un premier cas, des valeurs discrètes (0°, ±45°, 90°) puis des valeurs continues (de 0° à 90°). Deuxièmement, il est question de problèmes pour lesquels le nombre de plis et le matériau des plis deviennent des variables de design qui s’ajoutent alors à l’orientation des plis. Dans ces cas, la valeur des variables de design (matériaux et orientations) est choisie dans une liste de valeurs. L’objectif de ces problèmes est, en premier lieu, la minimisation du poids ou du coût de la structure sous différentes contraintes et finalement, la minimisation du poids et du coût simultanément avec une formulation multi-objectifs. L’algorithme génétique développé utilise une stratégie multi-élitiste et empêche la présence d’individus identiques dans la population. Finalement, un algorithme génétique hybride, combinant l’algorithme génétique et une recherche locale, est développé et ensuite testé sur ces mêmes problèmes. Cette hybridation de l’algorithme résulte en une diminution du temps de calcul exigé et en une amélioration substantielle des résultats.
4

Mtibaa, Mohamed. "Οptimisatiοn de cοuplage Ρrοcédé/Ρrοpriétés/Fiabilité des Structures en Μatériaux Cοmpοsites Fοnctiοnnels". Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMLH03.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de recherche se penche sur les défis et les interactions entre les procédés de fabrication RTM et CRTM, les propriétés mécaniques et la fiabilité des structures en matériaux composites fonctionnels. Des modèles numériques ont été développés pour simuler l’imprégnation de la suspension à travers le milieu fibreux dans ces deux procédés. Ces modèles ont été validés en comparant leurs résultats à des résultats expérimentaux, semi-analytiques et analytiques présentes dans la littérature. Une étude paramétrique a été menée pour démontrer l’impact des différents paramètres de procédé sur la distribution des particules dans le composite final. De plus, une comparaison entre les modes d’injection et de compression a été effectuée. Les résultats de cette partie ont montré que la distribution des particules dans la pièce finale dépend de la concentration initiale, de la distance parcourue et de la fraction volumique initiale des fibres, indépendamment des valeurs des paramètres d'injection et de compression. Il a également été observé que le procédé CRTM à pression d’injection imposée et à force de compression imposée représente le scénario le plus favorable pour produire des pièces composites. Afin de contrôler la distribution finale des particules dans le composite élaboré par le procédé RTM, deux étapes clés ont été identifiées et conduites. La première étape consiste en une analyse de sensibilité axée sur trois paramètres : l’évolution temporelle de la concentration initiale des particules, du champ de pression d’injection, et de la porosité initiale des fibres. Les conclusions indiquent un impact mineur de la porosité initiale et du champ de pression d’injection, tandis que l’évolution de la concentration initiale des particules injectées joue un rôle prépondérant. Dans une seconde étape, un algorithme d’optimisation a été intégré au modèle numérique du procédé RTM, visant à déterminer la configuration optimale de l’évolution de la concentration initiale des particules injectées afin de rapprocher la distribution des particules dans le composite final aux profils souhaités. Les résultats obtenus grâce à l’algorithme génétique ont démontré une maîtrise satisfaisante de cette répartition. Pour enrichir cette partie, un modèle évaluant le comportement mécanique de la pièce fabriquée a été développé. Les résultats indiquent une corrélation positive entre le taux de particules et certaines propriétés mécaniques telles que les modules d’élasticité E11 et E22, ainsi que les modules de cisaillement G12 et G23. Cependant, le coefficient de Poisson (Nu12) est inversement proportionnel au taux de particules. En outre, le module de cisaillement G12 était le plus influencé par le taux de particules.Dans cette partie, nous avons visé le contrôle des propriétés mécaniques des pièces composites fabriquées par le procédé CRTM, ensuite comparées aux résultats du procédé RTM. Les conclusions révèlent que le procédé RTM offre un meilleur contrôle de ces propriétés, tandis que le procédé CRTM améliore considérablement les propriétés mécaniques des pièces grâce à sa phase de compression, qui augmente la fraction volumique des fibres et donc améliorant ces propriétés.Par la suite, une analyse statique a été réalisée en développant un modèle numérique basé sur la méthode des éléments finis avec Ansys APDL. Cette analyse vise la détermination de la déformation maximale de la pièce en fonction de la configuration (encastrement, simplement appuyé) et de la charge répartie appliquée. Ce modèle est combiné avec ceux du procédé CRTM et du calcul des propriétés mécaniques. Dans le but d’ajuster les propriétés mécaniques de la pièce composite selon la configuration et la charge répartie, tout en minimisant son poids et en respectant des contraintes mécaniques prédéterminées, telles que la limite de déformation maximale, un algorithme d’optimisation a été intégré à notre modèle global. Les résultats obtenus répondent parfaitement à ces objectifs
This research focuses on the challenges and interactions between the manufacturing processes (Resin Transfer Molding ‘RTM’ and Compression Resin Transfer Molding ‘CRTM’), the mechanical properties, and the reliability of composite material structures; more specifically the functional composites. A number of numerical models have been developed for simulating the suspension (resin + particles) impregnation through the fibrous medium (fibers) in the RTM and CRTM processes. These models are validated by comparing their results with experimental, semi-analytical, and analytical ones from the literature. A parametric study is carried out to demonstrate the impact of various process parameters on particles’ distribution in the final composite. Moreover, a comparison between the injection and compression modes is done. The results of this part show that the distribution of particles in the final part depends on the initial concentration, the distance travelled, and the initial fibers’ volume fraction. However, it is independent of the parameters values of injection and compression. It is also observed that the CRTM process with imposed pressure injection and imposed force compression represents the most favorable scenario for producing composite parts.For the purpose of controlling the final particles’ distribution in the composite material, manufactured by the RTM process, two key steps have been identified. The first step consists in a sensitivity analysis that examines three parameters: the temporal evolution of the initial injected particles’ concentration, the injection pressure field and the initial fibers’ porosity. The conclusions indicate a minimal impact of the initial porosity and the injection pressure field; while the evolution of the initial concentration of the injected particles has a dominant effect. In a second step, an optimization algorithm is implemented in the numerical model of the RTM process. It is used to determine the optimal configuration of the initial injected particles’ concentration’s evolution; in order to approximate the particles’ distribution in the final composite to the desired profiles. The obtained results from the genetic algorithm provide a very satisfactory control of this distribution. To complete this section, a model, estimating the mechanical properties of the manufactured part, is developed. It is found that there is a positive correlation between the particles’ fraction and certain mechanical properties, namely the elastic modulus E11 and E22, and the shear modulus G12 and G23. Nevertheless, the Poisson’s ratio (Nu12) is inversely proportional to the particles’ fraction. Also, the shear module G12 is the most significantly influenced by this fraction.Following this, the control of the mechanical properties of the composite parts, manufactured by the CRTM process, is targeted, and compared to the results of the RTM process. The conclusions reveal that the RTM process offers a better control of these properties. Whereas, the CRTM process improves considerably the mechanical properties of the parts due to its compression phase, which increases the fibers’ volume fraction and consequently enhances these properties.Finally, a static analysis is conducted based on the developed numerical model that uses the finite element method (Ansys APDL). This model is combined with those of the CRTM process and the mechanical properties calculation. An optimization algorithm is integrated in our global model to adapt the mechanical properties of the composite part according to the configuration (cantilever or simply supported) and the load distribution. Moreover, it minimizes the composite part’s weight and ensures the respect of the predetermined mechanical constraints such as the maximum deformation limit. The obtained results correspond perfectly to these objectives
5

Giraud, Moreau Laurence. "Optimisation des systèmes mécaniques : couplage de méthodes déterministes et évolutionnaires par les problèmes en variables mixtes." Troyes, 1999. http://www.theses.fr/1999TROY0006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En conception mecanique, l'analyse du processus de conception permet d'exprimer une solution technologique non dimensionnee sous forme d'un probleme d'optimisation appele probleme de conception optimale. Ces problemes sont non-lineaires, fortement contraints, en variables mixtes (continues, entieres, discretes). Ils contiennent generalement des parametres discrets normalises, dependant des variables discretes, qui empechent de traiter ces variables comme des variables continues. Ce travail est consacre a la recherche de methodes de resolution permettant de traiter les problemes de conception optimale. Compte tenu des difficultes de ces problemes, nous nous sommes orientes vers des algorithmes evolutionnaires : l'algorithme genetique et la strategie evolutionnaire. Ceux-ci necessitant le choix d'operateurs genetiques, nous avons recherche les meilleurs operateurs de chaque algorithme pour la classe des problemes de conception optimale. La strategie evolutionnaire est apparue ici plus performante que l'algorithme genetique. Ces deux methodes ont permis de resoudre des problemes difficiles de conception optimale mais avec un nombre eleve d'evaluations. Afin de diminuer ce cout, nous avons couple la strategie evolutionnaire avec des methodes deterministes. Nous avons presente un premier couplage en serie, base sur l'utilisation sequentielle de la strategie evolutionnaire et de la methode du lagrangien augmente, puis un deuxieme couplage, utilisant en parallele des principes evolutionnaires pour l'evolution des variables discretes et des principes deterministes pour l'evolution des variables continues. Ce dernier s'est montre plus performant que la strategie evolutionnaire, en particulier lorsque les fonctions du probleme de conception optimale sont monotones. Pour la classe des problemes de conception optimale, la strategie evolutionnaire et le couplage parallele sont donc deux outils robustes. Le concepteur choisira l'un ou l'autre en fonction du probleme a traiter.
6

Schmitt, Wolfgang. "Optimisation technico-économique du dimensionnement d'un système photovoltaïque hybride." Paris 11, 2005. http://www.theses.fr/2005PA112009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente un outil que nous avons développé pour déterminer le dimensionnement technico-économique optimal d’un système photovoltaïque hybride. Nous présentons d’abord les principales caractéristiques du système et de ses composants, nous mettons en évidence les interactions entre les différents composants du système, nous analysons les différentes architectures de systèmes photovoltaïques hybrides et nous présentons quelques stratégies de gestion. Ensuite, nous traitons la modélisation détaillée du fonctionnement du système et de ses composants qui est la base de l’outil d’optimisation. À partir de ces modèles nous pouvons effectuer une simulation du fonctionnement du système en fonction du temps dans les conditions données et pour la période qui nous intéresse. L’objectif est double : d’une part, nous devons vérifier si le dimensionnement du système respecte les contraintes de fonctionnement et satisfait toutes les exigences de l’utilisateur ; d’autre part nous avons besoin d’informations détaillées sur le fonctionnement du système pour en déduire les coûts de fonctionnement. Nous présentons en détail la modélisation de l’ensemble de tous les coûts qui sont liés aux composants du système et à son fonctionnement. La méthode d’actualisation des coûts en fonction des intérêts est également présentée. Les modèles utilisés sont basés sur des fonctions non-linéaires, voire non-différentiables et discontinues. L’espace de recherche est très large et discrétisé. La méthode adéquate pour résoudre ce type de problème est basée sur un algorithme génétique. Une étude sur plusieurs cas bien définis nous permet de présenter les résultats auxquels nous avons abouti
This thesis deals with the optimal sizing of photovoltaic/diesel hybrid systems. An optimisation tool taking into account technical and economical considerations is developed. First, the principal characteristics of a hybrid system and its components, the interaction between the components as well as different system configurations and several control strategies are presented and analysed. Then, the detailed technical modelling of the system components and of the overall system operation is discussed and analysed. Actually, the modelling of the system is the basis of the optimisation tool and permits to do time-series simulations of the hybrid system operation under the given environmental conditions and for the chosen period of time. There are principally two goals: firstly to ensure that the given system sizing respects the operational constraints and fulfils user requirements and secondly, to supply detailed information about the system operation, in order to calculate the operating costs. The detailed modelling of all costs associated with the components and the system operation is presented as well as the discounting of future costs, which is imperative for long time analysis. The majority of the underlying models are non-linear; lots of them are discontinuous and non-differentiable. The search space is discretised and large. An appropriate method to solve this kind of optimisation problem, which is based on genetic algorithms, is used. Finally, optimisation results are presented on the basis of a well-defined case study
7

Dedieu, Samuel. "Algorithme génétique multicritère : conception et remodelage d'ateliers de chimie fine." Toulouse, INPT, 2001. http://www.theses.fr/2001INPT016G.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les ateliers multi-objectifs de chimie fine sont mis en oeuvre pour élaborer des gammes variées en faibles tonnages de produits, souvent à forte valeur ajoutée. La conception et/ou le remodelage de ces ateliers présente un intérêt majeur pour l'industrie. Les recherches antérieures dans ce domaine ont été, pour la plupart, focalisées sur l'aspect financier. Ce mémoire propose une algorithmique permettant d'intégrer d'autres critères. Cette approche s'articule autour de trois éléments principaux : un simulateur à événements discrets permettant une simulation précise des ateliers multi-objectifs de chimie fine, un algorithme génétique évolué assurant l'optimisation de problèmes au caractère combinatoire très marqué en des temps de calcul limités et améliorant certains aspects des algorithmes génétiques classiques, une procédure de recherche multicritère garantissant l'obtention d'un (ou plusieurs) atelier(s) satisfaisant(s) pour l'ensemble des critères considérés. Il aboutit au développement d'un outil informatique intégrant ces trois grands éléments dans un seul logiciel d'aide à la décision et permettant la conception et/ou le remodelage d'ateliers multi-objectifs de chimie fine suivant un panel de critères. L'étude systématique sur l'influence des paramètres de fonctionnement des algorithmes génétiques en fonction des exemples étudiés est proposée.
8

Vincenti, Angela. "Conception et optimisation des composites stratifiés par méthode polaire et algorithme génétique." Dijon, 2002. http://www.theses.fr/2002DIJOS040.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Sergeeva, Marina. "Sectorisation automatisée de l'espace aérien par algorithme génétique." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30121.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec la croissance continue du trafic aérien et la limitation des ressources, il est nécessaire de réduire la congestion de l'espace aérien. Ces dernières années, un intérêt particulier a été porté au problème de la sectorisation de l'espace aérien.Pour pallier à cette augmentation continue du trafic en Europe, il est nécessaire d'optimiser la gestion du trafic aérien. Une automatisation de la sectorisation de l'espace aérien peut permettre, dans cette optique, d'accroître l'adaptabilité des configurations du secteur aérien à une nouvelle demande de trafic. L'objectif de la première partie de cette thèse est de proposer une méthode globale de sectorisation de l'espace aérien européen en se basant sur une modélisation mathématique et des méthodes d'optimisation heuristiques. La méthode de sectorisation proposée est basée sur la division initiale de l'espace aérien en cellules de Voronoi à l'aide de méthodes des k-moyennes. Pour des raisons de complexité combinatoire induite, un algorithme d'optimisation stochastique est utilisé pour résoudre le problème de sectorisation. Un algorithme génétique est utilisé pour construire les secteurs de l'espace aérien dans plusieurs zones de contrôle européennes, en se basant sur des données réelles de trafic aérien pendant plusieurs jours.De plus, les configurations du secteur de l'espace aérien doivent être adaptées dynamiquement pour offrir une efficacité et une flexibilité maximales en fonction des conditions météorologiques et de circulation. L'objectif de la deuxième partie de cette thèse est d'adapter automatiquement les configurations de l'espace aérien en fonction de l'évolution du trafic, au cours d'une journée de fonctionnement. Pour atteindre cet objectif, il faut considérer que l'espace aérien est divisé en blocs d'espaces aériens 3D qui doivent être groupés ou dégroupés en fonction de l'état du trafic. La méthode proposée est basée sur une technique de partitionnement de graphe et sur des algorithmes génétiques. La méthode est testée sur plusieurs zones de contrôle européennes
With the continuous air traffic growth and limits of resources, there is a need for reducing the congestion of the airspace systems. Nowadays, several projects are launched, aimed at modernizing the global air transportation system and air traffic management. In recent years, special interest has been paid to the solution of the airspace sectorization problem. This thesis is devoted to studying the airspace sectorization in Europe and the possibilities to improve it.The airspace sectorization needs to be optimized with the support of automation in order to increase an adaptability of airspace sector configurations to the new traffic demands. The aim of the first part of this thesis is to propose a global method for the sector design of the European airspace based on a mathematical modeling and heuristic optimization methods. The proposed resolution method to solve the sector design problem is based on the initial division of the airspace into Voronoi cells using k-means clustering algorithm. Then, due to the induced combinatorial complexity, a stochastic optimization method is applied to solve the sector design problem. Resolution method based on metaheuristic algorithm called Genetic Algorithm (GA) has been developed to build airspace sectors in several control areas of Europe, involving traffic data for several days. Furthermore, airspace sector configurations need to be dynamically adjusted to provide maximum efficiency and flexibility in response to changing weather/traffic conditions. The objective of the second part of this thesis is to automatically adapt the airspace configurations according to the evolution of traffic. In order to reach this objective, the airspace is considered to be divided into predefined 3D airspace blocks which have to be grouped or ungrouped depending on the traffic situation. The resolution method based on the graph partitioning technique and on the metaheuristic algorithm (GA) has been developed to generate a sequence of sector configurations, composed of the predefined airspace blocks. The overall methodology, is implemented and tested with air traffic data taken for one day of operation and for several different airspace control areas of Europe
10

Faye, Papa Aldemba. "Couplage algorithme génétique-code éléments finis pour le dimensionnement de structures en matériaux composites." Clermont-Ferrand 2, 2004. http://www.theses.fr/2004CLF22497.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail a eu pour objet l'optimisation des structures en matériaux composites par algorithme génétique. Durant la première phase, l'algorithme de base a été amélioré afin d'accroître sa vitesse de convergence, en optimisant les séquences d'empilement de stratifiés sollicités avec des efforts de membrane. Dans la seconde étape, l'algorithme a été couplé avec un module de calcul éléments finis, de manière à pouvoir optimiser des structures de formes et de chargements plus complexes. Un des apports de ce travail a consisté à y adjoindre une procédure permettant d'assurer la continuité des plis d'un sous-domaine à l'autre de la structure, la séquence d'empilement des plis étant optimisée dans chacun d'eux. Trois plaques ainsi que deux tronçons de maquette de pale, soumis à des chargements de flexion-torsion, ont été optimisés. Les essais effectués sur ces derniers ont permis d'apporter un début de validation expérimentale à la démarche proposée, mettant en évidence des gains en masse de l'ordre de 25%
11

Perez, Escobedo José Luis. "Optimisation du développement de nouveaux produits dans l'industrie pharmaceutique par algorithme génétique multicritère." Thesis, Toulouse, INPT, 2010. http://www.theses.fr/2010INPT0038/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le développement de nouveaux produits constitue une priorité stratégique de l'industrie pharmaceutique, en raison de la présence d'incertitudes, de la lourdeur des investissements mis en jeu, de l'interdépendance entre projets, de la disponibilité limitée des ressources, du nombre très élevé de décisions impliquées dû à la longueur des processus (de l'ordre d'une dizaine d'années) et de la nature combinatoire du problème. Formellement, le problème se pose ainsi : sélectionner des projets de Ret D parmi des projets candidats pour satisfaire plusieurs critères (rentabilité économique, temps de mise sur le marché) tout en considérant leur nature incertaine. Plus précisément, les points clés récurrents sont relatifs à la détermination des projets à développer une fois que les molécules cibles sont identifiées, leur ordre de traitement et le niveau de ressources à affecter. Dans ce contexte, une approche basée sur le couplage entre un simulateur à événements discrets stochastique (approche Monte Carlo) pour représenter la dynamique du système et un algorithme d'optimisation multicritère (de type NSGA II) pour choisir les produits est proposée. Un modèle par objets développé précédemment pour la conception et l'ordonnancement d'ateliers discontinus, de réutilisation aisée tant par les aspects de structure que de logique de fonctionnement, a été étendu pour intégrer le cas de la gestion de nouveaux produits. Deux cas d'étude illustrent et valident l'approche. Les résultats de simulation ont mis en évidence l'intérêt de trois critères d'évaluation de performance pour l'aide à la décision : le bénéfice actualisé d'une séquence, le risque associé et le temps de mise sur le marché. Ils ont été utilisés dans la formulation multiobjectif du problème d'optimisation. Dans ce contexte, des algorithmes génétiques sont particulièrement intéressants en raison de leur capacité à conduire directement au front de Pareto et à traiter l'aspect combinatoire. La variante NSGA II a été adaptée au problème pour prendre en compte à la fois le nombre et l'ordre de lancement des produits dans une séquence. A partir d'une analyse bicritère réalisée pour un cas d'étude représentatif sur différentes paires de critères pour l'optimisation bi- et tri-critère, la stratégie d'optimisation s'avère efficace et particulièrement élitiste pour détecter les séquences à considérer par le décideur. Seules quelques séquences sont détectées. Parmi elles, les portefeuilles à nombre élevé de produits provoquent des attentes et des retards au lancement ; ils sont éliminés par la stratégie d'optimistaion bicritère. Les petits portefeuilles qui réduisent les files d'attente et le temps de lancement sont ainsi préférés. Le temps se révèle un critère important à optimiser simultanément, mettant en évidence tout l'intérêt d'une optimisation tricritère. Enfin, l'ordre de lancement des produits est une variable majeure comme pour les problèmes d'ordonnancement d'atelier
New Product Development (NPD) constitutes a challenging problem in the pharmaceutical industry, due to the characteristics of the development pipeline, namely, the presence of uncertainty, the high level of the involved capital costs, the interdependency between projects, the limited availability of resources, the overwhelming number of decisions due to the length of the time horizon (about 10 years) and the combinatorial nature of a portfolio. Formally, the NPD problem can be stated as follows: select a set of R and D projects from a pool of candidate projects in order to satisfy several criteria (economic profitability, time to market) while copying with the uncertain nature of the projects. More precisely, the recurrent key issues are to determine the projects to develop once target molecules have been identified, their order and the level of resources to assign. In this context, the proposed approach combines discrete event stochastic simulation (Monte Carlo approach) with multiobjective genetic algorithms (NSGA II type, Non-Sorted Genetic Algorithm II) to optimize the highly combinatorial portfolio management problem. An object-oriented model previously developed for batch plant scheduling and design is then extended to embed the case of new product management, which is particularly adequate for reuse of both structure and logic. Two case studies illustrate and validate the approach. From this simulation study, three performance evaluation criteria must be considered for decision making: the Net Present Value (NPV) of a sequence, its associated risk defined as the number of positive occurrences of NPV among the samples and the time to market. Theyv have been used in the multiobjective optimization formulation of the problem. In that context, Genetic Algorithms (GAs) are particularly attractive for treating this kind of problem, due to their ability to directly lead to the so-called Pareto front and to account for the combinatorial aspect. NSGA II has been adapted to the treated case for taking into account both the number of products in a sequence and the drug release order. From an analysis performed for a representative case study on the different pairs of criteria both for the bi- and tricriteria optimization, the optimization strategy turns out to be efficient and particularly elitist to detect the sequences which can be considered by the decision makers. Only a few sequences are detected. Among theses sequences, large portfolios cause resource queues and delays time to launch and are eliminated by the bicriteria optimization strategy. Small portfolio reduces queuing and time to launch appear as good candidates. The optimization strategy is interesting to detect the sequence candidates. Time is an important criterion to consider simultaneously with NPV and risk criteria. The order in which drugs are released in the pipeline is of great importance as with scheduling problems
12

Briche, Julien. "Adaptation d'un algorithme génétique pour la reconstruction de réseaux de régulation génétique : COGARE." Phd thesis, Université du Sud Toulon Var, 2009. http://tel.archives-ouvertes.fr/tel-00479671.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous proposons une approche “algorithme génétique” pour la reconstruction génomique. Notre approche introduit le concept d'algorithmie génétique multi-échelle : l'optimisation est conduite simultanément à une échelle locale et à une échelle globale. La fonction d'efficacité est donc hybride. Notre approche prend également en compte plusieurs types de données, dynamiques, statiques, ou imposées. Il en résulte un nouveau logiciel de reconstruction génomique, COGARE. Il est étalonné sur données simulées et comparé aux algorithmes existants. Il est utilisé sur deux cas réels, sur lesquels il révèle des capacités à renvoyer des informations pertinentes au biologiste.
13

Sta, Marouen. "Comparaison tractographie IRM - tissu cérébral et optimisation de la reconstruction tractographique par algorithme génétique." Thesis, Tours, 2017. http://www.theses.fr/2017TOUR3305/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La validation des algorithmes de tractographie et l’optimisation des paramètres choisis en référence à une vérité terrain, sont primordiales avant l’utilisation de ces méthodes en routine clinique. D’une part, nous présentons une méthode de comparaison quantitative de reconstructions issues de la tractographie à celles reconstruites depuis la dissection par un scanner laser. Cette comparaison permet d’évaluer les reconstructions de différents modèles et algorithmes de tractographie (déterministe, probabiliste) en les confrontant à une vérité terrain acquise par le scanner laser (surfaces triangulées). La transformation des données sous des formats communs était nécessaire avant leur comparaison quantitative. Deux méthodes de comparaison, surface-surface et volume-volume ont été proposées. D’autre part, nous présentons une méthode d’optimisation par algorithme génétique (AG), des paramètres de tractographie déterministe. L’AG est un algorithme itératif d’optimisation basé sur la sélection naturelle, il est capable d’optimiser des problèmes complexes ayant plusieurs paramètres. Etant donné la vérité terrain d’un faisceau, l’AG se propose de trouver le jeu de paramètres optimal donnant le meilleur résultat de tractographie. Les méthodes de comparaisons et d’optimisation ont été appliquées à un faisceau d’objet test puis à deux faisceaux disséqués à partir d’un cerveau humain post mortem après acquisitions IRM et scanner laser
Tractography validation and optimization of tracking parameters against a ground truth are mandatory before a large clinical use. First, we present a method to quantitatively compare tractography reconstructions to a ground truth derived from laser scanner acquisitions of dissected specimens. This comparison allows evaluation of multiple models and tractography approaches (deterministic, probabilistic…). The ground truth used for this comparison was acquired from dissected specimens using a surface laser scanner, which produces triangulated surface meshes. Data transformation to a common format was necessary before quantitative comparisons. Two comparison methods were proposed, surface-to-surface and volume-to-volume. Second, we propose a method for automatic optimization of deterministic tractography parameters using a genetic algorithm (GA). The GA is an iterative optimization algorithm based on natural selection, which is able to optimize complex problems having several parameters. For a given ground truth fasciculus, the GA was expected to find the set of tractography parameters producing the best tractography result according to the ground truth. The comparison and optimization methods were applied to a synthetic bundle derived from a phantom and to two dissected white matter tracts of a human post mortem brain
14

Nikoukar, Shahram. "Optimisation par algorithme génétique d’un réseau d’éléments piézo-électriques et contrôle actif des plaques." Paris 10, 2011. http://www.theses.fr/2011PA100053.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail concerne l’optimisation de réseaux de capteurs et d’actionneurs piézo-électriques au moyen d’algorithmes génétiques en contrôle actif de vibrations de structures plaques. Le rôle des actionneurs étant d’amortir le plus rapidement possible les vibrations, on cherche à minimiser l’énergie de contrôle par rapport à la position des actionneurs. Les capteurs devant observer le mieux possible le mouvement de la structure, leurs positions sont choisies pour maximiser l’énergie de sortie. Pour quantifier la qualité du réseau de capteurs et d’actionneurs, nous utilisons deux nouveaux critères d’optimisation développés au laboratoire LEME qui permettent de ne pas privilégier un mode propre particulier. Ces critères sont utilisés pour optimiser la position de réseaux d’éléments piézo- électriques en tenant compte à la fois de leur position et de leur orientation en présence ou non de modes résiduels. A partir du critère associé aux capteurs, nous introduisons un second critère permettant de déterminer si chaque mode est correctement observé par le réseau de capteurs utilisé. Nous utilisons alors les deux critères associés aux capteurs pour optimiser simultanément le nombre et la position des capteurs piézo-électriques. La nature des problèmes d’optimisation posés (variables continues et/ou discrètes, optimaux globaux et locaux multiples, optimisation multi-objectifs, fonctions d’optimisations non continûment dérivables) nous a conduit à développer un algorithme génétique simple adapté à nos variables d’optimisation et n’utilisant que les fonctions élémentaires de sélection, croisement et mutation. L’optimisation des paramètres de la loi de commande est également effectuée au moyen d’un algorithme génétique. Un exemple d’application de contrôle actif optimal est proposé sur une carte électronique simplifiée
This work concerns the optimization of piezoelectric sensors and actuators networks using genetic algorithms in active vibration control of plate structures. The role of actuators is damping of vibrations as quickly as possible, we try to minimize the energy of control by positioning the actuators. The sensors by observing as well as possible the movement of structure, their positions are chosen to maximize the output energy. To quantity the quality of the sensors and actuators network, we use two new optimization criteria developed in the LEME laboratory which do not favour one particular eigenmode. These criteria are used to optimize the positions of piezoelectric elements network taking into account both their positions and orientations at the same time in presence or absence of residual modes. From the associated criterion to the sensors, we introduce a second criterion for determining whether each mode is correctly observed by the used sensors network. Therefore, we use two associated criteria to optimize both the number and positions of piezoelectric sensors. The nature of mentioned optimization problems (continuous variables and / or discrete, multiplied global and local optimum, multi-objective optimization, non continuously differentiable optimization functions) droved us to develop a simple genetic algorithm adapted to our optimization variables and using only the basic functions of selection, crossover and mutation. The optimization of control parameters law is also performed by using a genetic algorithm. An example of optimal active control application is proposed on a simplified electronic board
15

Driant, Thomas. "Réduction de la traînée aérodynamique et refroidissement d'un tricycle hybride par optimisation paramétrique." Thèse, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6990.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La réduction de la traînée aérodynamique des véhicules dans un objectif de diminution de la consommation énergétique est en plein essor aussi bien pour les véhicules électriques que thermiques. Cette étude porte sur un tricycle à motorisation hybride dont la forme et le comportement aérodynamique sont à la frontière entre une motocyclette et une automobile. L'étude s'inspire des avancées scientifiques sur ces deux types de véhicules en matière d'aérodynamique. L'objectif principal est de réduire la traînée aérodynamique du véhicule par des modifications de l'enveloppe externe tout en assurant le refroidissement du moteur thermique et des composants de la chaîne électrique. On développe une optimisation topologique de la position des échangeurs sur le tricycle, on conçoit et fabrique un prototype en fonction des résultats d'optimisation. Ensuite, on valide le prototype par des essais en soufflerie et on caractérise son aérodynamique ainsi que la sensibilité de la traînée du véhicule suivant des paramètres comme la vitesse, l'angle de lacet, etc. En n, l'étude s'oriente vers une approche d'optimisation globale multidisciplinaire permettant d'atteindre l'objectif principal en fonction des contraintes ayant trait au projet.
16

Ghali, Khemaies. "Méthodologie de conception système à base de plateformes reconfigurables et programmables." Phd thesis, Paris 11, 2005. http://pastel.archives-ouvertes.fr/pastel-00001661.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans ce mémoire concernent l'exploration de l'espace de conception des architectures SOC pour des applications orientées télécommunication. L'évolution importante des semi-conducteurs a permis l'implémentation de systèmes complets sur une puce. Cette implémentation a été rendue possible par des méthodologies de conception basées sur la réutilisation des composants existants (IP - Intellectual Property) qui, combinées ensemble, constituent le système. La différentiation des systèmes est obtenue par l'ajout d'IP propriétaires rattachées au système. L'apport des technologies classiques basées sur le modèle en Y (Y-chart) et les techniques de co-design se sont avérées insuffisantes dès lors que ces IPs initialement sous forme dure (hard IP) donc non modifiables ont étés proposées dans leur version paramétrable (Soft IP), pour garantir un meilleur dimensionnement du système. En effet, la modularité des IPs soft par leurs paramétrisations, créent un espace d'exploration qui s'avère extrêmement important et donc inexploitable par des techniques de conception ad hoc ou interactives. Le problème posé est l'optimisation mathématique des paramètres de l'ensemble des IPs soft constituant le SOC. Ce problème multidimensionnel en performance est aggravé, dans le cadre des SOC pour systèmes embarqués, par la prise en compte de la consommation d'énergie et de la surface en silicium. Le problème devient alors une optimisation multiobjectifs. Cette thèse propose une résolution de ce problème en plusieurs étapes : Dans une première étape, des techniques d'exploration pour le dimensionnement d'IP de processeur SuperScalair sont proposées. Ces techniques tiennent compte de trois critères: performance, consommation d'énergie et surface en silicium. Les résultats obtenus par des benchmarks multimédia "MiBench" de taille significative résultent dans un sous ensemble optimal au sens de Pareto, permettant de sélectionner une ou plusieurs solutions efficaces pour les applications cibles. La seconde étape est une extension du cadre précédent par couplage de l'exploration multiobjectifs avec une implémentation matérielle sur circuits FPGA. Elle permet alors une exploration avec matériel dans la boucle. Le principe poursuivi, à l'inverse des explorations effectuées à des niveaux d'abstraction élevés (SystemC), est qu'une exploration est d'autant plus efficace que les valeurs injectées à l'algorithme d'exploration sont proches de la réalité. L'autre aspect est que l'exploration par simulation des SOC reste problématique, ceci étant dû aux temps prohibitifs de la simulation et que l'exécution directe est toujours plus rapide, donc permet des explorations larges et réalistes. Cette approche est appliquée au processeur LEON v2.0 de l' ESA sur des circuits Xilinx Virtex-II qui, de par leur reconfigurabilité, permet le chargement de nouvelles configurations lors de l'exploration. Enfin, l'importance des SOC mixtes analogiques/numériques, nous a poussés à nous intéresser à l'optimisation des circuits analogiques et ce, sur le même principe, mais en utilisant des circuits FPAA (Field Programmable Analog Array) qui permettent la conception et l'implémentation d'applications sur circuits analogiques re-programmables. Cette possibilité permet de répondre à une fonctionnalité donnée en testant et explorant de nombreuses configurations, en les implémentant physiquement dans un circuit programmable et cela à moindre coût. La thèse conclut sur les perspectives pouvant découler des contributions de ce travail sur les méthodologies de conception de SOC dans les environnements SOPC.
17

Wildi-Tremblay, Philippe. "Optimisation d'un matériau poreux stratifié pour un refroidissement maximal en convection forcée à l'aide d'un algorithme génétique." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23874/23874.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Avila, Sergio Luciano. "Optimisation multiobjectif et analyse de sensibilité appliquées à la conception de dispositifs." Ecully, Ecole centrale de Lyon, 2006. http://bibli.ec-lyon.fr/exl-doc/slavila.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente une brève revue des concepts et méthodes d'optimisation et détaille en outre l'implémentation d'un "Algorithme Génétique MultiObjectif" (AGMO) associé à des analyses de sensibilité pour l'optimisation de dispositifs. Le but est de fournir à l'ingénieur non seulement une ample variété de solutions, mais aussi la possibilité de mieux analyser son propre problème. Ce travail comprend deux contributions principales : l'analyse simultanée des deux espaces, celui des paramètres et celui des objectifs, sans en priviligier un, qui facilite le processus de recherche des solutions optimales ; le développement et l'intégration d'études de sensibilité, destinées à vérifier la stabilité des solutions obtenues, et à tester le modèle adopté par l'ingénieur pour la représentation de son problème. Plusieurs exemples concernant l'électromagnétisme ont été analysés pour évaluer la procédure proposée, en particulier l'optimisation d'antennes satellite à réflecteurs "conformés"
This thesis, besides presenting a brief review about optimization concepts and methods, also describes the implementation of a multi-objective genetic algorithm (AGMO) associated to sensitivity analysis for optimization of devices. The aim is to provide engineers not only several possible solutions, but also the possibility of a deeper understanding of the analyzed problem. The present work brings two main contributions : an optimization algorithm that deal with parameters space and objective space with the same importance, making easy the search process for optimal solutions ; the development and integration of sensitivity studies, whose goal is to veriry how stable the obtained solutions are as well as to test the 'model' adopted by the engineer as representation of his/problem. Many projects involving electromagnetisme were considered to evaluate the proposed procedure, in particular the optimization of satellite shaped reflector antennas
19

Abid, Mohamed Amine. "Étude des algorithmes de recuit simulé, de recherche tabou et génétique implémentés dans un système de construction d'horaires de cours universitaires." Mémoire, Université de Sherbrooke, 2008. http://savoirs.usherbrooke.ca/handle/11143/1478.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce travail on s'intéresse à la conception et au développement d'un système d'aide à la confection d'horaires. Le banc d'essai"Benchmark" utilisé est le problème d'horaires de cours dans une université basé sur l'inscription des étudiants aux cours"Post Enrolment based Course Timetabling", proposé en deuxième volet lors de la compétition internationale d'horaires en 2007"International Timetabling Competition". Le système d'aide à la confection d'horaires applique une approche heuristique basée sur la recherche locale stochastique. L'originalité du système consiste à implémenter les algorithmes de recuit simulé, recherche tabou et génétique, qui s'exécutent sur les mêmes énoncés des problèmes proposés par l'ITC et qui se partagent les mêmes structures de données et la majorité des modules de recherche locale. Ensuite une étude qualitative et quantitative de performance à produire des horaires de qualité comparable à ceux réalisés lors de la compétition est effectuée pour chaque algorithme implémenté.
20

Billaud, Yann. "Modélisation hybride stochastique-déterministe des incendies de forêts." Thesis, Aix-Marseille 1, 2011. http://www.theses.fr/2011AIX10100/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les grands incendies de forêts sont responsables de la quasi-totalité de la surface brulée et contribuent, par les émissions de particules et de gaz à effet de serre qu’ils génèrent, au réchauffement climatique. Des observations satellitaires ont mis en évidence un comportement fractal que l’on attribue aux hétérogénéités locales (topographie, végétation, conditions météorologiques) rencontrées par ces feux lors de leur propagation. Le présent travail a été consacré au développement et à la validation d’un modèle hybride de propagation d’incendie, capable de reproduire ce comportement. Ce modèle est une extension du modèle original de réseau de « petit monde » où les phénomènes qui se produisent à l’échelle macroscopique, comme le rayonnement du front de flammes et l’inflammation pilotée de la strate végétale sont traités de façon déterministe. Pour décrire le rayonnement, nous avons utilisé un modèle de flamme solide couplé à une méthode de Monte Carlo. La validation a porté sur des configurations simples, mais aussi plus complexes, comme le rayonnement d’un front hétérogène de flammes ou celui d’une flamme d’éthanol. Un modèle d’inflammation a ensuite été élaboré et appliqué à des litières d’aiguilles de pin. Les paramètres du modèle ont été optimisés par un algorithme génétique, conduisant au meilleur accord avec les résultats expérimentaux, en termes de temps d‘inflammation et de perte de masses. Il a été montré que l’oxydation du résidu charbonneux joue un rôle prépondérant sur l’inflammation à bas flux. Le modèle de propagation de petit monde a été validé sur un brûlage dirigé et sur un feu historique, montrant un bon accord en termes de surface brûlée, de vitesse de propagation, de contours de feu, et de propriétés fractales. On a montré qu’il pouvait être utilisé pour le dimensionnement d’ouvrages de défense, comme les coupures de combustible, ou pour expliquer le comportement atypique du feu dans certaines situations (talweg, ruptures de pente, etc.). Son application a également permis d’optimiser le nombre et l’emplacement d’un réseau de capteurs déployés dans la végétation dans le but de localiser précisément et détecter précocement le départ d’un feu
Most of the area burned by forest fires is attributable to the few fires that escape initial attack to become large. As a consequence large-scale fires produce a large amount of green-house gases and particles which contribute to the global warming. Heterogeneous conditions of weather, fuel, and topography are generally encountered during the propagation of large fires. This shapes irregular contours and fractal post-fire patterns, as revealed by satellite maps. Among existing wildfire spread models, stochastic models seem to be good candidates for studying the erratic behavior of large fires, due to the above-mentioned heterogeneous conditions. The model we developed is a variant of the so-called small-world network model. Flame radiation and fuel piloted ignition are taken into account in a deterministic way at the macroscopic scale. The radiative interaction domain of a burning cell is determined from Monte Carlo simulation using the solid flame model. Some cases are studied, ranging from relatively simple to more complex geometries like an irregular flame fronts or an ethanol pool fire. Then, a numerical model is developed to investigate the piloted ignition of litters composed of maritime pine needles. A genetic algorithm is used to locate a set of model parameters that provide optimal agreement between the model predictions and the experimental data in terms of ignition time and mass loss. The model results had shown the importance of char surface oxidation for heat fluxes close to the critical flux for ignition. Finally, the small-world network model was used to simulate fire patterns in heterogeneous landscapes. Model validation was achieved to an acceptable degree in terms of contours, burned area and fractal properties, through comparison of results with data from a small controlled bushfire experiment and a historical Mediterranean fire. Therefore, it has been proven to be a powerful tool in the sizing of fortifications as fuel break areas at the wildland urban interface or in the understanding of atypical behavior in particular configurations (talweg, slope breaking, etc.). It has also been used for the optimization of an in-situ sensor network whose purpose is to detect precociously and to locate precisely small fires, preventing them from spreading and burning out of control. Our objective was to determine the minimum number and placement of sensors deployed in the forest
21

Deau, Raphaël. "Optimisation des séquences de pistes et des mouvements au sol sur les grands aéroports." Thesis, Toulouse, INPT, 2010. http://www.theses.fr/2010INPT0060/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces dernières années, la phase de roulage au sol des avions a été mise en avant dans l'étude des retards aériens sur les grands aéroports. Cependant, le lien entre cette phase et l'optimisation des séquences d'avions sur les pistes reste encore peu étudié. L'objectif de réaliser des séquences optimales sur les pistes doit pourtant permettre de mieux gérer le trafic au sol, pour respecter les créneaux de décollage imposés tout en réduisant les retards des avions : dans cette thèse, un algorithme de calcul de séquences optimales est mis en place et intégré à la gestion du trafic au sol, modélisée comme un problème de résolution de conflits entre avions. Deux méthodes d'optimisation sont alors comparées : une méthode déterministe (utilisant un algorithme de type branch and bound) et une méthode stochastique (utilisant un algorithme génétique). Chacune des deux méthodes pouvant fonctionner avec et sans considération des séquences optimales sur les pistes. Les simulations effectuées montrent qu'une réduction significative des retards peut être espérée lorsque les séquences sont optimisées et anticipées. La méthode stochastique trouve de meilleures solutions, notamment en ce qui concerne la gestion des arrivées, mais la méthode déterministe reste intéressante, grâce à son temps de calcul bien plus rapide
In the last few years, many studies concerning air traffic delays have focused on ground traffic management at busy airports. However, the link between the aircraft taxiing stage and runway scheduling optimisation is still rarely considered. Performing optimal aircraft sequences on runways should allow us to enhance the taxiing stage, while applying calculated take-off slots and reducing globally the aircraft mean delay. In this thesis, an algorithm is first defined to compute optimal aircraft schedules on runways. It is then integrated into the ground traffic management process, modeled as a conflict resolution problem between aircraft. A deterministic method (using a branch and bound algorithm) and a stochastic method (using a genetic algorithm) are both used to try and solve this problem. Each of these methods can work with and without the consideration of optimal runway scheduling. The simulations carried out show that the anticipation of the optimal runway schedules can yield a significant delay reduction for airport ground traffic. The stochastic method provides the best solutions, especially for arriving aircraft, while the deterministic method remains a considerable option because of its very fast running time
22

Ramos, Bermudez Mario Bernardo. "Optimisation des systèmes de distribution de fluides et des réseaux de chauffage urbains à l'aide d'un algorithme génétique." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24395/24395.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Bernardoni, Paul. "Outils et méthodes de conception de structures mécaniques à déformations réparties et actionnement discret : applications en micro-robotique." Paris 6, 2004. http://www.theses.fr/2004PA066373.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Chaari, Tarek. "Un algorithme génétique pour l'ordonnancement robuste : application au problème d'ordonnancement du flow shop hybride." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2010. http://tel.archives-ouvertes.fr/tel-00551511.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La plupart des méthodes d'ordonnancement considèrent un environnement déterministe où les données du problème sont connues. Néanmoins, en réalité, plusieurs sortes d'aléas peuvent être rencontrées et l'ordonnancement robuste permet en tenir compte. Dans cette thèse, notre intuition initiale est que, d'une part, un ordonnancement non robuste deviendra rapidement inefficace avec les incertitudes qu'un ordonnancement robuste, et d'autre part, un ordonnancement robuste sera moins efficace qu'un ordonnancement non robuste en l'absence d'incertitudes. Dans ce cadre, nous avons proposé un algorithme génétique pour l'ordonnancement robuste. Un nouveau mécanisme de résolution et un nouveau critère de robustesse permettant de trouver une solution de bonne performance et peu sensible aux incertitudes ont été développés. Une phase expérimentale a été menée, d'une part, pour vérifier l'efficacité de l'algorithme génétique pour l'ordonnancement déterministe, sans tenir compte des incertitudes, et d'autre part, pour valider l'algorithme génétique pour l'ordonnancement robuste par la simulation afin de juger la qualité de la robustesse face aux incertitudes. Nous avons intégré cette approche de robustesse dans une démarche méthodologique générique intégrant des techniques d'optimisation et de simulation pour l'aide au dimensionnement des systèmes de production basé sur des ordonnancements robustes. Les différents modules de la démarche ont été développés sous forme d'un outil d'aide au dimensionnement, dans le cadre d'un cas applicatif réel, celui du bloc opératoire dans le secteur hospitalier.
25

Kreis, Adrien. "Optimisation multiobjectifs de systèmes dynamiques : application à la suspension de groupes motopropulseurs de véhicules automobiles en phase d'avant-projet." Valenciennes, 2001. https://ged.uphf.fr/nuxeo/site/esupversions/8591a683-68e4-4103-8942-6ee1042e7cc9.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'optimisation constitue un puissant outil d'aide à la conception. Les travaux présentés proposent une stratégie d'optimisation adaptée à l'implantation et au dimensionnement de suspensions de groupes motopropulseurs (GMP). Tout d'abord, une étude bibliographique des méthodes d'optimisation multiobjectifs permet la sélection des méthodes les mieux adaptées à une application aux systèmes dynamiques. Ensuite, une analyse fonctionnelle, et un état de l'art des principes de dimensionnement des suspensions GMP, montrent la nécessité d'obtenir un compromis entre les différentes fonctions attendues d'une suspension GMP. A l'issue de ces deux parties, l'outil multiobjectifs apparaît bien adapté au dimensionnement des suspensions GMP. Une formulation numérique du problème de l'optimisation multiobjectifs d'une suspension GMP en phase d'avant-projet est alors proposée. Elle comprend notamment la modélisation des différents cas de fonctionnement d'une suspension GMP, la formulation des différentes fonctions objectifs et restrictions, ainsi que le calcul des sensibilités de ces fonctions vis-à-vis des variables de conception. Dans cette formalisation, l'accent est mis sur le respect des paramètres usuels et des attentes du concepteur, ainsi que sur la rapidité d'exécution, synonyme de réactivité dans un contexte de conception. Enfin, les stratégies multiobjectifs retenues sont testées sur un cas concret de dimensionnement de suspension GMP. Ces essais sont l'occasion d'apporter des modifications originales à chacune des méthodes afin d'améliorer la qualité des solutions générées, et leur répartition dans l'ensemble de Pareto du problème.
26

Baulac, Marine. "Optimisation des protections anti-bruit routières de forme complexe." Phd thesis, Université du Maine, 2006. http://tel.archives-ouvertes.fr/tel-00415879.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En ce début de 21e siècle, le bruit des transports est l'une des principales nuisances. Un important travail est réalisé par les acousticiens afin d'améliorer l'efficacité des écrans acoustiques.
Actuellement, le choix des protections anti-bruit se porte souvent sur des solutions triviales ou issues d'études paramétriques. Or le CSTB possède des codes de calculs numériques avancés dédiés à la simulation de la propagation acoustique en milieu extérieur. Le but de cette thèse est de coupler ces codes prévisionnels avec un outil mathématique à développer permettant une recherche systématique des solutions optimales.
Une étude bibliographique a permis de dégager des algorithmes applicables au cas de l'optimisation de paramètres caractérisant un écran acoustique. Ils ont été appliqués avec succès aux écrans multi-diffracteurs. Des méthodes d'optimisation multiobjectif ont en outre permis d'optimiser simultanément le prix de revient de la protection et son efficacité acoustique. Dans une optique de développement durable, un travail a été réalisé sur l'efficacité de protections acoustiques de faible hauteur en milieu urbain dans le but de créer des espaces calmes. Des mesures sur modèles réduits ont été confrontées aux simulations acoustiques et l'optimisation de la forme de ces protections a permis de dégager des solutions optimales. Enfin, les méthodes d'optimisation ont été appliquées au cas de l'optimisation de trajectoires.
Les principaux objectifs de la thèse ont été atteints, notamment par la création d'un outil utilisant des algorithmes d'optimisation (Nelder Mead et Algorithmes Génétiques) ainsi que les codes de calculs de simulation acoustique en milieu extérieur.
27

Tamine, Lynda. "OPTIMISATION DE REQUETES DANS UN SYSTEME DE RECHERCHE D'INFORMATIONAPPROCHE BASEE SUR L'EXPLOITATION DE TECHNIQUES AVANCEES DE L'ALGORITHMIQUE GENETIQUE." Phd thesis, Université Paul Sabatier - Toulouse III, 2000. http://tel.archives-ouvertes.fr/tel-00377418.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans cette thèse traitent des apports de l'algorithmique génétique à la conception de systèmes de recherche d'information adaptatifs aux besoins des utilisateurs.
Notre étude se focalise en premier lieu, sur l'analyse des différents modèles et stratégies de représentation et de recherche d'information. Nous mettons notamment en évidence, leur contribution à la résolution des problèmes inhérents à la recherche d'information.
En second lieu, notre intérêt s'est porté sur l'étude des algorithmes génétiques. Nous basant alors sur leur robustesse, théoriquement et expérimentalement prouvée, nous intégrons ces algorithmes à la mise en oeuvre de notre approche d'optimisation de requête.
Nous présentons une approche de recherche d'information qui intègre une stratégie de reformulation de requête par injection de pertinence, fondée sur l'hybridation d'un processus d'optimisation génétique, à un modèle de recherche de base. Nous proposons un algorithme spécifique à la recherche d'information, par l'intégration d'opérateurs génétiques augmentés par la connaissance du domaine d'une part, et d'une heuristique permettant de résoudre le problème de multimodalité de la pertinence d'autre part. L'heuristique de nichage en l'occurrence, est diffusée globalement lors de l'évolution de l'AG. La population est alors organisée en niches de requêtes effectuant une recherche parallèle et coopérative d'informations.
Nous évaluons enfin notre approche de recherche d'information, au travers d'expérimentations réalisées à l'aide du système Mercure, sur la collection de référence TREC.
28

Jacquenot, Guillaume. "Méthode générique pour l'optimisation d'agencement géométrique et fonctionnel." Phd thesis, Ecole centrale de nantes - ECN, 2010. http://tel.archives-ouvertes.fr/tel-00468463.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans de nombreux problèmes industriels, l'agencement des différents composants joue un rôle déterminant sur les performances du système à concevoir. Ces problèmes de placement ont fait l'objet de nombreux travaux dans la littérature ; toutefois les méthodes de résolution généralement proposées sont spécifiques et ne peuvent être appliquées à différents problèmes. Ce travail propose une méthode générique pour la résolution des problèmes de placement. La méthode présentée est une hybridation d'un algorithme évolutionnaire avec une méthode de séparation. L'algorithme évolutionnaire est un algorithme génétique multi-objectif chargé d'explorer efficacement l'espace de recherche et l'algorithme de séparation a pour objectif de faire respecter les contraintes de placement du problème. Si les contraintes de placement d'une solution proposée ne sont pas respectées, l'algorithme de séparation modifie la solution de manière à la rendre réalisable. La méthode de séparation a été développée pour des cas simples comme pour des cas compliqués en 2D et 3D et permet la gestion de contraintes particulières. Différents exemples 2D sont présentés avec plusieurs analyses permettant de comprendre les mécanismes mis en jeu lors de la résolution des problèmes de placement. Les éléments de résolution des problèmes 3D de géométries complexes sont aussi présentés. Par rapport aux algorithmes ad-hoc de la littérature, notre méthode générique permet de résoudre une grande variété de problèmes avec des temps de calculs du même ordre de grandeur. Enfin, les différents avantages et possibilités de la méthode permettent de nombreux développements futurs.
29

Beraud, Benoît. "Méthodologie d’optimisation du contrôle/commande des usines de traitement des eaux résiduaires urbaines basée sur la modélisation et les algorithmes génétiques multi-objectifs." Montpellier 2, 2009. http://www.theses.fr/2009MON20049.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté dans cet ouvrage concerne le développement d'une méthodologie d'optimisation des lois de contrôle/commande des stations d'épuration des eaux usées urbaines. Ce travail est basé sur l'utilisation des modèles des procédés de traitement afin de réaliser la simulation de leur fonctionnement. Ces simulations sont utilisées par un algorithme d'optimisation multi-objectifs, NSGA-II. Cet algorithme d'optimisation permet la recherche des solutions optimales en fonction des différents objectifs considérés (qualité de l'effluent, consommation énergétique, etc. ). Il permet également la visualisation claire des compromis entre diverses lois de contrôle ainsi que la détermination de leurs domaines d'application respectifs. Dans une première partie de cet ouvrage, la méthodologie est développée autour de quatre axes principaux : la conception d'une méthode de simulation fiable et robuste, le choix des jeux de données d'entrée à utiliser en simulation, le choix des objectifs et contraintes à considérer et enfin l'évaluation des performances et de la robustesse à long terme des lois de contrôles. L'application de cette méthodologie sur le cas d'école du BSM1 est réalisée dans cette première partie. Dans une seconde partie, la méthodologie développée est appliquée sur le cas réel de l'usine de dépollution de Cambrai. Cette application a nécessité le développement de nouveaux aspects que sont la génération de données d'entrée dynamiques à partir des données d'auto-surveillance de la station d'épuration et la simulation des lois de contrôles basées sur une mesure du potentiel redox. Cette application a permis de visualiser les compromis entre la loi de contrôle actuellement utilisée sur site et une nouvelle loi envisagée. Il a ainsi été possible d'évaluer le gain de performances à attendre de ce changement
The work presented in this thesis concerns the development of an optimization methodology for control laws of wastewater treatment plants. This work is based on the use of WWTP process models in order to simulate their operation. These simulations are used by a multi-objective genetic algorithm, NSGA-II. This optimization algorithm allows the search of optimal solutions when multiple objectives are considered (e. G. The effluent quality, energy consumption, etc. ). It also enables the visualisation of compromises arising between various control laws as well as their respective best domains of application. In a first part of this work, the optimization methodology in developed around four main axes: the conception of a robust simulation procedure, the choice of input datasets for the simulations, the choice of objectives and constraints to consider and the evaluation of long term performances and robustness of control laws. This methodology is then applied on the literature case study of BSM1. In a second part of the work, the methodology is applied on the real case study of Cambrai wastewater treatment plant. This application includes the development of new aspects like the generation of dynamic input datasets out of daily monitoring measurements of the wastewater treatment plant, as well as the simulation of control laws based on oxydo-reduction potential measurements. This application allowed to analyze the compromises between the control law currently tested on the wastewater treatment plant and a new control law foreseen. The benefits of this modification could hence be clearly observed
30

Sambou, Vincent. "Transferts thermiques instationnaires : vers une optimisation de parois de bâtiments." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/252/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de notre travail est d'optimiser une paroi multicouche ou un élément de paroi alvéolaire par rapport à l'isolation thermique et l'inertie thermique. Nous avons montré que la capacité thermique déduite de la représentation quadripolaire d'une paroi est un paramètre caractérisant l'inertie de la paroi. L'optimisation d'une paroi multicouche, en plus de donner la disposition optimale des couches, a aussi déterminé l'épaisseur optimale de la couche massive. La production d'entropie irréversible journalière d'une paroi multicouche a confirmé la meilleure disposition des couches. Un élément de paroi alvéolaire représenté par une cavité partitionnée a été étudié théoriquement et expérimentalement en régime permanent et en régime variable. Cette étude a montré la prépondérance du transfert radiatif sur le transfert convectif dans les alvéoles. Un nombre optimal de cloisons donnant une résistance maximale a été trouvé. L'influence de paramètres pertinents de la cavité partitionnée sur le transfert thermique et sur la résistance thermique a été mise en évidence. L'étude de l'influence de la période de la température excitatrice sur les transferts convectif et radiatif a décelé l'existence d'une fréquence de résonnance dans l'alvéole la plus proche de la condition aux limites variable. Un modèle simplifié 1D des transferts thermiques dans une cavité partitionnée validé numériquement et expérimentalement nous a permis d'appliquer la méthode des quadripôles aux cavités partitionnées. Une cavité partitionnée a pu ainsi être optimisée par rapport à l'isolation thermique et à l'inertie thermique
The objective of this work is to optimize a multilayered wall or an element of alveolar wall in relation to insulation and thermal inertia. We showed that the thermal capacity deducted of the quadruple representation of a wall is a parameter characterizing thermal inertia of the wall. The optimization of a multilayered wall gives the optimal disposition of the wall layers and determines the optimal thickness of the massive layer. The daily entropy production of a multilayered wall confirms the best disposition of the layers. Heat transfer in an element of alveolar wall represented by a partitioned cavity has been theoretically and experimentally studied. Our results show the preponderance of the radiation heat transfer on the convection one. An optimal number of partitions giving a maximal resistance is found. The influence of pertinent parameters on heat transfer and thermal resistance is emphasized. Influence study of the exciting temperature period on the convection and radiation heat transfer shows the existence of a resonance frequency in the alveolus nearest to the variable boundary. A simplified 1D model of heat transfer in a partitioned cavity that has been validated both numerically and experimentally allows to apply quadruple method to partitioned cavity. Thus, a partitioned cavity can be optimized as regards insulation and thermal inertia
31

Carpentier, Alban. "Optimisation multi-niveaux de panneaux composites." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/234/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces travaux de thèses se placent dans la thématique du dimensionnement de structures aéronautiques par optimisation. Les structures optimisées sont des panneaux composites constitués d'empilements de plis uni-directionnels. L'objectif global est de trouver la masse minimale du panneau tout en satisfaisant des contraintes de résistances (tolérances aux dommages, réparabilité, flambement) mais aussi des contraintes de drapages. En résumé, le but est de déterminer le drapage de toutes les différentes zones du panneau. Cette thèse a permis la mise en place d'une méthodologie multi-niveaux (4 étapes). La première étape est l'optimisation de la loi d'épaisseur sur le panneau en utilisant un matériau homogénéisé et un algorithme à gradient. La seconde étape porte sur la recherche du drapage sur tout le panneau en utilisant un algorithme génétique adapté. Pour cela, l'emploi de table de drapage qui décrit tous les empilements pour la gamme d'épaisseur utilisé est mis en place. Enfin les troisième et quatrième étape permettent un ajustement de la loi d'épaisseur sur le panneau en prenant en compte le drapage issue de l'étape 2. Cette méthode d'optimisation est ensuite appliquée à un cas industriel (Dérive A400M). Cette illustration de la méthode permet de mettre en avant que la méthode donne des résultats performants en terme de masse (masse très proche d'un dimensionnement classique sans méthode mathématique d'optimisation). Elle illustre aussi la modularité de la méthode pour répondre au mieux aux besoins industriels
The topic of these PhD is to size aeronautical composite panels by optimisation. They are made of stacking of carbon pre-preg plies. The goal is to find the minimal weight for the panel that satisfies strength constraints (damage tolerance, reparability and buckling) but also stacking sequence constraints. To sum-up, the goal is to find all stacking sequences of all different panel areas. This research has allowed to propose a multi-level methodology (4 steps). The first step is the panel thickness law optimisation by using an homogenised material and a gradient-based algorithm. The second step is the research of stacking sequence all over the panel with a fitted genetic algorithm. To perform that, a lay-up table that describes all stacking sequences is used. Then, the third and fourth step allow to adjust thickness law by taking into account the lay-up table issued from step 2. This methodology is applied to an industrial test case (A400M VTP). This application of the methodology allows to underline the performance of the methodology in terms of weight. But, it shows also the modularity of the methodology that is a benefit in industrial context
32

Vasconcelos, Joao. "Optimisation de forme des structures électromagnétiques." Phd thesis, Ecole Centrale de Lyon, 1994. http://tel.archives-ouvertes.fr/tel-00139127.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail présente des méthodes d'optimisation de forme associées à un programme de calcul de champ dans des structures électrostatiques bidimensionnelles ou axisymétriques. Dans un premier chapitre, la méthode numérique utilisée pour le calcul du champ ; à savoir la méthode des équations intégrales de frontières ; est exposée en détail. Quelques améliorations, en particulier une technique efficace d'intégration adaptative, sont présentées. Le second chapitre est consacré au calcul numérique de la sensibilité des solutions aux paramètres géométriques ayant servi à décrire la structure. Les deux chapitres suivants sont consacrés aux méthodes d'optimisation, déterministes (s'appuyant sur le calcul des gradients) ou aléatoires (recuit simulé, génétique) Les variantes choisies sont testées sur des fonctions analytiques. Le dernier chapitre montre l'application des méthodes d'optimisation sur des structures électrostatiques réelles (forme d'électrodes, profils diélectriques), et démontre leur efficacité en particulier par des comparaisons avec des résultats trouvés dans la littérature.
33

Jannot, Xavier. "Modélisation et optimisation d'un ensemble convertisseur-machine. Application aux systèmes d'entrainement à haute vitesse." Phd thesis, Supélec, 2010. http://tel.archives-ouvertes.fr/tel-00565693.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans cette thèse concernent la modélisation et l'optimisation d'un ensemble Convertisseur-Machine devant fonctionner à haute vitesse. La première partie établit un état de l'art des méthodologies de conception relatives au dimensionnement optimal de systèmes d'entrainement et analyse les particularités du fonctionnement à haute vitesse. Puis, une modélisation analytique multiphysique des éléments du système est réalisée. Afin de mener une conception globalement optimale, les interactions significatives entre les éléments du système doivent être modélisées. Cela est effectué à l'aide d'une modélisation électrique fine - qui est le cœur de la caractérisation des interactions - mettant en œuvre une approche harmonique originale. Il en découle alors une modélisation des interdépendances entre onduleur et machine au niveau des pertes dans le système et de la qualité du couple. La modélisation est ensuite couplée à un algorithme génétique selon une méthodologie de conception hybride faisant intervenir des modèles analytiques puis par éléments finis. Enfin, cette démarche est appliquée au dimensionnement de deux systèmes d'entrainement dont le moteur est une MSAP à aimantation orthoradiale. Ces deux cas d'application ont été traités avec succès et ont mis en avant l'intérêt d'une approche " Système " dans la conception de systèmes d'entrainement. Par ailleurs nous avons analysé les morphologies des machines en fonction de la vitesse de rotation. Ceci a fait ressortir des capacités intéressantes de ce type de machines - pour la haute vitesse - d'un point de vue magnétique, mécanique, et des pertes au rotor.
34

Zaghdoud, Radhia. "Hybridation d’algorithme génétique pour les problèmes des véhicules intelligents autonomes : applications aux infrastructures portuaires de moyenne taille." Thesis, Ecole centrale de Lille, 2015. http://www.theses.fr/2015ECLI0023/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif de ce travail est de développer un système d’affectation des conteneurs aux véhicules autonomes intelligents (AIVs) dans un terminal à conteneurs. Dans la première phase, on a développé un système statique pour résoudre le problème multi-objectif optimisant la durée totale des opérations de déplacement des conteneurs, le temps d’attente des véhicules aux niveaux de points de chargement et de déchargement et l’équilibre de temps de travail entre les véhicules. L’approche proposée est l’algorithme génétique(AG). Une extension de cette approche a été ensuite effectuée pour corriger les limites de la précédente. Pour choisir la meilleure approche, une étude comparative a été réalisée entre trois approches : AG, AG & DIJK et AG & DIJK & HEUR. Les résultats numérique ont montré que l’approche AG & DIJK & HEUR est meilleure. Dans la deuxième phase, on a étudié la robustesse de notre système dans un environnement dynamique. Un retard de l’arrivée d’un navire au port ou un dysfonctionnement de l’un des équipements peutperturber le planning des opérations et donc influencer sur les opérations d’affectation des conteneurs. L’idée était d’ajouter les nouveaux conteneurs aux véhicules qui sont déjà non disponibles. D’autres cas de perturbation comme la congestion routière, la non disponibilité de certaines portions de la routes ont été étudiés expérimentalementEt les résultats numériques ont montré la robustesse de notre approche pour le cas dynamique.Mots-clés : Conteneurs, AIV, routage, optimisation, algorithme génetique, environnement dynamique
The objective of our work is to develop a container assignment system for intelligent autonomous vehicles (AIVS) in a container terminal. Given the complexity of this problem, it was proposed to decompose it into three problems: The problem of dispatching containers to AIVS, the AIVS routing problem and the problem of scheduling containers to queues of AIVS. To achieve this goal, we developed in the first phase, a static system for multi-objective problem to optimize the total duration of the containers transportation, the waiting time of vehicles at loading points and the equilibrium of working time between vehicles. The approach used was the genetic algorithm (GA). This approach was applied to optimize only the assignment operation without influence on the choice of the path traveled by each AIV. An extension of this work was then made to improve the results found. For this purpose, a comparative study was carried out between three approaches: The first approach is the AG, the second approach is the GA and the Dijkstra algorithm (DIJK) that was used to find the shortest path for each vehicle and the third approach is the AG and DIJK and heuristic (HEUR) which was proposed to choose the nearest vehicle of each container. The numerical study showed the best performance of the AG & DJK & HEUR approach over the other two approaches. In the second phase of our project, the robustness of our system in a dynamic environment has been studied. A delay of the arrival of a ship at the port or malfunction of one of any equipment of the port can cause a delay of one of the operations of loading or unloading process. This will affect the container assignment operation. The idea was to add new containers to vehicles that are already unavailable. The traffic can also cause a delay in arrival of the vehicle at the position of the container or the unavailability of one of the paths crossing point. These cases were investigated experimentally, numerical results showed the robustness of our approach to dynamic case
35

Touré, Sellé. "Optimisation des réseaux : réseau actif et flexible." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT095/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le Système Électrique est soumis ces dernières années à plusieurs évolutions, depuis la dérégulationdu marché d'énergie à l'intégration de plus en plus importante de Générateurs Dispersés (GED). Ainsi,dans le cadre du concept de Smart Grid, les nouvelles technologies de l'information et de lacommunication (NTIC) offrent de nouvelles perspectives pour la gestion et l'exploitation des réseauxde distribution.Dans ce contexte, de nouveaux outils sont étudiés. Encore appelés Fonctions Avancéesd’Automatisation (FAA), le but principal de ces outils est d’utiliser tous les composants du réseau dedistribution de manière coordonnée en vue de les rendre plus actifs, flexibles et d’augmenter leurefficacité opérationnelle. Dans notre cas, nous avons étudié les fonctions associées à la reconfigurationen régime normal, du réglage de la tension et l’hybridation de ces deux derniers, tout en tenant comptede la présence des GED. En partant du comportement physique inhérent aux composants du réseau,plusieurs modèles ont été proposés. Certains sont tirés de la théorie des graphes et d’autres sur l’outilpuissant de la reformulation mathématique pour « convexifier » nos modèles. Cette modélisationadoptée répond à la fois à la nécessité de prendre en compte tous les moyens de réglages qui peuventêtre discrets (prises des transformateurs avec régleurs en charge ou des gradins de condensateurs),binaires (état de connectivité des composants) et continues (puissance réactive de la DG) et par lechoix des outils et des algorithmes d'optimisation mixte. En effet, la complexité de ces problèmes sonttelles que nous avons exploré à la fois des algorithmes méta-heuristiques (ACF : Algorithme desColonies de Fourmis) que déterministes (Décomposition de Benders Généralisée, Algorithme duBranch and Cut)
The Electric Power System is undergoing a lot of evolutions in recent years, including the energymarket deregulation and the increasing integration of Dispersed Generators (DG). Therefore, withinthe framework of Smart Grid concept, the New Information and Communication Technologies (NICT)provide new perspectives to manage and operate distribution networks.In this context, new tools, called Advanced Distribution Automation functions (ADA, are beingstudied). The main objective of these tools is to use all the distribution network components in acoordinated manner to make them more active and flexible, in addition to increasing their operationalefficiency. In our case, we studied the functions associated with the reconfiguration problem, thevoltage control problem and the hybridization of these two, while taking into account the presence ofthe DG. Based on the inherent components of network physical models, several models have beenproposed. Some are derived from the graph theory and others use powerful mathematicalreformulation to make our models convex. The adopted models answer to the necessity of taking intoaccount all regulation means, which can be discrete (On Load Tap-Changer and capacitor banks),binary (components connectivity such as lines or transformers) and continuous (DG reactive power ),and by the choice of tools and algorithms of mixed optimization. Indeed, the complexity of theseproblems is such that we have explored both algorithms: meta-heuristic (ACA, Ant Colony Algorithm)and deterministic (Generalized Benders Decomposition, Branch and Cut Algorithm)
36

Delahaye, Daniel. "Optimisation de la sectorisation de l'espace aérien par algorithmes génétiques." Toulouse, ENSAE, 1995. http://www.theses.fr/1995ESAE0009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le problème posé dans cette thèse est la mise au point de méthodes automatiques de sectorisation d'espace aérien basées sur une modélisation de ce dernier. On considère pour cela un réseau de transport dans un espace à deux dimensions pour lequel on connaît les demandes de trafic associées à cahque paire Origine-Destination. On recherche par algorithmes génétiques une sectorisation et une affectation de trafic optimales permettant d'équilibrer les charges de contrôle dans les secteurs et de minimiser la charge globale tout en réduisant les rallongements de routes induits. Cette optimisation respecte un certain nombre de contraintes liées principalement à la géométrie des secteurs et à la nature du trafic.
37

Hadjee, Gino Eric. "Gain environnemental lié à une gestion coordonnée de la charge sur les réseaux de distribution d'énergie électrique." Paris 11, 2006. http://www.theses.fr/2006PA112044.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans la société actuelle, l'électricité s'avère indispensable et connaît une très forte expansion suite au développement de nouvelles technologies. Il est par ailleurs difficile de " stocker " l'électricité : la gestion de l'offre et de la demande doit se faire en temps réel. Cela nécessite une adaptation instantanée entre production, transport, distribution et consommation. Les usages provoquant des " pointes " de consommation énergétique, quotidiennes ou saisonnières, posent un problème car c'est en fonction de ces pointes que sont quantifiés les besoins en capacité de production, de transport et de distribution de l'électricité. La " gestion coordonnée de la charge " s'avère être une solution intéressante car elle permet d'améliorer l'efficacité énergétique tout en préservant la qualité de service. C'est un maillon essentiel, parmi les moyens d'action, grâce auquel chacun devrait trouver son intérêt, du producteur d'électricité à l'industriel, en passant par l'utilisateur et les pouvoirs publics. Cette thèse a pour but de rechercher les moyens et les méthodes de réduction de la pointe afin de lisser les courbes de charge vues des réseaux de distribution d'énergie électrique
The electricity demand has increased with the new developments in the world. This has put the pressure on the power utilities to meet the increasing demand of costumers. On electric power distribution, one simple way for meet this demand is to reinforce the power system capacity. However, this solution need not only expensive investments for electricity distributors but also increases the cost per for the costumers. An innovative way is to operate on costumer level. Then, it is interesting to study the management strategies for smoothing electricity demand curve without compromising the consumers comfort. Generally, the load control located at the level of the house or a group of houses. On this level, it consists in analyzing how a coordinated load management, being based on the typology of the principal electrical appliances, would allow reducing the load peak on distribution network level. On the distributor level, it consists in studying the influence of the tariff profile and proposing an optimization method in order to modify the consumer's behaviour to shift part of the peak load during off peak periods
38

Larabi, Mohand. "Le problème de job-shop avec transport : modélisation et optimisation." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2010. http://tel.archives-ouvertes.fr/tel-00625528.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse nous nous sommes intéressés à l'extension du problème job-shop en ajoutant la contrainte du transport des jobs entre les différentes machines. Dans cette étude nous avons retenu l'existence de deux types de robots, les robots de capacité de chargement unitaire (capacité=1 veut dire qu'un robot ne peut transporter qu'un seul job à la fois) et les robots de capacité de chargement non unitaire (capacité>1 veut dire qu'un robot peut transporter plusieurs job à la fois). Nous avons traité cette extension en deux étapes. Ainsi, la première étape est consacrée au problème du job-shop avec plusieurs robots de capacité de chargement unitaire et en seconde étape en ajoutant la capacité de chargement non unitaire aux robots. Pour les deux problèmes étudiés nous avons proposé :* Une modélisation linéaire ;* Une modélisation sous forme de graphe disjonctif ;* Plusieurs heuristiques de construction de solutions ;* Plusieurs recherches locales qui améliorent les solutions obtenues ;* Utilisation des algorithmes génétiques / mémétiques comme schéma global d'optimisation ;* De nouveaux benchmarks, des résultats de test de nos approches sur nos benchmarks et ceux de la littérature et ces résultats sont commentés et comparés à ceux de la littérature. Les résultats obtenus montrent la pertinence de notre modélisation ainsi que sa qualité.
39

Zidani, Hafid. "Représentation de solution en optimisation continue, multi-objectif et applications." Phd thesis, INSA de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00939980.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse a pour objectif principal le développement de nouveaux algorithmes globaux pour la résolution de problèmes d'optimisation mono et multi-objectif, en se basant sur des formules de représentation ayant la tâche principale de générer des points initiaux appartenant à une zone proche du minimum globale. Dans ce contexte, une nouvelle approche appelée RFNM est proposée et testée sur plusieurs fonctions non linéaires, non différentiables et multimodales. D'autre part, une extension à la dimension infinie a été établie en proposant une démarche pour la recherche du minimum global. Par ailleurs, plusieurs problèmes de conception mécanique, à caractère aléatoire, ont été considérés et résolus en utilisant cette approche, avec amélioration de la méthode multi-objectif NNC. Enfin, une contribution à l'optimisation multi-objectif par une nouvelle approche a été proposée. Elle permet de générer un nombre suffisant de points pour représenter la solution optimale de Pareto.
40

Hernandez-Rodriguez, Guillermo. "Optimisation multiobjectif de réseaux de transport de gaz naturel." Thesis, Toulouse, INPT, 2011. http://www.theses.fr/2011INPT0067/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'optimisation de l'exploitation d'un réseau de transport de gaz naturel (RTGN) est typiquement un problème d'optimisation multiobjectif, faisant intervenir notamment la minimisation de la consommation énergétique dans les stations de compression, la maximisation du rendement, etc. Cependant, très peu de travaux concernant l'optimisation multiobjectif des réseaux de gazoducs sont présentés dans la littérature. Ainsi, ce travail vise à fournir un cadre général de formulation et de résolution de problèmes d'optimisation multiobjectif liés aux RTGN. Dans la première partie de l'étude, le modèle du RTGN est présenté. Ensuite, diverses techniques d'optimisation multiobjectif appartenant aux deux grandes classes de méthodes par scalarisation, d'une part, et de procédures évolutionnaires, d'autre part, communément utilisées dans de nombreux domaines de l'ingénierie, sont détaillées. Sur la base d'une étude comparative menée sur deux exemples mathématiques et cinq problèmes de génie des procédés (incluant en particulier un RTGN), un algorithme génétique basé sur une variante de NSGA-II, qui surpasse les méthodes de scalarisation, de somme pondérée et d'ε-Contrainte, a été retenu pour résoudre un problème d'optimisation tricritère d'un RTGN. Tout d'abord un problème monocritère relatif à la minimisation de la consommation de fuel dans les stations de compression est résolu. Ensuite un problème bicritère, où la consommation de fuel doit être minimisée et la livraison de gaz aux points terminaux du réseau maximisée, est présenté ; l'ensemble des solutions non dominées est répresenté sur un front de Pareto. Enfin l'impact d'injection d'hydrogène dans le RTGN est analysé en introduisant un troisième critère : le pourcentage d'hydrogène injecté dans le réseau que l'on doit maximiser. Dans les deux cas multiobjectifs, des méthodes génériques d'aide à la décision multicritère sont mises en oeuvre pour déterminer les meilleures solutions parmi toutes celles déployées sur les fronts de Pareto
The optimization of a natural gas transportation network (NGTN) is typically a multiobjective optimization problem, involving for instance energy consumption minimization at the compressor stations and gas delivery maximization. However, very few works concerning multiobjective optimization of gas pipelines networks are reported in the literature. Thereby, this work aims at providing a general framework of formulation and resolution of multiobjective optimization problems related to NGTN. In the first part of the study, the NGTN model is described. Then, various multiobjective optimization techniques belonging to two main classes, scalarization and evolutionary, commonly used for engineering purposes, are presented. From a comparative study performed on two mathematical examples and on five process engineering problems (including a NGTN), a variant of the multiobjective genetic algorithm NSGA-II outmatches the classical scalararization methods, Weighted-sum and ε-Constraint. So NSGA-II has been selected for performing the triobjective optimization of a NGTN. First, the monobjective problem related to the minimization of the fuel consumption in the compression stations is solved. Then a biojective problem, where the fuel consumption has to be minimized, and the gas mass flow delivery at end-points of the network maximized, is presented. The non dominated solutions are displayed in the form of a Pareto front. Finally, the study of the impact of hydrogen injection in the NGTN is carried out by introducing a third criterion, i.e., the percentage of injected hydrogen to be maximized. In the two multiobjective cases, generic Multiple Choice Decision Making tools are implemented to identify the best solution among the ones displayed of the Pareto fronts
41

Euzière, Jérôme. "Multifunction array for radar applications." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S017/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée à la conception et à la mise en œuvre d’un réseau d’antenne multifonction. Basé sur le concept du Time Modulated Array (TMA), réseau modulé dans le temps et grâce à des switches cette étude montre la possibilité de réaliser un réseau multifonctions. Deux fonctions ont été étudiés, une fonction radar (fonction principale) et une fonction communication (fonction secondaire). Une des innovations apportées par ce principe est la bidirectionnalité (chaque fonction est réalisée dans une direction différente) et l’aspect simultané des fonctions exécutées. . La technique conventionnelle du TMA présente aussi des inconvénients pour être utiliser dans des applications radar. En effet, les variations de directivité, l'angle d'ouverture ainsi qu’une grande sensibilité aux interférences font que le TMA n’est pas compatible avec des applications radar. En effet, une variation de directivité provoque une variation de puissances à l'émission donc les signaux réfléchis souffriront également de cette variation qui peut ainsi créer des erreurs de détections. Des variations de l'angle d'ouverture crée une variation de la résolution angulaire du radar dans le temps ce qui perturbe la capacité de discrimination du radar. De plus, le rejet des interférences est aussi nécessaire afin d'éviter d'être aveuglé par un brouilleur ou par les échos parasites pendant notre détection. Pour résoudre ces inconvénients une méthode spécifique appelée Adapted Radar TMA a ainsi été développée. Grâce à une méthode d'optimisation (algorithme génétique) avec des contraintes définis, avec comme variables principale la loi d’excitation des antennes, plusieurs compromis ont été proposés afin de mutualiser et maximiser les performances de chaque partie (radar et communication). Ainsi 3 méthodes de loi d'excitation des antennes (ou pondération) ont été pensés. Par le biais de ces méthodes, la directivité et l'angle d'ouverture ont été contrôlés. Le rejet des interférences est désormais possible dans une direction donné. De plus, le réseau multifonction est aussi capable de fournir une partie communication ajouté à la partie radar déjà existante. L'optimisation exploite le comportement instantané d'ARTMA. Ainsi, en utilisant la variation des lobes secondaires dus aux changements des poids dans le temps, plusieurs modulations peuvent être adressées, à savoir une modulation ASK ou QAM. Un prototype de ce réseau multifonction comportant 16 antennes a été conçu. Les résultats des mesures ont fourni de bons résultats et ont validé le concept d'une communication en utilisant une modulation d'amplitude et de phase en faisant varier les lobes secondaires dans le temps grâce à des switchs en amont des antennes
This thesis is devoted to the design and implementation of a multifunctional antenna array. Based on the concept of Time Modulated Array (TMA), array modulated in time with switches this study shows the possibility of a multifunction array. Two functions were studied, a radar function (main function) and a communication function (secondary function). One of the innovations of this principle is the bidirectional (each function is performed in a different direction) and the simultaneous appearance of the functions performed. The conventional technique of TMA also has drawbacks to be used in radar applications. Indeed, variations of directivity, beamwidth and a sensitivity to interference make the TMA no compatible with radar applications. Indeed, a directivity variation causes variations in the power transmission therefore the reflected signals also suffer from these variations, which can thus create errors detections. Variations in the beamwidth creates a change in the angular resolution of the radar in time thereby interfering with the discrimination ability of the radar. In addition, the interference rejection is also needed to avoid being blinded by a jammer or clutter during our detection. To overcome these drawbacks a specific method called Adapted Radar TMA has been developed. Through an optimization method (genetic algorithm) with defined constraints using as main variable the excitation law of the antennas, several compromises were proposed in order to make matched and maximize the performance of each part (radar and communication). Thus methods 3 excitation law of the antennas (weighting coefficients) were thought. Through these methods, the directivity and the beamwidth have been controlled. The interference rejection is now possible in a given direction. In addition, the multifunction array is also capable of providing a communication part added to the existing part radar. Optimization operates with ARTMA instant behavior. Thus, using the variation of the sidelobes due to changes in weighting coefficients over the time, several modulations may be addressed, namely ASK or QAM. A prototype of this multifunction network with 16 antennas was designed. Measurement results have provided good results and have validated the concept of communication using an amplitude and phase modulation by varying the side lobes in time through the switches before of the antennas
42

Smekens, François. "Planification inverse de la dose en hadronthérapie : prise en compte de la qualité du rayonnement pour une optimisation de la dose biologique." Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00716665.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'hadronthérapie est une modalité d'irradiation récente particulièrement attractive. Les ions, par leur profil caractéristique de dépôt de dose dans la matière et leur efficacité biologique accrue, sont des particules parfaitement adaptées pour le traitement du cancer. C'est une modalité émergente et les travaux de recherche et de développement qui en font l'objet se poursuivent de manière soutenue. Cependant, il n'existe à ce jour aucun outil permettant de quantifier pour le patient le gain clinique associé aux améliorations proposées, comme l'apport d'une gantry par exemple. Nous proposons dans ce travail de concevoir un module de planification inverse du traitement pour un but prospectif. Détachée des contraintes usuelles de précision et de temps de calcul, notre méthode d'optimisation se base sur un algorithme génétique afin d'approcher d'une solution globale vis-à-vis d'un grand nombre de paramètres balistiques (champs d'irradiation libres) et en associant les diverses régions d'intérêt dosimétrique. La stratégie d'optimisation retenue est progressivement complexifiée afin de prendre en compte de manière efficace les différents enjeux de la planification. La robustesse du plan vis-à-vis des incertitudes inhérentes au traitement, primordiale en hadronthérapie, est évaluée. Dans toutes les situations testées, il apparaît que l'inclusion dans l'optimisation de paramètres habituellement fixés manuellement permet une amélioration de la qualité de traitement. Nous proposons au terme de cette étude un outil prospectif d'optimisation au réglage simple et capable de mener des études comparées sur la pertinence de nouvelles modalités d'irradiation.
43

Audoux, Yohann. "Développement d’une nouvelle méthode de réduction de modèle basée sur les hypersurfaces NURBS (Non-Uniform Rational B-Splines)." Thesis, Paris, ENSAM, 2019. http://www.theses.fr/2019ENAM0016/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Malgré des décennies d’incontestables progrès dans le domaine des sciences informatiques, un certain nombre de problèmes restent difficiles à traiter en raison, soit de leur complexité numérique (problème d’optimisation, …), soit de contraintes spécifiques telle que la nécessité de traitement en temps réel (réalité virtuelle, augmentée, …). Dans ce contexte, il existe des méthodes de réduction de modèle qui permettent de réduire les temps de calcul de simulations multi-champs et/ou multi-échelles complexes. Le processus de réduction de modèle consiste à paramétrer un métamodèle qui requiert moins de ressources pour être évalué que le modèle complexe duquel il a été obtenu, tout en garantissant une certaine précision. Les méthodes actuelles nécessitent, en général, soit une expertise de l’utilisateur, soit un grand nombre de choix arbitraires de sa part. De plus, elles sont bien souvent adaptées à une application spécifique mais difficilement transposable à d’autres domaines. L’objectif de notre approche est donc d’obtenir, s'il n'est pas le meilleur, un bon métamodèle quel que soit le problème considéré. La stratégie développée s’appuie sur l’utilisation des hypersurfaces NURBS et se démarque des approches existantes par l’absence d’hypothèses simplificatrices sur les paramètres de celles-ci. Pour ce faire, une méta heuristique (de type algorithme génétique), capable de traiter des problèmes d’optimisation dont le nombre de variables n’est pas constant, permet de déterminer automatiquement l’ensemble des paramètres de l’hypersurface sans transférer la complexité des choix à l’utilisateur
Despite undeniable progress achieved in computer sciences over the last decades, some problems remain intractable either by their numerical complexity (optimisation problems, …) or because they are subject to specific constraints such as real-time processing (virtual and augmented reality, …). In this context, metamodeling techniques can minimise the computational effort to realize complex multi-field and/or multi-scale simulations. The metamodeling process consists of setting up a metamodel that needs less resources to be evaluated than the complex one that is extracted from by guaranteeing, meanwhile, a minimal accuracy. Current methods generally require either the user’s expertise or arbitrary choices. Moreover, they are often tailored for a specific application, but they can be hardly transposed to other fields. Thus, even if it is not the best, our approach aims at obtaining a metamodel that remains a good one for whatever problem at hand. The developed strategy relies on NURBS hypersurfaces and stands out from existing ones by avoiding the use of empiric criteria to set its parameters. To do so, a metaheuristic (a genetic algorithm) able to deal with optimisation problems defined over a variable number of optimisation variables sets automatically all the hypersurface parameters so that the complexity is not transferred to the user
44

Jannot, Xavier. "Modélisation et optimisation d’un ensemble convertisseur-machine. Application aux systèmes d’entrainement à haute vitesse." Thesis, Supélec, 2010. http://www.theses.fr/2010SUPL0004/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans cette thèse concernent la modélisation et l’optimisation d’un ensemble Convertisseur-Machine devant fonctionner à haute vitesse. La première partie établit un état de l’art des méthodologies de conception relatives au dimensionnement optimal de systèmes d’entrainement et analyse les particularités du fonctionnement à haute vitesse. Puis, une modélisation analytique multiphysique des éléments du système est réalisée. Afin de mener une conception globalement optimale, les interactions significatives entre les éléments du système doivent être modélisées. Cela est effectué à l’aide d’une modélisation électrique fine – qui est le cœur de la caractérisation des interactions – mettant en œuvre une approche harmonique originale. Il en découle alors une modélisation des interdépendances entre onduleur et machine au niveau des pertes dans le système et de la qualité du couple. La modélisation est ensuite couplée à un algorithme génétique selon une méthodologie de conception hybride faisant intervenir des modèles analytiques puis par éléments finis. Enfin, cette démarche est appliquée au dimensionnement de deux systèmes d’entrainement dont le moteur est une MSAP à aimantation orthoradiale. Ces deux cas d’application ont été traités avec succès et ont mis en avant l’intérêt d’une approche « Système » dans la conception de systèmes d’entrainement. Par ailleurs nous avons analysé les morphologies des machines en fonction de la vitesse de rotation. Ceci a fait ressortir des capacités intéressantes de ce type de machines – pour la haute vitesse – d’un point de vue magnétique, mécanique, et des pertes au rotor
The work presented in this thesis aims at the modelling and optimisation of a set Converter-Machine that is intended to run at high speeds. The first part is a state of the art of the conception methodologies related to the optimal design of drives and investigates the particularities of high speed operations. Then, an analytic and multiphysic modelling of the elements of the system is performed. But, in order to carry out a global optimal conception, the significant interactions between the various elements of the system must be modelled. This is achieved through a precise electrical model – that is the core of the characterization of the interactions – involving an original harmonic approach. From this follows a modelling of the interdependences between inverter and machine in the system losses and in the torque quality. The models are then associated with a genetic algorithm according to a hybrid methodology of conception involving analytical and finite-element models. Finally, this procedure is applied to the design of two drives of which the motor is a PMSM with circumferentially magnetised magnets. These two cases have been successfully handled and clearly show the assets of a “System” approach for the design of drives. In addition, the morphologies of the optimal machines are analysed according to their rotation speed. This analysis highlights some interesting abilities of this kind of machines – in high speed – regarding the magnetic and mechanical behaviours, and the rotor losses
45

Tlili, Brahim. "Identification et commande des systèmes non linéaires : Utilisation des modèles de type NARMA." Phd thesis, Ecole Nationale d'Ingénieurs de Tunis, 2008. http://tel.archives-ouvertes.fr/tel-00589735.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce travail, nous nous sommes intéressés à l'identification et la commande prédictive des systèmes non linéaires monovariables et multivariables en exploitant les modèles NARMA. Pour l'identification des modèles de type NARMA, nous avons proposé deux nouvelles méthodes heuristiques. La première méthode est basée sur les algorithmes génétiques binaires et la deuxième méthode constitue une combinaison entre le réseau de neurones artificiels à fonction d'activation polynomiale et l'algorithme génétique sous sa représentation réelle. Cette dernière méthode a été également développée pour la modélisation des systèmes multivariables. Les résultats trouvés, pratiques ou en simulations, ont confirmé l'efficacité et la robustesse des méthodes proposées. En effet, les modèles NARMA déterminés caractérisent avec une précision acceptable et avec une complexité raisonnable le comportement des systèmes étudiés. Par la suite nous avons proposé un contrôleur prédictif des systèmes non linéaires sous contraintes, qui exploite les modèles de type NARMA. La loi de commande est obtenue en minimisant un critère quadratique non convexe. Le problème d'optimisation est résolu par deux méthodes utilisant les algorithmes de Nelder-Mead et de Rosenbrock qui ne nécessitent pas le calcul de la dérivée du critère. Ces méthodes, combinées avec la fonction de pénalité, l'approche CFON ainsi que l'utilisation de la notion de multi initialisation, permettent une meilleure convergence vers le minimum global.
46

Ben, Soltana Wael. "Optimisation de stratégies de fusion pour la reconnaissance de visages 3D." Phd thesis, Ecole Centrale de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-01070638.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La reconnaissance faciale (RF) est un domaine de recherche très actif en raison de ses nombreuses applications dans le domaine de la vision par ordinateur en général et en biométrie en particulier. Cet intérêt est motivé par plusieurs raisons. D'abord, le visage est universel. Ensuite, il est le moyen le plus naturel par les êtres humains de s'identifier les uns des autres. Enfin, le visage en tant que modalité biométrique est présente un caractère non intrusif, ce qui le distingue d'autres modalités biométriques comme l'iris ou l'emprunte digitale. La RF représente aussi des défis scientifiques importants. D'abord parce que tous les visages humains ont des configurations similaires. Ensuite, avec les images faciales 2D que l'on peut acquérir facilement, la variation intra-classe, due à des facteurs comme le changement de poses et de conditions d'éclairage, les variations d'expressions faciales, le vieillissement, est bien plus importante que la variation inter-classe.Avec l'arrivée des systèmes d'acquisition 3D capables de capturer la profondeur d'objets, la reconnaissance faciale 3D (RF 3D) a émergé comme une voie prometteuse pour traiter les deux problèmes non résolus en 2D, à savoir les variations de pose et d'éclairage. En effet, les caméras 3D délivrent généralement les scans 3D de visages avec leurs images de texture alignées. Une solution en RF 3D peut donc tirer parti d'une fusion avisée d'informations de forme en 3D et celles de texture en 2D. En effet, étant donné que les scans 3D de visage offrent à la fois les surfaces faciales pour la modalité 3D pure et les images de texture 2D alignées, le nombre de possibilités de fusion pour optimiser le taux de reconnaissance est donc considérable. L'optimisation de stratégies de fusion pour une meilleure RF 3D est l'objectif principal de nos travaux de recherche menés dans cette thèse.Dans l'état d'art, diverses stratégies de fusion ont été proposées pour la reconnaissance de visages 3D, allant de la fusion précoce "early fusion" opérant au niveau de caractéristiques à la fusion tardive "late fusion" sur les sorties de classifieurs, en passant par de nombreuses stratégies intermédiaires. Pour les stratégies de fusion tardive, nous distinguons encore des combinaisons en parallèle, en cascade ou multi-niveaux. Une exploration exhaustive d'un tel espace étant impossible, il faut donc recourir à des solutions heuristiques qui constituent nos démarches de base dans le cadre des travaux de cette thèse.En plus, en s'inscrivant dans un cadre de systèmes biométriques, les critères d'optimalité des stratégies de fusion restent des questions primordiales. En effet, une stratégie de fusion est dite optimisée si elle est capable d'intégrer et de tirer parti des différentes modalités et, plus largement, des différentes informations extraites lors du processus de reconnaissance quelque soit leur niveau d'abstraction et, par conséquent, de difficulté.Pour surmonter toutes ces difficultés et proposer une solution optimisée, notre démarche s'appuie d'une part sur l'apprentissage qui permet de qualifier sur des données d'entrainement les experts 2D ou 3D, selon des critères de performance comme ERR, et d'autre part l'utilisation de stratégie d'optimisation heuristique comme le recuit simulé qui permet d'optimiser les mélanges des experts à fusionner. [...]
47

Zeng, Qiang. "Optimisation de l'utilisation des explosifs en génie civil." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1995. http://tel.archives-ouvertes.fr/tel-00529371.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail, contribue à mieux comprendre les phénomènes complexes lors des tirs de mine afin d'approcher une conception optimisée. La première partie, concernant la détonation, est destinée à la compréhension des modèles numériques fondés sur la théorie de la propagation de détonation. La seconde partie, concernant la modélisation de la fracturation des roches, s'adresse à la simulation des tirs. Une nouvelle loi de comportement dynamique des roches (type élastique avec endommagement anisotrope) est proposée et est intégrée dans RADIOSS, un code de calcul des problèmes dynamiques transitoires. Ce modèle permet également de calculer les dimensions représentatives des fragments ; les calculs avec diverses modélisations (en 2-D et en 3-D, détonation/structure) sont effectués. La dernière partie est consacrée à l'optimisation des tirs à l'aide des traitements numériques avancés. La connaissance des mécanismes de la fragmentation des roches est approfondie notamment sur l'influence de certains paramètres de conception. Les exemples sur la recherche des règles par l'apprentissage automatique montrent l'efficacité de cette approche. L'exemple sur la recherche d'une conception optimisée montre la puissance et la perspective pratique de l'approche par algorithmes génétiques couplés avec l'apprentissage automatique.
48

Kazamias-Moucan, Sophie. "Optimisation d'une source d'harmoniques d'ordres élevés pour l'optique non-linéaire dans l'extrême UV." Phd thesis, Ecole Polytechnique X, 2003. http://tel.archives-ouvertes.fr/tel-00008285.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente le travail réalisé sur la source harmoniques du LOA à partir d'une chaine Titane-Saphir kHz. Cette étude s'inscrit dans la perspective d'observer des effets non linéaires dus à l'interaction d'un faisceau harmonique intense focalisé sur cible solide. Nous présentons l'étude de l'optimisation de cette source, qui permet de générer efficacement des harmoniques en limite d'absorption. Un cadre complet d'étude de ces conditions d'optimisation du point de vue théorique et expérimental est défini avec notamment une explication détaillée de l'importance de la diaphragmation du faisceau infrarouge. Nous montrons également comment la technique des algorithmes génétiques a été utilisé par le controle de la phase spectrale du laser de pompe. Nous concluons sur la focalisation des harmoniques.
49

Beraud, Benoit. "Méthodologie d'optimisation du contrôle/commande des usines de traitement des eaux résiduaires urbaines basée sur la modélisation et les algorithmes génétiques multi-objectifs." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2009. http://tel.archives-ouvertes.fr/tel-00457236.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté dans cet ouvrage concerne le développement d'une méthodologie d'optimisation des lois de contrôle/commande des stations d'épuration des eaux usées urbaines. Ce travail est basé sur l'utilisation des modèles des procédés de traitement afin de réaliser la simulation de leur fonctionnement. Ces simulations sont utilisées par un algorithme d'optimisation multi-objectifs, NSGA-II. Cet algorithme d'optimisation permet la recherche des solutions optimales en fonction des différents objectifs considérés (qualité de l'effluent, consommation énergétique, etc.). Il permet également la visualisation claire des compromis entre diverses lois de contrôle ainsi que la détermination de leurs domaines d'application respectifs. Dans une première partie de cet ouvrage, la méthodologie est développée autour de quatre axes principaux : la conception d'une méthode de simulation fiable et robuste, le choix des jeux de données d'entrée à utiliser en simulation, le choix des objectifs et contraintes à considérer et enfin l'évaluation des performances et de la robustesse à long terme des lois de contrôles. L'application de cette méthodologie sur le cas d'école du BSM1 est réalisée dans cette première partie. Dans une seconde partie, la méthodologie développée est appliquée sur le cas réel de l'usine de dépollution de Cambrai. Cette application a nécessité le développement de nouveaux aspects que sont la génération de données d'entrée dynamiques à partir des données d'auto-surveillance de la station d'épuration et la simulation des lois de contrôles basées sur une mesure du potentiel redox. Cette application a permis de visualiser les compromis entre la loi de contrôle actuellement utilisée sur site et une nouvelle loi envisagée. Il a ainsi été possible d'évaluer le gain de performances à attendre de ce changement.
50

Chamaret, Blaise. "Outils de planification pour les réseaux cellulaires." Saint-Etienne, 1999. http://www.theses.fr/1999STET4002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre de ma thèse, je me suis intéressé à deux problèmes d'optimisation combinatoire : le placement d'émetteurs / récepteurs pour les réseaux de radio-communication et l'allocation de fréquences pour ces mêmes réseaux. Ces deux problèmes peuvent être traités à l'aide d'outils issus de la théorie des graphes. Pour le placement d'émetteurs / récepteurs, j'ai utilisé une modélisation basée sur un graphe non orienté où les sommets représentent les émetteurs / récepteurs et les arêtes différentes règles d'interdiction. J'ai mis en place une méthode basée sur la recherche du stable maximum. Les algorithmes développés pour la recherche de solutions dites sous-optimales font partie des algorithmes heuristiques. Ce choix se justifie par le fait que le problème de la recherche du stable maximum pour la famille de graphes obtenus avec notre modélisation, est np-complet. Il n'existe donc pas d'algorithme exact permettant de résoudre le problème du stable maximum en temps polynomial. Les algorithmes heuristiques testés sont des algorithmes gloutons et génétiques. Ils utilisent les caractéristiques du problème de placement. Les résultats obtenus montrent que les algorithmes hybrides deviennent plus performants dès que le nombre de sommets dans le graphe initial augmente de façon significative (plusieurs centaines). En ce qui concerne le problème de l'allocation de fréquences, il peut être étudié comme un problème de partage de ressources. A la différence des problèmes de k-coloriage classiques, l'allocation de fréquences dans le cas particulier des réseaux de téléphonie mobile que j'ai étudiés, est un problème de multi-coloriage (plusieurs couleurs par sommet) avec contraintes. Ce problème étant aussi np-complet, je me suis orienté vers trois algorithmes. Le premier découle des résultats obtenus par l'algorithme glouton d'extraction de stables. Il décompose l'ensemble des sommets du graphe en k stables maximaux. Cette décomposition n'étant pas unique, l'algorithme essaie de construire celle qui contient le moins de stables. Le deuxième est un algorithme stochastique randomisé qui, partant d'un coloriage donné, essaie de diminuer le nombre de couleurs utilisées. Le dernier est un algorithme hybride parallèle travaillant avec une population divisée en ilots. Tous ces algorithmes produisent trois résultats : une borne supérieure pour le nombre chromatique, un coloriage et l'empan de l'ensemble des fréquences utilisées. Le nombre chromatique n'est pas suffisant pour juger d'un résultat de multi-coloriage avec contraintes. J'ai confronté les résultats obtenus par optimisations successives des deux problèmes (placement puis allocation) aux résultats issus d'un processus global d'optimisation

До бібліографії