To see the other types of publications on this topic, follow the link: Optimisation de capacité.

Dissertations / Theses on the topic 'Optimisation de capacité'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Optimisation de capacité.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Molle, Christelle. "Optimisation de la capacité des réseaux radio maillés." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00428940.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux problématiques d'optimisation de la capacité des réseaux radio maillés. Cette architecture de réseau d'accès est particulièrement pertinente en milieu urbain ou en situation opérationnelle militaire. Nous définissons la capacité d'un réseau comme la quantité de flot que peut répartir équitablement une topologie aux utilisateurs qu'elle sert. Afin d'obtenir des bornes théoriques sur les performances du réseau, nous développons des modèles d'optimisation intégrant les caractéristiques inter-couche des communications radio. Nous étudions plus précisément le problème joint du routage et de l'ordonnancement. Nous développons, pour la relaxation linéaire de ce problème, une méthode de résolution efficace utilisant la génération de colonnes. Nous dérivons ensuite une formulation qui élimine le routage pour se concentrer sur la capacité de transport disponible sur les coupes du réseau. L'équivalence des solutions optimales est démontrée, et le processus de résolution est adapté en une génération croisée de lignes et de colonnes. Ces études mettent en évidence la présence d'une zone de contention autour de chaque point d'accès qui contraint la capacité du réseau. Ces résultats permettent une étude quantitative des effets du trafic d'acquittement sur la capacité. Nous présentons enfin une étude de la stabilité d'un protocole routant du trafic injecté de manière arbitraire au cours du temps. Nous améliorons les résultats existants en démontrant la stabilité quand le trafic injecté est un flot maximum. L'ensemble de ces travaux a été implémenté dans la bibliothèque open source MASCOPT (Mascotte Optimisation) dédiée aux problèmes d'optimisation des réseaux.
APA, Harvard, Vancouver, ISO, and other styles
2

Merel, Aurélien. "Evaluation biobjectif de la capacité d’infrastructures ferroviaires par génération de colonnes hybride." Nantes, 2012. http://archive.bu.univ-nantes.fr/pollux/show.action?id=5dd2fb9c-bffd-4af6-951d-4c7bb795ee00.

Full text
Abstract:
Ce mémoire propose de s’intéresser aux problématiques liées à la capacité des infrastructures ferroviaires. Évaluer la capacité d’une infrastructure revient à estimer le trafic maximal qu’elle peut accueillir pendant une période donnée, en regard d’une demande de circulation donnée. L’estimation de capacité est partie intégrante de la gestion prévisionnelle du trafic ferroviaire, et se révèle une donnée essentielle pour les gestionnaires d’infrastructure et les exploitants ferroviaires, d’autant plus étant donné le contexte européen de libéralisation du marché. Calculer la capacité peut être réalisé par la résolution d’un problème sous-jacent appelé problème de saturation, consistant à insérer le maximum de circulation possible sur une infrastructure et soulevant d’importantes difficultés combinatoires : des temps de calcul rédhibitoires apparaissent pour certains jeux de données en utilisant les méthodes existantes. Une nouvelle méthode est donc proposée, basée sur une modélisation sous forme de programme linéaire en nombres entiers. Une contribution algorithmique est présentée, se basant sur plusieurs techniques : génération de colonnes, agrégation dynamique de contraintes et hybridation d’algorithmes exacts et approchés. Les tests comparatifs montrent une réduction significative du temps de résolution grâce à notre contribution, que nous implémentons dans un logiciel d’analyse de capacité, RECIFE PC. Une analyse des solutions nous conduit finalement à affiner le modèle mathématique en proposant deux formulations biobjectifs et une suggestion algorithmique visant à tirer profit de la génération de colonnes tout en réalisant une résolution biobjectif
The present thesis is focused on problematics related to railway infrastructure capacity. Evaluating an infrastructure’s capacity can be seen as assessing the maximum amount of traffic that can pass through it within a given time period, depending on some circulation demand. Capacity assessment is an essential part of previsional planning of the railway traffic and is consequently an essential piece of data for infrastructure managers as well as for train operators. This is even more important in the current context of the European railway market being open to free competition. Capacity assessment can be achieved by solving an underlying problem, the saturation problem, which entails inserting as much traffic as possible inside an infrastructure and yields significant combinatorial difficulties. Prohibitive computation times are yielded by some data sets when using existing computation algorithms. A new solution method is consequently proposed, based on an integer linear programming modelling of the problem. An original algorithmic contribution is presented in order to solve this formulation by using several techniques, including column generation, dynamic constraint aggregation and hybridizations of exact and approximate solution algorithms. Comparative tests show a substantial reduction of the solving time thanks to our contribution, which we consequently implement into a capacity analysis software, RECIFE PC. An analysis of the solutions finally leads us to refine the mathematical model by proposing two biobjective formulations and an algorithmic suggestion aiming at benefiting from the column generation procedure while doing a biobjective resolution
APA, Harvard, Vancouver, ISO, and other styles
3

Sawaya, Hadi. "Optimisation des performances pour les techniques de codage de canal approchant la capacité." Paris, ENST, 2002. http://www.theses.fr/2002ENST0031.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Madassamy, Sandrine. "Etude et optimisation de capacités MIM 3D à haute densité d'énergie fortement intégrées sur silicium." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT044.

Full text
Abstract:
Le stockage de l’énergie reste une problématique majeure pour le développement d’objets embarqués (Internet of Things) à faible facteur de forme. En effet, pour le stockage et la restitution d’énergie électrique, les dispositifs les plus couramment utilisés sont les batteries, les supercondensateurs et les condensateurs électrochimiques ou céramiques. Toutefois, le contexte de la miniaturisation nécessite de fabriquer des systèmes de stockage à forte densité d’intégration, compatibles avec des techniques d’intégration de type SIP (System in Package) et ultimement SoC (System on Chip). Or, les technologies connues dans l’art antérieur produisent des composants à forte épaisseur, via des filières technologiques exotiques, incompatibles avec une co-intégration directe sur des composants silicium. Pour répondre à ces exigences, nous proposons une nouvelle approche pour l’intégration de condensateurs de très faible épaisseur sur silicium. Ces condensateurs présentent une meilleure fiabilité et de meilleures performances en linéarité que les condensateurs céramiques et peuvent stocker une densité énergétique proche de celle d’un condensateur électrochimique.Cette thèse est axée sur la conception, le développement, la réalisation, la caractérisation électrique et fiabilité de capacités MIM (Métal/Isolant/Métal) à forte densité d’intégration et présentant une forte densité énergétique. Ces condensateurs sont modelés dans une nanostructure poreuse ordonnée et développée par un procédé électrochimique. Cette nanostructure 3D permet de décupler la surface spécifique développée, par rapport à une structure planaire simple ou une microstructure 3D telle qu’actuellement exploitée par la société IPDIA. Ce nanocomposant MIM comportant un isolant à base d’alumine, déposé par ALD (Atomic Layer Deposition) d’une épaisseur variant entre 15nm et 21nm. Pour cette gamme d’épaisseur, une densité de capacité de l’ordre de 200nF/mm² à 300nF/mm² est obtenue sur une simple structure MIM, avec un champ de claquage de l’ordre de 7MV/cm et une densité d’énergie volumique maximale de 1.3mWh/cm3. Cette dernière valeur est supérieure d’une décade aux technologies actuellement exploitées par la société IPDIA. Une attention particulière a été apportée à la réduction des parasites de la structure, et lui permettant ainsi de répondre à des transitions rapide en courant. Pour cela, la résistance série de ces structures a été optimisée par l’amélioration du contact entre les nanostructures MIM et les électrodes externes. La stabilité de la capacité MIM en température et en tension est comparable aux performances des technologies de référence IPDIA (respectivement avec un coefficient thermique de 193ppm/°C et un coefficient de tension de 489 ppm/V2), lesquelles sont basées sur une structure composite de type ONO (multicouche oxyde-nitrure). Elle est par ailleurs meilleure que celle observée pour les condensateurs céramiques multicouches disponibles sur le marché. Notre capacité présente également, une excellente robustesse en température et a été utilisée jusqu’à 375°C. Les performances démontrées sur les prototypes réalisés au cours de ce travail, permettent d’envisager un vaste domaine d’applications, incluant des applications de stockage, de filtrage de rails d’alimentation, de mise en forme de signaux analogiques et de puissance. Le niveau de maturité atteint sur les premiers démonstrateurs permet d’envisager un transfert industriel dans les mois à venir
The energy storage components remain one of the limiting features for scaling of the Internet of Things objects. Indeed, the storage devices nowadays available as batteries, supercapacitors and electrochemical or ceramic capacitors are still quite bulky and remain incompatible with reduced aspect ratio, while roadmap toward miniaturization requires concept with high integration density compatible with integration techniques like SiP ((System in Package) and on longer term SoC (System on Chip). However, technologies known from the prior art, produce components with too large thickness, inflexible shape (mostly circular or rectangular), through exotic technologies that are incompatible with direct co-integration on silicon components. To overcome those limitations, we have proposed a novel approach for the integration of very low thickness capacitors. Those capacitors have better reliability and stability performances than ceramic capacitors and are able to store energy density approaching electrochemical capacitor.This thesis is focused on the development of the capacitive structure, the processing steps, its electrical and reliability characterization and finally the electrical optimization of MIM (Metal/Isolator/Metal) capacitors. Those capacitive structures are based on a porous and self-arranged nano-template obtained by an electrochemical process. Those nanostructures allow to increase the specific surface density with respect to conventional planar or microstructures that are currently exploited by IPDIA. The MIM structure consists of alumina dielectric, deposited by ALD (Atomic Layer Deposition) with a thickness between 15nm and 21nm. For this thickness, capacitance density is obtained in the range of 200nF/mm² and 300nF/mm² for a simple MIM nanostructure, with a breakdown field about 7 MV/cm and a maximum volumetric energy density of about 1.3mWh/cm3. This last value corresponds to a decade higher with respect to current IPDIA technologies. A specific optimization has been conducted to reduce structure parasitic, and thus enable faster current transition on switching events. For that, a technic to reduce the serial resistance between the MIM nanostructure and the external electrodes has been investigated. The temperature and voltage linearity of this MIM capacitor is on par with actual IPDIA reference technologies (respectively thermal coefficient of 193ppm/°C and quadratic voltage coefficient of 489 ppm/V²), which are based on an ONO composite dielectric (multi-layer nitride oxide). This performance is outperforming the Multi-Layer Ceramic Capacitors that are currently used for equivalent application. Furthermore, demonstration of operation up to 375°C has been demonstrated for this structure. With these capacitors it is envisioned to address a large span of applications, ranging from energy storage, to filtering of power rails, or analogic and power signal conditioning. The maturity obtained on demonstrators allows to envisage an industrial transfer in the coming months
APA, Harvard, Vancouver, ISO, and other styles
5

Masmoudi, Oussama. "Optimisation de la planification des systèmes industriels en présence de contraintes énergétiques." Thesis, Troyes, 2016. http://www.theses.fr/2016TROY0031/document.

Full text
Abstract:
Dans cette thèse, nous abordons le problème de la planification de la production dans un système de type flow-shop, en tenant compte de l’aspect énergétique. Le système de production est composé de différentes machines fiables, séparées par des zones de stockage à capacité infinie. L’horizon de planification est composé de différentes périodes, chacune étant caractérisée par une durée, un coût d’électricité, une puissance maximale et des demandes de chaque produit. L’objectif consiste en la minimisation du coût total de production en terme d’électricité, stockage, mise marche (ou changement de série) et puissance demandée par période. Dans un premier temps, nous proposons une modélisation pour le problème de lot-sizing dans un système de type flow-shop, à capacité finie, dans le cas mono-produit. Étant donné que ce type de problème est NP-difficile, des méthodes approchées ont été développées afin de fournir des solutions de bonne qualité dans un temps réduit (heuristiques dédiées, heuristique de type Fix and Relax, algorithme génétique). Dans un deuxième temps, une généralisation du modèle pour le cas multi-produits a été considérée. De même, des méthodes approchées ont été proposées pour la résolution de ce type de problème
In this thesis, we deal with the production planning problem in a flow-shop system with energy consideration. The manufacturing system is composed of reliable machines separated by buffers with infinite capacities. The planning horizon is defined by a set of periods where each one is characterized by a length, an electricity price, a maximal allowed power and an external demand of each product. The purpose is to minimize the total production cost composed of electricity, inventory, set-up (or product series change) costs and a required power per period.In the first step, we propose mathematical models for a single item capacitated lot-sizing problem in a flow-shop system. Since this problem is known to be NP-hard, approximating methods are developed in order to provide solutions with good quality in a reasonable time (dedicated heuristics, Fix and Relax heuristic, genetic algorithm).In the second step, a generalization of the model for multi-items is considered. Similarly to the first case, approximating methods are proposed to solve this problem
APA, Harvard, Vancouver, ISO, and other styles
6

Ouni, Anis. "Optimisation de la capacité et de la consommation énergétique dans les réseaux maillés sans fil." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-01001979.

Full text
Abstract:
Les réseaux maillés sans fil sont une solution efficace, de plus en plus mise en œuvre en tant qu'infrastructure, pour interconnecter les stations d'accès des réseaux radio. Ces réseaux doivent absorber une croissance très forte du trafic généré par les terminaux de nouvelle génération. Cependant, l'augmentation du prix de l'énergie, ainsi que les préoccupations écologiques et sanitaires, poussent à s'intéresser à la minimisation de la consommation énergétique de ces réseaux. Ces travaux de thèse s'inscrivent dans les problématiques d'optimisation de la capacité et de la minimisation de la consommation énergétique globale des réseaux radio maillés. Nous définissons la capacité d'un réseau comme la quantité de trafic que le réseau peut supporter par unité de temps. Ces travaux s'articulent autour de quatre axes. Tout d'abord, nous abordons le problème d'amélioration de la capacité des réseaux radio maillés de type WIFI où l'accès au médium radio se base sur le protocole d'accès CSMA/CA. Nous mettons en lumière, les facteurs déterminants qui impactent la capacité du réseau, et l'existence d'un goulot d'étranglement qui limite cette capacité du réseau. Ensuite, nous proposons une architecture de communication basée sur l'utilisation conjointe de CSMA/CA et de TDMA afin de résoudre ce problème de goulot d'étranglement. Dans la deuxième partie de cette thèse, nous nous intéressons aux réseaux maillés sans fil basés sur un partage des ressources temps-fréquence. Afin de calculer des bornes théoriques sur les performances du réseau, nous développons des modèles d'optimisation basés sur la programmation linéaire et la technique de génération de colonnes. Ces modèles d'optimisation intègrent un modèle d'interférence SINR avec contrôle de puissance continue et variation de taux de transmission. Ils permettent, en particulier, de calculer une configuration optimale du réseau qui maximise la capacité ou minimise la consommation d'énergie. Ensuite, dans le troisième axe de recherche, nous étudions en détail le compromis entre la capacité du réseau et la consommation énergétique. Nous mettons en évidence plusieurs résultats d'ingénierie nécessaires pour un fonctionnement optimal d'un réseau maillé sans fil. Enfin, nous nous focalisons sur les réseaux cellulaires hétérogènes. Nous proposons des outils d'optimisation calculant une configuration optimale des stations de base qui maximise la capacité du réseau avec une consommation efficace d'énergie. Ensuite, afin d'économiser l'énergie, nous proposons une heuristique calculant un ordonnancement des stations et leur mise en mode d'endormissement partiel selon deux stratégies différentes, nommées LAFS et MAFS.
APA, Harvard, Vancouver, ISO, and other styles
7

Johnzén, Carl. "Allocation flexible des capacités pour la fabrication de semi-conducteurs : Modélisation et optimisation." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2009. http://tel.archives-ouvertes.fr/tel-00467027.

Full text
Abstract:
Ces travaux de recherche ont été menés au sein d'une usine de fabrication de semi-conducteurs (appelée fab). L'allocation des capacités a été modélisée à l'aide de mesures et de méthodes permettant d'optimiser la flexibilité de répartition des capacités dans les ateliers. Ces travaux permettent de gérer efficacement les qualifications des produits sur les équipements dans la fab en donnant la possibilité aux ingénieurs de rendre plus flexible le travail des opérateurs. Les opérateurs ont besoin de flexibilité pour décider de la façon dont la charge de travail devra être allouée pour utiliser la capacité des équipements de manière optimale. De plus, l'intégration de l'évolution dynamique des en-cours, l'étude de l'optimisation de plusieurs qualifications sur plusieurs outils ainsi que de nombreux tests numériques sont présentés. Pour finir, des conclusions sont tirées et des perspectives de cette étude sont présentées.
APA, Harvard, Vancouver, ISO, and other styles
8

Bouhafs, Lyamine. "Une approche hybride pour la localisation et le routage avec contraintes de capacité : application aux réseaux de distribution." Besançon, 2006. http://www.theses.fr/2006BESA2045.

Full text
Abstract:
Le travail présenté dans cette thèse s’inscrit dans le cadre de l’étude du problème de localisation-routage avec contraintes de capacité (CLRP : Capacitated Location-Routing Problem). Le CLRP consiste à déterminer les positions des dépôts et les routes des véhicules pour desservir des clients, géographiquement distribués, tout en respectant un ensemble de contraintes, telles que la capacité des dépôts et des véhicules, et en minimisant le coût global des routes et des dépôts. L’importance du CLRP se montre dans ses applications tant elles sont nombreuses. La plupart de ces applications se concentrent sur des problèmes dans le domaine de la distribution. Avant d’aborder le problème de localisation-routage (CLRP), nous avons étudié le problème des tournées de véhicules (VRP). Ce dernier constitue une des principales composantes du CLRP. Nous nous sommes particulièrement intéressés à deux variantes du VRP, à savoir le VRP avec contraintes de capacité (CVRP) et le VRP avec contraintes de fenêtres de temps (CVRPTW). Notre contribution dans l’étude du CVRP et CVRPTW consiste à proposer deux approches hybrides fondées sur les colonies de fourmis et des recherches locales. L’un est dédié au CVRP et l’autre au CVRPTW. Nous avons combiné ensuite notre algorithme de colonies de fourmis hybride, proposé pour le CVRP, avec un algorithme de recuit simulé pour résoudre le problème de localisation-routage avec contraintes de capacité (CLRP). Dans cette approche, le CLRP est divisé en deux phases : la localisation des dépôts et les tournées des véhicules. La première phase utilise le recuit simulé pour trouver une bonne localisation des dépôts. La deuxième phase, quand à elle, exploite notre algorithme de colonie de fourmis hybride pour permettre de trouver le bon routage correspondant à cette localisation. La validation des algorithmes proposés dans cette thèse et l’analyse de leurs performances sont réalisées à l’aide d’une plate-forme que nous avons développée. Les résultats expérimentaux et les tests de comparaison effectués ont montré l’efficacité de nos algorithmes
The work presented in this PhD thesis concerns the study of the location-routing problem with capacity constraints (CLRP: Capacitated Location-Routing Problem). The CLRP consist of determining the location of the depots and the routes of the vehicles for serving the customers, in such a way that some constraints, generally related to depot and vehicle capacity, and all the customer requirements are satisfied, while minimizing an objective function involving routing costs, and depot opening costs. The importance of the CLRP is shown in its numerous applications, although most of them focus in the field of the distribution. Before tackling the capacitated location-routing problem (CLRP), we have studied two variants of the vehicles routing problem (VRP): VRP with capacity constraints (CVRP) and VRP with time windows (CVRPTW). The CVRP constitute one of the main components of the CLRP. Our contribution in the study of the CVRP and CVRPTW consists in proposing two hybrid approaches founded on the ant colony system and local searches. Then we combined our hybrid algorithm, proposed for the CVRP, with a simulated annealing algorithm to solve the capacitated location-routing problem (CLRP). In this approach, the CLRP is divided into two phases: location phase and routing phase. The first phase uses simulated annealing to find a good location of the depots. The second phase, exploits our hybrid algorithm based on ant colony system to find the good routing corresponding to the current location of depots. Finally we presented a platform that we have developed to test the performance of the algorithms proposed in this thesis
APA, Harvard, Vancouver, ISO, and other styles
9

Sambou, Vincent. "Transferts thermiques instationnaires : vers une optimisation de parois de bâtiments." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/252/.

Full text
Abstract:
L'objectif de notre travail est d'optimiser une paroi multicouche ou un élément de paroi alvéolaire par rapport à l'isolation thermique et l'inertie thermique. Nous avons montré que la capacité thermique déduite de la représentation quadripolaire d'une paroi est un paramètre caractérisant l'inertie de la paroi. L'optimisation d'une paroi multicouche, en plus de donner la disposition optimale des couches, a aussi déterminé l'épaisseur optimale de la couche massive. La production d'entropie irréversible journalière d'une paroi multicouche a confirmé la meilleure disposition des couches. Un élément de paroi alvéolaire représenté par une cavité partitionnée a été étudié théoriquement et expérimentalement en régime permanent et en régime variable. Cette étude a montré la prépondérance du transfert radiatif sur le transfert convectif dans les alvéoles. Un nombre optimal de cloisons donnant une résistance maximale a été trouvé. L'influence de paramètres pertinents de la cavité partitionnée sur le transfert thermique et sur la résistance thermique a été mise en évidence. L'étude de l'influence de la période de la température excitatrice sur les transferts convectif et radiatif a décelé l'existence d'une fréquence de résonnance dans l'alvéole la plus proche de la condition aux limites variable. Un modèle simplifié 1D des transferts thermiques dans une cavité partitionnée validé numériquement et expérimentalement nous a permis d'appliquer la méthode des quadripôles aux cavités partitionnées. Une cavité partitionnée a pu ainsi être optimisée par rapport à l'isolation thermique et à l'inertie thermique
The objective of this work is to optimize a multilayered wall or an element of alveolar wall in relation to insulation and thermal inertia. We showed that the thermal capacity deducted of the quadruple representation of a wall is a parameter characterizing thermal inertia of the wall. The optimization of a multilayered wall gives the optimal disposition of the wall layers and determines the optimal thickness of the massive layer. The daily entropy production of a multilayered wall confirms the best disposition of the layers. Heat transfer in an element of alveolar wall represented by a partitioned cavity has been theoretically and experimentally studied. Our results show the preponderance of the radiation heat transfer on the convection one. An optimal number of partitions giving a maximal resistance is found. The influence of pertinent parameters on heat transfer and thermal resistance is emphasized. Influence study of the exciting temperature period on the convection and radiation heat transfer shows the existence of a resonance frequency in the alveolus nearest to the variable boundary. A simplified 1D model of heat transfer in a partitioned cavity that has been validated both numerically and experimentally allows to apply quadruple method to partitioned cavity. Thus, a partitioned cavity can be optimized as regards insulation and thermal inertia
APA, Harvard, Vancouver, ISO, and other styles
10

Emami-Mehrgani, Behnam. "Optimisation des politiques de surveillance par l'intégration du cadenassage/décadenassage dans la gestion de la capacité de production." Mémoire, École de technologie supérieure, 2012. http://espace.etsmtl.ca/1051/1/EMAMI%2DMEHRGANI_Behnam.pdf.

Full text
Abstract:
Ce travail vise à développer une stratégie optimale de gestion de la production dans le but de minimiser les coûts de production tout en tenant compte de l’aspect sécurité par le biais du cadenassage/décadenassage (C/D) durant les étapes de maintenance corrective et préventive. Dans la littérature, des études qui traitent de l’intégration du C/D et de la gestion de production sont presque inexistantes. De plus, dans le contexte actuel de l’industrie, beaucoup de dirigeants et travailleurs pensent, à tort, que la planification et la réalisation des différentes procédures de C/D prend beaucoup de temps. Par conséquent, ce temps de production inactif est perçu comme diminuant la performance de l’entreprise vis-à-vis la cadence de fabrication planifiée. Pour pallier à ce problème le concept novateur de :"mean time to lockout/tagout (MTTLT)" a été développé. Le concept novateur du MTTLT consiste à prendre en considération le temps de C/D en fonction des niveaux d'inventaires pour un système manufacturier afin de trouver une politique optimale. Ce concept permet d'une part de diminuer les coûts totaux de production, comprenant les coûts d’inventaire, de pénurie et de maintenance sur un horizon infini et d'autre part d'augmenter le niveau de sécurité des travailleurs. Cette thèse est présentée en trois (3) phases : En premier lieu, le projet vise à intégrer le concept novateur du MTTLT dans la gestion de la capacité de production sous forme de deux travaux. Tout d'abord, le MTTLT a été assimilé pour un système en redondance passive (deux machines, non-identiques produisant un seul type de pièce). Une modélisation a été faite par la chaîne de Markov homogène, et une résolution numérique à travers des équations différentielles d'Hamilton-Jacoby-Bellman (HJB) a conduit à la solution du système étudié. Nos résultats ont été validés par le biais d’une analyse de sensibilité. En deuxième lieu, l'influence de contrôle du MTTLT a été présenté pour une ligne de production constituée de trois machines (deux machines sous forme redondance passive et une troisième machine en série avec les précédentes) produisant un type de pièce. Une modélisation a été faite par la chaîne de Markov homogène. Les outils utilisés à l'étape précédente ont servi à résoudre ce cas. Le modèle de simulation a été également utilisé afin de déterminer les coûts afférents à chaque combinaison obtenue par le biais du plan d’expérience. Partant de ces coûts, une analyse de régression a été faite pour trouver la nouvelle commande optimale du problème d’optimisation considéré. Et pour illustrer l’utilité de nos résultats, une analyse de sensibilité a été effectuée. En troisième lieu, ce travail s’est concentré sur la modélisation du MTTLT et l'erreur humaine pour un sytème manufacturier flexible (FMS). La modélisation de l'erreur humaine a été effectuée par une chaîne de Markov non-homogène, pour un système en redondance passive produisant une seule pièce. La solution a été exposée par le biais des équations d'HJB et nos résultats ont été confirmés par une analyse de sensibilité.
APA, Harvard, Vancouver, ISO, and other styles
11

Moriau, Olivier. "Etude et optimisation du matériau "acier galvanisé" en termes de capacité d'amortissement et de résistance à la corrosion sous contrainte." Lille 1, 1997. http://www.theses.fr/1997LIL10127.

Full text
Abstract:
Dans le cadre de l'étude des propriétés mécaniques des aciers galvanises au trempe, ces travaux montrent le rôle important que jouent les caractéristiques mécaniques et structurales du revêtement de galvanisation sur la résistance a la corrosion sous contrainte sous sollicitation monotone, et sur la capacité d'amortissement sous sollicitation dynamique d'un acier plat galvanise. L'objectif principal de cette étude consiste a optimiser le matériau acier galvanise en terme de capacité d'amortissement. L'implantation d'alliages galvanises ferromanganèse dans le secteur automobile semble être le meilleur compromis pour obtenir a la fois de hautes capacités d'amortissement, de bonnes caractéristiques mécanique et une bonne tenue a la corrosion. L'influence des paramètres fréquence et température a permis de préciser les mécanismes de dissipation d'énergie lies a la capacité d'amortissement élevée des alliages polyphasés fe-16(et 18)%mn. Ces alliages contiennent en effet le maximum de martensite epsilon de trempe, dont les interphases avec l'austénite résiduelle sont des sources de dissipation d'energie sous sollicitation cyclique. Il est également nécessaire de considérer une contribution magnetique a l'amortissement lorsque l'austénite est dans son état antiferromagnétique, c'est a dire sous sa température de neel. La maîtrise du processus de galvanisation a chaud de tels alliages en bain de zn-ni, utilise dans l'industrie, a permis de proposer la représentation du coin riche en zinc du système quaternaire fe-mn-zn-ni a 450 degrés celsius. Les capacités d'amortissement obtenues après galvanisation situent ces matériaux polyphasés revêtus au sommet du domaine des matériaux de construction.
APA, Harvard, Vancouver, ISO, and other styles
12

Cioarec, Cristina. "Optimisation d'une source lumineuse OLED (organic light emitting diode) pour application en diagnostic biomoléculaire." Toulouse 3, 2011. http://www.theses.fr/2011TOU30044.

Full text
Abstract:
Le besoin de dispositifs médicaux à faible coût a engendré une révolution dans l'innovation et la mise en œuvre de nouvelles technologies qui vont complètement changer notre façon de pratiquer la médicine. Il s'agit des dispositifs Lab-on-Chip. Se sont des systèmes d'analyses médicales miniaturisés qui réduiront le prix sur une large gamme de tests et de diagnostics tout en améliorant leur sensibilité. Le but de cette thèse est de démontrer la faisabilité du dispositif Lab-on-Chip afin de répondre à ce besoin, en utilisant un dispositif microfluidique combiné à des sources de lumière intégrée et des photo-détecteurs pour obtenir un système d'analyse miniaturisés. Les OLEDs sont des sources de lumière compactes, peu coûteuses, biodégradables, et donnant la potentialité d'obtenir un éclairage homogène sur des surfaces plates, ce qui les rendent des candidates idéales dans les applications Lab-on-Chip comme source d'excitation. Pour réaliser le dispositif Lab-on-Chip, il est important d'éviter le chevauchement des spectres d'émission de la source lumineuse et celui du fluorophore commercial utilisé pour les tests biologiques. Pour cela on a optimisé les dispositifs OLED pour obtenir une émission spectrale d'une longueur d'onde de 435 nm (OLED conventionnelle) et respectivement de 425 nm (microcavité forte OLED). Pour réaliser des microcavités fortes OLED, nous avons optimisé l'anode en argent du dispositif en utilisant des films de nucléation (germanium, chrome, carbone amorphe hydrogéné). Les couches d'argent déposées, ont été analysées par les techniques : MEB, profilométrie optique, angles de contact, ellipsométrie et XPS
The need of low cost medical devices, has led to a revolution for the innovation and the implementation of new technologies, which will completely change the way we practice medicine. These are the Lab-on-Chip devices. They are miniaturized systems that are used for medical tests, which will reduce the cost for a wide range of tests and diagnostics while enhancing the sensitivity. The aim of this thesis is to demonstrate the feasibility of the Lab-on-Chip to meet this need, by using a microfluidic device combined with integrated light sources and photodetectors in order to obtain a miniaturized analysis system. The OLEDs are compact, inexpensive, biodegradable light sources, and giving the potential to obtain a uniform illumination on flat surfaces, which makes them ideal candidates for applications in the Lab-on-Chip devices, as an excitation source. To realise the Lab-on-Chip device, it is important to avoid overlapping of the emission spectras of the light source and the commercial fluorophore used for biological tests. In order to obtain a spectral emission at a wavelength of 435 nm (conventional OLED) and 425 nm respectively (strong microcavity OLED), we optimized the OLED devices. To achieve strong microcavity OLEDs, we have improved the silver anode, by using nucleation films (germanium, chromium, hydrogenated amorphous carbon). The deposited silver layers, were analyzed by different techniques, such as: SEM, optical profilometry, contact angle, ellipsometry and XPS
APA, Harvard, Vancouver, ISO, and other styles
13

Malik, Salman. "Evaluation et Optimisation des Réseaux Sans Fil Denses." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00719083.

Full text
Abstract:
L'objectif principal de cette thèse est d'analyser la performance des réseaux sans fil selon divers scénarios: réseaux fixes, réseaux mobiles, réseaux mono-saut, et réseaux multi-sauts. Dans les deux premières parties de cette thèse, nous nous focalisons sur le placement géométrique des émetteurs simultanés dans le réseau. Dans la première partie, par l'intermédiaire d'une méthode d'accès au médium, nous étudions l'impact de l'emplacement des émetteurs sur la performance du réseau sans fil mono-saut. Nous établissons une structure générale et nous étudions l'emplacement des émetteurs dans le réseau. Ensuite, on compare ces résultats aux résultats obtenus à l'aide d'un par processus ponctuels aléatoires tels que le processus ponctuel de Poisson, ALOHA, le coloriage des nœuds et CSMA. Notre analyse nous permet d'évaluer les gains en performance d'une méthode d'accès au médium efficace qui serait nécessaire pour mettre en œuvre le déploiement optimal des émetteurs. Par exemple, nous montrons que la capacité garantie par une méthode d'accès très complexe est au plus deux fois la capacité d'un contrôle d'accès avec une faible complexité comme ALOHA. Plus tard, nous utilisons des méthodes analytiques pour évaluer les heuristiques pour l'optimisation de la capacité et de la couverture d'un réseau cellulaire existant de façon optimale via l'ajout de stations de base supplémentaires. Dans la deuxième partie, nous étendons notre analyse à un réseau sans fil multi-sauts où nous évaluons la portée de transmission optimale et la capacité du réseau avec différentes méthodes d'accès au médium. Nos analyses dans les deux premières parties de cette thèse nous permettent d'avoir des perspectives par rapport aux limites théoriques de la performance d'une méthode optimisée d'accès au médium pour les réseaux sans fil mono-saut et multi-sauts. Dans la dernière partie, nous concentrons nos efforts sur l'étude du compromi entre les délais et la capacité dans le réseau mobile sans fil. Nous proposons un routage géographique et nous étudions ses propriétés de passage l'échelle. En se basant sur un modèle de mobilité réaliste et des informations disponibles au niveau des nœuds mobiles, notre méthode de routage permet d'obtenir des délais qui sont bornés par une constante lorsque la capacité du réseau augmente de façon quasi-linéaire et quand le nombre de nœuds dans le réseau augmente et tend vers l'infini.
APA, Harvard, Vancouver, ISO, and other styles
14

Lebon, Édouard. "Optimisation de la méthanisation sèche des déchets ménagers." Thesis, La Réunion, 2019. http://elgebar.univ-reunion.fr/login?url=http://thesesenligne.univ.run/19_43_ELebon.pdf.

Full text
Abstract:
Face aux problématiques de gestion des déchets à La Réunion, il est urgent de définir des solutions efficaces et cohérentes, tout en respectant un environnement insulaire, dont les ressources en sols et eau sont fortement sollicitées. L'une des solutions pour la gestion des déchets organiques d'origine humaine ou animale est la digestion anaérobie aussi appelée méthanisation. Les volumes de déchets collectés par les diverses collectivités locales à La Réunion ne cessent globalement d'augmenter. Les centres de stockage et de traitement peinent à suivre cette tendance en raison des contraintes foncières et réglementaires. Sur le territoire de la Réunion, le volume d'ordures ménagères est de 313 kg/habitant/an. Or, la fraction organique des ordures ménagères (FFOM) collectées dispose d'un potentiel important en méthanisation qu'il convient d'examiner de manière précise afin de déterminer les conditions de valorisation par production de biogaz. Le travail de thèse proposé ici a pour objectif d'étudier de façon scientifique et technique le potentiel de développement de la méthanisation de la FFOM à La Réunion par la technique de méthanisation sèche. Pour se faire, un premier travail de caractérisation des déchets ménagers a été mené sur le territoire de la Réunion. Puis, le potentiel méthane de la FFOM a été déterminé expérimentalement suivant un plan de mélange permettant de mettre en évidence l’effet synergique des différents déchets composant la FFOM. En parallèle, un modèle cinétique de production de méthane, un modèle prédictif ainsi qu’une modification de modèle ADM1 ont été développés
It is urgent to define effective and coherent solutions to the problems of waste management in Reunion Island, while respecting the island's environment, whose soil and water resources are under great strain. One solution for organic waste management of human or animal origin is anaerobic digestion (AD). Overall, the volumes of waste collected by the various local authorities on Reunion Island are constantly increasing. Storage and treatment centres are struggling to keep up with this trend due to land and regulatory constraints. On Reunion Island, the volume of household waste is 313 kg/inhabitant/year. However, the organic fraction of municipal solid waste (OFMSW) collected has a significant potential for AD that needs to be examined in detail in order to determine the conditions for recovery by biogas production. The aim of this work is to study in scientifically and technically the potential development of the dry AD of OFMSW in Reunion Island. For this purpose, a first work of characterisation of household waste has been carried out on the territory of Reunion Island. Next, the methane potential of the OFMSW was determined experimentally following a mixing plan to highlight the synergistic effect of the different types of OFMSW. In addition, a kinetic model for methane production, a predictive model and a modification of the ADM1 model were developed
APA, Harvard, Vancouver, ISO, and other styles
15

Odou, Simon. "Optimisation de l'utilisation de la bande passante dans les réseaux multi-sauts sans-fil." Paris 11, 2010. http://www.theses.fr/2010PA112157.

Full text
Abstract:
Dans cette thèse, nous proposons plusieurs algorithmes permettant d’optimiser l’utilisation de la bande passante dans les réseaux sans-fil multi-sauts et ainsi augmenter les débits atteignables. Les réseaux sans-fil multi-sauts sont des réseaux sans-fil dans lesquels les stations communiquent directement entre elles lorsque leurs portées respectives sont suffisantes ou, le cas échéant, via des stations intermédiaires chargées de relayer les flux de façon transparente. Les résultats théoriques prouvent que de tels réseaux disposent d’une capacité par station plus faible que les réseaux traditionnels et obligent ainsi à disposer de mécanismes avancés de gestion et d’optimisation des ressources disponibles. Nous présentons dans une première partie un algorithme d’estimation de la bande passante disponible calculant, pour une station donnée, l’espérance du trafic attendu sur son canal en fonction de la connaissance des flux transitant dans sa zone d’interférence. Cette estimation nous permet ensuite de déterminer un ensemble de contraintes dynamiques sur les débits des flux qui doivent être satisfaites pour que les flux puissent être acceptés sans risquer de surcharger le réseau. Enfin, toujours en gardant les contraintes précédentes satisfaites, nous proposons plusieurs algorithmes pour maximiser les débits atteignables des flux dans le réseau soit en contournant les zones surchargées, soit en adaptant dynamiquement les puissances d’émission. Ces résultats de simulation montrent une amélioration significative par rapport aux travaux existants
In this thesis, we present several algorithms to evaluate precisely the resources in wireless multi-hop networks and to improve the achievable bitrates. Wireless multi-hop networks are networks where nodes are able to join the others transparently in a direct way if they are closed enough, or by engaging intermediate nodes to relay messages if not. This relaying ability makes then very popular. Nevertheless, it has been shown in previous work that such networks cannot compete with traditional wireless networks in terms of bitrates. Consequently, the resources must be used and shared as efficiently as possible. We propose a probabilistic analysis to estimate the expected channel traffic of a given station based on the traffic reservation in its neighbourhood. From this estimation, we determine constraints on the flow bitrates that must be satisfied in order for the flows to be accepted without overloading the network. Then, given the previous constraints, we present several algorithms to maximum the flow bitrates by avoiding congested areas and by computing dynamically the emitting power of each station. The simulation results show a significant improvement over existing approaches
APA, Harvard, Vancouver, ISO, and other styles
16

Mekadmini, Ali. "Optimisation de dispositifs hyperfréquences reconfigurables : utilisation de couches minces ferroélectriques KTN et de diodes varactor." Phd thesis, Université de Bretagne occidentale - Brest, 2013. http://tel.archives-ouvertes.fr/tel-00966159.

Full text
Abstract:
La croissance rapide du marché des télécommunications a conduit à une augmentation significative du nombre de bandes de fréquences allouées et à un besoin toujours plus grand en terminaux offrant un accès à un maximum de standards tout en proposant un maximum de services. La miniaturisation de ces appareils, combinée à la mise en place de fonctions supplémentaires, devient un vrai challenge pour les industriels. Une solution consiste à utiliser des fonctions hyperfréquences accordables (filtres, commutateurs, amplificateurs,...). A ce jour, trois technologies d'accord sont principalement utilisées : capacités variables, matériaux agiles ou encore MEMS RF. Dans le cadre de cette thèse, nous avons travaillé sur l'optimisation de dispositifs hyperfréquences reconfigurables en utilisant des couches minces ferroélectriques KTN et des diodes varactor. Nos premiers travaux étaient relatifs à l'optimisation des dispositifs hyperfréquences accordables à base de couche minces KTN. Dans ce sens, nous avons tout d'abord caractérisé le matériau KTN en basse et haute fréquence afin de déterminer ses caractéristiques diélectriques et ses caractéristiques en température. Nous avons ensuite réalisé des dispositifs hyperfréquence élémentaires tels des capacités interdigitées et des déphaseurs à base de KTN. Leurs performances ont alors été comparées aux mêmes dispositifs réalisés cette fois à base de la solution la plus utilisée BST. Bien qu'un léger avantage soit acquis à la solution BST, il n'en reste pas moins vrai que les résultats avec le matériau KTN sont très proches indiquant que cette voie peut également, après optimisation, apporter une alternative au BST. La seconde partie de nos travaux concerne la réalisation de filtres planaires accordables en fréquence à base de matériaux KTN et de diodes varactor. Nous avons ainsi réalisé deux filtres passe-bande accordables. Un premier filtre passe-bande de type " open loop " possédant deux pôles agiles en fréquence centrale et un second filtre passe-bande de type SIR rendant possible l'accord de sa fréquence centrale ainsi que de sa bande passante à partir de diodes varactor. Lors de la conclusion sur nos travaux, nous évoquons les suites à donner à ce travail et les perspectives.
APA, Harvard, Vancouver, ISO, and other styles
17

Larabi, Mohand. "Le problème de job-shop avec transport : modélisation et optimisation." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2010. http://tel.archives-ouvertes.fr/tel-00625528.

Full text
Abstract:
Dans cette thèse nous nous sommes intéressés à l'extension du problème job-shop en ajoutant la contrainte du transport des jobs entre les différentes machines. Dans cette étude nous avons retenu l'existence de deux types de robots, les robots de capacité de chargement unitaire (capacité=1 veut dire qu'un robot ne peut transporter qu'un seul job à la fois) et les robots de capacité de chargement non unitaire (capacité>1 veut dire qu'un robot peut transporter plusieurs job à la fois). Nous avons traité cette extension en deux étapes. Ainsi, la première étape est consacrée au problème du job-shop avec plusieurs robots de capacité de chargement unitaire et en seconde étape en ajoutant la capacité de chargement non unitaire aux robots. Pour les deux problèmes étudiés nous avons proposé :* Une modélisation linéaire ;* Une modélisation sous forme de graphe disjonctif ;* Plusieurs heuristiques de construction de solutions ;* Plusieurs recherches locales qui améliorent les solutions obtenues ;* Utilisation des algorithmes génétiques / mémétiques comme schéma global d'optimisation ;* De nouveaux benchmarks, des résultats de test de nos approches sur nos benchmarks et ceux de la littérature et ces résultats sont commentés et comparés à ceux de la littérature. Les résultats obtenus montrent la pertinence de notre modélisation ainsi que sa qualité.
APA, Harvard, Vancouver, ISO, and other styles
18

Guillot, Jérémy. "Résolution exacte de problèmes de couverture par arborescences sous contraintes de capacité." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0395/document.

Full text
Abstract:
Dans ce document, nous étudions deux problèmes de sectorisation et proposons plusieurs méthodes de résolution exactes basées sur la décomposition de Dantzig-Wolfe et la génération de colonnes. Nous proposons deux modélisations en fonction de la manière d’appréhender l’objectif du problème qui consiste à obtenir des secteurs compacts. Pour chacune des modélisations, nous comparons des approches de résolution exactes basées sur des formulations compactes ou sur des formulations étendues obtenues par la décomposition de Dantzig-Wolfe. Le premier type de modèles proposé définit la fonction objectif à la manière d’un problème de p-median. Concernant les méthodes de résolution pour ce type de modèle, l’accent est mis sur l’accélération de la convergence de l’algorithme de génération de colonnes en mettant en place des techniques d’agrégation de contraintes afin de réduire la dégénérescence de l’algorithme du simplexe. Les expérimentations numériques montrent que la méthode d’agrégation de contraintes proposée permet effectivement de réduire le nombre d’itérations dégénérées. Cependant, elle ne suffit pas à accélérer l’algorithme de branch-and-price. Le choix d’utilisation de la formulation compacte ou de la formulation étendue dépend du type d’instances résolu. Le second type de modèles formule l’objectif d’une manière assez proche de celui des problèmes de p-centre. L’utilisation d’un tel objectif complexifie la résolution des sous-problèmes de génération de colonnes. L’accent est donc mis sur la conception d’algorithmes de branch-and-bound et de programmation dynamique pour les résoudre efficacement. Les expériences montrent que l’algorithme de branch-and-price surpasse les approches de résolution utilisant une formulation compacte du problème
In this document, we study two districting problems and propose several exact methods, based on Dantzig-Wolfe decomposition and column generation, to solve them. For each model, we compare exact approaches based either on compact formulations or on extended formulations obtained using Dantzig-Wolfe decomposition. The first type of model that we propose defines the objective function in a p-median problem fashion. Regarding the methods used to solve that kind of model, we emphasize accelerating the convergence of the column generation algorithm by designing constraint aggregation techniques in order to reduce the degeneracy in the simplex algorithm. Numerical experiments show that this constraint aggregation method indeed reduces the proportion of degenerated iterations. However, it is not enough to speed up the branch-and-price algorithm. Choosing to tackle the problem through either a compact formulation or an extended formulation depends on the structure of the instances to solve. The second type of model formulates the objective function in a way quite similar to that of p-centre problems. Using such an objective function induces complex column generation subproblems. We focus on designing branch-and-bound and dynamic programming algorithms in order to solve them efficiently. Experiments show that the branch-and-price approach surpasses any proposed method based on compact formulations of the problem
APA, Harvard, Vancouver, ISO, and other styles
19

Nabhen, Ricardo Cassiano. "Fuzzy logic based method for modeling queue behavior of network nodes." Paris 6, 2009. http://www.theses.fr/2009PA066203.

Full text
Abstract:
Prévoir la capacité des réseaux basés sur IP est une tache difficile. Idéalement, pour estimer la quantité maximale de trafic qui pourrait être supportée par le réseau, sans violer les besoins de QoS, il est nécessaire de déterminer la distribution de la longueur des files d'attente de noeuds de réseau sous différentes conditions de trafic. La caractérisation d'un modèle pour la distribution de la longueur de la file d'attente est un sujet largement étudié, pourtant l'appareil mathématique associé devient de plus en plus compliqué lorsqu'on doit traiter plusieurs files d'attente de priorité, temps de service non exponentiel et trafic corrélé à long terme. Cette thèse a pour sujet le projet de modèles de performance pour des noeuds d'un réseau. On propose une méthode générique pour modeler le comportement d'une file d'attente avec le but de fournir une méthodologie pour construire les modèles de performance correspondants. La méthode proposée combine programmation non-linéaire et simulation à fin de construire un modèle flou capable de déterminer la performance d'un noeud d'un réseau. En utilisant cette stratégie, il est possible de trouver les valeurs optimales qui peuvent être utilisées dans la configuration des noeuds du réseau, avec applications importantes dans l'ingénierie de trafic et dans la planification de la capacité du réseau.
APA, Harvard, Vancouver, ISO, and other styles
20

Diakite, Zakary Rodrigue. "Capacité des doubles troupeaux herbagers bovins laitiers-bovins allaitants à concilier une meilleure valorisation du parcellaire avec une flexibilité accrue de fonctionnement." Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC055/document.

Full text
Abstract:
Les prairies permanentes constituent des réservoirs potentiels d’alimentation fourragère et occupent plus de 66% des surfaces dans les zones de montagne. Ces zones présentent de fortes contraintes naturelles qui rendent difficile la valorisation des ressources herbagères. Les caractéristiques géographiques des parcelles et la structure des exploitations doivent donc être mieux prises en compte dans la gestion des surfaces fourragères pour améliorer le fonctionnement des systèmes d’élevage herbagers. La conduite simultanée de troupeaux bovins laitiers et bovins allaitants, s’inscrit dans une démarche relevant de l’agroécologie et qui peut apparaitre comme un facteur favorable au fonctionnement des systèmes d’élevage bovins avec une plus grande autonomie fourragère et de meilleures performances économiques et environnementales. Nous proposons d’analyser et modéliser le fonctionnement de ces systèmes d’élevage mixtes avec doubles troupeaux bovins laitiers et bovins allaitants pour explorer les compromis entre conduite d’élevage et niveau de production des troupeaux, autonomie fourragère globale, valorisation de la diversité géographique, niveaux et variabilité des profits et durabilité de l’utilisation des prairies.Pour répondre à cette problématique nous avons testé trois hypothèses : (I)- La conduite simultanée de troupeaux mixtes bovins laitiers et bovins allaitants permet une meilleure valorisation de l’herbe par pâturage que les systèmes bovins spécialisés dans les zones de contraintes tout en maintenant de bonnes performances économiques. (II)- Dans des conditions optimisées de fonctionnement économiques, les systèmes d’élevage bovins mixtes laitier-allaitant s’adaptent mieux aux aléas de prix pour générer des profits plus stables et plus élevés, comparés aux systèmes bovins spécialisés. (III)- Les systèmes d’élevage bovins mixtes laitier-allaitant permettent une utilisation maitrisée de la biomasse avec de meilleures performances environnementales tout en maintenant les services écosystémiques des végétations.Nous utilisons le modèle d’optimisation bioéconomique Orfee (Optimization of Ruminant Farm for Economic and Environmental assessment) développé pour explorer les systèmes d’élevages, associé à des données d’exploitations en régime de croisière (choix des cas-types BL18 et BL22) issues de la base de données des exploitations, baptisée DIAPASON. Le modèle a été adapté pour prendre en compte les contraintes géographiques et l'hétérogénéité des parcellaires basée sur la typologie française des prairies permanentes.Nous souhaitons ainsi observer les meilleurs équilibres correspondants aux conditions optimales de fonctionnement des exploitations représentées par deux cas-types déclinés selon cinq scénarios (100D, 75D, 50D, 25D et 0D, D étant le pourcentage d’UGB bovin laitier dans le troupeau). Les analyses permettent via les simulations d’obtenir des indicateurs biotechniques et économiques robustes pour évaluer les systèmes bovins mixtes herbagers dans les zones de montagnes.Selon les résultats obtenus, les systèmes d’élevage bovins mixtes laitier-allaitant, et plus particulièrement les systèmes équilibrés entre troupeau bovins laitiers et troupeau bovins allaitants, maximisent la valorisation de l’herbe par pâturage dans les zones soumises à des contraintes de mécanisation et d'accès aux vaches laitières. Ces systèmes présentent les meilleures capacités d’adaptions aux aléas économiques avec de bonnes productions animales, des performances économiques intéressantes et moins variables, comparées aux systèmes bovins spécialisés. Ces systèmes présentent également de meilleurs compromis pour les performances environnementales par comparaison à ceux des systèmes bovins spécialisés
Permanent pastures represent potential reservoirs of forage and cover more than 66% of the area of mountain zones. Nonetheless, these zones have strong natural limitations that make it difficult to use herbage resources. Geographic characteristics of fields and farm organization must thus be considered in more detail in the management of forage areas to improve pasture-based livestock systems functioning. Simultaneous production of dairy and beef cattle herds (i.e. “mixed dairy-beef cattle systems”) falls within the scope of agroecological approaches and may appear as factor favoring the functioning of cattle systems with greater forage autonomy and better economic and environmental performances. We analyzed and modeled the functioning of these mixed dairy-beef cattle systems to explore compromises between livestock management and the production level of the herds, overall forage autonomy, use of the geographical diversity, level and variability of profits and sustainability of pasture use.To address this issue, we tested three hypotheses: (I)- Mixed dairy-beef cattle systems use grazed herbage better than specialized cattle systems (dairy or beef) in zones with constraints while maintaining good economic performance. (II)- Under conditions of optimal economic functioning, mixed dairy-beef cattle systems adapt better to price variations, generating more stable and higher profits, than specialized cattle systems. (III)- Mixed dairy-beef cattle systems use biomass well, with better environmental performances, while conserving ecosystem services of the vegetation.We used the bioeconomic optimization model Orfee (Optimization of Ruminant Farm for Economic and Environmental assessment), developed to assess livestock systems, based on data from two farms in a steady state (case studies BL18 and BL22 from the French livestock-network database DIAPASON). Orfee was adapted to consider geographic constraints and field heterogeneity based on the French typology of permanent prairies. We then used the model to predict the best equilibria, corresponding to optimal conditions of functioning of farms, represented by the two case studies in five scenarios (100D, 75D, 50D, 25D and 0D, where D represents the percentage of dairy cattle in the herd). Analysis with the simulations yielded robust biotechnical and economic indicators for assessing mixed dairy-beef cattle systems in mountain zones.Based on the results, mixed dairy-beef cattle systems, especially those with 50% dairy cattle, maximize the use of grazed herbage in zones with constraints on mechanization and access of dairy cows to pastures. These systems have a greater ability to adapt to economic variations, with better levels of animal production and more attractive and less variable economic performances than those of specialized cattle systems. These systems also have better compromises between environmental performances than specialized cattle systems
APA, Harvard, Vancouver, ISO, and other styles
21

Brouard, Yoann. "Caractérisation et optimisation d'un composite biosource pour l'habitat." Thesis, Tours, 2018. http://www.theses.fr/2018TOUR4024.

Full text
Abstract:
Cette étude a pour objet de comparer les propriétés acoustiques, mécaniques et hygrothermiques de différents biocomposites destinée à l’isolation des bâtiments à base de granulats issus de co-produits végétaux et d’un liant à base d’argile. Nous avons d’abord analysé les matières premières afin d’obtenir d’une part la masse volumique et les propriétés thermiques et hydriques des granulats végétaux et les caractéristiques minéralogiques et gravimétriques de la terre crue sélectionnée d’autre part. L’évolution de la conductivité thermique des mélanges terre:granulats végétaux a été étudiée à différents taux d’humidité et différentes masses volumiques. D’un point de vue hydrique, les capacités de sorption/désorption de ces matériaux ont été mesurées en régime statique de même que la capacité de tampon hydrique simulant un régime dynamique. L’un des principaux intérêts de cette étude est de confirmer qu’une large gamme de co-produits végétaux produits à l’échelle locale pourrait être utilisée en tant que granulats pour l’élaboration de bétons végétaux
The purpose of this study was to compare hygrothermal acoustical and mechanical properties ot different materials based on vegetal aggregates and clay in order to characterize the performances of different biocomposites to provide building insulation solutions with a view to valorizing agricultural waste. We first analyzed the raw materials in order to get the density, thermal and hydric properties of the vegetal aggregates in one hand and the mineralogy and gravimetric data of the selected crude earth in the other hand. Thermal behavior of earth:vegetal aggregates mixes have been investigated at different humidity rates and different density ranges. Additionally, hydric properties have been measured to produce sorption and desorption curves and moisture buffer values (MBV) in one hand and capillarity of both aggregates and biocomposites on the other hand. One of the main interests of this study is to confirm that a wide range of locally produced vegetal byproducts could be used as - bioaggregates for concretes. Local biomaterials industries could therefore emerge depending on the locally available resources at country scale
APA, Harvard, Vancouver, ISO, and other styles
22

Ho, Anh cuong. "Optimisation de la composition et caractérisation d'un béton incorporant des granulats issus du broyage de pneus usagés. : application aux éléments de grande surface." Thesis, Toulouse, INSA, 2010. http://www.theses.fr/2010ISAT0024/document.

Full text
Abstract:
Les matériaux de construction par excellence que sont les matériaux à base cimentaire offrent une faible résistance à la traction ainsi qu’une faible capacité de déformation. Ils sont fragiles et particulièrement sensible à la fissuration, notamment la fissuration due au retrait dans le cas d’éléments à grande surface. Des joints de retrait judicieusement espacés permettent de localiser la fissuration et d’éviter le désordre apparent. Malheureusement, ils constituent aussi le point de départ de futurs désordres (pénétration d’agents agressifs, tuilage, etc.). Cette thèse est une contribution au développement d’un nouveau composite cimentaire présentant une capacité de déformation améliorée. Dans cet objectif, des granulats en caoutchouc (G.C.) issus du broyage de pneus usagés ont été utilisés en remplacement partiel du sable. Les résultats obtenus montrent que la présence de ces granulats est préjudiciable vis-à-vis de la rhéologie du matériau à l’état frais mais que l’utilisation d’un superplastifiant et d’un agent de viscosité permet de réaliser les corrections nécessaires. A l’état durci, une chute de la résistance mécanique et du module d’élasticité est observée, en contrepartie la capacité de déformation au stade de la localisation de la macrofissuration est significativement augmentée. Des essais dédiés permettent de démontrer que cette incorporation de G.C. permet de réduire la sensibilité à la fissuration de retrait avec un intérêt évident pour les applications à grande surface comme les chaussées et dallages sur terre-plein. L’influence de la présence de ces G.C. sur la cinétique de la fissuration a été analysée et confirmée par le biais d’une variable d’endommagement et par l’activité (émission) acoustique accompagnant le processus de fissuration.Le potentiel du composite dans les applications à grande surface comme les chaussées en béton a aussi été abordé par le biais de l’indice de qualité élastique qui a confirmé les promesses attendues. Compte tenu du rôle joué par le module d’élasticité du composite sur ces nouvelles propriétés et les applications potentielles, les outils prédictifs de ce module en fonction du dosage en G.C. présentent un intérêt pratique évident. Dans ce sens, cette thèse a permis de tester la pertinence de quelques modèles analytiques. Dans ce cadre, la borne inférieure de Hashin-Shtrikman qui reste perfectible s’est avérée la mieux indiquée.A côté de l’intérêt en termes d’application matériau Génie Civil, l’incorporation de G.C. constitue une voie de valorisation de pneus usagés non réutilisables et une contribution à la protection de l’environnement
Cement-based materials exhibit low tensile strength and poor strain capacity. They are brittle and are very sensitive to cracking particularly to shrinkage cracking in large area applications. Sawn joints allow shrinkage cracking to be localised a way to avoid unsightly cracking. Unfortunately they are also the starting point of future distress (ingress of aggressive agent, curling, etc.).This work is a contribution to the design of a cement-based material exhibiting an enhanced strain capacity. For a such objective rubber aggregates (RAs) obtained from grinding end of life tyres partly replacing natural sand have been used.Results showed that RAs are detrimental to the properties of the fresh materials (workability and segregation). However the use of optimized content of a superplasticiser and of a viscosity agent allows the required behaviour to be achieved.With regard to harden state, RAs reduce the strength and the modulus of elasticity of the composite but the strain capacity corresponding to the macrocracking formation is significantly improved. Specific tests showed that RAs reduced the propensity of the material for shrinkage cracking, offering an interest for large surface area such as pavements.Analysis by a scalar damage variable and by acoustic emission is in a good agreement with expected effect of RAs on the cracking kinetics and on the mechanical behaviour of the composite.The interest of the rubberized concrete in large area application such as concrete pavements has been studied and confirmed through the Elastic Quality Index. Given the major role of the modulus of elasticity of the composite on the new properties and expected applications, tools aimed to predict this modulus of elasticity as a function of RAs content are of practical benefit. With this purpose, the work allowed the relevance of some analytical models to be tested. In this context, the lower Hashin-Shtrikman bound which remains perfectible proved to be the most appropriate.Finally, apart from application of civil engineering material, the use of RAs from grinding end of life tyres is a solution of recovery of an industrial by-product and a contribution to a clean environment
APA, Harvard, Vancouver, ISO, and other styles
23

Song, Xiaoxiao. "Layout optimization based on multi-objective interactive approach." Thesis, Ecole centrale de Nantes, 2022. http://www.theses.fr/2022ECDN0051.

Full text
Abstract:
Dans tous les problèmes d’agencement, les contraintes de non-chevauchement entre composants et les contraintes d’appartenanceau conteneur sont présentes. Un modèle d’agencement multiobjectif avec contraintes fonctionnelles est développé. Intégrer l’accessibilité des composants comme contraintes fonctionnelles assure la maintenance ou le fonctionnement des composants. Cependant, les contraintes fonctionnelles augmentent la complexité d’optimisation d’agencement, notée indice de capacité. Par conséquent, un nouvel algorithme d’optimisation multiobjectif est proposé en utilisant le placement constructif et le recuit simulé pour rechercher des solutions de compromis entre les objectifs multiples. Ensuite, un indicateur de similarité est défini pour évaluer les similaires entre les solutions proposées par l’algorithme. Les expériences indiquent que l’approche d’optimistion proposée fonctionne bien pour garantir l’accessibilité et trouver efficacement des solutions optimales dans les problèmes industriels d’agencement d’espace à un ou plusieurs conteneurs, où l’analyse de similarité démontre une bonne diversité solutions proposées par l’algorithme, qui peut être appliqué en tant qu’outil interactif outil pour leconcepteur
The conventional layout problem is concerned with finding the arrangements of components inside the container to optimize objectives under geometrical constraints, i.e., no component overlap and no container protrusion. A multi-objective layout model with functional constraints is developed. Integrating the accessibility of components as functional constraints ensures components maintenance or proper operation. However, thefunctional constraints increase the layout optimization complexity, denoted as capacity index. Therefore, a novel multi-objective optimizationalgorithm is proposed using the constructive placement and the simulated annealing to search for compromised solutions between the multiple objectives. Thereafter, a similarity indicator is defined to evaluate how similar optimized layout designs are. The experiments indicate that the proposed optimization approach performs well in ensuring accessibility and efficiently finding high-qualified solutions in single- and multi- container layoutapplications, where the similarity analysis demonstrates good diversity of the obtained layout set, which can be applied as an interactive tool
APA, Harvard, Vancouver, ISO, and other styles
24

Delorme, Xavier. "Modélisation et résolution de problèmes liés à l'exploitation d'infrastructures ferroviaires." Valenciennes, 2003. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/bc3fe069-ea2a-4864-9968-8cc1fe7bd9f1.

Full text
Abstract:
Cette thèse s'intéresse à la planification de l'exploitation d'infrastructures ferroviaires à l'échelle d'un nœud ou d'une gare. Pour déterminer une stratégie d'offre, il est important de disposer d'outils d'évaluation de la capacité des infrastructures. Cela permet de situer les limites d'un réseau, et d'étudier l'impact de modifications. Dans ce cadre, la faisabilité d'une grille horaire, son optimisation vis-à-vis de critères comme le nombre de trains (saturation), et l'évaluation de la stabilité sont considérées. Nous proposons une modélisation linéaire multiobjectif de ce problème. Le niveau de détail considéré est suffisamment fin pour obtenir des grilles horaires réalisables dans la pratique sur les infrastructures étudiées. En outre, elle présente deux structures correspondant à des problèmes d'optimisation classiques appelés plus court chemin et set packing. Si le premier est facile à résoudre, le second est connu comme NP-difficile. Nous proposons différents algorithmes de pré-traitements, et de résolution approchée (basée sur la métaheuristique GRASP), pour ce problème. Une première extension de cette heuristique au cas biobjectif est présentée. Les expérimentations numériques, menées sur des instances correspondant au nœud de Pierrefitte-Gonesse, ou générées aléatoirement, montrent l'efficacité de ces algorithmes. L'intégration de ces travaux dans un logiciel dédié aux études de capacité d'infrastructures ferroviaires (projet RECIFE, en collaboration avec la SNCF) est décrite
The subject of this thesis is the planning of railroad infrastructures operation at a node or station scale. In order to determine an offer strategy, it is important to have some evaluation tools of the infrastructures capacity. This allows to evaluate the network limits, and to study the impact of some modifications. The main questions considered are, the feasibility of a timetable, its optimization according to criteria like the number of trains (saturation), and the stability evaluation. We propose a multiobjective linear model of this problem. The precision considered is accurate enough to obtain realizable timetables in practice on the studied infrastructures. Moreover, it presents two structures corresponding to classic optimization problems named shortest path and set packing. If the resolution of the first one is easy, the second one is known as NP-hard. We propose several pre-processing algorithms, and an approximation method based on the GRASP metaheuristic, for this problem. A first extension of this method in biobjective case is presented. The numerical experimentations on several instances, corresponding to Pierrefitte-Gonesse node or randomly generated, show the efficiency of these algorithms. The integration of these works in a complete software dedicated to the evaluation of railroad infrastructures capacity (RECIFE project, in collaboration with the french national railroad society) is described
APA, Harvard, Vancouver, ISO, and other styles
25

Niu, Shiqin. "Conception, optimisation et caractérisation d’un transistor à effet de champ haute tension en Carbure de Silicium." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI136/document.

Full text
Abstract:
La thèse intitulée "Conception, caractérisation et optimisation d’un transistor à effet de champ haute tension en Carbure de Silicium (SiC) et de leur diode associée", s’est déroulée au sein du laboratoire AMPERE sous la direction du Prof. D. PLANSON. Des premiers démonstrateurs de JFET ont été réalisés. Le blocage du JFET n'est pas efficace, ceci étant lié aux difficultés de réalisation technologique. Le premier travail a consisté en leur caractérisation précise puis en leur simulation, en tenant compte des erreurs de processus de fabrication. Ensuite, un nouveau masque a été dessiné en tenant en compte des problèmes technologiques identifiés. Les performances électriques de la nouvelle génération du composant ont ainsi démontré une amélioration importante au niveau de la tenue en tension. Dans le même temps, de nouveaux problèmes se sont révélés, qu’il sera nécessaire de résoudre dans le cadre de travaux futurs. Par ailleurs, les aspects de tenue en court-circuit des JFETs en SiC commercialement disponibles ont été étudiés finement. Les simulations électrothermiques par TCAD ont révélé les modes de défaillances. Ceci a permis d'établir finalement des modèles physiques valables pour les JFETs en SiC
Silicon carbide (SiC) has higher critical electric field for breakdown and lower intrinsic carrier concentration than silicon, which are very attractive for high power and high temperature power electric applications. In this thesis, a new 3.3kV/20A SiC-4H JFET is designed and fabricated for motor drive (330kW). This breakdown voltage is beyond the state of art of the commercial unipolar SiC devices. The first characterization shows that the breakdown voltage is lower (2.5kV) than its theoretical value. Also the on-state resistance is more important than expected. By means of finite element simulation the origins of the failure are identified and then verified by optical analysis. Hence, a new layout is designed followed by a new generation of SiC-4H JFET is fabricated. Test results show the 3.3kV JFET is developed successfully. Meanwhile, the electro-thermal mechanism in the SiC JFETs under short circuit is studied by means of TCAD simulation. The commercial 1200V SIT (USCi) and LV-JFET (Infineon) are used as sample. A hotspot inside the structures is observed. And the impact the bulk thickness and the canal doping on the short circuit capability of the devices are shown. The physical models validated by this study will be used on our 3.3kV once it is packaged
APA, Harvard, Vancouver, ISO, and other styles
26

Khalil, Kassim. "Contributions à l'étude des communications numériques sur le réseau électrique à l'intérieur des bâtiments : modélisation du canal et optimisation du débit." Thesis, Valenciennes, 2015. http://www.theses.fr/2015VALE0023/document.

Full text
Abstract:
Au cours de ces dernières années, le réseau électrique est devenu un candidat incontournable pour la transmission de données à haut débit à l’intérieur des bâtiments. De nombreuses solutions sont actuellement à l’étude afin d’optimiser ces technologies connues sous le nom Courants Porteurs en Ligne (CPL) ou PLC (Power-Line Communications). La technique MIMO (Multiple-Input Multiple-Output) a été tout récemment transposée au réseau filaire électrique pour lequel différents modes d’alimentation peuvent être envisagés entre la phase, le neutre et la terre. Dans le cadre de cette thèse, nous proposons deux contributions originales à l’étude des communications numériques sur le réseau électrique à l’intérieur des bâtiments. La première contribution concerne la modélisation du canal MIMO-PLC. En repartant d’un modèle du canal paramétrique SISO (Single-Input Single-Output) connu dans la littérature, nous proposons un modèle du canal MIMO en considérant un nouveau paramètre caractérisant la corrélation spatiale. Le modèle proposé permet de représenter fidèlement la corrélation spatiale des mesures effectuées à l’échelle européenne. La deuxième contribution concerne le bruit impulsif présent sur le réseau électrique domestique qui constitue un problème majeur dans les systèmes de communications. Nous proposons une méthode basée sur la notion de capacité de coupure afin d’optimiser le débit moyen dans les systèmes OFDM (Orthogonal Frequency Division Multiplexing) soumis aux bruits impulsifs. D’abord, nous étudions la capacité du système en fonction d’une marge de bruit fournie aux symboles transmis. Ensuite, nous déterminons l’expression analytique de la probabilité de coupure (outage) d’un symbole OFDM en fonction de cette marge, en étudiant de manière détaillée l’interaction entre l’impulsion de bruit et le symbole. A partir de ces deux calculs, nous déduisons la capacité de coupure. Puis, nous proposons une approche qui maximise l’espérance mathématique du débit reçu. Finalement, nous présentons les résultats obtenus dans le cas particulier d’une transmission à haut débit sur PLC en présence de bruits impulsifs
In recent years, the electrical network has become an essential candidate for high-speed data transmission inside buildings. Many solutions are currently underway in order to optimize these technologies known under the name of in-home Power-Line Communications (PLC). Multiple-Input Multiple-Output (MIMO) technique has recently been transposed into power-line networks for which different signal feeding possibilities can be considered between phase, neutral and earth wires. In this thesis, we propose two original contributions to indoor broadband PLC. The first contribution concerns the MIMO-PLC channel modeling. Based on a Single-Input Single-Output (SISO) parametric channel model presented in the literature, we propose a MIMO one by considering a new parameter which characterizes the spatial correlation. The proposed model enables an accurate description of the spatial correlation of European MIMO PLC field measurements. The second contribution is related to the impulsive noise present in power-line networks which constitutes a major problem in communications systems. We propose an outage capacity approach in order to optimize the average data rate in Orthogonal Frequency Division Multiplexing (OFDM) systems affected by impulsive noise. First, we study the channel capacity as a function of a noise margin provided to the transmitted symbols. Then we determine the analytical expression of the outage probability of an OFDM symbol in terms of the noise margin, by studying in detail the interaction between the noise impulse and the symbol. Based on the two aforementioned relations, we deduce the outage capacity. Then we propose an approach that enables to maximize the average system data rate. Finally, we present the results in the particular case of indoor broadband PLC in the presence of impulsive noise
APA, Harvard, Vancouver, ISO, and other styles
27

Binti, Abd Jamil Roshamida. "Optimization of the capacity factor of energy ships for far-offshore wind energy conversion using weather-routing." Thesis, Ecole centrale de Nantes, 2022. http://www.theses.fr/2022ECDN0002.

Full text
Abstract:
Le navire à énergie est un concept relativement nouveau pour la récolte d'énergie éolienne offshore. Il s'agit d'un navire propulsé par le vent qui produit de l'électricité à l'aide de turbines hydrauliques fixées sous sa coque. Étant donné que le navire énergétique n'est pas connecté au réseau, l'énergie générée est stockée à bord (par exemple, à l'aide de batteries ou par conversion en hydrogène à l'aide d'un électrolyseur). Un avantage clé du navire énergétique est qu'il est mobile. Par conséquent, sa trajectoire peut être optimisée à l'aide d'un routage météorologique afin de maximiser la production d'énergie, ce qui est l'objet de cette thèse. L'analyse de la thèse est basée sur des simulations numériques. Le logiciel de routage météo est une versionmodifiée de QtVlm dans laquelle l'objectif d'optimisation a été remplacé par la maximisation de la production d'énergie. Le vaisseau énergétique est modélisé dans le logiciel par une polaire de vitesse et une polaire de production d'énergie. Les données de vent sont basées sur le jeu de données de vent ECMWF ERA-5. Le concept de navire à énergie est particulièrement bien adapté à la récolte de la conversion d'énergie éolienne dans le lointain au large. Par conséquent, le facteur de capacité des navires à énergie déployés dans l'océan Atlantique Nord est d'abord étudié. Les résultats montrent qu'un facteur de capacité de 70 % peut être atteint (moyenne annuelle). Elle est similaire à celle des parcs éoliens offshore flottants qui seraient déployés dans la même zone. Les navires à énergie peuvent également être utilisés pour l'alimentation électrique des îles et des communautés côtières. Par conséquent, le facteur de capacité des navires à énergie déployés à proximité du littoral est également étudié. Deux études de cas sont envisagées : l'île de « l'Ile de Sein » et l'archipel de « Saint-Pierre-et-Miquelon ». Les résultats montrent que le facteur de capacité est de l'ordre de 50 %. Dans ce cas, elle serait de 10 à 20 % inférieure à celle des parcs éoliens offshore. L'optimisation du routage météo dépend de paramètres physiques (par exemple, capacité de stockage, puissance nominale) et numériques. Des analyses de sensibilité sont effectuées afin de comprendre leur effet sur la production d'énergie. Les résultats montrent que l'algorithme d'optimisation dans QtVlm tend à converger vers les maxima locaux. Par conséquent, les travaux futurs devraient être orientés vers le développement de meilleures méthodes d'optimisation
The energy ship is a relatively new concept for offshore wind energy harvesting. It consists of a windpropelled ship that generates electricity using water turbines attached underneath its hull. Since the energy ship is not grid-connected, the generated energy is stored aboard (for instance, using batteries or through conversion to hydrogen using an electrolyzer). A key advantage of the energy ship is that it is mobile. Therefore, its trajectory can be optimized using weatherrouting in order to maximize energy production, which is the focus of this thesis. The analysis in the thesis is based on numerical simulations. The weather-routing software is a modified version of QtVlm in which the optimization objective has been replaced by the maximization of the energy production. The energy ship is modelled in the software by a velocity polar and a power production polar. The wind data is based on the ECMWF ERA-5 wind dataset. The energy ship concept is particularly well-suited for the harvesting of the wind energy conversion in the faroffshore. Therefore, the capacity factor of energy ships deployed in the North-Atlantic Ocean is investigated first. Results show that a capacity factor of 70% can be (annual average). It is similar to that of floating offshore wind farms which would be deployed in the same area. Energy ships may also be used for the power supply of islands and coastal communities. Therefore, the capacity factor of energy ships deployed nearshore is also investigated. Two case studies are considered: the island of “Ile de Sein” and the “Saint-Pierre-et-Miquelon” archipelagos. Results show that the capacity factor is in the order of 50%. In this case, it would be 10 to 20% smaller than that of offshore wind farms. The weather-routing optimization depends on physical (e.g. storage capacity, rated power) and numerical parameters. Sensitivity analyses are performed in order to understand their effect on energy production. Results show that the optimization algorithm in QtVlm tends to converge to local maxima. Therefore, future work should be directed towards the development of better optimization methods
APA, Harvard, Vancouver, ISO, and other styles
28

Vincent, Hugues. "Développement d'un modèle de calcul de la capacité ultime d'éléments de structure (3D) en béton armé, basé sur la théorie du calcul à la rupture." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1038/document.

Full text
Abstract:
Pour l’évaluation de la résistance ultime des ouvrages l’ingénieur de génie civil fait appel à différentes méthodes plus ou moins empiriques, dont de nombreuses manuelles, du fait de la lourdeur excessive des méthodes par éléments finis non-linéaires mises en œuvre dans les logiciels de calcul à sa disposition. Le calcul à la rupture, théorisé par J. Salençon, indique la voie de méthodes rigoureuses, tout à fait adaptées à cette problématique, mais dont la mise en œuvre systématique dans un logiciel a longtemps buté sur l’absence de méthodes numériques efficaces. Ce verrou de mathématique numérique a été levé récemment (Algorithme de point intérieur).Dans ce contexte l’objectif de la présente thèse est de mettre au point les méthodes permettant d’analyser, au moyen du calcul à la rupture, la capacité ultime d’éléments en béton armé tridimensionnels. Les deux approches du calcul à la rupture, que sont les approches statique et cinématiques, seront mises en œuvre numériquement sous la forme d’un problème d’optimisation résolu à l’aide d’un solveur mathématique dans le cadre de la programmation semi définie positive (SDP).Une large partie du travail sera consacré à la modélisation des différents matériaux constituant le béton armé. Le choix du critère pour modéliser la résistance du béton sera discuté, tout comme la méthode pour prendre en compte le renforcement. La méthode d’homogénéisation sera utilisée dans le cas de renforcement périodique et une adaptation de cette méthode sera utilisée dans le cas de renforts isolés. Enfin, les capacités et le potentiel de l’outil développé et mis en œuvre au cours de cette thèse seront exposés au travers d’exemples d’application sur des structures massives
To evaluate the load bearing capacity of structures, civil engineers often make use of empirical methods, which are often manuals, instead of nonlinear finite element methods available in existing civil engineering softwares, which are long to process and difficult to handle. Yield design (or limit analysis) approach, formalized by J. Salençon, is a rigorous method to evaluate the capacity of structures and can be used to answer the question of structural failure. It was, yet, not possible to take advantage of these theoretical methods due to the lack of efficient numerical methods. Recent progress in this field and notably in interior point algorithms allows one to rethink this opportunity. Therefore, the main objective of this thesis is to develop a numerical model, based on the yield design approach, to evaluate the ultimate capacity of massive (3D) reinforced concrete structural elements. Both static and kinematic approaches are implemented and expressed as an optimization problem that can be solved by a mathematical optimization solver in the framework of Semi-Definite Programming (SDP).A large part of this work is on modelling the resistance of the different components of the reinforced concrete composite material. The modelling assumptions taken to model the resistance of concrete are discussed. And the method used to model reinforcement is also questioned. The homogenization method is used to model periodic reinforcement and an adaptation of this technique is developed for isolated rebars. To conclude this work, a last part is dedicated to illustrate the power and potentialities of the numerical tool developed during this PhD thesis through various examples of massive structures
APA, Harvard, Vancouver, ISO, and other styles
29

Saad, Soha. "Méthodologie de réorganisation du trafic ferroviaire par analyse de sensibilité régionale : application à un incident sur infrastructure électrique." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAI057/document.

Full text
Abstract:
La qualité d'alimentation électrique d'un réseau ferroviaire peut être fortement affectée par l'indisponibilité d'un équipement électrique, que ce soit suite à un incident technique ou une opération de maintenance. Il est alors nécessaire de réduire le trafic prévu en ajustant les grilles horaires et les profils de vitesse, tout en conservant des performances d'exploitation optimales. Le but du travail présenté dans ce mémoire est de développer un outil d'aide à la décision pour assister les agents en charge de la réorganisation du trafic lors d'un incident sur infrastructure électrique. Le système étudié est complexe et son analyse repose sur des simulations coûteuses. Nous avons donc proposé une démarche en deux phases. Dans un premier temps, une analyse de sensibilité permet de détecter de manière efficace les variables d’ajustement du trafic les plus influentes. Après une analyse comparative entre différentes techniques, nous avons retenu l’analyse de sensibilité régionale par filtrage de Monte Carlo et test de KS, car cela permet de prendre en compte les contraintes opérationnelles, comme les niveaux de tension en ligne. La deuxième phase consiste à optimiser la solution en travaillant dans un espace de recherche de dimension réduite. Un ensemble de solutions Pareto optimales sont générées afin d’évaluer le meilleur compromis entre le critère principal qui est la densité de trafic et d’autres critères tels que les pertes ou les échauffements. Les techniques mises en œuvre ont abouti à la réalisation d’un prototype. Cet outil permet à l’ingénieur de définir les variables d’ajustement et les critères de performance du trafic. Il analyse ensuite l’influence des différentes variables d’ajustement et optimise le trafic par rapport aux critères définis. L’outil a été testé sur quatre cas d’étude correspondant à des portions de réseaux et à des trafics ferroviaires réels
The power supply quality of a railway network can be strongly affected by the unavailability of electrical equipment, whether due to a technical incident or a maintenance operation. It is then necessary to reduce the expected traffic by adjusting the time schedules and speed profiles, while maintaining optimal operating performance. The purpose of the work presented in this thesis is to develop a decision support tool to assist the agents in charge of the reorganization of traffic during an incident on electrical infrastructure. The studied system is complex and its analysis is based on costly simulations. We therefore proposed a two-phase approach. As a first step, a sensitivity analysis can effectively detect the most influential traffic adjustment variables. After a comparative analysis between different techniques, we selected the regional sensitivity analysis by Monte Carlo filtering and KS test, because it allows us to take into account the operational constraints, like the tension levels in line. The second phase consists in optimizing the solution by working in a small research area. A set of Pareto-Optimal solutions are generated to evaluate the best trade-off between the main criterion "traffic density" and other criteria such as losses or overheating. The techniques implemented led to the production of a prototype. The tool allows the engineer to define traffic adjustment variables and traffic performance criteria. Then it analyzes the influence of the various adjustment variables and optimizes the traffic according to the defined criteria. The tool was tested on four case studies proposed by SNCF Réseau and corresponding to network segments and actual rail traffic
APA, Harvard, Vancouver, ISO, and other styles
30

Chami, Marwa. "Optimization in cognitive radio systems with successive interference cancellation and relaying." Thesis, Paris, CNAM, 2016. http://www.theses.fr/2016CNAM1050.

Full text
Abstract:
La Radio Cognitive (CR) est une technique prometteuse pour assurer une utilisation efficace du spectre. Elle permet à un utilisateur non licencié appelé utilisateur secondaire (SU) de coexister avec un utilisateur agréé appelé utilisateur primaire (PU) sans dégrader les performances du dernier. Dans un système de CR, le SU a la capacité de s'adapter à son environnement afin de détecter des trous de fréquences possibles dans le spectre et transmettre dans ces trous sous certaines contraintes de manière à augmenter le débit total. Par ailleurs, l'allocation des ressources dans les systèmes CR forme l'un des scénarios étudiés les plus courantes en particulier pour des transmissions à porteuses multiples.Dans cette thèse, nous étudions le problème d'allocation des ressources pour un système CR à multi-utilisateur pour une transmission de liaison montante. On considère le scénario underlay où le SU est autorisé à coexister avec le PU à condition que l'interférence causé au PU soit inférieure à un seuil prédéfini. Nous appliquons deux techniques de décodage, l'annulation successive d'interférence (SIC) et le codage à superposition (SC), au SU afin de maximiser le débit secondaire.Dans une première étape, le scénario mono-utilisateur est étudié, en supposant que les informations d'état de canal sont connues parfaitement au SU. Nous évaluons la performance du système en proposant un algorithme de décodage adaptatif où le SU peut soit traiter l'interférence venant du primaire comme du bruit, ou bien appliquer le SIC ou SC. Nous étudions le problème d'allocation de puissance en tenant compte du budget de puissance et des contraintes de seuil d'interférence. Une solution générale pour le problème d'optimisation est proposé. L'analyse des simulations et les résultats théoriques montrent que l'algorithme proposé assure une augmentation sur le débit total du système.Ensuite, le scénario multi-utilisateurs secondaires est étudié, où plusieurs utilisateurs sont autorisés à exister dans la cellule secondaire. Les problème d'allocation de puissance et de sous-porteuses sont détaillés dans le but de maximiser le débit. Nous mettons en évidence les avantages de l'algorithme adaptatif dans le cas multi-utilisateur, qui comprend trois phases. La première étape comprend la sélection adaptative de la stratégie de décodage au niveau du récepteur secondaire. La deuxième étape décrit l'attribution de sous-porteuses parmi les différents utilisateurs. Enfin, la troisième étape détaille la répartition optimale du budget de puissance disponible sur les utilisateurs.Cependant, la connaissance parfaite du canal nécessite des mesures de canal parfait au niveau du récepteur et un lien de rétroaction parfaite pour envoyer ces informations à l'émetteur, ce qui peut être impossible à mettre en œuvre. Ainsi, nous étudions aussi le scénario mono-utilisateur en supposant que juste la connaissance statistique des gains de canaux primaires est disponible au SU. Nous détaillons les expressions analytiques pour les probabilités de panne et nous résolvons le problème d'optimisation non-convexe en utilisant un algorithme d'approximation séquentielle. Les simulations montrent que l'algorithme proposé est efficace et robuste.Enfin, nous proposons un nouveau modèle de système où le récepteur secondaire peut agir comme un nœud de relayage Full-Duplex (FD) afin de maximiser le débit primaire. Le scénario proposé est d'abord étudié pour un schéma de modulation à mono-porteuse dans les cas Amplify-and-Forward (AF) et Decode-and-Forward (DF). Les contraintes pour appliquer le SIC et pour le relayage sont déterminés et les nouveaux débits réalisables sont spécifiés de telle sorte que le nœud de relayage relaie si le nouveau débit atteignable est meilleur que celui obtenu sans relayage. En outre, le scénario FD avec DF est étudié avec la modulation multi-porteuse et les performances de ce modèle sont évaluées. Une amélioration importante sur le débit primaire est affiché
Cognitive Radio (CR) is a promising technique for efficient spectrum utilization. The CR technology permits an unlicensed user called Secondary User (SU) to coexist with the licensed user called Primary User (PU) without degrading his performance. In a CR system, the SU has the ability to sense and adapt to his environment in order to detect possible frequency holes in the wireless spectrum and transmit in it under some constraints so as to increase the total data rate. Besides, resource allocation in CR systems is one of the most common studied scenarios especially for multi-carrier transmissions, with the aim to maximize the system throughput.In this thesis, we investigate the resource allocation problem for an uplink multi-user underlay CR system where the SU is allowed to coexist with the PU provided that the interference caused to the PU is below a predefined threshold. We apply two decoding techniques, Successive Interference Cancellation (SIC) and Superposition Coding (SC), at the SU in order to maximize the secondary rate. In a first step, the single-user scenario is studied, assuming perfect channel state information (CSI) at the SU. We evaluate the performance of the system by proposing an adaptive decoding algorithm where the SU can either treat the interference as noise or perform SIC or SC. We investigate the power allocation problem taking into account the power budget and the interference threshold constraints. A general solution for the power optimization problem in an uplink underlay CR system is proposed. Both theoretical analysis and simulation results show that the proposed algorithm achieves higher sum rate than classical algorithms, providing high-enough data rates for the secondary system at the expense of a very low degradation of the primary system's rate.Then, the secondary multi-user scenario is investigated, where multiple users are allowed to exist in the secondary cell. Power and subcarrier allocation problems are detailed in order to maximize the secondary rate. We highlight the benefits of the proposed multi-user adaptive algorithm which encompasses three phases. The first step includes the adaptive selection of the decoding strategy at the secondary receiver. The second step describes the subcarrier allocation among the different users. Finally, the third step details the optimal distribution of the available power budget on the users.However, perfect channel knowledge requires perfect channel measurements at the receiver and a perfect feedback link to send this channel information to the transmitter, which may be impractical to implement. Thus, we also study the single-user scenario assuming that only statistical CSI of channel gains between the primary transmitter and both primary and secondary receivers is available at the SU. We detail the analytical expressions for the outage probabilities and then we solve the non-convex optimization problem using a sequential approximation algorithm. simulations show that the proposed algorithm is efficient and robust with statistical CSI. This work can be easily extended to the multi-user case.Finally, we propose a new system model where the secondary receiver acts as a Full-Duplex (FD) relay node in order to maximize the primary rate and thus the total system rate. The proposed scenario is first studied for single-carrier modulation scheme for both Amplify-and-Forward (AF) and Decode-and-Forward (DF) relaying protocols. The constraints to apply SIC and to relay are determined and the new achievable rates are specified such that the relay node relays whenever the new achievable rate is better than the one achieved without relying. Furthermore, the performance of the DF relaying scheme in the FD mode is evaluated for multi-carrier modulation. The performance of the proposed system model is evaluated via simulations and an important improvement of the primary achievable rate and thus of the total system rate is shown
APA, Harvard, Vancouver, ISO, and other styles
31

Rowshannahad, Mehdi. "Qualification Management and Closed-Loop Production Planning in Semiconductor Manufacturing." Thesis, Saint-Etienne, EMSE, 2015. http://www.theses.fr/2015EMSE0784/document.

Full text
Abstract:
La thèse est composée de deux parties. La première partie traite de la gestion des qualifications dans l'industrie des semi-conducteurs. La contrainte de qualification définit l'éligibilité d'une machine à processer un produit. La gestion des qualifications nécessite de résoudre un problème d'allocation et d'équilibrage des charges sur des machines parallèles non-identiques et partiellement reconfigurables. Nous avons défini et introduit des indicateurs pour la gestion des qualifications en tenant compte de la capacité des équipements ainsi que la contrainte de regroupements de lots (batching). Plusieurs algorithmes d'équilibrage de charge sont proposés et validés pour le calcul de la charge optimale sur un parc d'équipements. Ce concept est industrialisé au sein de l'entreprise Soitec et fait partie du processus de prise de décision.La deuxième partie de la thèse porte sur la planification de production en boucle fermée. Le processus de fabrication des plaques SOI à Soitec s'appuie sur la Technologie Smart-Cut. En utilisant cette technologie, une des deux matières premières peut être réutilisée à plusieurs reprises pour la fabrication des produits finis. Le couplage de deux lignes de production crée un système manufacturier en boucle fermée. Nous avons proposé un modèle de dimensionnement de lots original pour la planification de production de ce système manufacturier, que nous avons validé avec des données industrielles. En se basant sur le problème industriel, un problème mono-produit et sans contrainte de capacité est défini, analysé et résolu pour une version simplifiée du problème
In the first part, we take a binding restriction, called qualification, present in semiconductor manufacturing as a lever for increasing flexibility and optimizing capacity utilization. A qualification determines the processing authorization of a product on a machine (like an eligibility constraint). In order to define the best qualification, the production volume should be allocated to parallel non-identical machines which are partially reconfigurable. Capacitated flexibility measures are introduced to define the best qualification which increases machine capacity utilization at most. Batching is another industrial constraint encountered in semiconductor industry. It influences workload balancing and qualification management. Several workload balancing algorithms are proposed to find the optimal workload balance of a workcenter. Variability measures are also proposed to evaluate the workload variability of a workcenter. The second part deals with closed-loop production planning. Soitec uses Smart-Cut Technology to fabricate SOI wafers. Using this technology, one of the two raw materials used to fabricate SOI wafers can be reused several times to make other SOI wafers. However, before coming back to the SOI fabrication line, the used raw material (by-product) must be reworked in another production line. An original closed-loop production planning model adapted to the supply chain specificities of Soitec is proposed, and is validated using industrial data. Based on this industrial model, a single-item uncapacitated closed-loop lot-sizing model is defined, analyzed, and a dynamic programming algorithm is proposed for a simplified version of the problem
APA, Harvard, Vancouver, ISO, and other styles
32

Chami, Marwa. "Optimization in cognitive radio systems with successive interference cancellation and relaying." Electronic Thesis or Diss., Paris, CNAM, 2016. http://www.theses.fr/2016CNAM1050.

Full text
Abstract:
La Radio Cognitive (CR) est une technique prometteuse pour assurer une utilisation efficace du spectre. Elle permet à un utilisateur non licencié appelé utilisateur secondaire (SU) de coexister avec un utilisateur agréé appelé utilisateur primaire (PU) sans dégrader les performances du dernier. Dans un système de CR, le SU a la capacité de s'adapter à son environnement afin de détecter des trous de fréquences possibles dans le spectre et transmettre dans ces trous sous certaines contraintes de manière à augmenter le débit total. Par ailleurs, l'allocation des ressources dans les systèmes CR forme l'un des scénarios étudiés les plus courantes en particulier pour des transmissions à porteuses multiples.Dans cette thèse, nous étudions le problème d'allocation des ressources pour un système CR à multi-utilisateur pour une transmission de liaison montante. On considère le scénario underlay où le SU est autorisé à coexister avec le PU à condition que l'interférence causé au PU soit inférieure à un seuil prédéfini. Nous appliquons deux techniques de décodage, l'annulation successive d'interférence (SIC) et le codage à superposition (SC), au SU afin de maximiser le débit secondaire.Dans une première étape, le scénario mono-utilisateur est étudié, en supposant que les informations d'état de canal sont connues parfaitement au SU. Nous évaluons la performance du système en proposant un algorithme de décodage adaptatif où le SU peut soit traiter l'interférence venant du primaire comme du bruit, ou bien appliquer le SIC ou SC. Nous étudions le problème d'allocation de puissance en tenant compte du budget de puissance et des contraintes de seuil d'interférence. Une solution générale pour le problème d'optimisation est proposé. L'analyse des simulations et les résultats théoriques montrent que l'algorithme proposé assure une augmentation sur le débit total du système.Ensuite, le scénario multi-utilisateurs secondaires est étudié, où plusieurs utilisateurs sont autorisés à exister dans la cellule secondaire. Les problème d'allocation de puissance et de sous-porteuses sont détaillés dans le but de maximiser le débit. Nous mettons en évidence les avantages de l'algorithme adaptatif dans le cas multi-utilisateur, qui comprend trois phases. La première étape comprend la sélection adaptative de la stratégie de décodage au niveau du récepteur secondaire. La deuxième étape décrit l'attribution de sous-porteuses parmi les différents utilisateurs. Enfin, la troisième étape détaille la répartition optimale du budget de puissance disponible sur les utilisateurs.Cependant, la connaissance parfaite du canal nécessite des mesures de canal parfait au niveau du récepteur et un lien de rétroaction parfaite pour envoyer ces informations à l'émetteur, ce qui peut être impossible à mettre en œuvre. Ainsi, nous étudions aussi le scénario mono-utilisateur en supposant que juste la connaissance statistique des gains de canaux primaires est disponible au SU. Nous détaillons les expressions analytiques pour les probabilités de panne et nous résolvons le problème d'optimisation non-convexe en utilisant un algorithme d'approximation séquentielle. Les simulations montrent que l'algorithme proposé est efficace et robuste.Enfin, nous proposons un nouveau modèle de système où le récepteur secondaire peut agir comme un nœud de relayage Full-Duplex (FD) afin de maximiser le débit primaire. Le scénario proposé est d'abord étudié pour un schéma de modulation à mono-porteuse dans les cas Amplify-and-Forward (AF) et Decode-and-Forward (DF). Les contraintes pour appliquer le SIC et pour le relayage sont déterminés et les nouveaux débits réalisables sont spécifiés de telle sorte que le nœud de relayage relaie si le nouveau débit atteignable est meilleur que celui obtenu sans relayage. En outre, le scénario FD avec DF est étudié avec la modulation multi-porteuse et les performances de ce modèle sont évaluées. Une amélioration importante sur le débit primaire est affiché
Cognitive Radio (CR) is a promising technique for efficient spectrum utilization. The CR technology permits an unlicensed user called Secondary User (SU) to coexist with the licensed user called Primary User (PU) without degrading his performance. In a CR system, the SU has the ability to sense and adapt to his environment in order to detect possible frequency holes in the wireless spectrum and transmit in it under some constraints so as to increase the total data rate. Besides, resource allocation in CR systems is one of the most common studied scenarios especially for multi-carrier transmissions, with the aim to maximize the system throughput.In this thesis, we investigate the resource allocation problem for an uplink multi-user underlay CR system where the SU is allowed to coexist with the PU provided that the interference caused to the PU is below a predefined threshold. We apply two decoding techniques, Successive Interference Cancellation (SIC) and Superposition Coding (SC), at the SU in order to maximize the secondary rate. In a first step, the single-user scenario is studied, assuming perfect channel state information (CSI) at the SU. We evaluate the performance of the system by proposing an adaptive decoding algorithm where the SU can either treat the interference as noise or perform SIC or SC. We investigate the power allocation problem taking into account the power budget and the interference threshold constraints. A general solution for the power optimization problem in an uplink underlay CR system is proposed. Both theoretical analysis and simulation results show that the proposed algorithm achieves higher sum rate than classical algorithms, providing high-enough data rates for the secondary system at the expense of a very low degradation of the primary system's rate.Then, the secondary multi-user scenario is investigated, where multiple users are allowed to exist in the secondary cell. Power and subcarrier allocation problems are detailed in order to maximize the secondary rate. We highlight the benefits of the proposed multi-user adaptive algorithm which encompasses three phases. The first step includes the adaptive selection of the decoding strategy at the secondary receiver. The second step describes the subcarrier allocation among the different users. Finally, the third step details the optimal distribution of the available power budget on the users.However, perfect channel knowledge requires perfect channel measurements at the receiver and a perfect feedback link to send this channel information to the transmitter, which may be impractical to implement. Thus, we also study the single-user scenario assuming that only statistical CSI of channel gains between the primary transmitter and both primary and secondary receivers is available at the SU. We detail the analytical expressions for the outage probabilities and then we solve the non-convex optimization problem using a sequential approximation algorithm. simulations show that the proposed algorithm is efficient and robust with statistical CSI. This work can be easily extended to the multi-user case.Finally, we propose a new system model where the secondary receiver acts as a Full-Duplex (FD) relay node in order to maximize the primary rate and thus the total system rate. The proposed scenario is first studied for single-carrier modulation scheme for both Amplify-and-Forward (AF) and Decode-and-Forward (DF) relaying protocols. The constraints to apply SIC and to relay are determined and the new achievable rates are specified such that the relay node relays whenever the new achievable rate is better than the one achieved without relying. Furthermore, the performance of the DF relaying scheme in the FD mode is evaluated for multi-carrier modulation. The performance of the proposed system model is evaluated via simulations and an important improvement of the primary achievable rate and thus of the total system rate is shown
APA, Harvard, Vancouver, ISO, and other styles
33

Escobar, landero Salma. "Ultra-wideband coherent optical transmission systems : from modeling and optimization to experimental demonstrations beyond 100 Tbit/s." Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAS012.

Full text
Abstract:
Les systèmes ultra-large bande(UWB) sont considérés comme une stratégie rentable pour augmenter le débit par fibre dans les communications optiques en repoussant les limites de la bande passante opérationnelle au-delà de la bande C. Des expériences récente sont présenté des résultats prometteurs avec des transmissions à haute capacité UWB fonctionnant à travers les bandes S+C+L, et même au-delà. Ces avancées soulèvent la question des avoir si cette technologie peut être efficacement mise à l'échelle pour répondre aux demandes croissantes de trafic de données. Cette thèse fournit une étude approfondie sur les opportunités et les défis des systèmes UWB. À travers l'analyse de modèles qui tiennent compte des dégradations dépendant de la longueur d'onde, le cœur de cette thèse consiste en le développement et la validation de techniques d'optimisation de puissance basées sur ces modèles, conçues pour améliorer la performance des systèmes UWB. L'étude réalisée comprend des évaluations numériques et expérimentales des systèmes S+C+L. De plus, la précision des prédictions obtenues dans cette étude offre des aperçus précieux sur la qualité de transmission, parmi lesquels une analyse des implications associées à d'éventuelles défaillances du système UWB. Enfin, cette thèse envisage une vision pour l'avenir de cette technologie, discutant de la faisabilité de l'adoption des systèmes UWB par rapport au déploiement de systèmes parallèles en fibre
Ultra-wideband systems (UWB)are considered a cost-effective strategy to boostthe per-fiber through put in optical communications by pushing the boundaries of operational bandwidth beyond the conventional C-band. Recent experiments have showcased promising results with UWB high-capacity transmissions operating across the S+C+L bands, and evenfurther. These advancements raise the question of whether this technology can be effectively used to meet the growing demands for data traffic.This thesis provides an extensive investigation in to the opportunities and challenges ofUWB systems. Through the analysis of models that address the challenging wavelength dependent impairments, the core of this thesis consists in the development and validation of model-based power optimization techniques designed to enhance UWB system performance. The investigation is performed in numerical and experimental assessments in S+C+L systems. Moreover, the accurate model-based predictions obtained in this study offer invaluable insightsinto the transmission quality. These include ananalysis of the implications associated with potential UWB system failures. Finally, this thesis casts a vision for the future of this technology,discussing the feasibility of adopting UWBsystems over the deployment of parallel fibersystems
APA, Harvard, Vancouver, ISO, and other styles
34

Arnaud, Jean. "Performance, disponibilité et coût de services Internet adaptatifs." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00529936.

Full text
Abstract:
La multiplication des services Internet et la hausse de leur utilisation entraînent des charges importantes sur les services Internet. Ces charges peuvent de plus varier dans le temps, souvent de manière imprévisible. Cependant la qualité de service de ces applications doit toujours rester dans des limites acceptables, les utilisateurs pouvant choisir le service utilisé en fonction de la qualité de service perçue. Par ailleurs, l'impact économique et écologique de ces services peut devenir problématique, principalement à cause de la consommation électrique des serveurs. Les fournisseurs de services Internet cherchent donc à minimiser les coûts de fonctionnement, tout en préservant la qualité de service fournie aux utilisateurs. Plusieurs approches existent pour administrer des services Internet. Cependant, la plupart ne considèrent qu'un aspect de qualité de service, ne s'adaptent pas seules à toutes les variations de charge, ou se contentent d'une approche "au mieux" (best-effort), sans garantie de la qualité de service fournie. Dans cette thèse, nous proposons un contrôle adaptatif de services Internet, fournissant à la fois des garanties de performance et de disponibilité de service, tout en minimisant le coût de fonctionnement des services. Les contributions de cette thèse sont les suivantes. Tout d'abord, un modèle analytique de prédiction des performances, de la disponibilité et du coût d'un service Internet en fonction de charges et de configurations variables du service, est proposé. Puis une quantification de l'utilité du service Internet, en termes de niveaux de performance et de disponibilité et en termes de coût, est définie. Ensuite, une méthode de planification de capacité, permettant de calculer la configuration optimale d'un service Internet pour garantir des contraintes de qualité de service et minimiser le coût du service est proposée. Enfin, un contrôle adaptatif de services Internet est fourni pour prendre en compte tout type de variation de charge des services Internet et ceci via un calibrage en ligne automatique des modèles et planification de capacité sous-jacents. L'approche proposée est implantée dans un prototype fonctionnel appelé MoKa. MoKa a été appliqué avec succès pour le contrôle d'un service Internet de vente en ligne constitué de serveurs Web et de serveurs de bases de données. Les expériences menées ont montré que le service contrôlé par MoKa était capable de s'adapter en ligne à diverses variations de charge et continuait ainsi de garantir les contraintes de qualité de service tout en effectuant des économies de ressources significatives.
APA, Harvard, Vancouver, ISO, and other styles
35

Bagamanova, Margarita. "The integration of simulation, optimisation, and Bayesian inference for enhancing airport stand allocation." Doctoral thesis, Universitat Autònoma de Barcelona, 2021. http://hdl.handle.net/10803/673345.

Full text
Abstract:
Els interessats de l’aeroport tenen un repte rutinari amb l’assignació de vols programats a les grades disponibles i a les posicions d’aparcament de la manera més rendible. Al mateix temps, han de complir les preferències de les companyies aèries i els contractes de serveis i garantir el confort dels passatgers. En els darrers anys, l’objectiu de reduir les emissions contaminants va afegir encara més complexitat a la moderna xarxa de transport aeri, que sovint pateix problemes de congestió i alteracions operatives relacionades. Per abordar aquests problemes i facilitar els aeroports moderns amb el suport relacionat amb la presa de decisions, aquesta investigació presenta un nou enfocament del problema aeroportuari més comú: l’assignació eficient d’estands. El concepte proposat d’eina d’assignació d’estands conscients de la interrupció combina els avantatges de la inferència bayesiana, la simulació i l’optimització evolutiva i proporciona programacions d’assignació qualitatives amb robustesa fins a un cert nivell de desviacions de l’horari de vol. L’enfocament d’assignació d’estands presentat juntament amb la simulació és innovador ja que permet 1) abordar la càrrega de les interrupcions horàries de la capacitat de l’aeroport, 2) optimitzar l’ús de la capacitat d’estands des de múltiples perspectives de gestió, 3) ajuda a alliberar recursos que generalment estan bloquejats per temps d’amortiment entre els vols assignats i 4) millora la petjada ambiental de l’aeroport. La investigació presentada en aquesta tesi contribueix al conjunt de la literatura amb el següent: • Una metodologia d’assignació d’estands que tingui en compte la interrupció proporciona suport a la decisió per abordar els interessos dels passatgers, les parts interessades de l’aeroport i el medi ambient de manera equilibrada. • L’enfocament presentat facilita la mitigació de la variabilitat operativa en la gestió de la capacitat dels estands de l’aeroport i la seva petjada ambiental. • La metodologia genera solucions que tenen en compte les interrupcions històriques i les característiques específiques de les emissions de cada avió, que proporciona als grups d’interès de l’aeroport una planificació més realista de l’assignació d’estands. • L’enfocament d’assignació d’estands desenvolupat s’uneix a la simulació per proporcionar una avaluació qualitativa de les solucions generades i considerar l’estocàstica del sistema de la vida real no captada pel marc generador d’assignacions. L’enfocament desenvolupat es podria ampliar encara més per tenir en compte tots els passos del procés de canvi d’avions. A més, l’enfocament d’assignació d’estands conscient de la interrupció es podria incorporar directament al model de simulació d’aeroports per millorar encara més la solidesa i el realisme de les solucions generades.
Las partes interesadas del aeropuerto se enfrentan habitualmente al desafío de la asignación de vuelos programados a los puestos de estacionamiento y puestos disponibles de la manera más rentable. Al mismo tiempo, deben cumplir con las preferencias de la aerolínea y los contratos de servicio y garantizar la comodidad de los pasajeros. En años recientes, el objetivo de reducir las emisiones contaminantes agregó aún más complejidad a la red moderna de transporte aéreo, que a menudo sufre problemas de congestión e interrupciones operativas. Para abordar estos problemas y facilitar los aeropuertos con herramientas de apoyo a la toma de decisiones, esta investigación presenta un enfoque novedoso para el problema aeroportuario más común: la asignación eficiente de puestos de estacionamiento. El concepto propuesto de herramienta de asignación de stand combina las ventajas de la inferencia bayesiana, la simulación y la optimización evolutiva y proporciona soluciones de asignación cualitativos con solidez para un cierto nivel de desviaciones del programa de vuelo. El enfoque de asignación de puestos presentado junto con la simulación es innovador ya que permite 1) abordar la carga de interrupciones del horario considerando la capacidad del aeropuerto, 2) optimizar el uso de la capacidad del puesto desde múltiples perspectivas de gestión, 3) ayuda a liberar recursos que normalmente están bloqueados por extensos tiempos de amortiguamiento entre vuelos asignados, y 4) mejora la huella ambiental del aeropuerto. La investigación presentada en esta disertación contribuye al cuerpo del conocimiento con lo siguiente: • Una metodología de asignación de stands que considere las interrupciones y brinde apoyo a la toma de decisiones para abordar los intereses de los pasajeros, las partes interesadas del aeropuerto y el medio ambiente de manera equilibrada. • El enfoque presentado facilita la mitigación de la variabilidad operativa en la gestión de la capacidad del stand del aeropuerto y su huella ambiental. • La metodología genera soluciones que consideran las interrupciones históricas y las características de emisiones específicas de cada aeronave, lo que proporciona a las partes interesadas del aeropuerto una planificación de asignación de stand más realista. • El enfoque de asignación de stand desarrollado se combina con la simulación para proporcionar una evaluación cualitativa de las soluciones generadas y considerar la estocasticidad del sistema real no considerada en muchas investigaciones previas. El enfoque desarrollado podría ampliarse para considerar todos los pasos del proceso de entrega de aeronaves. Además, el enfoque de asignación de puestos de observación de interrupciones podría incorporarse directamente al modelo de simulación del aeropuerto para mejorar aún más la robustez y el realismo de las soluciones generadas.
Airport stakeholders are routinely challenged with the allocation of scheduled flights to available stands and parking positions in the most cost-efficient way. At the same time, they need to comply with airline preferences and service contracts and ensure passenger comfort. In the last years, a goal to reduce pollutant emissions added even more complexity to the modern air transport network, which often suffers from congestion problems and related operational disruptions. To address these problems and facilitate airports with related decision support, this research presents a novel approach to the most common airport problem – efficient stand assignment. The proposed concept of a disruption-aware stand allocation tool combines advantages of Bayesian inference, simulation, and evolutionary optimisation and provides qualitative assignment schedules with robustness to a certain level of flight schedule deviations. The presented stand allocation approach coupled with simulation is innovative as it allows 1) to tackle the burden of schedule disruptions on the airport capacity, 2) optimise stand capacity use from multiple management perspectives, 3) helps to release resources that are usually blocked by extensive buffer times between allocated flights, and 4) improves airport environmental footprint. The research presented in this dissertation contributes to the body of literature with the following: • A disruption-aware stand allocation methodology provides decision support to tackle the interests of passengers, airport stakeholders, and the environment in a balanced way. • The presented approach facilitates mitigation of operational variability on airport stand capacity management and its environmental footprint. • The methodology generates solutions that consider historical disruptions and specific emissions characteristics of each aircraft, which provides airport stakeholders with more realistic stand assignment planning. • The developed stand assignment approach is coupled with simulation to provide a qualitative assessment of the generated solutions and consider stochasticity of the real-life system not captured by the assignment-generating framework. The developed approach could be further extended to consider all steps of the aircraft turnaround process. Moreover, the disruption-aware stand assignment approach could be directly incorporated into the airport simulation model to increase robustness and realism of the generated solutions.
Universitat Autònoma de Barcelona. Programa de Doctorat en Enginyeria Electrònica i de Telecomunicació
APA, Harvard, Vancouver, ISO, and other styles
36

Hobbs, Dale. "Probabilistic estimation of hosting capacity and operating reserve including optimisation of PV installation capacity." Thesis, Hobbs, Dale (2019) Probabilistic estimation of hosting capacity and operating reserve including optimisation of PV installation capacity. Honours thesis, Murdoch University, 2019. https://researchrepository.murdoch.edu.au/id/eprint/52466/.

Full text
Abstract:
In recent times the need to deploy additional sustainable generation means has become more apparent due to the ever-changing landscape of the global energy generation sector. Australia’s changing consumer needs means new technologies like renewable generation sources such as solar PV systems have increased in popularity over time, though their full capability has not yet been met. Though their intermittent generation is cause for concern in maintaining a stable and quality power supply. This thesis aims to address the issues by developing a probabilistic methodology for the day ahead estimate of the maximum hosting limits capacity and minimum operating reserve requirements of a microgrid containing high levels of PV penetration. Before the commencement and development of the project, a wide range of methods from literature were analysed regarding microgrids and their use in this project. The comprehensive range of concepts of microgrids and their distributed generation were divulged and incorporated into the project methodology. To understand how to provide the probabilistic estimate of the maximum hosting capacity, three previously methods in literature were analysed, each providing more technically advanced approaches than the last. The same research approach was used to understand the methodology of developing a probabilistic estimate of the operating reserve. These methods range in methodology, from the Monte Carlo simulation method to advanced artificial neural networks. To provide the day ahead estimates, an artificial neural network is developed to generate the network parameter forecasts required, providing with it, a probabilistic range of input to a network model. The maximum hosting capacity limit will ensure the amount of renewable generation expected will not exceed the performance indexes required for, voltage level, line loading limits and generator reverse power flow. The minimum operating reserve will provide an estimate of the reserve generation required if there were to be a sudden drop in the renewable energy supply. The estimates are created by modelling the IEEE 13-bus network in PowerFactory containing high levels of renewable generation. The programming functionality in this package has been utilised to automate the immense simulation, calculation and data collection processes required on a case by case basis. Statistical analysis is performed to define the probability of these estates occurring. The probabilities of these estimates will help network operators in making decisions for the control of the microgrid. Adding to these estimates were the PV generation capacity optimisations to increase the maximum hosting capacity limit. Several test cases were created to analyse the performance of the modelling automation developed. Each of these cases created a different insight into the estimation and optimisation cases and their interaction with the performance indexes. The probabilistic estimations derived produced a normal distribution of values for each of the cases tested. Probability statistics are applied to provide the probability of such estimates occurring for the next day's operation. The optimisation successfully provided the maximised PV generation, setting a maximum hosting capacity within the performance index limits. The methodology developed was successful in providing the probabilistic estimation required and optimising the PV installed capacity. This method offered the use of advanced technology, such as artificial neural networks, to provide more reliable predictions into the network operation.
APA, Harvard, Vancouver, ISO, and other styles
37

Sinulingga, S. "Real time MRP with optimisation of manufacturing capacity utilisation." Thesis, Cranfield University, 1988. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.234523.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Levis, Aaron. "Multi-site capacity planning and business optimisation for process industries." Thesis, University College London (University of London), 2005. http://discovery.ucl.ac.uk/1444935/.

Full text
Abstract:
Changing market conditions, volatile customer demand, intense competition and tightness of capital are some of the primary characteristics of the global economy that affect process industries nowadays. The main objective of the thesis is to facilitate business decision-making in today's increasingly complex and highly uncertain market environment by applying mathematical programming techniques for multi-site capacity planning and business optimisation in process industries. In the first part of the thesis, the problem of multi-site capacity planning under uncertainty in the pharmaceutical industry is addressed. A comprehensive two-stage, multi-scenario mixed-integer linear programming (MILP) model is proposed able to determine an optimal product portfolio and multi-site investment plan in the face of clinical trials uncertainty. A hierarchical algorithm is also developed in order to reduce the computational effort needed for the solution of the resulting large-scale MILP model. The applicability of the proposed solution methodology is demonstrated by a number of illustrative examples. The second part addresses the problem of business optimisation for customer demand management in process industries. A customer demand forecasting approach is developed based on support vector regression analysis. The proposed three-step algorithm is able to extract the underlying customer demand patterns from historical sales data and derive an accurate forecast as demonstrated through a number of illustrative examples. An active demand management approach for close substitute products is also developed based on price optimisation. The proposed methodology is able to determine optimal pricing policies as well as output levels, while taking into consideration manufacturing costs, resource availability, customer demand elasticity, outsourcing and market competition. An iterative algorithm is developed able to determine Nash equilibrium in prices for competing companies as demonstrated by the illustrative examples.
APA, Harvard, Vancouver, ISO, and other styles
39

Gallant, André. "Optimisation de trajectoire pour l'augmentation des capacités des manipulateurs robotiques." Doctoral thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66560.

Full text
Abstract:
Aujourd’hui, les manipulateurs robotiques sont appelés à effectuer une gamme de plus en plus large de tâches allant au-delà des applications traditionnelles. Un tel type d’application est l’interaction physique humain-robot. Pour que ces systèmes soient sécuritaires, il peut être souhaitable de réduire leur poids et leur force en réduisant la taille de leurs actionneurs. En effet, réduire la taille des actionneurs augmente la sécurité de deux manières, l’inertie du manipulateur diminue et les couples générés par les moteurs sont fortement réduits. Cependant, le principal inconvénient de ces manipulateurs est la réduction de leur capacité de charge utile. C’est pourquoi une meilleure utilisation des capacités articulaires est nécessaire pour leur permettre d’accomplir des tâches qu’elles ne pourraient normalement pas accomplir. Ainsi, cette thèse présente une étude de deux types principaux de tâches pour lesquelles une stratégie d’optimisation de trajectoire efficace peut être particulièrement utile. La première tâche consiste à soulever des objets lourds, c’est-à-dire, qui dépassent la capacité de charge utile d’un manipulateur. L’étude de cette tâche pourrait mener à la conception de manipulateurs plus légers et plus capables. Ce travail se concentre sur l’étude des méthodes de génération de trajectoires permettant aux manipulateurs ayant des actionneurs relativement faibles de soulever des charges lourdes en exploitant pleinement leur dynamique. La deuxième tâche étudiée dans cette thèse est la tâche de lancer des objets. Plus précisément, la portée des manipulateurs est étudiée, c’est-à-dire, la distance maximale à laquelle un objet peut être lancé avec un manipulateur donné est recherchée. Cette tâche est étudiée à trois niveaux de complexité : la recherche de la distance maximale possible avec des contraintes de vitesse, la recherche de la capacité maximale de lancement en considérant une trajectoire complète avec des contraintes cinématiques et la recherche de la capacité maximale de lancement en considérant une trajectoire complète avec des contraintes dynamiques. Enfin, des critères de performance sont établis à partir de ces deux types de tâches afin d’aider au processus de conception d’un nouveau manipulateur. Ainsi, une simulation d’optimisation de la conception est effectuée à titre de preuve de concept.
Today, robotic manipulators are being called upon to perform an increasingly wide range of tasks that extend beyond the conventional ones required in traditional applications. One such type of application is physical human-robot interaction. In order for such systems to be safe, it can be desirable to decrease their weight and strength by reducing the size of their actuators.Indeed, reducing the size of the actuators increases safety in two manners, the inertia of the manipulator decreases and the torques generated by the motors are greatly reduced. However, the main drawback of such manipulators is the reduction of their payload capacity.Therefore, better usage of the limited joint efforts is required to enable them to perform tasks that they would normally not be able to accomplish. Thus, this thesis presents a study of two main types of tasks where an effective trajectory optimisation strategy can be particularly valuable. The first task is that of lifting heavy objects, i.e., objects that exceed the conservative estimate of the payload capacity of a manipulator. Studying this task could lead to the design of lighter,more capable manipulators. This work focuses on studying trajectory generation methods to enable manipulators with relatively weak actuators to lift heavy payloads by fully utilizing their dynamics. The second task studied in this thesis is the task of throwing objects. Specifically, the distance throwing capabilities of manipulators is studied where the maximum distance that an object can be thrown with a given manipulator is sought. This task is studied at three levels of complexity: finding the maximum possible throwing capacity of manipulators with velocity constraints, finding the maximum throwing capacity considering a full trajectory with kinematic constraints, and finding the maximum throwing capacity considering a full trajectory with dynamic constraints. Finally, performance criteria are established from these two types of tasks in order help in the process of designing a new manipulator. Thus, a simple design optimisation simulation is performed as a proof of concept.
APA, Harvard, Vancouver, ISO, and other styles
40

Pierre, Jarrault. "Optimisation des capacités de franchissement des robots mobiles hybrides "roues-pattes"." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00867306.

Full text
Abstract:
On considère qu'un robot est en mesure de franchir un obstacle s'il est capable, pour chaque configuration géométrique des contacts rencontrée durant le franchissement, d'équilibrer les actions extérieures qu'il subit tout en préservant l'adhérence des contacts. Notre approche consiste à optimiser la répartition des efforts de contact afin de maximiser un critère qualifiant la performance du franchissement. Pour cela, nous mettons à profit deux caractéristiques des robots poly-articulés. D'une part, la redondance d'actionnement permet l'application de forces internes modifiant la répartition des efforts entre les différents points de contact. D'autre part, la redondance cinématique permet de changer la position du point d'application des forces de gravité en déplaçant le centre de masse relativement à la position des contacts, modifiant ainsi l'espace des solutions au problème de distribution des forces. Le critère utilisé qualifie la robustesse du franchissement vis-à-vis des incertitudes de la commande en efforts. Elle est choisie à partir d'une analyse comparative des différents critères utilisés dans le domaine de la préhension dextre. L'algorithme de commande que nous développons permet le contrôle simultané des mouvements du robot et des efforts aux contact. Il est d'abord validé par une série de simulations dynamiques puis vérifié sur le prototype de robot hybride HyLoS 2. Ce robot à 4 "roues-pattes" possède 16 ddl et est en mesure de franchir un obstacle représenté par une pente de 60\char6 ayant une hauteur de 19 cm alors que le rayon de ses roues est de 7 cm.
APA, Harvard, Vancouver, ISO, and other styles
41

Jarrault, Pierre. "Optimisation des capacités de franchissement des robots mobiles hybrides "roues-pattes"." Paris 6, 2013. http://www.theses.fr/2013PA066211.

Full text
Abstract:
On considère qu'un robot est en mesure de franchir un obstacle s'il est capable, pour chaque configuration géométrique des contacts rencontrée durant le franchissement, d'équilibrer les actions extérieures qu'il subit tout en préservant l'adhérence des contacts. Notre approche consiste à optimiser la répartition des efforts de contact afin de maximiser un critère qualifiant la performance du franchissement. Pour cela, nous mettons à profit deux caractéristiques des robots poly-articulés. D'une part, la redondance d'actionnement permet l'application de forces internes modifiant la répartition des efforts entre les différents points de contact. D'autre part, la redondance cinématique permet de changer la position du point d'application des forces de gravité en déplaçant le centre de masse relativement à la position des contacts, modifiant ainsi l'espace des solutions au problème de distribution des forces. Le critère utilisé qualifie la robustesse du franchissement vis-à-vis des incertitudes de la commande en efforts. Elle est choisie à partir d'une analyse comparative des différents critères utilisés dans le domaine de la préhension dextre. L'algorithme de commande que nous développons permet le contrôle simultané des mouvements du robot et des efforts aux contact. Il est d'abord validé par une série de simulations dynamiques puis vérifié sur le prototype de robot hybride HyLoS 2. Ce robot à 4 "roues-pattes" possède 16 ddl et est en mesure de franchir un obstacle représenté par une pente de 60\char6 ayant une hauteur de 19 cm alors que le rayon de ses roues est de 7 cm
The research presented in this thesis report focuses on the optimization of crossing capabilities for "wheel-legged" hybrid mobile robots. We consider that a robot is able to overcome an obstacle if he is able, for each geometric configuration of the contact points encountered during the crossing , to balance the external forces applied to it while maintaining contact adhesion. Our approach consist in using two features of poly-articulated robots in order to optimize the distribution of contact forces. Firstly, the actuation redundancy allows the application of internal forces. Secondly, the kinematic redundancy allows to change the CoM position, changing the set of possible solutions to the force distribution problem. The criterion used for the optimization measures the contacts stability robustness relatively to uncertainties in the force control. It was chosen based on a comparative analysis of different criteria used in the field of grasping. The resulting control algorithm allows for simultaneous control of both robot movements and contact forces. Experimental results on robot HyLoS 2 show that the algorithm allow for the crossing of an obstacle represented by a slope of 60\char6 with a height of 19 cm, while the wheels radius is only 7 cm
APA, Harvard, Vancouver, ISO, and other styles
42

STOICA, Dragos. "Analyse, representation et optimisation de la circulation des avions sur une plate-forme aeroportuaire." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2004. http://tel.archives-ouvertes.fr/tel-00009323.

Full text
Abstract:
Au cours des dernieres decennies, la demande de trafic au niveau des aeroports a augmente regulierement a tel point que le trafic au sol est devenu critique pour la securite et l'efficacite des operations aeroportuaires. Cette these propose une approche a deux niveaux pour l'analyse et l'optimisation du trafic avion au sol sur les aeroports. Elle est divisee en trois parties: - La premiere partie introduit la problematique generale et son environnement - La deuxieme partie traite la gestion a moyen terme du trafic au sol des avions. Une approche globale pour estimer la capacite theorique et la capacite pratique du trafic avion est proposee. Celle-ci met en Suvre une approche d'optimisation du flux dans un reseau qui conduit a la formulation de differents problemes de programmation mathematique - La troisieme partie traite du niveau tactique et une approche adaptative est developpee pour definir les routes et les horaires associes aux mouvement d'arrivee ou de depart des avions. Une approche de resolution operationnelle est alors proposee.
APA, Harvard, Vancouver, ISO, and other styles
43

Schinwald, Christoph [Verfasser]. "Evaluation of Airport Capacity Optimisation Measures: A System Wide Perspective / Christoph Schinwald." München : Verlag Dr. Hut, 2020. http://d-nb.info/1219478288/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Tian, Yue. "Capacity optimisation techniques for multi-user interface mitigation in 5G and beyond wireless networks." Thesis, University of Bristol, 2016. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.715836.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Young, Joseph A. "On the optimal capacity expansion of electric power systems." Thesis, University of Queensland, 1992.

Find full text
Abstract:
The analysis of investment in the electric power has been the subject of intensive research for many years. The efficient generation and distribution of electrical energy is a difficult task involving the operation of a complex network of facilities, often located over very large geographical regions. Electric power utilities have made use of an enormous range of mathematical models. Some models address time spans which last for a fraction of a second, such as those that deal with lightning strikes on transmission lines while at the other end of the scale there are models which address time horizons consisting of ten or twenty years; these usually involve long range planning issues. This thesis addresses the optimal long term capacity expansion of an interconnected power system. The aim of this study has been to derive a new, long term planning model which recognises the regional differences which exist for energy demand and which are present in the construction and operation of power plant and transmission line equipment. Perhaps the most innovative feature of the new model is the direct inclusion of regional energy demand curves in the nonlinear form. This results in a nonlinear capacity expansion model. After review of the relevant literature, the thesis first develops a model for the optimal operation of a power grid. This model directly incorporates regional demand curves. The model is a nonlinear programming problem containing both integer and continuous variables. A solution algorithm is developed which is based upon a resource decomposition scheme that separates the integer variables from the continuous ones. The decompostion of the operating problem leads to an interactive scheme which employs a mixed integer programming problem, known as the master, to generate trial operating configurations. The optimum operating conditions of each trial configuration is found using a smooth nonlinear programming model. The dual vector recovered from this model is subsequently used by the master to generate the next trial configuration. The solution algorithm progresses until lower and upper bounds converge. A range of numerical experiments are conducted and these experiments are included in the discussion. Using the operating model as a basis, a regional capacity expansion model is then developed. It determines the type, location and capacity of additional power plants and transmission lines, which are required to meet predicted electicity demands. A generalised resource decompostion scheme, similar to that used to solve the operating problem, is employed. The solution algorithm is used to solve a range of test problems and the results of these numerical experiments are reported. Finally, the expansion problem is applied to the Queensland electricity grid in Australia.
APA, Harvard, Vancouver, ISO, and other styles
46

Khébri, Salah. "Modélisation et optimisation des capacités et structures du raffinage européen aux horizons 1995,2000 et 2010." Dijon, 1993. http://www.theses.fr/1993DIJOE012.

Full text
Abstract:
La profonde restructuration du raffinage européen, qui a été engagée après le second choc pétrolier, a abouti à la suppression de 37 % des capacités en place en 1980 (la moitié pour la France et l’Allemagne de l’Ouest), conséquence de la fermeture de la quasi-totalité des raffineries "intérieures" et le recentrage de l’activité vers des sites de plus grande taille et mieux intégrés avec la pétrochimie. Dix ans après, le raffineur européen se porte mieux : les taux d’utilisation des capacités dépassent 80 % et les marges sont en moyenne acceptables. La question posée désormais est d’apprécier la dynamique de ce secteur. Cette thèse se propose de déterminer les capacités et structures souhaitables pour permettre à l’Europe de satisfaire sa demande en produits pétroliers. Plusieurs simulations ont été effectuées à partir du modèle de programmation linéaire. Il s’avère ainsi, que l’Europe ne pourra pas être totalement autonome, puisque deux produits (le naphta et le mtbe) continueront, pour des raisons de compétitivité, à être importés partiellement. Pour les horizons étudiées, l’Europe sera déficitaire essentiellement en capacités de conversions classiques (fcc et hydrocraquage) et profonde, d’hydrodésulfuration et unités de production des essences a haut indice d’octane et sans plomb (alkylation, insomérisation et mtbe). Les investissements nécessaires à la mise en place de ces unités sont évalués entre 20 à 30 milliards de dollars, pour la période 2000-2010
The substantial restructuring of the european refininf industry after the second oil shock, resulted in the shutdown of 37% of its 1980 capacity, (up to 50% for France and west Germany). This was the consequence of the shutdown of almost all inland refineries and the concentration of activity in large units, particularly those integrated with petrochemical sites. A decade later, the position of the european refining industry has improved. Utilisation rates exced 80% and margins are, in general acceptable. The question now is what will influence the future profitability of this sector. The modelling and optimization of european refining to 1995, 2000 and 2010, which is the objective of this research, is a tool to determine the optimum capacities and configuration to cover the european demand for petroleum products. Simulations, made with a linear programming model, show that Europe will not be able to cover all product demand, because the marginal costs of naphta and mtbe would be above the opportunity cost of imports. For the horizon years examined, europe will have a capacity deficit in conversion plant, both classic conversion e. G. Fcc and hydrocracking, and in advanced octane upgrading, e. G. Alkylation, isomerisation and mtbe. The capital investment required for the necessary plants is estimated at between 20 and 30 milliard for the period 2000-2010
APA, Harvard, Vancouver, ISO, and other styles
47

Sawaya, Hadi. "Optimisation des performances pour les techniques de codage de canal approchant la capacité /." Paris : École nationale supérieure des télécommunications, 2003. http://catalogue.bnf.fr/ark:/12148/cb39066879s.

Full text
Abstract:
Th. doct.--Électronique et communications--Paris--ENST, 2002. Titre de soutenance : Performance optimization for capacity-approaching channel coding schemes.
Bibliogr. 145-152. Résumé en français et en anglais.
APA, Harvard, Vancouver, ISO, and other styles
48

Alrowili, Mohammed F. H. "Capacity Enhancement Approaches for Long Term Evolution networks: Capacity Enhancement-Inspired Self-Organized Networking to Enhance Capacity and Fairness of Traffic in Long Term Evolution Networks by Utilising Dynamic Mobile Base-Stations." Thesis, University of Bradford, 2018. http://hdl.handle.net/10454/17322.

Full text
Abstract:
The long-term evolution (LTE) network has been proposed to provide better network capacity than the earlier 3G network. Driven by the market, the conventional LTE (3G) network standard could not achieve the expectations of the international mobile telecommunications advanced (IMT-Advanced) standard. To satisfy this gap, the LTE-Advanced was introduced with additional network functionalities to meet up with the IMT-Advanced Standard. In addition, due to the need to minimize operational expenditure (OPEX) and reduce human interventions, the wireless cellular networks are required to be self-aware, self-reconfigurable, self-adaptive and smart. An example of such network involves transceiver base stations (BTSs) within a self-organizing network (SON). Besides these great breakthroughs, the conventional LTE and LTE-Advanced networks have not been designed with the intelligence of scalable capacity output especially in sudden demographic changes, namely during events of football, malls, worship centres or during religious and cultural festivals. Since most of these events cannot be predicted, modern cellular networks must be scalable in terms of capacity and coverage in such unpredictable demographic surge. Thus, the use of dynamic BTSs is proposed to be used in modern and future cellular networks for crowd and demographic change managements. Dynamic BTSs are complements of the capability of SONs to search, determine and deploy less crowded/idle BTSs to densely crowded cells for scalable capacity management. The mobile BTSs will discover areas of dark coverages and fill-up the gap in terms of providing cellular services. The proposed network relieves the LTE network from overloading thus reducing packet loss, delay and improves fair load sharing. In order to trail the best (least) path, a bio-inspired optimization algorithm based on swarm-particle optimization is proposed over the dynamic BTS network. It uses the ant-colony optimization algorithm (ACOA) to find the least path. A comparison between an optimized path and the un-optimized path showed huge gain in terms of delay, fair load sharing and the percentage of packet loss.
APA, Harvard, Vancouver, ISO, and other styles
49

Chekaf, Mustapha. "Capacité de la mémoire de travail et son optimisation par la compression de l'information." Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCC010/document.

Full text
Abstract:
Les tâches d’empan simples sont classiquement utilisées pour évaluer la mémoire à court terme, tandis que les tâches d’empan complexes sont généralement considérées comme spécifiques de la mémoire de travail. Par construction, les tâches d’empan complexes étant plus difficiles,en raison de l’utilisation d’une tâche concurrente, l’empan moyen est généralement plus faible (4 ± 1 items) que dans les tâches d’empan simples (7 ± 2 items). Une raison possible de cet écart est que sans tâche concurrente, les participants peuvent tirer profit du temps libre entre les stimuli pour détecter et recoder des régularités présentes dans la série de stimuli afin de regrouper les stimuli en 4 ± 1 chunks. Notre hypothèse principale est que la compression de l’information en mémoire immédiate est un indicateur pertinent pour étudier la relation entre la capacité de mémoire immédiate et l’intelligence fluide. L’idée est que les deux dépendent de la qualité du traitement de l’information, autrement dit, selon nos hypothèses, d’une interaction entre traitement et stockage. Nous avons développé plusieurs tâches de mesure d’empan de chunks dans lesquelles la compressibilité de l’information a été estimée en utilisant différentes mesures de complexité algorithmique. Les résultats ont montré que la compressibilité peut être utilisée pour prédire la performance en mémoire de travail, et que la capacité à compresser l’information est un bon prédicteur de l’intelligence fluide. Nous concluons que la capacité à compresser l’information en mémoire de travail est la raison pour laquelle à la fois traitement et stockage de l’information sont liés à l’intelligence
Simple span tasks are tasks commonly used to measure short-term memory, while complex span tasks are usually considered typical measures of working memory. Because complex span tasks were designed to create a concurrent task, the average span is usually lower (4 ± 1items) than in simple span tasks (7±2 items). One possible reason for measuring higher spansduring simple span tasks is that participants can take profit of the spare time between the stimuli to detect, and recode regularities in the stimulus series (in the absence of a concurrent task), and such regularities can be used to pack a few stimuli into 4 ± 1 chunks. Our main hypothesis was that information compression in immediate memory is an excellent indicator for studying the relationship between immediate-memory capacity and fluid intelligence. The idea is that both depend on the efficiency of information processing, and more precisely, on the interaction between storage and processing. We developed various span tasks measuringa chunking capacity, in which compressibility of memoranda was estimated using different algorithmic complexity metrics. The results showed that compressibility can be used to predictworking-memory performance, and that fluid intelligence is well predicted by the ability to compress information.We conclude that the ability to compress information in working memoryis the reason why both manipulation and retention of information are linked to intelligence
APA, Harvard, Vancouver, ISO, and other styles
50

Capitaneanu, Stefan Laurentiu. "Optimisation de la fonction MLI d'un onduleur de tension deux-niveaux." Toulouse, INPT, 2002. http://ethesis.inp-toulouse.fr/archive/00000637/.

Full text
Abstract:
La fonction MLI (Modulation en Largeur d'Impulsion) ou PWM (Pulse With Modulation) joue le rôle d'interface entre la partie commande d'un variateur de vitesse et la machine électrique associée. Cette fonction agit sur l'onduleur de tension (ou de courant) de la partie puissance du variateur et joue un rôle essentiel avec des conséquences sur toutes les performances du système. Nos travaux prennent en compte la machine asynchrone commandée à travers l'onduleur de tension deux-niveaux. Plusieurs problèmes importants actuels de ce système à vitesse variable sont liés à la MLI : les pertes par commutation de l'onduleur, le bruit acoustique, les surtensions de ligne, les courants de fuite. Nous proposons dans un premier temps une modélisation graphique et algébrique des méthodes MLI. Elle met en évidence des éléments essentiels comme "le mouvement du neutre". A partir de ces éléments, les démarches d'optimisation vont dans quatre directions : réduire les pertes de l'onduleur tout en gardant une ondulation du courant acceptable ; réduire le bruit moteur ; adapter la stratégie de modulation dans ce but à partir d'une meilleure connaissance de l'origine physique des sources de bruit dans un moteur électrique ; réduire les surtensions propagées par la ligne d'alimentation du moteur ; adapter la stratégie de modulation afin de minimiser l'influence des gradients de tension sur la ligne d'alimentation du moteur et sur le moteur lui-même ; réduire les harmoniques de tension appliqués à la machine, ainsi que les surtensions, par utilisation d'un filtre de sortie de l'onduleur ; étudier l'apport d'un filtre en sortie de l'onduleur en termes de réduction d'harmoniques, de surtension, de dynamique du pont et de stabilité. Les programmes de simulation utilisés sont généralement structurés dans des blocks en Matlab/Simulink classiques ou Power System Blockset, structures qui sont utilisées par la suite pour une expérimentation en temps-réel à base de cartes dSpace.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography