Academic literature on the topic 'Conteneurs (informatique)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Conteneurs (informatique).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Dissertations / Theses on the topic "Conteneurs (informatique)"

1

Nguyen, Thuy Linh. "Fast delivery of virtual machines and containers : understanding and optimizing the boot operation." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0147/document.

Full text
Abstract:
Le processus d'approvisionnement d'une machine virtuelle (VM) ou d'un conteneur est une succession de trois étapes complexes : (i) la phase d’ordonnancement qui consiste à affecter la VM / le conteneur sur un nœud de calcul ; (ii) le transfert de l'image disque associée vers ce nœud de calcul ; (iii) et l'exécution du processus de démarrage (généralement connu sous le terme « boot »). En fonction des besoins de l’application virtualisée et de l’état de la plate-forme, chacune de ces trois phases peut avoir une durée plus ou moins importante. Si de nombreux travaux se sont concentrés sur l’optimisation des deux premières étapes, la littérature couvre que partiellement les défis liés à la dernière. Cela est surprenant car des études ont montré que le temps de démarrage peut atteindre l’ordre de la minute dans certaines conditions. Durée que nous avons confirmée grâce à une étude préliminaire visant à quantifier le temps de démarrage, notamment dans des scénarios où le ratio de consolidation est élevé. Pour comprendre les principales raisons de ces durées, nous avons effectué en jusqu'à 15000 expériences au dessus de l’infrastructure Grid5000. Chacune de ces expériences a eu pour but d’étudier le processus de démarrage selon différentes conditions environnementales. Les résultats ont montré que les opérations d'entrée/sorties liées au processus de démarrage étaient les plus coûteuses. Afin d’y remédier, nous défendons dans cette thèse la conception d'un mécanisme dédié permettant de limiter le nombre d’entrées/sorties générées lors du processus de démarrage. Nous démontrons la pertinence de notre proposition en évaluant le prototype YOLO (You Only LoadOnce). Grâce à YOLO, la durée de démarrage peut être accélérée de 2 à 13 fois pour les VM et jusqu’à 2 fois pour les conteneurs. Au delà de l’aspect performance, il convient de noter que la façon dont YOLO a été conçu permet de l’appliquer à d’autres types de technologies devirtualisation / conteneurisation
The provisioning process of a VirtualMachine (VM) or a container is a succession of three complex stages : (i) scheduling theVM / Container to an appropriate compute node ;(ii) transferring the VM / Container image to that compute node from a repository ; (iii) and finally performing the VM / Container boot process. Depending on the properties of the client’s request and the status of the platform, each of these three phases can impact the total duration of the provisioning operation. While many works focused on optimizing the two first stages, only few works investigated the impact of the boot duration. This comes to us as a surprise as a preliminary study we conducted showed the boot time of a VM / Container can last up to a few minutes in high consolidated scenarios. To understand the major reasons for such overheads, we performed on top of Grid'5000 up to 15k experiments, booting VM / Containerunder different environmental conditions. The results showed that the most influential factor is the I/O operations. To accelerate the boot process, we defend in this thesis, the design of a dedicated mechanism to mitigate the number of generated I/O operations. We demonstrated the relevance of this proposal by discussing a first prototype entitled YOLO (You Only LoadOnce). Thanks to YOLO, the boot duration can be faster 2-13 times for VMs and 2 times for containers. Finally, it is noteworthy to mention that the way YOLO has been designed enables it to be easily applied to other types of virtualization (e.g., Xen) and containerization technologies
APA, Harvard, Vancouver, ISO, and other styles
2

Laniel, Francis. "MemOpLight : vers une consolidation mémoire pour les conteneurs grâce à un retour applicatif." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS372.

Full text
Abstract:
Le déploiement et l'exécution d'applications dans le cloud sont aujourd'hui une réalité. L'existence de celui-ci est intrinsèquement liée à celle de la virtualisation. Ce concept consiste à découper une machine physique en plusieurs sous-machines, dites machines virtuelles, isolées les unes des autres. Plus récemment, les conteneurs se sont posés comme une alternative viable aux machines virtuelles. Les conteneurs sont plus légers que ces dernières et apportent les mêmes garanties d'isolation et de sécurité. Néanmoins, l'isolation, un conteneur ne peut affamer ses congénères, proposée est peut-être trop poussée. En effet, les mécanismes existants permettant l'isolation mémoire ne s'adaptent pas aux changements de charge de travail. Il n'est donc pas possible de consolider la mémoire, c'est-à-dire récupérer la mémoire inutilisée d'un conteneur pour en faire un meilleur usage. Pour répondre à ce problème et garantir, à la fois, l'isolation et la consolidation mémoire, nous proposons MemOpLight. Ce mécanisme s'adapte aux changements de charge de travail grâce à un retour applicatif. Chaque conteneur indique donc s'il a de bonnes performances pour guider la répartition de la mémoire. Celle-ci est récupérée aux conteneurs ayant de bonnes performances pour que les autres conteneurs puissent augmenter celles-ci. L'idée étant de trouver un équilibre mémoire où tous les conteneurs ont des performances satisfaisantes. MemOpLight permet d'augmenter la satisfaction des conteneurs de 13% comparé aux mécanismes existants
Nowadays, deploying and executing applications in the cloud is a reality. The cloud can not exist without virtualization. This concept consists of slicing physical machines into several sub-machines, isolated from one another, known as virtual machines. Recently, containers emerged as a viable alternative to virtual machines. Containers are lighter than virtual machines and bring the same isolation and security guarantees. Nonetheless, the isolation they offer is maybe too important. Indeed, existing mechanisms enforce memory isolation by ensuring that no container starves the others; however, they do not adapt to changes in workload. Thus, it is impossible to consolidate memory, i.e. to reclaim memory unused by some containers to make a better use of it. To answer this problem and ensure both isolation and consolidation, we introduce MemOpLight. This mechanism adapts to workload changes thanks to application feedback. Each container tells the kernel whether it has good or bad performance to guide memory reclaim. Memory is first reclaimed from containers with good performance in the hope that the others can improve their own performance. The idea is to find a balance where all containers have satisfying performance. MemOpLight increases container satisfactions by 13% compared to existing mechanisms
APA, Harvard, Vancouver, ISO, and other styles
3

Villefranche, Laurent, and Frédéric Serin. "Simulateur de gestion d'un terminal à conteneurs : simulation discrète par macro-processus et processus complementaires." Rouen, 1996. http://www.theses.fr/1996ROUES002.

Full text
Abstract:
Ces deux thèses ont été inspirées par un problème réel rencontré par un manutentionnaire portuaire de conteneurs sensible à l'évolution d'un marché en pleine expansion. La préoccupation de cette société était de disposer d'un outil informatique lui permettant de tester des hypothèses de transformation propres à son domaine d'activité. Par une volonté déclarée de réaliser un travail se plaçant dans le cadre général des problèmes de manutention, il a été convenu d'étudier un modèle capable de capter tous les attributs concernant les objets manipulés (géométrie, caractéristiques techniques,. . . ), l'espace dans lequel peuvent évoluer ces objets (topologie, contraintes technologiques pour l'empilement des marchandises,. . . ), ainsi que les règles présidant au déplacement des engins (calculs de trajectoires, caractéristiques des appareils de manutention,. . . ), et les lois statistiques influant sur le système. Ce projet, baptisé Simulateur de Gestion d'un Terminal à Conteneurs (SGTC), a pour objectif la réalisation d'un simulateur qui doit permettre la validation ou le rejet d'une conjecture et par là même de faire de substantielles économies de temps, d'espace et de matériel, et par conséquent financières. Ce modèle orienté objet renferme deux innovations. La première, décrite au chapitre 3, concerne la gestion multi-niveaux des resources ; la deuxième, exposée au chapitre 4, présente un modèle de simulation orientée processus par macro-processus et processus complémentaires. Ce simulateur dispose d'une animation visuelle interactive, d'interfaces graphiques et de bases de données objets, explicitées dans le dernier chapitre.
APA, Harvard, Vancouver, ISO, and other styles
4

Al-Dhuraibi, Yahya. "Flexible framework for elasticity in cloud computing." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I079/document.

Full text
Abstract:
Le Cloud computing a gagné beaucoup de popularité et a reçu beaucoup d'attention des deux mondes, industriel et académique, puisque cela les libère de la charge et le coût de la gestion de centres de données locaux. Toutefois, le principal facteur motivant l'utilisation du Cloud est sa capacité de fournir des ressources en fonction des besoins du client. Ce concept est appelé l’élasticité. Adapter les applications Cloud lors de leur exécution en fonction des variations de la demande est un grand défi. En outre, l'élasticité de Cloud est diverse et hétérogène car elle englobe différentes approches, stratégies, objectifs, etc. Nous sommes intéressés à étudier: Comment résoudre le problème de sur/sous-approvisionnement? Comment garantir la disponibilité des ressources et surmonter les problèmes d'hétérogénéité et de granularité des ressources? Comment standardiser, unifier les solutions d'élasticité et de modéliser sa diversité à un haut niveau d'abstraction? Dans cette thèse, trois majeures contributions ont été proposées: Tout d’abord, un état de l’art à jour de l’élasticité du Cloud ; cet état de l’art passe en revue les différents travaux relatifs à l’élasticité des machines virtuelles et des conteneurs. Deuxièmement, ElasticDocker, une approche permettant de gérer l’élasticité des conteneurs, notamment l’élasticité verticale, la migration et l’élasticité combinée. Troisièmement, MoDEMO, un nouveau cadre de gestion d'élasticité unifié, basé sur un standard, dirigé par les modèles, hautement extensible et reconfigurable, supportant plusieurs stratégies, différents types d’élasticité, différentes techniques de virtualisation et plusieurs fournisseurs de Cloud
Cloud computing has been gaining popularity and has received a great deal of attention from both industrial and academic worlds since it frees them from the burden and cost of managing local data centers. However, the main factor motivating the use of cloud is its ability to provide resources according to the customer needs or what is referred to as elasticity. Adapting cloud applications during their execution according to demand variation is a challenging task. In addition, cloud elasticity is diverse and heterogeneous because it encompasses different approaches, policies, purposes, etc. We are interested in investigating: How to overcome the problem of over-provisioning/under-provisioning? How to guaranty the resource availability and overcome the problems of heterogeneity and resource granularity? How to standardize, unify elasticity solutions and model its diversity at a high level of abstraction? In this thesis, we solved such challenges and we investigated many aspects of elasticity to manage efficiently the resources in the cloud. Three contributions are proposed. Firstly, an up-to-date state-of-the-art of the cloud elasticity, this state of art reviews different works related to elasticity for both Virtual Machines and containers. Secondly, ElasticDocker, an approach to manage container elasticity including vertical elasticity, live migration, and elasticity combination between different virtualization techniques. Thirdly, MoDEMO, a new unified standard-based, model-driven, highly extensible and reconfigurable framework that supports multiple elasticity policies, vertical and horizontal elasticity, different virtualization techniques and multiple cloud providers
APA, Harvard, Vancouver, ISO, and other styles
5

Guzzo, Natale. "Facing the real challenges in wireless sensor network-based applications : an adaptative cross-layer self-organization WSN protocol." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10190.

Full text
Abstract:
Le réseau de capteurs sans fil (WSN) est un des protagonistes contribuant à l’évolution et au développement de l’Internet des objets (IoT). Plusieurs cas d’usage peuvent être trouvés dans les différents domaines comme l’industrie du transport maritime où le fret conteneurisé compte environ pour 60% du commerce mondial. Dans ce contexte, la société TRAXENS a développé un dispositif radio alimenté par batterie appelé TRAX-BOX et conçu pour être fixé aux containeurs dans l’objectif de les traquer et les surveiller tout au long de la chaine logistique. Dans cette thèse, je vais présenter une nouvelle pile protocolaire WSN appelée TRAX-NET et conçue pour permettre aux TRAX-BOX de s’auto-organiser dans un réseau sans fil et coopérer pour délivrer les données acquises au serveur TRAXENS d’une façon énergiquement efficiente. Les résultats des simulations et des tests sur le terrain montrent que TRAX-NET est bien optimisé pour les différents scenarios pour lesquels il a été développé et satisfait les exigences de l’application concernée mieux que les autres solutions étudiées dans la littérature. TRAX-NET est une solution complète et adaptée au suivi des conteneurs de fret de par le monde
Wireless Sensor Networks (WSN) is one of the protagonists contributing to the evolution and the development of the Internet of Things (IoT). Several use cases can be found today in the different fields of the modern technology including the container shipping industry where containerized cargo accounts for about 60 percent of all world seaborne trade. In this context, TRAXENS developed a battery-powered device named TRAX-BOX designed to be attached to the freight containers in order to track and monitor the shipping goods along the whole supply chain. In this thesis, we present a new energy-efficient self-organizing WSN protocol stack named TRAX-NET designed to allow the TRAX-BOX devices to cooperate to deliver the sensed data to the TRAXENS platform.The results of simulations and field tests show that TRAX-NET well perform in the different scenarios in which it is supposed to operate and better fulfil the requirements of the assumed application in comparison with the existing schemes
APA, Harvard, Vancouver, ISO, and other styles
6

Zaghdoud, Radhia. "Hybridation d’algorithme génétique pour les problèmes des véhicules intelligents autonomes : applications aux infrastructures portuaires de moyenne taille." Thesis, Ecole centrale de Lille, 2015. http://www.theses.fr/2015ECLI0023/document.

Full text
Abstract:
L’objectif de ce travail est de développer un système d’affectation des conteneurs aux véhicules autonomes intelligents (AIVs) dans un terminal à conteneurs. Dans la première phase, on a développé un système statique pour résoudre le problème multi-objectif optimisant la durée totale des opérations de déplacement des conteneurs, le temps d’attente des véhicules aux niveaux de points de chargement et de déchargement et l’équilibre de temps de travail entre les véhicules. L’approche proposée est l’algorithme génétique(AG). Une extension de cette approche a été ensuite effectuée pour corriger les limites de la précédente. Pour choisir la meilleure approche, une étude comparative a été réalisée entre trois approches : AG, AG & DIJK et AG & DIJK & HEUR. Les résultats numérique ont montré que l’approche AG & DIJK & HEUR est meilleure. Dans la deuxième phase, on a étudié la robustesse de notre système dans un environnement dynamique. Un retard de l’arrivée d’un navire au port ou un dysfonctionnement de l’un des équipements peutperturber le planning des opérations et donc influencer sur les opérations d’affectation des conteneurs. L’idée était d’ajouter les nouveaux conteneurs aux véhicules qui sont déjà non disponibles. D’autres cas de perturbation comme la congestion routière, la non disponibilité de certaines portions de la routes ont été étudiés expérimentalementEt les résultats numériques ont montré la robustesse de notre approche pour le cas dynamique.Mots-clés : Conteneurs, AIV, routage, optimisation, algorithme génetique, environnement dynamique
The objective of our work is to develop a container assignment system for intelligent autonomous vehicles (AIVS) in a container terminal. Given the complexity of this problem, it was proposed to decompose it into three problems: The problem of dispatching containers to AIVS, the AIVS routing problem and the problem of scheduling containers to queues of AIVS. To achieve this goal, we developed in the first phase, a static system for multi-objective problem to optimize the total duration of the containers transportation, the waiting time of vehicles at loading points and the equilibrium of working time between vehicles. The approach used was the genetic algorithm (GA). This approach was applied to optimize only the assignment operation without influence on the choice of the path traveled by each AIV. An extension of this work was then made to improve the results found. For this purpose, a comparative study was carried out between three approaches: The first approach is the AG, the second approach is the GA and the Dijkstra algorithm (DIJK) that was used to find the shortest path for each vehicle and the third approach is the AG and DIJK and heuristic (HEUR) which was proposed to choose the nearest vehicle of each container. The numerical study showed the best performance of the AG & DJK & HEUR approach over the other two approaches. In the second phase of our project, the robustness of our system in a dynamic environment has been studied. A delay of the arrival of a ship at the port or malfunction of one of any equipment of the port can cause a delay of one of the operations of loading or unloading process. This will affect the container assignment operation. The idea was to add new containers to vehicles that are already unavailable. The traffic can also cause a delay in arrival of the vehicle at the position of the container or the unavailability of one of the paths crossing point. These cases were investigated experimentally, numerical results showed the robustness of our approach to dynamic case
APA, Harvard, Vancouver, ISO, and other styles
7

Bacou, Mathieu. "Performance et gestion de ressources dans un cloud multi-virtualisé." Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0042.

Full text
Abstract:
Le cloud computing permet aux entreprises de réduire la barrière et les coûts d'utilisation de l'informatique, en mutualisant les besoins avec d'autres utilisateurs. Cette mutualisation est permise par la technologie de la virtualisation. Il s'agit de vendre les ressources physiques, concrètes, d'un centre d'hébergement, comme des ressources virtuelles, logiques. L'efficacité de la solution de virtualisation, sur différents critères, est au coeur des préoccupations à la fois des fournisseurs de cloud, et des clients. Les premiers veulent servir le plus grand nombre de clients possibles avec les ressources physiques déjà disponibles. Il faut donc que la solution de virtualisation permette d'allouer les ressources sans gaspillage. Une autre cible d'optimisation est la consommation énergétique du centre d'hébergement, très impactée par cette bonne gestion des ressources. Les clients quant à eux, recherchent des garanties de performances et de prédictibilité de celles-ci : la solution de virtualisation doit offrir le même niveau de performance malgré l'abstraction des ressources physiques en ressources virtuelles. L'économie financière de l'utilisation du cloud est aussi une priorité. Les deux solutions de virtualisation principales sont les machines virtuelles et les conteneurs. Elles ont chacune leurs avantages et leurs inconvénients sur les axes de la gestion des ressources et des performances. Mais il est possible d'imbriquer les conteneurs dans les machines virtuelles, produisant ainsi un cloud multi-virtualisé. Comment alors profiter au mieux des caractéristiques des deux solutions dans ce nouvel environnement ? Cette thèse explore les problématiques qui émergent à la combinaison de ces deux solutions, et propose des systèmes pour obtenir avec la multi-virtualisation de meilleures performances, une gestion des ressources approfondie et un coût réduit. Elle décrit premièrement, une méthode de consolidation novatrice de la charge de travail pour aller plus loin dans la réduction de la consommation énergétique ; deuxièmement, un algorithme d'allocation des ressources aux conteneurs pour corriger leur problème inhérent de prédictibilité des performances ; et troisièmement, deux systèmes joints pour l'optimisation du réseau multi-virtualisé afin d'en améliorer les performances et l'utilisation des ressources, ainsi que de réduire le coût du cloud pour le client. Ces travaux agissent à tous les niveaux de la virtualisation imbriquée afin de propulser plus avant la technologie de la multi-virtualisation
Companies use cloud computing to lower entry and usage costs of using information technologies as a resource. The main feature of cloud computing that enables these lower costs is the pooling of resources with other users. Pooling of resources is based on virtualization. The principle is to sell physical, concrete resources from a data-center as virtual, abstract resources. The core concern for both cloud providers and clients is the efficiency, on various axes, of the virtualization solution. The former wish to serve as many clients as possible with the given physical resources of the data-center. It puts an emphasis on the capability of the virtualization solution to allocate resources with limited waste. Another target for optimization is the power usage of the data-center. Efficient management of resources has a great effect on it. As for clients of cloud computing, they seek guarantees on performance, including predictability. Indeed, the virtualization solution must provide them with the same performance level despite abstraction of physical resources into virtual resources. Buying cloud resources as cheap as possible is also a priority. There are two main virtualization solutions: virtual machines and containers. Both have their own sets of benefits and drawbacks, on the axes of resource management and performance. However containers can be nested inside of virtual machines, thus building a multi-virtualized cloud. How best to use both solutions in this new environment? This thesis explores issues that arise from combining both virtualization solutions. It proposes new systems to gain better performance, to improve resource management and to provide cheaper cloud services using multi-virtualization. First, it describes a novel workload consolidation method to further reduce power usage ; second, an allocation algorithm for resources of containers that fixes their intrinsic issue of performance predictability ; and third, two joint systems that optimize multi-virtualized networking to improve performance and resource utilization, and save money on cloud usage. Theses works play at every level of nested virtualization in order to move the technology of multi-virtualization forward
APA, Harvard, Vancouver, ISO, and other styles
8

Serin, Frédéric, and Laurent Villefranche. "Simulateur de gestion d'un terminal à conteneur : gestion distribuée des ressources." Rouen, 1996. http://www.theses.fr/1996ROUES005.

Full text
Abstract:
Ces deux thèses ont été inspirées par un problème réel rencontré par un manutentionnaire portuaire de conteneurs sensible à l’évolution d'un marché en pleine expansion. La préoccupation de cette société était de disposer d'un outil informatique lui permettant de tester des hypothèses de transformation propres à son domaine d’activité. Par une volonté déclarée de réaliser un travail se plaçant dans le cadre général des problèmes de manutention, il a été convenu d’étudier un modèle capable de capter tous les attributs concernant les objets manipulés (géométrie, caractéristiques techniques,. . . ), L'espace dans lequel peuvent évoluer ces objets (topologie, contraintes technologiques pour l'empilement des marchandises,. . . ), ainsi que les règles présidant au déplacement des engins (calculs de trajectoires, caractéristiques des appareils de manutention,. . . ), et les lois statistiques influant sur le système. Ce projet, baptisé simulateur de gestion d'un terminal à conteneurs (SGTC), a pour objectif la réalisation d'un simulateur qui doit permettre la validation ou le rejet d'une conjecture et par là même de faire de substantielles économies de temps, d'espace et de matériel, et par conséquent financières. Ce modèle orienté objet renferme deux innovations. La première, décrite au chapitre 3, concerne la gestion multi-niveaux des ressources ; la deuxième, exposée au chapitre 4, présente un modèle de simulation orientée processus par macro-processus et processus complémentaires. Ce simulateur dispose d'une animation visuelle interactive, d'interfaces graphiques et de bases de données objets, explicitées dans le dernier chapitre.
APA, Harvard, Vancouver, ISO, and other styles
9

Benghalia, Abderaouf. "Modélisation et évaluation de la performance des terminaux portuaires." Thesis, Le Havre, 2015. http://www.theses.fr/2015LEHA0010/document.

Full text
Abstract:
De nos jours, le transport maritime, en pleine évolution, joue un rôle très important dans le monde économique. Face à ce contexte, les différents maillons des chaînes logistiques portuaires sont tenus à améliorer continuellement leur performance pour rester compétitifs. Dans cette thèse, nous proposons une approche, appelée ECOGRAISIM, pour l'évaluation de la performance d'une chaîne logistique portuaire. Elle combine la méthode ECOGRAI et la simulation afin de déterminer et de mesurer les indicateurs de performance. L’originalité dans ce travail est que l’approche ECOGRAISIM offre une étape supplémentaire qui consiste à montrer efficacement comment peut-on agir sur le système à évaluer. Dans notre démarche ECOGRASIM, nous nous intéressons à la phase concernant les variables d'action et nous proposons une nouvelle étape pour réaliser le pilotage par la performance. Nos travaux de recherche concernent tout particulièrement le terminal multimodal du port du Havre. Nous nous focalisons sur les processus de manutention et de transfert massifié des conteneurs par navettes ferroviaires. Le but est d’obtenir un mode d’exploitation performant du terminal multimodal en comparant les différents scénarios de transfert des conteneurs par rapport à la minimisation des retards, des coûts et des émissions de CO2
Nowadays, maritime transport, in full evolution, plays a very important role in the economic world. Against this background, the different seaport supply chains entities must improve continuously their performance to remain competitive. In this thesis, we propose an approach called ECOGRAISIM for evaluating the performance of seaport supply chain. It combines ECOGRAI method and simulation to identify and to measure performance indicators. The originality of the ECOGRAISIM approach is to provide an additional step to show how to act on the system to be evaluated. In this approach, we focus on action variables and we propose a new step to achieve the performance control. Our research works concern the multimodal terminal of Le Havre seaport. We focus on the processes of handling and massified transfer of containers by rail shuttles. The goal is to obtain an efficient operating process for the multimodal terminal by comparing different scenarios of containers transfer according to the minimization of delays, costs and CO2 emissions
APA, Harvard, Vancouver, ISO, and other styles
10

Şenel, Berat. "Container Orchestration for the Edge Cloud." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS202.

Full text
Abstract:
Avec l'essor des infrastructures de type edge où les ressources informatiques sont en périphérie de réseau, la tendance est une fois de plus orientée vers la décentralisation. En plus des appareils à ressources contraintes qui peuvent effectuer des tâches limitées, le « edge cloud » se compose de nœuds de calcul de classe serveur qui sont colocalisées avec des stations de base des réseaux sans-fil et qui sont soutenus par des serveurs dans des centres informatiques régionaux. Ces nœuds de calcul ont des capacités de type cloud et ils sont capables d'exécuter des charges de travail (workloads) typiques du cloud. En outre, de nombreux appareils intelligents qui supportent la conteneurisation et la virtualisation peuvent exécuter de telles tâches. Nous pensons que le modèle de service « containers as a service », ou CaaS, avec sa surcharge minime sur des nœuds de calcul, est particulièrement bien adapté pour l'environnement edge cloud qui est moins évolutif que le cloud classique. Pourtant, les systèmes d'orchestration de conteneurs en cloud ne sont pas encore intégrés dans les nouveaux environnements edge cloud. Dans cette thèse nous montrons une voie à suivre pour l'orchestration des conteneurs pour des edge clouds. Nous apportons nos contributions de deux manières principales : la conception raisonnée d'un ensemble de fonctionnalités testées empiriquement pour simplifier et améliorer l'orchestration des conteneurs pour des edge clouds et le déploiement de ces fonctionnalités pour fournir une plateforme edge durable, basée sur des conteneurs, pour la communauté de recherche sur Internet. Ce logiciel et cette plateforme s'appellent EdgeNet. Elle consiste en une extension de Kubernetes, qui est l'outil de facto standard d'orchestration de conteneurs pour l'industrie cloud. L'edge cloud nécessite une architecture mutualisée, ou « multitenancy », pour le partage de ressources limitées. Cependant, cela n'est pas une fonctionnalité native de Kubernetes et alors un cadre spécifique doit être ajouté au système afin d'activer cette fonctionnalité. En étudiant la littérature scientifique sur les cadres multitenancy dans le cloud ainsi que les cadres multitenancy déjà existants pour Kubernetes, nous avons développé une nouvelle classification de ces cadres en trois approches principles: (1) multi-instance via plusieurs clusters, (2) multi-instance via plusieurs plans de contrôle et (3) instance-unique. Compte tenu des contraintes de ressources à l'edge, nous défendons et apportons des preuves empiriques en faveur d'un cadre multitenancy qui est instance-unique. Notre conception comprend un mécanisme léger pour la fédération des clusters de calcul de l'edge cloud dans lequel chaque cluster local implémente notre cadre multitenancy, et un utilisateur accède à des ressources fédérées par le biais du cluster local fourni par son opérateur de cloud local. Nous introduisons en outre plusieurs fonctionnalités et méthodes qui adaptent l'orchestration des conteneurs à l'edge cloud, telles qu'un moyen de permettre aux utilisateurs de déployer des charges de travail en fonction de l'emplacement du nœud, et un VPN en cluster qui permet aux nœuds de fonctionner derrière des NAT. Nous mettons ces fonctionnalités en production avec la plateforme d’expérimentation d'EdgeNet, un cluster de calcul distribué à l'échelle mondiale qui est intrinsèquement moins coûteux à déployer et à entretenir, et plus facile à documenter et à programmer que les plateformes d’expérimentation précédents
The pendulum again swings away from centralized IT infrastructure back towards decentralization, with the rise of edge computing. Besides resource-constrained devices that can only run tiny tasks, edge computing infrastructure consists of server-class compute nodes that are collocated with wireless base stations, complemented by servers in regional data centers. These compute nodes have cloud-like capabilities, and are thus able to run cloud-like workloads. Furthermore, many smart devices that support containerization and virtualization can also handle cloud-like workloads. The « containers as a service » (CaaS) service model, with its minimal overhead on compute nodes, is particularly well adapted to the less scalable cloud environment that is found at the edge, but cloud container orchestration systems have yet to catch up to the new edge cloud environment. This thesis shows a way forward for edge cloud container orchestration. We make our contributions in two primary ways: the reasoned conception of a set of empirically tested features to simplify and improve container orchestration at the edge, and the deployment of these features to provide EdgeNet, a sustainable container-based edge cloud testbed for the internet research community. We have built EdgeNet on Kubernetes, as it is open-source software that has become today’s de facto industry standard cloud container orchestration tool. The edge cloud requires multitenancy for the sharing of limited resources. However, this is not a Kubernetes-native feature, and a specific framework must be integrated into the tool to enable this functionality. Surveying the scientific literature on cloud multitenancy and existing frameworks to extend Kubernetes to offer multitenancy, we have identified three main approaches: (1) multi-instance through multiple clusters, (2) multi-instance through multiple control planes, and (3) single-instance native. Considering the resource constraints at the edge, we argue for and provide empirical evidence in favor of a single-instance multitenancy framework. Our design includes a lightweight mechanism for the federation of edge cloud compute clusters in which each local cluster implements our multitenancy framework, and a user gains access to federated resources through the local cluster that her local cloud operator provides. We further introduce several features and methods that adapt container orchestration for the edge cloud, such as a means to allow users to deploy workloads according to node location, and an in-cluster VPN that allows nodes to operate from behind NATs. We put these features into production through the EdgeNet testbed, a globally distributed compute cluster that is inherently less costly to deploy and maintain, and easier to document and to program than previous such testbeds
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography