Thèses sur le sujet « Conteneurs (informatique) »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Conteneurs (informatique).

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 19 meilleures thèses pour votre recherche sur le sujet « Conteneurs (informatique) ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Nguyen, Thuy Linh. « Fast delivery of virtual machines and containers : understanding and optimizing the boot operation ». Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0147/document.

Texte intégral
Résumé :
Le processus d'approvisionnement d'une machine virtuelle (VM) ou d'un conteneur est une succession de trois étapes complexes : (i) la phase d’ordonnancement qui consiste à affecter la VM / le conteneur sur un nœud de calcul ; (ii) le transfert de l'image disque associée vers ce nœud de calcul ; (iii) et l'exécution du processus de démarrage (généralement connu sous le terme « boot »). En fonction des besoins de l’application virtualisée et de l’état de la plate-forme, chacune de ces trois phases peut avoir une durée plus ou moins importante. Si de nombreux travaux se sont concentrés sur l’optimisation des deux premières étapes, la littérature couvre que partiellement les défis liés à la dernière. Cela est surprenant car des études ont montré que le temps de démarrage peut atteindre l’ordre de la minute dans certaines conditions. Durée que nous avons confirmée grâce à une étude préliminaire visant à quantifier le temps de démarrage, notamment dans des scénarios où le ratio de consolidation est élevé. Pour comprendre les principales raisons de ces durées, nous avons effectué en jusqu'à 15000 expériences au dessus de l’infrastructure Grid5000. Chacune de ces expériences a eu pour but d’étudier le processus de démarrage selon différentes conditions environnementales. Les résultats ont montré que les opérations d'entrée/sorties liées au processus de démarrage étaient les plus coûteuses. Afin d’y remédier, nous défendons dans cette thèse la conception d'un mécanisme dédié permettant de limiter le nombre d’entrées/sorties générées lors du processus de démarrage. Nous démontrons la pertinence de notre proposition en évaluant le prototype YOLO (You Only LoadOnce). Grâce à YOLO, la durée de démarrage peut être accélérée de 2 à 13 fois pour les VM et jusqu’à 2 fois pour les conteneurs. Au delà de l’aspect performance, il convient de noter que la façon dont YOLO a été conçu permet de l’appliquer à d’autres types de technologies devirtualisation / conteneurisation
The provisioning process of a VirtualMachine (VM) or a container is a succession of three complex stages : (i) scheduling theVM / Container to an appropriate compute node ;(ii) transferring the VM / Container image to that compute node from a repository ; (iii) and finally performing the VM / Container boot process. Depending on the properties of the client’s request and the status of the platform, each of these three phases can impact the total duration of the provisioning operation. While many works focused on optimizing the two first stages, only few works investigated the impact of the boot duration. This comes to us as a surprise as a preliminary study we conducted showed the boot time of a VM / Container can last up to a few minutes in high consolidated scenarios. To understand the major reasons for such overheads, we performed on top of Grid'5000 up to 15k experiments, booting VM / Containerunder different environmental conditions. The results showed that the most influential factor is the I/O operations. To accelerate the boot process, we defend in this thesis, the design of a dedicated mechanism to mitigate the number of generated I/O operations. We demonstrated the relevance of this proposal by discussing a first prototype entitled YOLO (You Only LoadOnce). Thanks to YOLO, the boot duration can be faster 2-13 times for VMs and 2 times for containers. Finally, it is noteworthy to mention that the way YOLO has been designed enables it to be easily applied to other types of virtualization (e.g., Xen) and containerization technologies
Styles APA, Harvard, Vancouver, ISO, etc.
2

Laniel, Francis. « MemOpLight : vers une consolidation mémoire pour les conteneurs grâce à un retour applicatif ». Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS372.

Texte intégral
Résumé :
Le déploiement et l'exécution d'applications dans le cloud sont aujourd'hui une réalité. L'existence de celui-ci est intrinsèquement liée à celle de la virtualisation. Ce concept consiste à découper une machine physique en plusieurs sous-machines, dites machines virtuelles, isolées les unes des autres. Plus récemment, les conteneurs se sont posés comme une alternative viable aux machines virtuelles. Les conteneurs sont plus légers que ces dernières et apportent les mêmes garanties d'isolation et de sécurité. Néanmoins, l'isolation, un conteneur ne peut affamer ses congénères, proposée est peut-être trop poussée. En effet, les mécanismes existants permettant l'isolation mémoire ne s'adaptent pas aux changements de charge de travail. Il n'est donc pas possible de consolider la mémoire, c'est-à-dire récupérer la mémoire inutilisée d'un conteneur pour en faire un meilleur usage. Pour répondre à ce problème et garantir, à la fois, l'isolation et la consolidation mémoire, nous proposons MemOpLight. Ce mécanisme s'adapte aux changements de charge de travail grâce à un retour applicatif. Chaque conteneur indique donc s'il a de bonnes performances pour guider la répartition de la mémoire. Celle-ci est récupérée aux conteneurs ayant de bonnes performances pour que les autres conteneurs puissent augmenter celles-ci. L'idée étant de trouver un équilibre mémoire où tous les conteneurs ont des performances satisfaisantes. MemOpLight permet d'augmenter la satisfaction des conteneurs de 13% comparé aux mécanismes existants
Nowadays, deploying and executing applications in the cloud is a reality. The cloud can not exist without virtualization. This concept consists of slicing physical machines into several sub-machines, isolated from one another, known as virtual machines. Recently, containers emerged as a viable alternative to virtual machines. Containers are lighter than virtual machines and bring the same isolation and security guarantees. Nonetheless, the isolation they offer is maybe too important. Indeed, existing mechanisms enforce memory isolation by ensuring that no container starves the others; however, they do not adapt to changes in workload. Thus, it is impossible to consolidate memory, i.e. to reclaim memory unused by some containers to make a better use of it. To answer this problem and ensure both isolation and consolidation, we introduce MemOpLight. This mechanism adapts to workload changes thanks to application feedback. Each container tells the kernel whether it has good or bad performance to guide memory reclaim. Memory is first reclaimed from containers with good performance in the hope that the others can improve their own performance. The idea is to find a balance where all containers have satisfying performance. MemOpLight increases container satisfactions by 13% compared to existing mechanisms
Styles APA, Harvard, Vancouver, ISO, etc.
3

Villefranche, Laurent, et Frédéric Serin. « Simulateur de gestion d'un terminal à conteneurs : simulation discrète par macro-processus et processus complementaires ». Rouen, 1996. http://www.theses.fr/1996ROUES002.

Texte intégral
Résumé :
Ces deux thèses ont été inspirées par un problème réel rencontré par un manutentionnaire portuaire de conteneurs sensible à l'évolution d'un marché en pleine expansion. La préoccupation de cette société était de disposer d'un outil informatique lui permettant de tester des hypothèses de transformation propres à son domaine d'activité. Par une volonté déclarée de réaliser un travail se plaçant dans le cadre général des problèmes de manutention, il a été convenu d'étudier un modèle capable de capter tous les attributs concernant les objets manipulés (géométrie, caractéristiques techniques,. . . ), l'espace dans lequel peuvent évoluer ces objets (topologie, contraintes technologiques pour l'empilement des marchandises,. . . ), ainsi que les règles présidant au déplacement des engins (calculs de trajectoires, caractéristiques des appareils de manutention,. . . ), et les lois statistiques influant sur le système. Ce projet, baptisé Simulateur de Gestion d'un Terminal à Conteneurs (SGTC), a pour objectif la réalisation d'un simulateur qui doit permettre la validation ou le rejet d'une conjecture et par là même de faire de substantielles économies de temps, d'espace et de matériel, et par conséquent financières. Ce modèle orienté objet renferme deux innovations. La première, décrite au chapitre 3, concerne la gestion multi-niveaux des resources ; la deuxième, exposée au chapitre 4, présente un modèle de simulation orientée processus par macro-processus et processus complémentaires. Ce simulateur dispose d'une animation visuelle interactive, d'interfaces graphiques et de bases de données objets, explicitées dans le dernier chapitre.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Al-Dhuraibi, Yahya. « Flexible framework for elasticity in cloud computing ». Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I079/document.

Texte intégral
Résumé :
Le Cloud computing a gagné beaucoup de popularité et a reçu beaucoup d'attention des deux mondes, industriel et académique, puisque cela les libère de la charge et le coût de la gestion de centres de données locaux. Toutefois, le principal facteur motivant l'utilisation du Cloud est sa capacité de fournir des ressources en fonction des besoins du client. Ce concept est appelé l’élasticité. Adapter les applications Cloud lors de leur exécution en fonction des variations de la demande est un grand défi. En outre, l'élasticité de Cloud est diverse et hétérogène car elle englobe différentes approches, stratégies, objectifs, etc. Nous sommes intéressés à étudier: Comment résoudre le problème de sur/sous-approvisionnement? Comment garantir la disponibilité des ressources et surmonter les problèmes d'hétérogénéité et de granularité des ressources? Comment standardiser, unifier les solutions d'élasticité et de modéliser sa diversité à un haut niveau d'abstraction? Dans cette thèse, trois majeures contributions ont été proposées: Tout d’abord, un état de l’art à jour de l’élasticité du Cloud ; cet état de l’art passe en revue les différents travaux relatifs à l’élasticité des machines virtuelles et des conteneurs. Deuxièmement, ElasticDocker, une approche permettant de gérer l’élasticité des conteneurs, notamment l’élasticité verticale, la migration et l’élasticité combinée. Troisièmement, MoDEMO, un nouveau cadre de gestion d'élasticité unifié, basé sur un standard, dirigé par les modèles, hautement extensible et reconfigurable, supportant plusieurs stratégies, différents types d’élasticité, différentes techniques de virtualisation et plusieurs fournisseurs de Cloud
Cloud computing has been gaining popularity and has received a great deal of attention from both industrial and academic worlds since it frees them from the burden and cost of managing local data centers. However, the main factor motivating the use of cloud is its ability to provide resources according to the customer needs or what is referred to as elasticity. Adapting cloud applications during their execution according to demand variation is a challenging task. In addition, cloud elasticity is diverse and heterogeneous because it encompasses different approaches, policies, purposes, etc. We are interested in investigating: How to overcome the problem of over-provisioning/under-provisioning? How to guaranty the resource availability and overcome the problems of heterogeneity and resource granularity? How to standardize, unify elasticity solutions and model its diversity at a high level of abstraction? In this thesis, we solved such challenges and we investigated many aspects of elasticity to manage efficiently the resources in the cloud. Three contributions are proposed. Firstly, an up-to-date state-of-the-art of the cloud elasticity, this state of art reviews different works related to elasticity for both Virtual Machines and containers. Secondly, ElasticDocker, an approach to manage container elasticity including vertical elasticity, live migration, and elasticity combination between different virtualization techniques. Thirdly, MoDEMO, a new unified standard-based, model-driven, highly extensible and reconfigurable framework that supports multiple elasticity policies, vertical and horizontal elasticity, different virtualization techniques and multiple cloud providers
Styles APA, Harvard, Vancouver, ISO, etc.
5

Guzzo, Natale. « Facing the real challenges in wireless sensor network-based applications : an adaptative cross-layer self-organization WSN protocol ». Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10190.

Texte intégral
Résumé :
Le réseau de capteurs sans fil (WSN) est un des protagonistes contribuant à l’évolution et au développement de l’Internet des objets (IoT). Plusieurs cas d’usage peuvent être trouvés dans les différents domaines comme l’industrie du transport maritime où le fret conteneurisé compte environ pour 60% du commerce mondial. Dans ce contexte, la société TRAXENS a développé un dispositif radio alimenté par batterie appelé TRAX-BOX et conçu pour être fixé aux containeurs dans l’objectif de les traquer et les surveiller tout au long de la chaine logistique. Dans cette thèse, je vais présenter une nouvelle pile protocolaire WSN appelée TRAX-NET et conçue pour permettre aux TRAX-BOX de s’auto-organiser dans un réseau sans fil et coopérer pour délivrer les données acquises au serveur TRAXENS d’une façon énergiquement efficiente. Les résultats des simulations et des tests sur le terrain montrent que TRAX-NET est bien optimisé pour les différents scenarios pour lesquels il a été développé et satisfait les exigences de l’application concernée mieux que les autres solutions étudiées dans la littérature. TRAX-NET est une solution complète et adaptée au suivi des conteneurs de fret de par le monde
Wireless Sensor Networks (WSN) is one of the protagonists contributing to the evolution and the development of the Internet of Things (IoT). Several use cases can be found today in the different fields of the modern technology including the container shipping industry where containerized cargo accounts for about 60 percent of all world seaborne trade. In this context, TRAXENS developed a battery-powered device named TRAX-BOX designed to be attached to the freight containers in order to track and monitor the shipping goods along the whole supply chain. In this thesis, we present a new energy-efficient self-organizing WSN protocol stack named TRAX-NET designed to allow the TRAX-BOX devices to cooperate to deliver the sensed data to the TRAXENS platform.The results of simulations and field tests show that TRAX-NET well perform in the different scenarios in which it is supposed to operate and better fulfil the requirements of the assumed application in comparison with the existing schemes
Styles APA, Harvard, Vancouver, ISO, etc.
6

Zaghdoud, Radhia. « Hybridation d’algorithme génétique pour les problèmes des véhicules intelligents autonomes : applications aux infrastructures portuaires de moyenne taille ». Thesis, Ecole centrale de Lille, 2015. http://www.theses.fr/2015ECLI0023/document.

Texte intégral
Résumé :
L’objectif de ce travail est de développer un système d’affectation des conteneurs aux véhicules autonomes intelligents (AIVs) dans un terminal à conteneurs. Dans la première phase, on a développé un système statique pour résoudre le problème multi-objectif optimisant la durée totale des opérations de déplacement des conteneurs, le temps d’attente des véhicules aux niveaux de points de chargement et de déchargement et l’équilibre de temps de travail entre les véhicules. L’approche proposée est l’algorithme génétique(AG). Une extension de cette approche a été ensuite effectuée pour corriger les limites de la précédente. Pour choisir la meilleure approche, une étude comparative a été réalisée entre trois approches : AG, AG & DIJK et AG & DIJK & HEUR. Les résultats numérique ont montré que l’approche AG & DIJK & HEUR est meilleure. Dans la deuxième phase, on a étudié la robustesse de notre système dans un environnement dynamique. Un retard de l’arrivée d’un navire au port ou un dysfonctionnement de l’un des équipements peutperturber le planning des opérations et donc influencer sur les opérations d’affectation des conteneurs. L’idée était d’ajouter les nouveaux conteneurs aux véhicules qui sont déjà non disponibles. D’autres cas de perturbation comme la congestion routière, la non disponibilité de certaines portions de la routes ont été étudiés expérimentalementEt les résultats numériques ont montré la robustesse de notre approche pour le cas dynamique.Mots-clés : Conteneurs, AIV, routage, optimisation, algorithme génetique, environnement dynamique
The objective of our work is to develop a container assignment system for intelligent autonomous vehicles (AIVS) in a container terminal. Given the complexity of this problem, it was proposed to decompose it into three problems: The problem of dispatching containers to AIVS, the AIVS routing problem and the problem of scheduling containers to queues of AIVS. To achieve this goal, we developed in the first phase, a static system for multi-objective problem to optimize the total duration of the containers transportation, the waiting time of vehicles at loading points and the equilibrium of working time between vehicles. The approach used was the genetic algorithm (GA). This approach was applied to optimize only the assignment operation without influence on the choice of the path traveled by each AIV. An extension of this work was then made to improve the results found. For this purpose, a comparative study was carried out between three approaches: The first approach is the AG, the second approach is the GA and the Dijkstra algorithm (DIJK) that was used to find the shortest path for each vehicle and the third approach is the AG and DIJK and heuristic (HEUR) which was proposed to choose the nearest vehicle of each container. The numerical study showed the best performance of the AG & DJK & HEUR approach over the other two approaches. In the second phase of our project, the robustness of our system in a dynamic environment has been studied. A delay of the arrival of a ship at the port or malfunction of one of any equipment of the port can cause a delay of one of the operations of loading or unloading process. This will affect the container assignment operation. The idea was to add new containers to vehicles that are already unavailable. The traffic can also cause a delay in arrival of the vehicle at the position of the container or the unavailability of one of the paths crossing point. These cases were investigated experimentally, numerical results showed the robustness of our approach to dynamic case
Styles APA, Harvard, Vancouver, ISO, etc.
7

Bacou, Mathieu. « Performance et gestion de ressources dans un cloud multi-virtualisé ». Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0042.

Texte intégral
Résumé :
Le cloud computing permet aux entreprises de réduire la barrière et les coûts d'utilisation de l'informatique, en mutualisant les besoins avec d'autres utilisateurs. Cette mutualisation est permise par la technologie de la virtualisation. Il s'agit de vendre les ressources physiques, concrètes, d'un centre d'hébergement, comme des ressources virtuelles, logiques. L'efficacité de la solution de virtualisation, sur différents critères, est au coeur des préoccupations à la fois des fournisseurs de cloud, et des clients. Les premiers veulent servir le plus grand nombre de clients possibles avec les ressources physiques déjà disponibles. Il faut donc que la solution de virtualisation permette d'allouer les ressources sans gaspillage. Une autre cible d'optimisation est la consommation énergétique du centre d'hébergement, très impactée par cette bonne gestion des ressources. Les clients quant à eux, recherchent des garanties de performances et de prédictibilité de celles-ci : la solution de virtualisation doit offrir le même niveau de performance malgré l'abstraction des ressources physiques en ressources virtuelles. L'économie financière de l'utilisation du cloud est aussi une priorité. Les deux solutions de virtualisation principales sont les machines virtuelles et les conteneurs. Elles ont chacune leurs avantages et leurs inconvénients sur les axes de la gestion des ressources et des performances. Mais il est possible d'imbriquer les conteneurs dans les machines virtuelles, produisant ainsi un cloud multi-virtualisé. Comment alors profiter au mieux des caractéristiques des deux solutions dans ce nouvel environnement ? Cette thèse explore les problématiques qui émergent à la combinaison de ces deux solutions, et propose des systèmes pour obtenir avec la multi-virtualisation de meilleures performances, une gestion des ressources approfondie et un coût réduit. Elle décrit premièrement, une méthode de consolidation novatrice de la charge de travail pour aller plus loin dans la réduction de la consommation énergétique ; deuxièmement, un algorithme d'allocation des ressources aux conteneurs pour corriger leur problème inhérent de prédictibilité des performances ; et troisièmement, deux systèmes joints pour l'optimisation du réseau multi-virtualisé afin d'en améliorer les performances et l'utilisation des ressources, ainsi que de réduire le coût du cloud pour le client. Ces travaux agissent à tous les niveaux de la virtualisation imbriquée afin de propulser plus avant la technologie de la multi-virtualisation
Companies use cloud computing to lower entry and usage costs of using information technologies as a resource. The main feature of cloud computing that enables these lower costs is the pooling of resources with other users. Pooling of resources is based on virtualization. The principle is to sell physical, concrete resources from a data-center as virtual, abstract resources. The core concern for both cloud providers and clients is the efficiency, on various axes, of the virtualization solution. The former wish to serve as many clients as possible with the given physical resources of the data-center. It puts an emphasis on the capability of the virtualization solution to allocate resources with limited waste. Another target for optimization is the power usage of the data-center. Efficient management of resources has a great effect on it. As for clients of cloud computing, they seek guarantees on performance, including predictability. Indeed, the virtualization solution must provide them with the same performance level despite abstraction of physical resources into virtual resources. Buying cloud resources as cheap as possible is also a priority. There are two main virtualization solutions: virtual machines and containers. Both have their own sets of benefits and drawbacks, on the axes of resource management and performance. However containers can be nested inside of virtual machines, thus building a multi-virtualized cloud. How best to use both solutions in this new environment? This thesis explores issues that arise from combining both virtualization solutions. It proposes new systems to gain better performance, to improve resource management and to provide cheaper cloud services using multi-virtualization. First, it describes a novel workload consolidation method to further reduce power usage ; second, an allocation algorithm for resources of containers that fixes their intrinsic issue of performance predictability ; and third, two joint systems that optimize multi-virtualized networking to improve performance and resource utilization, and save money on cloud usage. Theses works play at every level of nested virtualization in order to move the technology of multi-virtualization forward
Styles APA, Harvard, Vancouver, ISO, etc.
8

Serin, Frédéric, et Laurent Villefranche. « Simulateur de gestion d'un terminal à conteneur : gestion distribuée des ressources ». Rouen, 1996. http://www.theses.fr/1996ROUES005.

Texte intégral
Résumé :
Ces deux thèses ont été inspirées par un problème réel rencontré par un manutentionnaire portuaire de conteneurs sensible à l’évolution d'un marché en pleine expansion. La préoccupation de cette société était de disposer d'un outil informatique lui permettant de tester des hypothèses de transformation propres à son domaine d’activité. Par une volonté déclarée de réaliser un travail se plaçant dans le cadre général des problèmes de manutention, il a été convenu d’étudier un modèle capable de capter tous les attributs concernant les objets manipulés (géométrie, caractéristiques techniques,. . . ), L'espace dans lequel peuvent évoluer ces objets (topologie, contraintes technologiques pour l'empilement des marchandises,. . . ), ainsi que les règles présidant au déplacement des engins (calculs de trajectoires, caractéristiques des appareils de manutention,. . . ), et les lois statistiques influant sur le système. Ce projet, baptisé simulateur de gestion d'un terminal à conteneurs (SGTC), a pour objectif la réalisation d'un simulateur qui doit permettre la validation ou le rejet d'une conjecture et par là même de faire de substantielles économies de temps, d'espace et de matériel, et par conséquent financières. Ce modèle orienté objet renferme deux innovations. La première, décrite au chapitre 3, concerne la gestion multi-niveaux des ressources ; la deuxième, exposée au chapitre 4, présente un modèle de simulation orientée processus par macro-processus et processus complémentaires. Ce simulateur dispose d'une animation visuelle interactive, d'interfaces graphiques et de bases de données objets, explicitées dans le dernier chapitre.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Benghalia, Abderaouf. « Modélisation et évaluation de la performance des terminaux portuaires ». Thesis, Le Havre, 2015. http://www.theses.fr/2015LEHA0010/document.

Texte intégral
Résumé :
De nos jours, le transport maritime, en pleine évolution, joue un rôle très important dans le monde économique. Face à ce contexte, les différents maillons des chaînes logistiques portuaires sont tenus à améliorer continuellement leur performance pour rester compétitifs. Dans cette thèse, nous proposons une approche, appelée ECOGRAISIM, pour l'évaluation de la performance d'une chaîne logistique portuaire. Elle combine la méthode ECOGRAI et la simulation afin de déterminer et de mesurer les indicateurs de performance. L’originalité dans ce travail est que l’approche ECOGRAISIM offre une étape supplémentaire qui consiste à montrer efficacement comment peut-on agir sur le système à évaluer. Dans notre démarche ECOGRASIM, nous nous intéressons à la phase concernant les variables d'action et nous proposons une nouvelle étape pour réaliser le pilotage par la performance. Nos travaux de recherche concernent tout particulièrement le terminal multimodal du port du Havre. Nous nous focalisons sur les processus de manutention et de transfert massifié des conteneurs par navettes ferroviaires. Le but est d’obtenir un mode d’exploitation performant du terminal multimodal en comparant les différents scénarios de transfert des conteneurs par rapport à la minimisation des retards, des coûts et des émissions de CO2
Nowadays, maritime transport, in full evolution, plays a very important role in the economic world. Against this background, the different seaport supply chains entities must improve continuously their performance to remain competitive. In this thesis, we propose an approach called ECOGRAISIM for evaluating the performance of seaport supply chain. It combines ECOGRAI method and simulation to identify and to measure performance indicators. The originality of the ECOGRAISIM approach is to provide an additional step to show how to act on the system to be evaluated. In this approach, we focus on action variables and we propose a new step to achieve the performance control. Our research works concern the multimodal terminal of Le Havre seaport. We focus on the processes of handling and massified transfer of containers by rail shuttles. The goal is to obtain an efficient operating process for the multimodal terminal by comparing different scenarios of containers transfer according to the minimization of delays, costs and CO2 emissions
Styles APA, Harvard, Vancouver, ISO, etc.
10

Şenel, Berat. « Container Orchestration for the Edge Cloud ». Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS202.

Texte intégral
Résumé :
Avec l'essor des infrastructures de type edge où les ressources informatiques sont en périphérie de réseau, la tendance est une fois de plus orientée vers la décentralisation. En plus des appareils à ressources contraintes qui peuvent effectuer des tâches limitées, le « edge cloud » se compose de nœuds de calcul de classe serveur qui sont colocalisées avec des stations de base des réseaux sans-fil et qui sont soutenus par des serveurs dans des centres informatiques régionaux. Ces nœuds de calcul ont des capacités de type cloud et ils sont capables d'exécuter des charges de travail (workloads) typiques du cloud. En outre, de nombreux appareils intelligents qui supportent la conteneurisation et la virtualisation peuvent exécuter de telles tâches. Nous pensons que le modèle de service « containers as a service », ou CaaS, avec sa surcharge minime sur des nœuds de calcul, est particulièrement bien adapté pour l'environnement edge cloud qui est moins évolutif que le cloud classique. Pourtant, les systèmes d'orchestration de conteneurs en cloud ne sont pas encore intégrés dans les nouveaux environnements edge cloud. Dans cette thèse nous montrons une voie à suivre pour l'orchestration des conteneurs pour des edge clouds. Nous apportons nos contributions de deux manières principales : la conception raisonnée d'un ensemble de fonctionnalités testées empiriquement pour simplifier et améliorer l'orchestration des conteneurs pour des edge clouds et le déploiement de ces fonctionnalités pour fournir une plateforme edge durable, basée sur des conteneurs, pour la communauté de recherche sur Internet. Ce logiciel et cette plateforme s'appellent EdgeNet. Elle consiste en une extension de Kubernetes, qui est l'outil de facto standard d'orchestration de conteneurs pour l'industrie cloud. L'edge cloud nécessite une architecture mutualisée, ou « multitenancy », pour le partage de ressources limitées. Cependant, cela n'est pas une fonctionnalité native de Kubernetes et alors un cadre spécifique doit être ajouté au système afin d'activer cette fonctionnalité. En étudiant la littérature scientifique sur les cadres multitenancy dans le cloud ainsi que les cadres multitenancy déjà existants pour Kubernetes, nous avons développé une nouvelle classification de ces cadres en trois approches principles: (1) multi-instance via plusieurs clusters, (2) multi-instance via plusieurs plans de contrôle et (3) instance-unique. Compte tenu des contraintes de ressources à l'edge, nous défendons et apportons des preuves empiriques en faveur d'un cadre multitenancy qui est instance-unique. Notre conception comprend un mécanisme léger pour la fédération des clusters de calcul de l'edge cloud dans lequel chaque cluster local implémente notre cadre multitenancy, et un utilisateur accède à des ressources fédérées par le biais du cluster local fourni par son opérateur de cloud local. Nous introduisons en outre plusieurs fonctionnalités et méthodes qui adaptent l'orchestration des conteneurs à l'edge cloud, telles qu'un moyen de permettre aux utilisateurs de déployer des charges de travail en fonction de l'emplacement du nœud, et un VPN en cluster qui permet aux nœuds de fonctionner derrière des NAT. Nous mettons ces fonctionnalités en production avec la plateforme d’expérimentation d'EdgeNet, un cluster de calcul distribué à l'échelle mondiale qui est intrinsèquement moins coûteux à déployer et à entretenir, et plus facile à documenter et à programmer que les plateformes d’expérimentation précédents
The pendulum again swings away from centralized IT infrastructure back towards decentralization, with the rise of edge computing. Besides resource-constrained devices that can only run tiny tasks, edge computing infrastructure consists of server-class compute nodes that are collocated with wireless base stations, complemented by servers in regional data centers. These compute nodes have cloud-like capabilities, and are thus able to run cloud-like workloads. Furthermore, many smart devices that support containerization and virtualization can also handle cloud-like workloads. The « containers as a service » (CaaS) service model, with its minimal overhead on compute nodes, is particularly well adapted to the less scalable cloud environment that is found at the edge, but cloud container orchestration systems have yet to catch up to the new edge cloud environment. This thesis shows a way forward for edge cloud container orchestration. We make our contributions in two primary ways: the reasoned conception of a set of empirically tested features to simplify and improve container orchestration at the edge, and the deployment of these features to provide EdgeNet, a sustainable container-based edge cloud testbed for the internet research community. We have built EdgeNet on Kubernetes, as it is open-source software that has become today’s de facto industry standard cloud container orchestration tool. The edge cloud requires multitenancy for the sharing of limited resources. However, this is not a Kubernetes-native feature, and a specific framework must be integrated into the tool to enable this functionality. Surveying the scientific literature on cloud multitenancy and existing frameworks to extend Kubernetes to offer multitenancy, we have identified three main approaches: (1) multi-instance through multiple clusters, (2) multi-instance through multiple control planes, and (3) single-instance native. Considering the resource constraints at the edge, we argue for and provide empirical evidence in favor of a single-instance multitenancy framework. Our design includes a lightweight mechanism for the federation of edge cloud compute clusters in which each local cluster implements our multitenancy framework, and a user gains access to federated resources through the local cluster that her local cloud operator provides. We further introduce several features and methods that adapt container orchestration for the edge cloud, such as a means to allow users to deploy workloads according to node location, and an in-cluster VPN that allows nodes to operate from behind NATs. We put these features into production through the EdgeNet testbed, a globally distributed compute cluster that is inherently less costly to deploy and maintain, and easier to document and to program than previous such testbeds
Styles APA, Harvard, Vancouver, ISO, etc.
11

Skaf, Ali. « Ordonnancement des activités de manutention dans les terminaux portuaires ». Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCA019.

Texte intégral
Résumé :
Les problèmes d'ordonnancement des activités de manutention dans les terminaux maritimes ont suscité beaucoup d’attention dans les recherches sur la gestion des opérations. Généralement, des conteneurs sont déplacés d’un port à un autre par des navires porte-conteneurs, déchargés à quai par des grues et transportés par des camions jusqu’à une zone de stockage. Pour obtenir des performances opérationnelles optimales, la coordination entre tous les équipements du port est un enjeu majeur.Dans cette thèse, nous étudions le problème d'ordonnancement des opérations de chargement/déchargement et de mise en zone de stockage de conteneurs par diverses ressources de manutention, avec comme application concrète le port de Tripoli-Liban. Cette étude s’articule autour de trois scénarios. Le premier scénario considère plusieurs grues de quai et un seul navire porte-conteneurs. Le navire porte-conteneurs est divisé en plusieurs baies et chaque baie contient un nombre spécifique de conteneurs. Ici, nous ne considérons pas les camions de transport, ce qui signifie que les conteneurs sont directement déchargés de la grue de quai vers une zone pour les livrer aux clients. Dans le deuxième scénario, nous avons considéré une grue de quai et un navire porte-conteneurs avec plusieurs camions de transport. Après le déchargement des conteneurs du navire porte-conteneurs par la grue, ceux-ci doivent être transportés vers la zone de stockage par un camion. Enfin, dans la zone de stockage, des chariots frontaux permettent de décharger les conteneurs du camion vers une zone spécifique pour être livrés aux clients. Le troisième scénario prend en compte plusieurs grues, plusieurs camions de transport et deux navires porte-conteneurs afin de décharger les conteneurs du navire au lieu de stockage et vice versa. Dans ce scénario, nous avons deux types de navires porte-conteneurs, le premier devant être déchargé vers la zone de stockage, tandis que le second est à charger depuis la zone de stockage.Pour résoudre ces différentes variantes, nous avons appliqué une démarche de modélisation, élaboration d’algorithmes de résolution, tests, analyse et confrontation de nos résultats sur des instances de la littérature et issues de cas réels. Plusieurs méthodes de résolution exactes et approchée ont ainsi été explorées : la programmation linéaire, qui nous a permis de formaliser et modéliser le problème avant même sa résolution, la programmation dynamique, ainsi qu’une métaheuristique. Les avantages et inconvénients de ces méthodes sont mis en évidence.Une conclusion sur les variantes étudiées et algorithmes développés est fournie en fin de manuscrit, et diverses perspectives à ces travaux sont ouvertes, avec en toile de fond l’objectif d’améliorer encore la gestion opérationnelle des manutentions dans des ports tels que le port de Tripoli-Liban
Scheduling problems of handling activities at maritime terminals have attracted much attention in research on operations management. Generally, containers are moved from one port to another by container vessels, unloaded at the quay by quay cranes and transported by yard trucks to a storage location. To obtain optimal operational performance, coordination between all of the port's equipment is a major issue.In this thesis, we study the scheduling problem of loading/unloading operations and placing containers in storage locations by various handling resources, with the practical application of the port of Tripoli-Lebanon.This study revolves around three scenarios. The first scenario considers several quay cranes and a single container vessel. The container vessel is divided into several bays and each bay contains a specific number of containers. Here we do not consider yard trucks, which means that the containers are directly unloaded from the quay crane to an area to deliver them to customers. In the second scenario, we considered a single quay crane and a single container vessel with several yard trucks. After the containers are unloaded by the quay crane from the container vessel , they must be transported to the storage location by a yard truck. Finally, in the storage location, the reach-stacker cranes allow the containers to be unloaded from the yard truck to a specific area for delivery to customers. The third scenario takes into account several quay cranes, several yard trucks and two container vessels in order to unload the containers from the vessel to the storage location and vice versa. In this scenario, we have two types of container ships, the first to be unloaded to the storage location, while the second is to be loaded from the storage location.To solve these different variants, we applied a modeling approach, development of resolution algorithms, tests, analysis and comparison of our results on instances of the literature and from real cases. Several exact and approximate resolution methods were thus explored: mixed-integer linear programming, which allowed us to formalize and model the problem even before its resolution, dynamic programming, as well as metaheuristics. The advantages and disadvantages of these methods are highlighted. A conclusion on the variants studied and algorithms developed is provided at the end of the manuscript, and various perspectives for this work are open, with the backdrop of the objective of further improving the operational management of handling in ports such than the port of Tripoli-Lebanon
Styles APA, Harvard, Vancouver, ISO, etc.
12

Lescuyer, Stephane. « Formalizing and Implementing a Reflexive Tactic for Automated Deduction in Coq ». Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00713668.

Texte intégral
Résumé :
In this thesis, we propose new automation capabilities for the Coq proof assistant. We obtain this mechanization via an integration into Coq of decision procedures for propositional logic, equality reasoning and linear arithmetic which make up the core of the Alt-Ergo SMT solver. This integration is achieved through the reflection technique, which consists in implementing and formally proving these algorithms in Coq in order to execute them directly in the proof assistant. Because the algorithms formalized in Coq are exactly those in use in Alt-Ergo's kernel, this work significantly increases our trust in the solver. In particular, it embeds an original algorithm for combining equality modulo theory reasoning, called CC(X) and inspired by the Shostak combination algorithm, and whose justification is quite complex. Our Coq implementation is available in the form of tactics which allow one to automatically solve formulae combining propositional logic, equality and arithmetic. In order to make these tactics as efficient as may be, we have taken special care with performance in our implementation, in particular through the use of classical efficient data structures, which we provide as a separate library.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Arora, Sagar. « Cloud Native Network Slice Orchestration in 5G and Beyond ». Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS278.

Texte intégral
Résumé :
La virtualisation des fonctions réseau (NFV) est le pilier fondateur de l'architecture 5G basée sur les services. La NFV a débuté en 2012, avec les fonctions de réseau virtuelles (VNF) basées sur les machines virtuelles (VM). Les conteneurs sont devenus une technologie alternative de conditionnement intéressante pour la virtualisation des fonctions réseau. Le conteneur est léger en termes de consommation de ressources ce qui améliore son temps d'instanciation. Outre les fonctions de réseau, la conteneurisation peut être un outil prometteur pour les applications multi-access edge computing (MEC) qui abritent des services exigeants à faible latence. La rareté des ressources à la périphérie du réseau exige des technologies qui utilisent efficacement les ressources de calcul, de stockage et de mise en réseau. La conteneurisation est censée être utilisée dans le cadre des principes fondamentaux de la conception d'applications cloud-native, une architecture basée sur des microservices à couplage lâche, d'une évolutivité à la demande et d'une résilience élevée. La flexibilité et l'agilité des conteneurs peuvent certainement profiter au découpage du réseau 5G en tranches,ces derniers reposent fortement sur NFV et MEC. Le concept de découpage du réseau permet de créer des réseaux logiques isolés au-dessus du même réseau physique. Une tranche de réseau peut avoir des fonctions de réseau dédiées, partagées entre plusieurs tranches. En effet, l'orchestration des tranches de réseau nécessite une interaction avec de multiples orchestrateurs de domaines technologiques: l'accès radio, le transport, le réseau central et l'informatique périphérique. Le changement de paradigme consistant à utiliser des principes de conception d'applications cloud-natives a créé des défis pour les systèmes d'orchestration existants et les normes NFV et MEC de l'ETSI. Ces derniers ont été conçus pour gérer des fonctions de réseau basées sur des machines virtuelles. Ils sont donc limités dans leur approche de la gestion d'une fonction de réseau cloud-native. Par le présent manuscrit, nous examinons les normes existantes de l'ETSI NFV, de l'ETSI MEC et des orchestrateurs de services/tranches de réseau, nous proposons de résoudre les défis liés à l'orchestration de tranches de réseau multi-domaines cloud-native. Pour cela, nous proposons tout d'abord un service d'information sur le réseau radio (RNIS) MEC qui a la capacité de fournir des informations radio au niveau de l'abonné dans un environnement NFV. Deuxièmement, nous fournissons un algorithme d'allocation et de placement dynamique des ressources (DRAP) pour placer les services réseau cloud-natives en tenant compte de leur matrice de coût et de disponibilité. Troisièmement, en combinant NFV, MEC et Network Slicing, nous proposons un nouveau mécanisme d'orchestration de tranches MEC (LeSO) pour surmonter les défis liés à l'orchestration de tranches MEC. Quatrièmement, le mécanisme proposé offre un modèle de déploiement de tranches de réseau qui permet de multiples possibilités de conception d'applications MEC. Ces possibilités ont été étudiées plus en détails pour comprendre l'impact de l'architecture de conception microservice sur la disponibilité et la latence de l'application. Enfin, tous ces travaux sont combinés pour proposer une nouvelle approche d'orchestration de tranches légères Cloud-native (CLiSO) étendant le précédant mécanisme d'orchestration de tranches légères de bord (LeSO). Cette nouvelle approche offre un modèle de tranche de réseau agnostique sur le plan technologique et orienté déploiement. La solution a été évaluée de manière approfondie en orchestrant les fonctions réseau du conteneur OpenAirInterface sur des plateformes de cloud public et privé. Les résultats expérimentaux montrent que la solution proposée a des empreintes de ressources plus faibles que les orchestrateurs existants et prend moins de temps pour orchestrer les tranches de réseau
Network Function Virtualization (NFV) is the founding pillar of 5G Service Based Architecture. It has the potential to revolutionize the future mobile communication generations. NFV started long back in 2012 with Virtual-Machine (VM) based Virtual Network Functions (VNFs). The use of VMs raised multiple questions because of the compatibility issues between VM hypervisors and their high resource consumption. This made containers to be an alternative network function packaging technology. The lightweight design of containers improves their instantiation time and resource footprints. Apart from network functions, containerization can be a promising enabler for Multi-access Edge Computing (MEC) applications that provides a home to low-latency demanding services. Edge computing is one of the key technology of the last decade, enabling several emerging services beyond 5G (e.g., autonomous driving, robotic networks, Augmented Reality (AR)) requiring high availability and low latency communications. The resource scarcity at the edge of the network requires technologies that efficiently utilize computational, storage, and networking resources. Containers' low-resource footprints make them suitable for designing MEC applications. Containerization is meant to be used in the framework of cloud-native application design fundamentals, loosely coupled microservices-based architecture, on-demand scalability, and high resilience. The flexibility and agility of containers can certainly benefit 5G Network Slicing that highly relies on NFV and MEC. The concept of Network slicing allows the creation of isolated logical networks on top of the same physical network. A network slice can have dedicated network functions or its network functions can be shared among multiple slices. Indeed, network slice orchestration requires interaction with multiple technological domain orchestrators, access, transport, core network, and edge computing. The paradigm shift of using cloud-native application design principles has created challenges for legacy orchestration systems and the ETSI NFV and MEC standards. They were designed for handling virtual machine-based network functions, restricting them in their approach to managing a cloud-native network function. The thesis examines the existing standards of ETSI NFV, ETSI MEC, and network service/slice orchestrators. Aiming to overcome the challenges around multi-domain cloud-native network slice orchestration. To reach the goal, the thesis first proposes MEC Radio Network Information Service (RNIS) that can provide radio information at the subscriber level in an NFV environment. Second, it provides a Dynamic Resource Allocation and Placement (DRAP) algorithm to place cloud-native network services considering their cost and availability matrix. Third, by combining NFV, MEC, and Network Slicing, the thesis proposes a novel Lightweight edge Slice Orchestration framework to overcome the challenges around edge slice orchestration. Fourth, the proposed framework offers an edge slice deployment template that allows multiple possibilities for designing MEC applications. These possibilities were further studied to understand the impact of the microservice design architecture on application availability and latency. Finally, all this work is combined to propose a novel Cloud-native Lightweight Slice Orchestration (CLiSO) framework extending the previously proposed Lightweight edge Slice Orchestration (LeSO) framework. In addition, the framework offers a technology-agnostic and deployment-oriented network slice template. The framework has been thoroughly evaluated via orchestrating OpenAirInterface container network functions on public and private cloud platforms. The experimental results show that the framework has lower resource footprints than existing orchestrators and takes less time to orchestrate network slices
Styles APA, Harvard, Vancouver, ISO, etc.
14

Belhaj, Nabila. « Generic autonomic service management for component-based applications ». Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLL004/document.

Texte intégral
Résumé :
Au cours de la dernière décennie, la complexité des applications a considérablement évolué afin de répondre aux besoins métiers émergeants. Leur conception implique une composition distribuée de composants logiciels. Ces applications fournissent des services à travers les interactions métiers maintenues par leurs composants. De telles applications sont intrinsèquement en évolution dynamique en raison de la dynamicité de leurs contextes. En effet, elles évoluent dans des environnements qui changent tout en présentant des conditions très dynamiques durant leur cycle de vie d’exécution. De tels contextes représentent une lourde charge pour les développeurs aussi bien pour leurs tâches de conception que de gestion. Cela a motivé́ le besoin de renforcer l’autonomie de gestion des applications pour les rendre moins dépendantes de l’intervention humaine en utilisant les principes de l’Informatique Autonomique. Les Systèmes Informatiques Autonomes (SIA) impliquent l’utilisation des boucles autonomiques, dédiées aux systèmes afin de les aider à accomplir leurs tâches de gestion. Ces boucles ont pour objectif d’adapter leurs systèmes à la dynamicité de leurs contextes, en se basant sur une logique d’adaptation intégrée. Cette logique est souvent donnée par des règles statiques codées manuellement. La construction de ces règles demande beaucoup de temps tout en exigeant une bonne expertise. En fait, elles nécessitent une compréhension approfondie de la dynamicité du système afin de prédire les adaptations précises à apporter à celui-ci. Par ailleurs, une telle logique ne peut envisager tous les scénarios d’adaptation possibles, donc, ne sera pas en mesure de prendre en compte des adaptations pour des situations précédemment inconnues. Les SIA devraient donc être assez sophistiqués afin de pouvoir faire face à la nature dynamique de leurs contextes et de pouvoir apprendre par eux-mêmes afin d’agir correctement dans des situations inconnues. Les SIA devraient également être capables d’apprendre de leur propre expérience passée afin de modifier leur logique d’adaptation en fonction de la dynamicité de leurs contextes. Dans ce manuscrit, nous abordons les lacunes décrites en utilisant les techniques d’Apprentissage par Renforcement (AR) afin de construire notre logique d’adaptation. Cependant, les approches fondées sur l’AR sont connues pour leur mauvaise performance lors des premières phases d’apprentissage. Cette mauvaise performance entrave leur utilisation dans le monde réel des systèmes déployés. Par conséquent, nous avons amélioré cette logique d’adaptation avec des capacités d’apprentissage plus performantes avec une approche AR en multi-pas. Notre objectif est d’optimiser la performance de l’apprentissage et de le rendre plus efficace et plus rapide, en particulier durant les premières phases d’apprentissage. Nous avons aussi proposé́ un cadriciel générique visant à aider les développeurs dans la construction d’applications auto-adaptatives. Nous avons donc proposé de transformer des applications existantes en ajoutant des capacités d’autonomie et d’apprentissage à leurs composants. La transformation consiste en l’encapsulation des composants dans des conteneurs autonomiques pour les doter du comportement auto-adaptatif nécessaire. Notre objectif est d’alléger la charge des tâches de gestion des développeurs et de leur permettre de se concentrer plus sur la logique métier de leurs applications. Les solutions proposées sont destinées à être génériques, granulaires et basées sur un standard connu, à savoir l’Architecture de Composant de Service. Enfin, nos propositions ont été évaluées et validées avec des résultats expérimentaux. Ils ont démontré leur efficacité en montrant un ajustement dynamique des applications transformées face aux dynamicités de leurs contextes en un temps beaucoup plus court comparé aux approches existantes
During the past decade, the complexity of applications has significantly scaled to satisfy the emerging business needs. Their design entails a composition of distributed and interacting software components. They provide services by means of the business interactions maintained by their components. Such applications are inherently in a dynamic evolution due to their context dynamics. Indeed, they evolve in changing environments while exhibiting highly dynamic conditions during their execution life-cycle (e.g., their load, availability, performance, etc.). Such contexts have burdened the applications developers with their design and management tasks. Subsequently, motivated the need to enforce the autonomy of their management to be less dependent on human interventions with the Autonomic Computing principles. Autonomic Computing Systems (ACS) implies the usage of autonomic loops, dedicated to help the system to achieve its management tasks. These loops main role is to adapt their associated systems to the dynamic of their contexts by acting upon an embedded adaptation logic. Most of time, this logic is given by static hand-coded rules, often concern-specific and potentially error-prone. It is undoubtedly time and effort-consuming while demanding a costly expertise. Actually, it requires a thorough understanding of the system design and dynamics to predict the accurate adaptations to bring to the system. Furthermore, such logic cannot envisage all the possible adaptation scenarios, hence, not able to take appropriate adaptations for previously unknown situations. ACS should be sophisticated enough to cope with the dynamic nature of their contexts and be able to learn on their own to properly act in unknown situations. They should also be able to learn from their past experiences and modify their adaptation logic according to their context dynamics. In this thesis manuscript, we address the described shortcomings by using Reinforcement Learning (RL) techniques to build our adaptation logic. Nevertheless, RL-based approaches are known for their poor performance during the early stages of learning. This poor performance hinders their usage in real-world deployed systems. Accordingly, we enhanced the adaptation logic with sophisticated and better-performing learning abilities with a multi-step RL approach. Our main objective is to optimize the learning performance and render it timely-efficient which considerably improves the ACS performance even during the beginning of learning phase. Thereafter, we pushed further our work by proposing a generic framework aimed to support the application developers in building self-adaptive applications. We proposed to transform existing applications by dynamically adding autonomic and learning abilities to their components. The transformation entails the encapsulation of components into autonomic containers to provide them with the needed self-adaptive behavior. The objective is to alleviate the burden of management tasks on the developers and let them focus on the business logic of their applications. The proposed solutions are intended to be generic, granular and based on a well known standard (i.e., Service Component Architecture). Finally, our proposals were evaluated and validated with experimental results. They demonstrated their effectiveness by showing a dynamic adjustment to the transformed application to its context changes in a shorter time as compared to existing approaches
Styles APA, Harvard, Vancouver, ISO, etc.
15

Darrous, Jad. « Scalable and Efficient Data Management in Distributed Clouds : Service Provisioning and Data Processing ». Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEN077.

Texte intégral
Résumé :
Cette thèse porte sur des solutions pour la gestion de données afin d'accélérer l'exécution efficace d'applications de type « Big Data » (très consommatrices en données) dans des centres de calculs distribués à grande échelle. Les applications de type « Big Data » sont de plus en plus souvent exécutées sur plusieurs sites. Les deux principales raisons de cette tendance sont 1) le déplacement des calculs vers les sources de données pour éliminer la latence due à leur transmission et 2) le stockage de données sur un site peut ne pas être réalisable à cause de leurs tailles de plus en plus importantes.La plupart des applications s'exécutent sur des clusters virtuels et nécessitent donc des images de machines virtuelles (VMI) ou des conteneurs d’application. Par conséquent, il est important de permettre l’approvisionnement rapide de ces services afin de réduire le temps d'attente avant l’exécution de nouveaux services ou applications. Dans la première partie de cette thèse, nous avons travaillé sur la récupération et le placement des données, en tenant compte de problèmes difficiles, notamment l'hétérogénéité des connexions au réseau étendu (WAN) et les besoins croissants en stockage pour les VMIs et les conteneurs d’application.Par ailleurs, les applications de type « Big Data » reposent sur la réplication pour fournir des services fiables et rapides, mais le surcoût devient de plus en plus grand. La seconde partie de cette thèse constitue l'une des premières études sur la compréhension et l'amélioration des performances des applications utilisant la technique, moins coûteuse en stockage, des codes d'effacement (erasure coding), en remplacement de la réplication
This thesis focuses on scalable data management solutions to accelerate service provisioning and enable efficient execution of data-intensive applications in large-scale distributed clouds. Data-intensive applications are increasingly running on distributed infrastructures (multiple clusters). The main two reasons for such a trend are 1) moving computation to data sources can eliminate the latency of data transmission, and 2) storing data on one site may not be feasible given the continuous increase of data size.On the one hand, most applications run on virtual clusters to provide isolated services, and require virtual machine images (VMIs) or container images to provision such services. Hence, it is important to enable fast provisioning of virtualization services to reduce the waiting time of new running services or applications. Different from previous work, during the first part of this thesis, we worked on optimizing data retrieval and placement considering challenging issues including the continuous increase of the number and size of VMIs and container images, and the limited bandwidth and heterogeneity of the wide area network (WAN) connections.On the other hand, data-intensive applications rely on replication to provide dependable and fast services, but it became expensive and even infeasible with the unprecedented growth of data size. The second part of this thesis provides one of the first studies on understanding and improving the performance of data-intensive applications when replacing replication with the storage-efficient erasure coding (EC) technique
Styles APA, Harvard, Vancouver, ISO, etc.
16

Carver, Damien. « Advanced consolidation for dynamic containers ». Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS513.

Texte intégral
Résumé :
La virtualisation des ressources informatiques a donné naissance au Cloud Computing. Plus récemment, la virtualisation légère à base de conteneur est devenu de plus en plus populaire. En effet, les conteneurs offrent une isolation des performances comparable à celle des machines virtuelles, mais promettent une meilleur consolidation des ressources grâce à leur flexibilité. Dans cette thèse nous mettons en lumière des pertes d'isolation de performance supposé garanti à un conteneur actif. Ces pertes apparaissent pendant la consolidation, c'est-à-dire, lorsque la mémoire inutilisée d'un conteneur inactif est transférée vers un nouveau conteneur qui démarre. Or, dans un environnement non virtualisé, ce scénario de consolidation mémoire n'aboutit pas à une chute de performances chez les processus les plus actifs. Nous proposons donc, dans un premier temps, de mesurer l'activité mémoire des conteneurs à l'aide de métriques présentes dans l'état de l'art. Puis, pour garantir l'isolation des conteneurs les plus actifs lors des consolidations mémoire, nous modifions le comportement du noyau Linux afin de récupérer en priorité la mémoire des conteneurs définis comme étant les plus inactifs par la métrique. Dans un deuxième temps, nous proposons une autre méthode d'estimation de l'activité mémoire des conteneurs qui repose sur une horloge globale d'événements mémoire. Cette méthode est plus réactive que la précédente car elle cherche à protéger les conteneurs dont l'activité mémoire est la plus récente
The virtualization of computing resources has given rise to cloud computing. More recently, container-based lightweight virtualization has become increasingly popular. Containers offer performance isolation comparable to that of virtual machines, but promise better resource consolidation due to their flexibility. In this thesis we highlight performance isolation losses assumed to be guaranteed to an active container. These losses occur during consolidation, i.e. when the unused memory of an inactive container is transferred to a new container that starts. However, in a non-virtualized environment, this memory consolidation scenario does not result in a drop in performance among the most active processes. We therefore propose, as a first step, to measure the memory activity of containers using state-of-the-art metrics. Then, to ensure the isolation of the most active containers during memory consolidations, we modify the behavior of the Linux kernel in order to reclaim the memory of the containers defined as being the most inactive by the metric. In a second step, we propose another method for estimating the memory activity of containers based on a global clock of memory events. This method is more reactive than the previous one because it seeks to protect containers with the most recent memory activity
Styles APA, Harvard, Vancouver, ISO, etc.
17

Yangui, Sami. « Service-based applications provisioning in the cloud ». Thesis, Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0024/document.

Texte intégral
Résumé :
Le Cloud Computing ou "informatique en nuage" est un nouveau paradigme émergeant pour l’exploitation des services informatiques distribuées à large échelle s’exécutant à des emplacements géographiques répartis. Ce paradigme est de plus en plus utilisé pour le déploiement et l’exécution des applications en général et des applications à base de services en particulier. Les applications à base de services sont décrites à l’aide du standard Service Component Architecture (SOA) et consistent à inter-lier un ensemble de services élémentaires et hétérogènes en utilisant des spécifications de composition de services appropriées telles que Service Component Architecture (SCA) ou encore Business Process Execution Language (BPEL). Provisionner une application dans le Cloud consiste à : (1) allouer les ressources dont elle a besoin pour s’exécuter, (2) déployer ses sources sur les ressources allouées et (3) démarrer l’application. Cependant, les solutions Cloud existantes sont limitées en termes de plateformes d’exécution. Ils ne peuvent pas toujours satisfaire la forte hétérogénéité des composants des applications à base de services. Pour remédier à ces problèmes, les mécanismes de provisioning des applications dans le Cloud doivent être reconsidérés. Ces mécanismes doivent être assez flexibles pour supporter la forte hétérogénéité des composants sans imposer de modifications et/ou d’adaptations du côté du fournisseur Cloud. Elles doivent également permettre le déploiement automatique des composants dans le Cloud. Si l’application à déployer est mono-composant, le déploiement est fait automatiquement et de la même manière, et ce quelque soit le fournisseur Cloud choisi. Si l’application est à base de services hétérogènes, des fonctionnalités appropriées doivent être mises à la disposition des développeurs pour qu’ils puissent définir et créer les ressources nécessaires aux composants avant de déployer l’application. Dans ce travail, nous proposons une approche appelée SPD permettant le provisioning des applications à base de services dans le Cloud. L’approche SPD est constituée de 3 étapes : (1) découper des applications à base de services en un ensemble de services élémentaires et autonomes, (2) encapsuler les services dans des micro-conteneurs spécifiques et (3) déployer les micro-conteneurs dans le Cloud. Pour le découpage, nous avons élaboré un ensemble d’algorithmes formels assurant la préservation de la sémantique des applications une fois découpées. Pour l’encapsulation, nous avons réalisé des prototypes de conteneurs de services permettant l’hébergement et l’exécution des services avec seulement le minimum des fonctionnalités nécessaires. Pour le déploiement, deux cas sont traités i.e. déploiement sur une infrastructure Cloud (IaaS) et déploiement sur une plateforme Cloud (PaaS). Pour automatiser le processus de déploiement, nous avons défini : (i) un modèle de description des ressources unifié basé sur le standard Open Cloud Computing Interface (OCCI) permettant de décrire l’application et ses ressources d’une manière générique quelque soit la plateforme de déploiement cible et (ii) une API appelée COAPS implémentant ce modèle et permettant de l’approvisionnement et la gestion des applications en utilisant des opérations génériques quelque soit la plateforme cible
Cloud Computing is a new supplement, consumption, and delivery model for IT services based on Internet protocols. It is increasingly used for hosting and executing applications in general and service-based applications in particular. Service-based applications are described according to Service Oriented Architecture (SOA) and consist of assembling a set of elementary and heterogeneous services using appropriate service composition specifications like Service Component Architecture (SCA) or Business Process Execution Language (BPEL). Provision an application in the Cloud consists of allocates its required resources from a Cloud provider, upload source codes over their resources before starting the application. However, existing Cloud solutions are limited to static programming frameworks and runtimes. They cannot always meet with the application requirements especially when their components are heterogeneous as service-based applications. To address these issues, application provisioning mechanisms in the Cloud must be reconsidered. The deployment mechanisms must be flexible enough to support the strong application components heterogeneity and requires no modification and/or adaptation on the Cloud provider side. They also should support automatic provisioning procedures. If the application to deploy is mono-block (e.g. one-tier applications), the provisioning is performed automatically and in a unified way whatever is the target Cloud provider through generic operations. If the application is service-based, appropriate features must be provided to developers in order to create themselves dynamically the required resources before the deployment in the target provider using generic operations. In this work, we propose an approach (called SPD) to provision service-based applications in the Cloud. The SPD approach consists of 3 steps: (1) Slicing the service-based application into a set of elementary and autonomous services, (2) Packaging the services in micro-containers and (3) Deploying the micro-containers in the Cloud. Slicing the applications is carried out by formal algorithms that we have defined. For the slicing, proofs of preservation of application semantics are established. For the packaging, we performed prototype of service containers which provide the minimal functionalities to manage hosted services life cycle. For the deployment, both cases are treated i.e. deployment in Cloud infrastructure (IaaS) and deployment in Cloud platforms (PaaS). To automate the deployment, we defined: (i) a unified description model based on the Open Cloud Computing Interface (OCCI) standard that allows the representation of applications and its required resources independently of the targeted PaaS and (ii) a generic PaaS application provisioning and management API (called COAPS API) that implements this model
Styles APA, Harvard, Vancouver, ISO, etc.
18

Tran-Dang, Hoa. « 3D Spatial Modeling of Stacked Containers based on Wireless Sensor Network : application to the physical internet ». Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0049/document.

Texte intégral
Résumé :
Le paradigme de l’Internet Physique a été introduit il y a quelques années pour transformer globalement la manière dont les objets physiques seront manipulés, entreposés et transportés dans le cadre d’une logistique durable. L’une des caractéristiques importante de l’Internet Physique est liée à l’encapsulation des marchandises dans des conteneurs modulaires standardisés. Le modèle de fonctionnement proposé de l’Internet Physique, s’il rationnalise les transports, engendre des manutentions plus nombreuses, en particulier au sein des PI-hubs, où les opérations de routage, de déchargement et (re)chargement des conteneurs nécessitent une organisation et une gestion rationnelle. La multiplicité et la diversité des opérations (automatisées ou non) à mettre en œuvre simultanément ne peut être conduite de manière efficiente qu’en cas de parfaite synchronisation entre la réalité du système physique et de celle du système informationnel. Les propositions de cette thèse adressent cette problématique applicative et constituent à ce titre une contribution au concept de l’Internet Physique. Elles visent à l’obtention, en temps réel, d’une image ou d’un modèle spatial des PI-conteneurs, qui disposent chacun d’un nœud WSN. L’assemblage de ces différents conteneurs au sein d’un conteneur de plus haut niveau (ou conteneur composite) permet de constituer alors un réseau de capteurs ad-hoc. Ces conteneurs deviennent ainsi des éléments actifs de l’automatisation de la chaine logistique. A partir des seules informations de proximité issues de cette instrumentation, nous montrons dans cette thèse qu’il est possible de construire le modèle spatial des PI-conteneurs
The Physical Internet paradigm was introduced few years ago to transform globally how physical objects will be handled, stored and transported as part of a sustainable logistics. One of the important characteristics of the Physical Internet is the encapsulation of goods in standardized modular containers. Although the Physical Internet rationalizes transport, it generates more frequent handling, particularly within PI-hubs, where the operations of routing, unloading and (re) loading containers require an efficient organization and management. The multiplicity and the diversity of operations (automated or not) to be implemented simultaneously can only be carried out efficiently in the case of perfect synchronization between the reality of the physical system and that of the information system. The proposals of this thesis address this problem and constitute a contribution to the concept of the Physical Internet. They aim to obtain in real time, the spatial distribution (or layout) of the PI-containers when they are stacked in a higher-level container, so called composite container. To do this, we propose to exploit the intelligence and the activeness concepts of each PI container which is equipped with wireless sensor node. Hence, the composition of a composite PI containers constitutes an adhoc network of sensor nodes. From neighborhood relationships between these nodes, we show in this thesis that it is possible to construct the spatial 3D layout of the PI-containers and control at any time and at any place the effective compliance between the real composition and the data stored in the information system
Styles APA, Harvard, Vancouver, ISO, etc.
19

Thierry, Raphaël. « Correction de l'atténuation et de la réponse géométrique d'un détecteur en tomographie d'émission sur colis de déchets nucléaires ». Phd thesis, Université Joseph Fourier (Grenoble), 1999. http://tel.archives-ouvertes.fr/tel-00004856.

Texte intégral
Résumé :
La tomographie d'émission multiphotonique est une technique de contrôle non destructif appliquée au contrôle des colis de déchets radioactifs. Les rayonnements gammas émis sont détectés sur la gamme [50 keV, 2 MeV] par un germanium hyper pur, de haute résolution en énergie, ce qui permet d'établir une carte détaillée des radioéléments contenus dans le colis. A partir des différents points de mesures situés dans un plan transaxial au colis, un algorithme de reconstruction permet d'estimer la distribution de l'activité. Une modélisation algébrique du processus a été développée afin de pouvoir corriger des phénomènes perturbateurs, en particulier l'atténuation et la réponse géométrique du détecteur. L'atténuation à travers les matériaux constituant le colis est le phénomène prépondérant : elle permet une quantification précise de l'activité. Sa prise en compte est réalisée grâce à une carte d'atténuation obtenue par un tomographe de transmission. La réponse géométrique de détection, opérant un flou sur le faisceau de détection, est modélisée analytiquement. La bonne modélisation de ces phénomènes est primordiale : elle conditionne, dans une grande partie, la qualité de l'image et sa quantification. La reconstruction des images, nécessitant la résolution de systèmes matriciels creux, est réalisée par des algorithmes itératifs. Du fait du caractère "mal-posé" de la reconstruction tomographique, il est nécessaire d'utiliser une régularisation : la stabilisation des méthodes s'opère par l'introduction d'information a priori sur la solution. Le critère à minimiser choisi est celui du Maximum A Posteriori. Sa résolution est envisagée par un algorithme de régularisation semi-quadratique : il permet la préservation les discontinuités naturelles, et évite ainsi le surlissage global de l'image. Elle est évaluée sur des fantômes réels et des colis de déchets. Enfin l'échantillonnage efficace des mesures est abordé.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie