Dissertations / Theses on the topic 'Virtualized Data Center'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the top 16 dissertations / theses for your research on the topic 'Virtualized Data Center.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.
Tayachi, Zeineb. "Sûreté de fonctionnement et provisionnement éco-énergétique dans les centres de données virtualisés IaaS." Electronic Thesis or Diss., Paris, CNAM, 2021. http://www.theses.fr/2021CNAM1292.
Full textCloud computing allows users to exploit services such as infrastructures, platforms, applications, ...This allows a considerable cost and time saving since users do not need buying and managing of equipment. Moreover, they just pay the resources used (pay-as-you go). With the increasing large-scale applications and the need to store huge quantities of data, data centers have been widely deployed. However, studies have shown the under utilization of resources. Therefore, Cloud providers resort to virtualization technologies that are adopted by data center architectures and virtualized data centres have been deployed. A Virtualized Data Center is a data center where some or all of the hardware (e.g, servers, routers, switches, and links) are virtualized by using software called hypervisor that divides the equipment into multiple isolated and independent virtual instances (e.g virtual machines (VMs)). However, equipment performance can be mitigated due to several phenomena such as software aging. In this thesis, we focus on performance evaluation of two components in the data centers which are the virtualized server and the virtual switch, by usingmodeling formalisms. The first contribution concerns performability modeling and analysis of server virtualized systems subject to software aging, software rejuvenation and implements an energy management policy. A modular approach based on SRNs is proposed to investigate dependencies between several server virtualized modules. Numerical analysis shows how workload with bursty nature impacts performability metrics. This can handle decision making related to rejuvenation scheduling algorithms and to select the suitable rejuvenation mechanism. The second contribution concerns virtual switch (VS) which is considered as key element in data center networks since it achieves the communication between virtual machines. An analytical queueing model with batch arrivals and server vacations is proposed to evaluate VS performance with several network interface cards and several CPU cores. Performance metrics are obtained as a function of two proposed batch acceptance strategies and mean batch size. Numerical results aremeaningful when sizing virtual switch resources
Goiri, Íñigo. "Multifaceted resource management on virtualized providers." Doctoral thesis, Universitat Politècnica de Catalunya, 2011. http://hdl.handle.net/10803/80487.
Full textKundu, Sajib. "Improving Resource Management in Virtualized Data Centers using Application Performance Models." FIU Digital Commons, 2013. http://digitalcommons.fiu.edu/etd/874.
Full textFeller, Eugen. "Autonomic and Energy-Efficient Management of Large-Scale Virtualized Data Centers." Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00785090.
Full textFeller, Eugen. "Automatic and energy-efficient management of large scale virtualized data centers." Rennes 1, 2012. http://www.theses.fr/2012REN1S136.
Full textLarge-scale virtualized data centers now require cloud providers to implement scalable, autonomic, and energy-efficient cloud management systems. To address these challenges this thesis proposes Snooze, a novel highly available, easy to configure, and energy-efficient Infrastructure-as-a-Service (IaaS) cloud management system. For scalability and high availability Snooze integrates a self-configuring and healing hierarchical architecture. To achieve energy efficiency Snooze integrates a holistic energy management approach via virtual machine (VM) resource utilization monitoring, server underload/overload mitigation, VM consolidation, and power management. A robust Snooze prototype was developed and extensively evaluated on the Grid'5000 testbed using realistic applications. The experiments have proven Snooze to be scalable, highly available and energy-efficient. One way to favor servers idle times in IaaS clouds is to perform energy-efficient VM placement and consolidation. This thesis proposes a novel VM placement algorithm based on the Ant Colony Optimization (ACO) meta-heuristic. Simulation results have shown that the proposed algorithm computes close to optimal solutions and outperforms the evaluated First-Fit Decreasing algorithm at the cost of decreased scalability. To enable scalable VM consolidation, this thesis makes two further contributions: (i) an ACO-based VM consolidation algorithm; (ii) a fully decentralized VM consolidation system based on an unstructured peer-to-peer network of servers. Emulation conducted on the Grid'5000 testbed has proven our system to be scalable as well as to achieve data center utilization close to the one of a centralized system
Tesfatsion, Kostentinos Selome. "A Combined Frequency Scaling and Application Elasticity Approach for Energy-Efficient Virtualized Data Centers." Thesis, Umeå universitet, Institutionen för datavetenskap, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-85211.
Full textSpinner, Simon [Verfasser], Samuel [Gutachter] Kounev, and Kurt [Gutachter] Geihs. "Self-Aware Resource Management in Virtualized Data Centers / Simon Spinner ; Gutachter: Samuel Kounev, Kurt Geihs." Würzburg : Universität Würzburg, 2017. http://d-nb.info/1141576945/34.
Full textBožić, Nikola. "Blockchain technologies and their application to secure virtualized infrastructure control." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS596.
Full textBlockchain is a technology making the shared registry concept from distributed systems a reality for a number of application domains, from the cryptocurrency one to potentially any industrial system requiring decentralized, robust, trusted and automated decision making in a multi-stakeholder situation. Nevertheless, the actual advantages in using blockchain instead of any other traditional solution (such as centralized databases) are not completely understood to date, or at least there is a strong need for a vademecum guiding designers toward the right decision about when to adopt blockchain or not, which kind of blockchain better meets use-case requirements, and how to use it. At first, we aim at providing the community with such a vademecum, while giving a general presentation of blockchain that goes beyond its usage in Bitcoin and surveying a selection of the vast literature that emerged in the last few years. We draw the key requirements and their evolution when passing from permissionless to permissioned blockchains, presenting the differences between proposed and experimented consensus mechanisms, and describing existing blockchain platforms. Furthermore, we present the B-VMOA blockchain to secure virtual machine orchestration operations for cloud computing and network functions virtualization systems applying the proposed vademecum logic. Using tutorial examples, we describe our design choices and draw implementation plans. We further develop the vademecum logic applied to cloud orchestration and how it can lead to precise platform specifications. We capture the key system operations and complex interactions between them. We focus on the last release of Hyperledger Fabric platform as a way to develop B-VMOA system. Besides, Hyperledger Fabric optimizes conceived B-VMOA network performance, security, and scalability by way of workload separation across: (i) transaction execution and validation peers, and (ii) transaction ordering nodes. We study and use a distributed execute-order-validate architecture which differentiates our conceived B-VMOA system from legacy distributed systems that follow a traditional state-machine replication architecture. We parameterize and validate our model with data collected from a realistic testbed, presenting an empirical study to characterize system performance and identify potential performance bottlenecks. Furthermore, we present the tools we used, the network setup and the discussion on empirical observations from the data collection. We examine the impact of various configurable parameters to conduct an in-dept study of core components and benchmark performance for common usage patterns. Namely, B-VMOA is meant to be run within data center. Different data center interconnection topologies scale differently due to communication protocols. Enormous challenges appear to efficiently design the network interconnections so that the deployment and maintenance of the infrastructure is cost-effective. We analyze the structural properties of several DCN topologies and also present some comparison among these network architectures with the aim to reduce B-VMOA overhead costs. From our analysis, we recommend the hypercube topology as a solution to address the performance bottleneck in the B-VMOA control plane caused by gossip dissemination protocol along with an estimate of performance improvement
Le, Louët Guillaume. "Maîtrise énergétique des centres de données virtualisés : D'un scénario de charge à l'optimisation du placement des calculs." Phd thesis, Ecole des Mines de Nantes, 2014. http://tel.archives-ouvertes.fr/tel-01044650.
Full textWolke, Andreas [Verfasser], Martin [Akademischer Betreuer] Bichler, and Georg [Akademischer Betreuer] Carle. "Energy efficient capacity management in virtualized data centers / Andreas Wolke. Gutachter: Georg Carle ; Martin Bichler. Betreuer: Martin Bichler." München : Universitätsbibliothek der TU München, 2015. http://d-nb.info/1070372390/34.
Full textRabbani, Md. "Resource Management in Virtualized Data Center." Thesis, 2014. http://hdl.handle.net/10012/8280.
Full textSpinner, Simon. "Self-Aware Resource Management in Virtualized Data Centers." Doctoral thesis, 2017. https://nbn-resolving.org/urn:nbn:de:bvb:20-opus-153754.
Full textUnternehmensanwendungen in virtualisierten Rechenzentren unterliegen häufig zeitabhängigen Arbeitslasten, d.h. die Lastintensität und der Anfragemix ändern sich mit der Zeit wegen saisonalen Mustern und Trends, sowie unvorhergesehenen Lastspitzen bei den Nutzeranfragen. Variierende Arbeitslasten führen dazu, dass sich die Ressourcenanforderungen an die darunterliegende Hardware-Infrastruktur häufig ändern. Virtualisierungstechniken erlauben die gemeinsame Nutzung und bedarfsgesteuerte Zuteilung von Hardware-Ressourcen zwischen mehreren Anwendungen. In diesem Zusammenhang sollte die Zuteilung von Ressourcen an virtualisierte Anwendungen fortwährend in einer elastischen Art und Weise angepasst werden, um sicherzustellen, dass "zu jedem Zeitpunkt die verfügbaren Ressourcen dem derzeitigen Bedarf möglichst genau entsprechen" (Herbst et al., 2013). Autonome Ansätze zur Ressourcenverwaltung versprechen eine deutliche Steigerung der Ressourceneffizienz wobei Verletzungen der Anforderungen hinsichtlich Performanz und Verfügbarkeit bei Lastspitzen vermieden werden. Herkömmliche Ansätze zur autonomen Ressourcenverwaltung nutzen feste Regeln (z.B., Amazon EC2), die vordefinierte Rekonfigurationen durchführen sobald eine Metrik einen bestimmten Schwellwert erreicht (z.B., hohe Ressourcenauslastung oder ungleichmäßige Lastverteilung). Viele geschäftskritische Anwendungen unterliegen jedoch Zielvorgaben hinsichtlich der Dienstgüte (SLO, engl. Service Level Objectives), die auf Performanzmetriken der Anwendung definiert sind (z.B., Antwortzeit oder Durchsatz). Die Bestimmung von Schwellwerten, sodass die Ende-zu-Ende Anwendungs-SLOs erfüllt werden, stellt aufgrund des komplexen Zusammenspiels zwischen der Ressourcenzuteilung und der Performanz einer Anwendung eine bedeutende Herausforderung dar. Des Weiteren sind Ansätze basierend auf Schwellwerten inhärent anfällig für Oszillationen, die zu überflüssigen Rekonfigurationen führen können. Um die Schwächen schwellwertbasierter Ansätze zu lösen und einen vollständig automatisierten Ansatz zur dynamischen Steuerung von Ressourcenzuteilungen virtualisierter Anwendungen zu ermöglichen, bedarf es modellbasierter Ansätze, die den Einfluss einer Rekonfiguration auf die Performanz einer Anwendung im Voraus vorhersagen können. Bestehende modellbasierte Ansätze sind jedoch stark eingeschränkt hinsichtlich ihrer Lernfähigkeiten. Sie erfordern entweder vollständige Performanzmodelle der Anwendung als Eingabe oder nutzen vorbestimmte Modellstrukturen und lernen nur bestimmte Modellparameter auf Basis von empirischen Daten zur Laufzeit. Erstere erfordern hohe manuelle Aufwände und eine tiefe Systemkenntnis um die Performanzmodelle zu erstellen. Letztere bieten nur eingeschränkte Möglichkeiten um die Besonderheiten von komplexen und heterogenen Systemarchitekturen zu erfassen. Diese Arbeit stellt einen selbstwahrnehmenden (engl. self-aware) Ansatz zur Ressourcenverwaltung in virtualisierten Rechenzentren vor. In diesem Zusammenhang bedeutet Selbstwahrnehmung, dass der Ansatz automatisch Performanzmodelle der Anwendung und der virtualisierten Infrastruktur lernt Basierend auf diesen Modellen entscheidet er autonom wie die Ressourcenzuteilungen angepasst werden, um die Anwendungs-SLOs zu erfüllen. Das Lernen von Performanzmodellen erfordert sowohl die Extraktion der Modellstruktur, die die Systemarchitektur abbildet, als auch die Schätzung von Modellparametern, wie zum Beispiel der Ressourcenverbräuche einzelner Funktionen. Die Schätzung der Ressourcenverbräuche stellt hier eine zentrale Herausforderung dar, da diese in den meisten Systemen nicht direkt gemessen werden können. Die wissenschaftlichen Hauptbeiträge dieser Arbeit sind wie folgt: - Eine Referenzarchitektur, die das Lernen von Modellen in virtualisierten Systemen während des Betriebs ermöglicht. Unsere Referenzarchitektur basiert auf einer Menge von Modellextraktionsagenten. Jeder Agent fokussiert sich auf bestimmte Aufgaben um automatisch ein Modellskeleton, das sein lokales Wissen über das System erfasst, zu erstellen und zu aktualisieren. Jeder Agent arbeitet mit anderen Agenten zusammen um die strukturellen Teile eines globalen Performanzmodells des Systems zu extrahieren. Die Rereferenzarchitektur definiert unterschiedliche Agentenrollen und beinhaltet einen modellbasierten Mechanismus, der die Kooperation unterschiedlicher Agenten ermöglicht. Die Agenten können als Teil virtuellen Appliances gebündelt werden und können dabei maßgeschneidertes Wissen über die Software-Strukturen in dieser virtuellen Appliance beinhalten. - Eine Methode zur fortwährenden statistischen Schätzung von Ressourcenverbräuchen. Der Ressourcenverbrauch (engl. resource demand) einer Anfrage, die von einer Anwendung verarbeitet wird, entspricht der Zeit, die an einer spezifischen Ressource im System (z.B., CPU oder I/O-Gerät) verbraucht wird. Eine Anfrage kann dabei eine beliebige Arbeitseinheit, die von einem System verarbeitet wird, darstellen (z.B. eine Webseitenanfrage, eine Datenbanktransaktion, oder ein Stapelverarbeitungsauftrag). Die vorliegende Arbeit bietet eine Systematisierung existierender Ansätze zur statistischen Schätzung von Ressourcenverbräuchen und führt einen umfangreichen, auf Experimenten aufbauenden Vergleich zur Bewertung der Genauigkeit dieser Ansätze durch. Es wird eine neuartige Methode zur automatischen Auswahl eines Schätzverfahrens vorgeschlagen und gezeigt, dass diese die Robustheit und Genauigkeit der geschätzten Ressourcenverbräuche maßgeblich verbessert. - Modellbasierte Regler für das autonome, vertikale Skalieren von virtualisierten Anwendungen. Es werden zwei Regler entworfen, die auf modellbasierten Entscheidungstechniken basieren, um Anwendungen zur Laufzeit vertikal in Übereinstimmung mit Anwendungs-SLOs zu skalieren. Die Regler nutzen das Wissen aus automatisch extrahierten Performanzmodellen bei der Bestimmung notwendiger Rekonfigurationen. Der erste Regler fügt virtuelle CPUs zu Anwendungen hinzu und entfernt sie wieder in Abhängigkeit vom aktuellen Bedarf. Er nutzt ein geschichtetes Performanzmodell, um bei der Bestimmung der benötigten Ressourcen die Konkurrenzsituation der physikalischen Ressourcen zu beachten. Der zweite Regler passt Ressourcenzuteilungen proaktiv an, um die Verfügbarkeit einer Anwendung während Lastspitzen sicherzustellen und Rekonfigurationen unter großer Last zu vermeiden. Die Arbeit demonstriert die Anwendbarkeit unseres Ansatzes in aktuellen virtualisierten Umgebungen und zeigt seine Effektivität bei der Erhöhung der Ressourceneffizienz und der Verbesserung der Anwendungsperformanz und -verfügbarkeit unter zeitabhängigen Arbeitslasten. Die Evaluation des Ansatzes basiert auf zwei Fallstudien, die repräsentativ für gängige Unternehmensanwendungen in virtualisierten Rechenzentren sind. In den Fallstudien wurde eine Reduzierung der benötigten CPU-Ressourcen von bis zu 23% und der Anzahl der Rekonfigurationen von bis zu 95% im Vergleich zu regel-basierten Ansätzen erreicht, bei gleichzeitiger Erfüllung der Anwendungs-SLOs. Mit Hilfe von Vorhersagetechniken für die Arbeitslast konnten außerdem aufwändige Rekonfigurationen (z.B., Änderungen bei der Menge an zugewiesenem Arbeitsspeicher) so geplant werden, dass sie in Phasen geringer Last durchgeführt werden. Dadurch konnten deren Auswirkungen auf die Verfügbarkeit der Anwendung um mehr als 80% verringert werden bei gleichzeitiger Verbesserung der Anwendungsperformanz verglichen mit einem reaktiven Regler. Die Methoden und Techniken zur Schätzung von Ressourcenverbräuchen und zur vertikalen Skalierung von Anwendungen wurden in enger Zusammenarbeit mit VMware und Google entwickelt und evaluiert
Marotta, Antonio. "Architectures and Algorithms for Resource Management in Virtualized Cloud Data Centers." Tesi di dottorato, 2015. http://www.fedoa.unina.it/10416/1/marotta_antonio_27.pdf.
Full textLin, An-Dee, and 林安笛. "Capacity Planning and Goodput Optimization for Virtualized Data Centers with Composable Systems." Thesis, 2018. http://ndltd.ncl.edu.tw/handle/g3nfka.
Full text國立臺灣大學
電信工程學研究所
106
Recent research trends exhibit a growing imbalance between the demands of tenants’ software applications and the provisioning of hardware resources. Misalignment of demand and supply gradually hinders workloads from being efficiently mapped to fixed-sized server nodes in traditional data centers. The incurred resource holes not only lower infrastructure utilization but also cripple the capability of a data center for hosting large-sized workloads. This deficiency motivates the development of a new rack-wide architecture referred to as the composable system. The composable system transforms traditional server racks of static capacity into a dynamic compute platform. Specifically, this novel architecture aims to link up all compute components that are traditionally distributed on traditional server boards, such as central processing unit (CPU), random access memory (RAM), storage devices, and other application-specific processors. By doing so, a logically giant compute platform is created and this platform is more resistant against the variety of workload demands by breaking the resource boundaries among traditional server boards. This research is divided into three parts. In the first part, we introduce the concepts of this reconfigurable architecture and design a framework of the composable system for cloud data centers. We then develop mathematical models to describe the resource usage patterns on this platform and enumerate some types of workloads that commonly appear in data centers. From the simulations, we show that the composable system sustains nearly up to 1.6 times stronger workload intensity than that of traditional systems and it is insensitive to the distribution of workload demands. This demonstrates that this composable system is indeed an effective solution to support cloud data center services. In the next part, we extend the framework from a single data center into a network of data centers, where each of them is geographic distributed in the serving area. A workload may need to migrate to the data center that close to its tenants for lower transmission delay. The migration may happen multiple times during its runtime, conditioned on the mobility of its tenants. We develop a two-tier model to tell the overall resource usage patterns. The mobility patterns of tenants are transformed into the effective arrival rates to each data center. Under the conditions of the Poisson arrivals of incoming workloads and probabilistic mobility patterns, the resource usage patterns of each data center can be calculated in parallel. In the last part, we turn our viewpoint to the communication links between workloads. An integrated application may consist of multiple workloads which run inside dedicated VMs. These VMs form a logical network which is physically distributed in the network of data centers. However, traditional protocols used in local area networks may not be applicable for data center networks due to the difference in network topology. Recent research suggests that layer-2-in-layer-3 tunneling protocols may be the solution to address the challenges. We find via testbed experiments that directly applying these tunneling protocols toward network virtualization only results in poor performance due to the scalability problems. Specifically, we observe that the bottlenecks actually reside inside the servers. We then propose a CPU offloading mechanism that exploits a packet steering function to balance packet processing among available CPU threads, thus greatly improving network performance. Compared to a virtualized network created based on VXLAN, our scheme improves the bandwidth for up to almost 300 percent on a 10 Gb/s link between a pair of tunnel endpoints.
Hoyer, Marko [Verfasser]. "Resource management in virtualized data centers regarding performance and energy aspects / vorgelegt von Marko Hoyer." 2011. http://d-nb.info/101313575X/34.
Full textVINUEZA, NARANJO PAOLA GABRIELA. "Energy Saving in QoS Fog-supported Data Centers." Doctoral thesis, 2018. http://hdl.handle.net/11573/1081356.
Full text