Academic literature on the topic 'Centre de données cloud'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Centre de données cloud.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Centre de données cloud"

1

Florentin N’guena Yamalet, Ulrich, César Toutourlou, Abdoulaye Diakité, Tiburce Yafondo, Pierre Bruneteau, Mathias Blangis, Jean françois Coste, and Jean François Lavalle. "Traitement Des Fractures Thalamiques Du Calcanéus Par Enclouage Verrouillé À Foyer Fermé « Type Calcanail » : Résultats Clinique, Fonctionnel Et Radiologique À Propos De 16 Cas Au Centre Hospitalier De La Côte Basque (France)." European Scientific Journal, ESJ 18, no. 17 (May 31, 2022): 68. http://dx.doi.org/10.19044/esj.2022.v18n17p68.

Full text
Abstract:
Les fractures du calcanéum sont peu fréquentes et s’accompagnent souvent des séquelles graves. Nous rapportons une série de 16 cas, tous traités par clou verrouillé dans le service de traumatologie orthopédie du centre hospitalier de Bayonne (France). L’objectif de ce travail rétrospectif continu était d’évaluer les résultats cliniques, fonctionnel et radiologique du traitement chirurgical des fractures articulaires du calcanéum, à travers notre série de 16 patients opérés et suivis sur une période de 5 ans, et les comparer aux données de la littérature. L’âge moyen dans notre série était de 43 ans, tous nos patients avaient bénéficié d’une réduction à foyer fermé par distraction et une ostéosynthèse par clou verrouillé. Le recul moyen était de 18 mois et les résultats fonctionnels ont été évalués selon le score de Kitaoka, excellant dans 68,75%, Bon 18,75%, moyen 6,25% un mauvais cas 6,25%. Calcaneal fractures are infrequent and often have serious sequelae. We report a series of 16 cases all treated with a locked nail in the orthopedic traumatology department of the Bayonne hospital center (France). The objective of this continuous retrospective work was to evaluate the clinical, functional and radiological results of the surgical treatment of articular fractures of the calcaneus, through our series of 16 patients operated and followed over a period of 5 years, and to compare them with the data. of literature. The mean age in our series was 43 years, all of our patients had undergone distraction, closed reduction and locked nail osteosynthesis. The mean follow-up was 18 months and the functional results were evaluated according to the Kitaoka score, excelling in 68.75%, Good 18.75%, average 6.25% a bad case 6.25%.
APA, Harvard, Vancouver, ISO, and other styles
2

Ha, Nguyen Nhu. "Les principales questions juridiques posées par l’informatique en nuage." Science & Technology Development Journal - Economics - Law and Management 2, no. 3 (January 20, 2019): 80–88. http://dx.doi.org/10.32508/stdjelm.v2i3.522.

Full text
Abstract:
Résumé—Les implications juridiques de l’utilisation de solutions de Cloud computing sont largement similaires à celles de tout contrat d’externalisation avec une tierce partie. Une différence majeure en utilisant un fournisseur de Cloud découle de la souplesse du mouvement des données entre les serveurs qui peuvent être situés dans diverses parties du monde. Il est donc difficile de déterminer quelle loi s’applique à un moment donné pour les données, notamment parce que les données peuvent également avoir été fragmentées en fonction notamment de la disponibilité ou de la capacité du service Cloud. Cet article recense les principales questions juridiques posées par l’informatique en nuage afin de déterminer l’ordre juridique qui assure une protection adéquate.
APA, Harvard, Vancouver, ISO, and other styles
3

Harvey, C. C., C. Huc, and M. Nonon-Latapie. "Centre de données de la physique des plasmas." Advances in Space Research 31, no. 5 (March 2003): 1291–95. http://dx.doi.org/10.1016/s0273-1177(02)00943-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Gervais, M. J., François Chagnon, and André Paccioni. "Augmenter l’utilisation des données probantes par les intervenants et les gestionnaires en centre jeunesse." Service social 57, no. 1 (October 20, 2011): 49–62. http://dx.doi.org/10.7202/1006247ar.

Full text
Abstract:
Depuis une dizaine d’années, une importance accrue est accordée à l’utilisation des données probantes afin d’améliorer la qualité des services psychosociaux offerts aux jeunes et aux familles en difficulté. Malgré cet intérêt, la connaissance des conditions favorables afin de soutenir l’utilisation des données probantes dans les milieux d’intervention est limitée et doit être développée. En se fondant sur l’examen de la littérature et sur une recherche qualitative, la présente étude examine les besoins, en matière de données probantes, de 15 gestionnaires et 15 intervenants travaillant en centre jeunesse au Québec. L’étude suggère que la production de données adaptées aux besoins des intervenants et des gestionnaires, présentées dans un format adéquat et respectant les standards de validité scientifique, permet de favoriser leur utilisation.
APA, Harvard, Vancouver, ISO, and other styles
5

Rajput, Ravindra Kumar Singh, Dinesh Goyal, Anjali Pant, Gajanand Sharma, Varsha Arya, and Marjan Kuchaki Rafsanjani. "Cloud Data Centre Energy Utilization Estimation." International Journal of Cloud Applications and Computing 12, no. 1 (January 1, 2022): 1–16. http://dx.doi.org/10.4018/ijcac.311035.

Full text
Abstract:
Due to the growth of the internet and internet-based software applications, cloud data center demand has increased. Cloud data centers have thousands of servers that are 24×7 working for users; it is the strong witness of enormous energy consumption for the operation of the cloud data center. However, server utilization is not remaining the same all the time, so, from an economic feasibility point of view, energy management is an essential activity for cloud resource management. Some well-known energy management techniques for cloud data centers generally used are dynamic voltage and frequency scaling (DVFS), dynamic power management (DPM), and task scheduling-based techniques. The present work is based on an analytical approach to integrating resource provisioning with sophisticated task scheduling; the authors estimate energy utilization by cloud data centers using iDR cloud simulator. The work is intended to optimize power consumption in the cloud data center.
APA, Harvard, Vancouver, ISO, and other styles
6

Perrault, Francine, and Daniel Fortin. "Vécu et perception des usagers d’un centre de crise." Santé mentale au Québec 18, no. 1 (September 11, 2007): 287–301. http://dx.doi.org/10.7202/032260ar.

Full text
Abstract:
RÉSUMÉ Le texte rapporte les résultats d'une série d'entrevues semi-dirigées effectuées auprès de cinquante anciens usagers d'un centre de crise. Les données recueillies portent sur le vécu des résidants et leurs appréciations des services fournis, des intervenants et des résultats de l'intervention faite par le centre.
APA, Harvard, Vancouver, ISO, and other styles
7

Andreoli, Rémi, Benoît Ducarouge, Jonathan Maura, Audrey Leopold, Pierre-Nicolas Mougel, Arnaud Durand, Cyril Marchand, et al. "L'imagerie spatiale à très haute résolution au coeur du dispositif de Geospatial Cloud Computing QëhnelöTM : application aux données Pléiades en Nouvelle-Calédonie." Revue Française de Photogrammétrie et de Télédétection, no. 209 (January 11, 2015): 47–57. http://dx.doi.org/10.52638/rfpt.2015.185.

Full text
Abstract:
La Nouvelle-Calédonie est un archipel situé dans le sud-ouest de l'océan Pacifique. Il concentre les principales particularités des pays insulaires du Pacifique:à®les entourées par un lagon fermé par des récifs coralliens et couvertes par une végétation typique; exposées à aux risques littoraux majeurs (ouragan, tsunami, changement climatique et élévation du niveau marin) (Mimoura 1999). Les données de télédétection à partir de satellites d'observation de la Terre constituent l'une des principales sources d'information sur l'environnement. Au cours des 40 dernières années, la qualité, la précision, la couverture et la répétitivité des données de télédétection ont été constamment améliorés. La constellation Pléiade offre depuis 2012 la possibilité de recueillir des données mutlispectrales tri-stéréoscopiques à 70 cm de résolution dont le potentiel pour fournir des informations utiles aux décideurs en Nouvelle-Calédonie a été évalué sur le suivi des mangroves, la cartographie de l'érosion des sols et la vulnérabilité aux aléas cyclonique et tsunami. Le défi majeur est donc de fournir aux décideurs la bonne information au bon moment et d'une manière conviviale à partir de ce type de données. Le Geospatial Cloud Computing de QëhnelöTM permet le développement de plateformes Web capables de se connecter à des bases de données distribuées, exploiter les données, exécuter des processus distants d'analyse et de modélisation. Il permet ainsi la combinaison de données de télédétection avec des données distribuées dans des outils d'analyse spatiale pour suivre l'environnement soumis aux contraintes sociales et industrielles pour une prise de décision efficace par des non-spécialistes.
APA, Harvard, Vancouver, ISO, and other styles
8

Barrandon, Jean-Noël. "L'expérience du centre Ernest Babelon dans le traitement des données." Le médiéviste et l'ordinateur 1, no. 1 (1990): 57–61. http://dx.doi.org/10.3406/medio.1990.1233.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Rijo da Fonseca Lino, Maria Teresa. "Base de données textuelles et terminographiques." Meta 39, no. 4 (September 30, 2002): 786–89. http://dx.doi.org/10.7202/003951ar.

Full text
Abstract:
Résumé L'informatique d'oriention textuelle, domaine relativement nouveau, a beaucoup contribué à une évolution rapide de la lexicographie et de la terminologie. Depuis janvier 1991, nous organisons une base de données textuelles du portugais dans le cadre du Centre d'Études Comparées de l'Université Nouvelle de Lisbonne. Cette base est constituée surtout par des textes scientifiques et techniques, de vulgarisation, mais aussi par un nombre imponant de textes de langue courante. Dans cet article, nous mettons l'accent sur la scannérisation et les critères d'organisation de la base textuelle : la sélection de textes scientifiques concernant les différentes recherches en terminologie; l'utilisation d'hypertextes.
APA, Harvard, Vancouver, ISO, and other styles
10

Rey, Grégoire, Agathe Lamarche-Vadel, and Éric Jougla. "Comment mesure-t-on les causes de décès en France ?" Questions de santé publique, no. 21 (June 2013): 1–4. http://dx.doi.org/10.1051/qsp/2013021.

Full text
Abstract:
L’Inserm est en charge de la production des données sur les causes de décès depuis 1968. La base de données alimentée par les 540000 décès annuels, et gérée par le Centre d’épidémiologie sur les causes médicales de décès (CépiDc)1, inclut pour chaque décès des données médicales, sociodémographiques et géographiques. Ces données sont diffusées par différents biais (site internet, requêtes spécifiques, publications…), et des travaux réguliers sont effectués par le CépiDc pour évaluer et améliorer leur qualité. Les analyses réalisées à partir de cette base de données ont permis de mettre en évidence certaines spécificités importantes de la mortalité en France comparée à celle d’autres pays: niveau très élevé des causes de décès liées aux conduites à risque et évitables grâce à la prévention primaire, et fortes inégalités spatiales, sociales et par sexe de la mortalité.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Centre de données cloud"

1

Tudoran, Radu-Marius. "High-Performance Big Data Management Across Cloud Data Centers." Electronic Thesis or Diss., Rennes, École normale supérieure, 2014. http://www.theses.fr/2014ENSR0004.

Full text
Abstract:
La puissance de calcul facilement accessible offerte par les infrastructures clouds, couplés à la révolution du "Big Data", augmentent l'échelle et la vitesse auxquelles l'analyse des données est effectuée. Les ressources de cloud computing pour le calcul et le stockage sont répartis entre plusieurs centres de données de par le monde. Permettre des transferts de données rapides devient particulièrement important dans le cadre d'applications scientifiques pour lesquels déplacer le traitement proche de données est coûteux voire impossible. Les principaux objectifs de cette thèse consistent à analyser comment les clouds peuvent devenir "Big Data - friendly", et quelles sont les meilleures options pour fournir des services de gestion de données aptes à répondre aux besoins des applications. Dans cette thèse, nous présentons nos contributions pour améliorer la performance de la gestion de données pour les applications exécutées sur plusieurs centres de données géographiquement distribués. Nous commençons avec les aspects concernant l'échelle du traitement de données sur un site, et poursuivons avec le développements de solutions de type MapReduce permettant la distribution des calculs entre plusieurs centres. Ensuite, nous présentons une architecture de service de transfert qui permet d'optimiser le rapport coût-performance des transferts. Ce service est exploité dans le contexte de la diffusion de données en temps-réel entre des centres de données de clouds. Enfin, nous étudions la viabilité, pour une fournisseur de cloud, de la solution consistant à intégrer cette architecture comme un service basé sur un paradigme de tarification flexible, qualifiée de "Transfert-as-a-Service"
The easily accessible computing power offered by cloud infrastructures, coupled with the "Big Data" revolution, are increasing the scale and speed at which data analysis is performed. Cloud computing resources for compute and storage are spread across multiple data centers around the world. Enabling fast data transfers becomes especially important in scientific applications where moving the processing close to data is expensive or even impossible. The main objectives of this thesis are to analyze how clouds can become "Big Data - friendly", and what are the best options to provide data management services able to meet the needs of applications. In this thesis, we present our contributions to improve the performance of data management for applications running on several geographically distributed data centers. We start with aspects concerning the scale of data processing on a site, and continue with the development of MapReduce type solutions allowing the distribution of calculations between several centers. Then, we present a transfer service architecture that optimizes the cost-performance ratio of transfers. This service is operated in the context of real-time data streaming between cloud data centers. Finally, we study the viability, for a cloud provider, of the solution consisting in integrating this architecture as a service based on a flexible pricing paradigm, qualified as "Transfer-as-a-Service"
APA, Harvard, Vancouver, ISO, and other styles
2

Dumont, Frédéric. "Analyses et préconisations pour les centres de données virtualisés." Thesis, Nantes, Ecole des Mines, 2016. http://www.theses.fr/2016EMNA0249/document.

Full text
Abstract:
Cette thèse présente deux contributions. La première contribution consiste en l’étude des métriques de performance permettant de superviser l’activité des serveurs physiques et des machines virtuelles s’exécutant sur les hyperviseurs VMware et KVM. Cette étude met en avant les compteurs clés et propose des analyses avancées dans l’objectif de détecter ou prévenir d’anomalies liées aux quatreres sources principales d’un centre de données : le processeur, la mémoire, le disque et le réseau. La seconde contribution porte sur un outil pour la détection de machines virtuelles à comportements pré-déterminés et/ou atypiques. La détection de ces machines virtuelles à plusieurs objectifs. Le premier, permettre d’optimiser l’utilisation des ressources matérielles en libérant des ressources par la suppression de machines virtuelles inutiles ou en les redimensionnant. Le second, optimiser le fonctionnement de l’infrastructure en détectant les machines sous-dimensionnées, surchargées ou ayant une activité différente des autres machines virtuelles de l’infrastructure
This thesis presents two contributions. The first contribution is the study of key performance indicators to monitor physical and virtual machines activity running on VMware and KVM hypervisors. This study highlights performance metrics and provides advanced analysis with the aim to prevent or detect abnormalities related to the four main resources of a datacenter: CPU, memory, disk and network. Thesecond contribution relates to a tool for virtual machines with pre-determined and / or atypical behaviors detection. The detection of these virtual machines has several objectives. First, optimize the use of hardware resources by freeing up resources by removing unnecessary virtual machines or by resizing those oversized. Second, optimize infrastructure performance by detecting undersized or overworked virtual machines and those having an atypical activity
APA, Harvard, Vancouver, ISO, and other styles
3

Rostirolla, Gustavo. "Ordonnancement dans un centre de calculs alimenté par des sources d'énergie renouvelables sans connexion au réseau avec une charge de travail mixte basée sur des phases." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30160.

Full text
Abstract:
Les centres de données sont reconnus pour être l'un des principaux acteurs en matière de consommation d'énergie du fait de l'augmentation de l'utilisation du cloud, des services web et des applications de calcul haute performance dans le monde entier. En 2006, les centres de données ont consommé 61,4 milliards de kWh aux états-Unis. Au niveau mondial, les centres de données consomment actuellement plus d'énergie que l'ensemble du Royaume-Uni, c'est-à-dire environ 1,3% de la consommation électrique mondiale, et ils sont de fait appelés les usines de l'ère numérique. Un des moyens d'atténuer le changement climatique est d'alimenter les centres de données en énergie renouvelable (énergie propre). La grande majorité des fournisseurs de cloud computing qui prétendent alimenter leurs centres de données en énergie verte sont en fait connectés au réseau classique et déploient des panneaux solaires et des éoliennes ailleurs puis vendent l'électricité produite aux compagnies d'électricité. Cette approche entraîne des pertes d'énergie lorsque l'électricité traverse le réseau. Même si différents efforts ont été réalisés au niveau informatique dans les centres de données partiellement alimentés par des énergies renouvelables, des améliorations sont encore possibles notamment concernant l'ordonnancement prenant en compte les sources d'énergie renouvelables sur site sans connexion au réseau et leur intermittence. C'est le but du projet ANR DataZERO, dans le cadre duquel cette thèse a été réalisée. L'efficacité énergétique dans les centres de données étant directement liée à la consommation de ressources d'un nœud de calcul, l'optimisation des performances et un ordonnancement efficace des calculs sont essentiels pour économiser l'énergie. La spécificité principale de notre approche est de placer le centre de données sous une contrainte de puissance, provenant entièrement d'énergies renouvelables : la puissance disponible peut ainsi varier au cours du temps. L'ordonnancement de tâches sous ce genre de contrainte rend le problème plus difficile, puisqu'on doit notamment s'assurer qu'une tâche qui commence aura assez d'énergie pour aller jusqu'à son terme. Dans cette thèse, nous commençons par proposer une planification de tâches de type "batch" qui se caractérisent par leur instant d'arrivée, leur date d'échéance et leurs demandes de ressources tout en respectant une contrainte de puissance. Les données utilisées pour les tâches de type batch viennent de traces de centres de données et contiennent des mesures de consommation CPU, mémoire et réseau. Quant aux enveloppes de puissance considérées, elles représentent ce que pourrait fournir un module de décision électrique, c'est-à-dire la production d'énergie prévue (énergie renouvelable seulement) basée sur les prévisions météorologiques. L'objectif est de maximiser la Qualité de Service avec une contrainte sur la puissance électrique. Par la suite, nous examinons une charge de travail composée de tâches de type "batch" et de services, où la consommation des ressources varie au cours du temps. Les tracecs utilisées pour les services proviennent d'une centre de données à "business critique". Dans ce cadre, nous envisageons le concpet de phases, dans lequel les changements significatifs de consommation de resources à l'intérieur d'une même tâche marquent le début d'une nouvelle phase. Nous considérons également un modèle de tâches pouvant recevoir moins de ressources que demandées. Nous étudions l'impact de ce modèle sur le profit du centre de données pour chaque type de tâche. Nous intégrons aussi le concept de "corrélation croisée" pour évaluer où placer une tâche selon une courbe de puissance afin de trouver le meilleur nœud pour placer plusieurs tâches (c.-à-d. Partager les ressources)
Due to the increase of cloud, web-services and high performance computing demands all over the world, datacenters are now known to be one of the biggest actors when talking about energy consumption. In 2006 alone, datacenters were responsible for consuming 61.4 billion kWh in the United States. When looking at the global scenario, datacenters are currently consuming more energy than the entire United Kingdom, representing about 1.3\% of world's electricity consumption, and being even called the factories of the digital age. Supplying datacenters with clean-to-use renewable energy is therefore essential to help mitigate climate change. The vast majority of cloud provider companies that claim to use green energy supply on their datacenters consider the classical grid, and deploy the solar panels/wind turbines somewhere else and sell the energy to electricity companies, which incurs in energy losses when the electricity travels throughout the grid. Even though several efforts have been conducted at the computing level in datacenters partially powered by renewable energy sources, the scheduling considering on site renewable energy sources and its variations, without connection to the grid can still be widely explored. Since energy efficiency in datacenters is directly related to the resource consumption of the computing nodes, performance optimization and an efficient load scheduling are essential for energy saving. Today, we observe the use of cloud computing as the basis of datacenters, either in a public or private fashion. The main particularity of our approach is that we consider a power envelope composed only by renewable energy as a constraint, hence with a variable amount of power available at each moment. The scheduling under this kind of constraint becomes more complex: without further checks, we are not ensured that a running task will run until completion. We start by addressing the IT load scheduling of batch tasks, which are characterized by their release time, due date and resource demand, in a cloud datacenter while respecting the aforementioned power envelope. The data utilized for the batch tasks comes from datacenter traces, containing CPU, memory and network values. The power envelopes considered, represent an estimation which would be provided by a power decision module and is the expected power production based on weather forecasts. The aim is to maximize the Quality of Service with a variable constraint on electrical power. Furthermore, we explore a workload composed by batch and services, where the resources consumption varies over time. The traces utilized for the service tasks originate from business critical datacenter. In this case we rely on the concept of phases, where each significant resource change in the resources consumption constitutes a new phase of the given task. In this task model phases could also receive less resources than requested. The reduction of resources can impact the QoS and consequently the datacenter profit. In this approach we also include the concept of cross-correlation to evaluate where to place a task under a power curve, and what is the best node to place tasks together (i.e. sharing resources). Finally, considering the previous workload of batch tasks and services, we present an approach towards handling unexpected events in the datacenter. More specifically we focus on IT related events such as tasks arriving at any given time, demanding more or less resources than expected, or having a different finish time than what was initially expected. We adapt the proposed algorithms to take actions depending on which event occurs, e.g. task degradation to reduce the impact on the datacenter profit
APA, Harvard, Vancouver, ISO, and other styles
4

Pastor, Jonathan. "Contributions à la mise en place d'une infrastructure de Cloud Computing à large échelle." Thesis, Nantes, Ecole des Mines, 2016. http://www.theses.fr/2016EMNA0240/document.

Full text
Abstract:
La croissance continue des besoins en puissance de calcul a conduit au triomphe du modèle de Cloud Computing. Des clients demandeurs en puissance de calcul vont s’approvisionner auprès de fournisseurs d’infrastructures de Cloud Computing, mises à disposition via Internet. Pour réaliser des économies d’échelles, ces infrastructures sont toujours plus grandes et concentrées en quelques endroits, conduisant à des problèmes tels que l’approvisionnement en énergie, la tolérance aux pannes et l’éloignement des utilisateurs. Cette thèse s’est intéressée à la mise en place d’un système d’IaaS massivement distribué et décentralisé exploitant un réseau de micros centres de données déployés sur la dorsale Internet, utilisant une version d’OpenStack revisitée pendant cette thèse autour du support non intrusif de bases de données non relationnelles. Des expériences sur Grid’5000 ont montré des résultats intéressants sur le plan des performances, toutefois limités par le fait qu’OpenStack ne tirait pas avantage nativement d’un fonctionnement géographiquement réparti. Nous avons étudié la prise en compte de la localité réseau pour améliorer les performances des services distribués en favorisant les collaborations proches. Un prototype de l’algorithme de placement de machines virtuelles DVMS, fonctionnant sur une topologie non structurée basée sur l’algorithme Vivaldi, a été validé sur Grid’5000. Ce prototype a fait l’objet d’un prix scientifique lors de l’école de printemps Grid’50002014. Enfin, ces travaux nous ont amenés à participer au développement du simulateur VMPlaceS
The continuous increase of computing power needs has favored the triumph of the Cloud Computing model. Customers asking for computing power will receive supplies via Internet resources hosted by providers of Cloud Computing infrastructures. To make economies of scale, Cloud Computing that are increasingly large and concentrated in few attractive places, leading to problems such energy supply, fault tolerance and the fact that these infrastructures are far from most of their end users. During this thesis we studied the implementation of an fully distributed and decentralized IaaS system operating a network of micros data-centers deployed in the Internet backbone, using a modified version of OpenStack that leverages non relational databases. A prototype has been experimentally validated onGrid’5000, showing interesting results, however limited by the fact that OpenStack doesn’t take advantage of a geographically distributed functioning. Thus, we focused on adding the support of network locality to improve performance of Cloud Computing services by favoring collaborations between close nodes. A prototype of the DVMS algorithm, working with an unstructured topology based on the Vivaldi algorithm, has been validated on Grid’5000. This prototype got the first prize at the large scale challenge of the Grid’5000 spring school in 2014. Finally, the work made with DVMS enabled us to participate at the development of the VMPlaceS simulator
APA, Harvard, Vancouver, ISO, and other styles
5

Dab, Boutheina. "Optimization of routing and wireless resource allocation in hybrid data center networks." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1068/document.

Full text
Abstract:
L’arrivée de la prochaine technologie 5G va permettre la connectivité des billions de terminaux mobiles et donc une énorme augmentation du trafic de données. A cet égard, les fournisseurs des services Cloud doivent posséder les infrastructures physiques capables de supporter cette explosion de trafic. Malheureusement, les architectures filaires conventionnelles des centres de données deviennent staturées et la congestion des équipements d’interconnexion est souvent atteinte. Dans cette thèse, nous explorons une approche récente qui consiste à augmenter le réseau filaire du centre de données avec l’infrastructure sans fil. En effet, nous exploitons une nouvelle technologie émergente, la technologie 60 GHz, qui assure un débit de l’ordre de 7 Gbits/s afin d’améliorer la QoS. Nous concevons une architecture hybride (filaire/sans fil) du réseau de centre de données basée sur : i) le modèle "Cisco’s Massively Scalable Data Center" (MSDC), et ii) le standard IEEE 802.11ad. Dans une telle architecture, les serveurs sont regroupés dans des racks, et sont interconnectés à travers un switch Ethernet, appelé top-of-rack (ToR) switch. Chaque ToR switch possède plusieurs antennes utilisées en parallèle sur différents canaux sans fil. L’objectif final consiste à minimiser la congestion du réseau filaire, en acheminant le maximum du trafic sur les canaux sans fil. Pour ce faire, cette thèse se focalise sur l’optimisation du routage et de l’allocation des canaux sans fil pour les communications inter-rack, au sein d’un centre de données hybride (HDCN). Ce problème étant NP-difficile, nous allons procéder en trois étapes. En premier lieu, on considère le cas des communications à un saut, où les racks sont placés dans le même rayon de transmission. Nous proposons un nouvel algorithme d’allocation des canaux sans fil dans les HDCN, qui permet d’acheminer le maximum des communications en sans-fil, tout en améliorant les performances réseau en termes de débit et délai. En second lieu, nous nous adressons au cas des communications à plusieurs sauts, où les racks ne sont pas dans le même rayon de transmission. Nous allons proposer une nouvelle approche optimale traitant conjointement le problème du routage et de l’allocation de canaux sans fils dans le HDCN, pour chaque communication, dans un mode online. En troisième étape, nous proposons un nouvel algorithme qui calcule conjointement le routage et l’allocation des canaux pour un ensemble des communications arrivant en mode batch (i.e., par lot). En utilisant le simulateur réseau QualNet, considérant toute la pile TCP/IP, les résultats obtenus montrent que nos propositions améliorent les performances comparées aux méthodes de l’état de l’art
The high proliferation of smart devices and online services allows billions of users to connect with network while deploying a vast range of applications. Particularly, with the advent of the future 5G technology, it is expected that a tremendous mobile and data traffic will be crossing Internet network. In this regard, Cloud service providers are urged to rethink their data center architectures in order to cope with this unprecedented traffic explosion. Unfortunately, the conventional wired infrastructures struggle to resist to such a traffic growth and become prone to serious congestion problems. Therefore, new innovative techniques are required. In this thesis, we investigate a recent promising approach that augments the wired Data Center Network (DCN) with wireless communications. Indeed, motivated by the feasibility of the new emerging 60 GHz technology, offering an impressive data rate (≈ 7 Gbps), we envision, a Hybrid (wireless/wired) DCN (HDCN) architecture. Our HDCN is based on i) Cisco’s Massively Scalable Data Center (MSDC) model and ii) IEEE 802.11ad standard. Servers in the HDCN are regrouped into racks, where each rack is equipped with a: i) Ethernet top-of-rack (ToR) switch and ii) set of wireless antennas. Our research aims to optimize the routing and the allocation of wireless resources for inter-rack communications in HDCN while enhancing network performance and minimizing congestion. The problem of routing and resource allocation in HDCN is NP-hard. To deal with this difficulty, we will tackle the problem into three stages. In the first stage, we consider only one-hop inter-rack communications in HDCN, where all communicating racks are in the same transmission range. We will propound a new wireless channel allocation approach in HDCN to hardness both wireless and wired interfaces for incoming flows while enhancing network throughput. In the second stage, we deal with the multi-hop communications in HDCN where communicating racks can not communicate in one single-hop wireless path. We propose a new approach to jointly route and allocate channels for each single communication flow, in an online way. Finally, in the third stage, we address the batched arrival of inter-rack communications to the HDCN so as to further optimize the usage of wireless and wired resources. For that end, we propose: i) a heuristic-based and ii) an approximate, solutions, to solve the joint batch routing and channel assignment. Based on extensive simulations conducted in QualNet simulator while considering the full protocol stack, the obtained results for both real workload and uniform traces, show that our proposals outperform the prominent related strategies
APA, Harvard, Vancouver, ISO, and other styles
6

Chkirbene, Zina. "Network topologies for cost reduction and QoS improvement in massive data centers." Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCK002/document.

Full text
Abstract:
L'expansion des services en ligne, l'avènement du big data, favorisé par l'internet des objets et les terminaux mobiles, a entraîné une croissance exponentielle du nombre de centres de données qui fournissent des divers services de cloud computing. Par conséquent, la topologie du centre de données est considérée comme un facteur d'influence sur la performance du centre de données. En effet, les topologies des centres de données devraient offrir une latence faible, une longueur de chemin moyenne réduite avec une bande passante élevée. Ces exigences augmentent la consommation énergétique dans les centres de données. Dans cette dissertation, différentes solutions ont été proposées pour surmonter ces problèmes. Tout d'abord, nous proposons une nouvelle topologie appelée LCT (Linked Cluster Topology) qui augmente le nombre de nœuds, améliore la connexion réseau et optimise le routage des données pour avoir une faible latence réseau. Une nouvelle topologie appelée VacoNet (Variable connexion Network) a été également présentée. VacoNet offre un nouveau algorithme qui définit le exact nombre de port par commutateur pour connecter le nombre de serveurs requis tout en réduisant l'énergie consommée et les matériaux inutilisés (câbles, commutateurs). En outre, nous _étudions une nouvelle technique pour optimiser la consumation d'énergie aux centres de données. Cette technique peut périodiquement estimer la matrice de trafic et gérer l'_état des ports de serveurs tout en maintenant le centre de données entièrement connecté. La technique proposée prend en considération le trafic réseau dans la décision de gestion des ports
Data centers (DC) are being built around the world to provide various cloud computing services. One of the fundamental challenges of existing DC is to design a network that interconnects massive number of nodes (servers)1 while reducing DC' cost and energy consumption. Several solutions have been proposed (e.g. FatTree, DCell and BCube), but they either scale too fast (i.e., double exponentially) or too slow. Effcient DC topologies should incorporate high scalability, low latency, low Average Path Length (APL), high Aggregated Bottleneck Throughput (ABT) and low cost and energy consumption. Therefore, in this dissertation, different solutions have been proposed to overcome these problems. First, we propose a novel DC topology called LCT (Linked Cluster Topology) as a new solution for building scalable and cost effective DC networking infrastructures. The proposed topology reduces the number of redundant connections between clusters of nodes, while increasing the numbers of nodes without affecting the network bisection bandwidth. Furthermore, in order to reduce the DCs cost and energy consumption, we propose first a new static energy saving topology called VacoNet (Variable Connection Network) that connects the needed number of servers while reducing the unused materials (cables, switches). Also, we propose a new approach that exploits the correlation in time of internode communication and some topological features to maximize energy saving without too much impacting the average path length
APA, Harvard, Vancouver, ISO, and other styles
7

Ikken, Sonia. "Efficient placement design and storage cost saving for big data workflow in cloud datacenters." Thesis, Evry, Institut national des télécommunications, 2017. http://www.theses.fr/2017TELE0020/document.

Full text
Abstract:
Les workflows sont des systèmes typiques traitant le big data. Ces systèmes sont déployés sur des sites géo-distribués pour exploiter des infrastructures cloud existantes et réaliser des expériences à grande échelle. Les données générées par de telles expériences sont considérables et stockées à plusieurs endroits pour être réutilisées. En effet, les systèmes workflow sont composés de tâches collaboratives, présentant de nouveaux besoins en terme de dépendance et d'échange de données intermédiaires pour leur traitement. Cela entraîne de nouveaux problèmes lors de la sélection de données distribuées et de ressources de stockage, de sorte que l'exécution des tâches ou du job s'effectue à temps et que l'utilisation des ressources soit rentable. Par conséquent, cette thèse aborde le problème de gestion des données hébergées dans des centres de données cloud en considérant les exigences des systèmes workflow qui les génèrent. Pour ce faire, le premier problème abordé dans cette thèse traite le comportement d'accès aux données intermédiaires des tâches qui sont exécutées dans un cluster MapReduce-Hadoop. Cette approche développe et explore le modèle de Markov qui utilise la localisation spatiale des blocs et analyse la séquentialité des fichiers spill à travers un modèle de prédiction. Deuxièmement, cette thèse traite le problème de placement de données intermédiaire dans un stockage cloud fédéré en minimisant le coût de stockage. A travers les mécanismes de fédération, nous proposons un algorithme exacte ILP afin d’assister plusieurs centres de données cloud hébergeant les données de dépendances en considérant chaque paire de fichiers. Enfin, un problème plus générique est abordé impliquant deux variantes du problème de placement lié aux dépendances divisibles et entières. L'objectif principal est de minimiser le coût opérationnel en fonction des besoins de dépendances inter et intra-job
The typical cloud big data systems are the workflow-based including MapReduce which has emerged as the paradigm of choice for developing large scale data intensive applications. Data generated by such systems are huge, valuable and stored at multiple geographical locations for reuse. Indeed, workflow systems, composed of jobs using collaborative task-based models, present new dependency and intermediate data exchange needs. This gives rise to new issues when selecting distributed data and storage resources so that the execution of tasks or job is on time, and resource usage-cost-efficient. Furthermore, the performance of the tasks processing is governed by the efficiency of the intermediate data management. In this thesis we tackle the problem of intermediate data management in cloud multi-datacenters by considering the requirements of the workflow applications generating them. For this aim, we design and develop models and algorithms for big data placement problem in the underlying geo-distributed cloud infrastructure so that the data management cost of these applications is minimized. The first addressed problem is the study of the intermediate data access behavior of tasks running in MapReduce-Hadoop cluster. Our approach develops and explores Markov model that uses spatial locality of intermediate data blocks and analyzes spill file sequentiality through a prediction algorithm. Secondly, this thesis deals with storage cost minimization of intermediate data placement in federated cloud storage. Through a federation mechanism, we propose an exact ILP algorithm to assist multiple cloud datacenters hosting the generated intermediate data dependencies of pair of files. The proposed algorithm takes into account scientific user requirements, data dependency and data size. Finally, a more generic problem is addressed in this thesis that involve two variants of the placement problem: splittable and unsplittable intermediate data dependencies. The main goal is to minimize the operational data cost according to inter and intra-job dependencies
APA, Harvard, Vancouver, ISO, and other styles
8

Salazar, Javier. "Resource allocation optimization algorithms for infrastructure as a service in cloud computing." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB074.

Full text
Abstract:
L’informatique, le stockage des données et les applications à la demande font partie des services offerts par l’architecture informatique en Nuage. Dans ce cadre, les fournisseurs de nuage (FN) agissent non seulement en tant qu’administrateurs des ressources d'infrastructure mais ils profitent aussi financièrement de la location de ces ressources. Dans cette thèse, nous proposons trois modèles d'optimisation du processus d'allocation des ressources dans le nuage dans le but de réduire les coûts générés et d’accroitre la qualité du service rendu. Cela peut être accompli en fournissant au FN les outils formels nécessaires pour réduire au minimum le prix des ressources dédiées à servir les requêtes des utilisateurs. Ainsi, la mise en œuvre des modèles proposés permettra non seulement l’augmentation des revenus du FN, mais aussi l’amélioration de la qualité des services offerts, ce qui enrichira l’ensemble des interactions qui se produisent dans le nuage. A cet effet, nous nous concentrons principalement sur les ressources de l’infrastructure en tant que service (IaaS), lesquels sont contenus dans des centres de données (DCs), et constituent l'infrastructure physique du nuage. Comme une alternative aux immenses DCs centralisés, la recherche dans ce domaine comprend l’installation de petits centres de données (Edge DCs) placés à proximité des utilisateurs finaux. Dans ce contexte nous adressons le problème d’allocation des ressources et pour ce faire nous utilisons la technique d'optimisation nommée génération de colonnes. Cette technique nous permet de traiter des modèles d'optimisation à grande échelle de manière efficace. La formulation proposée comprend à la fois, et dans une seule phase, les communications et les ressources informatiques à optimiser dans le but de servir les requêtes de service d'infrastructure. Sur la base de cette formulation, nous proposons également un deuxième modèle qui comprend des garanties de qualité de service toujours sous la même perspective d'allocation des ressources d’infrastructure en tant que service. Ceci nous permet de fournir plusieurs solutions applicables à divers aspects du même problème, tels que le coût et la réduction des délais, tout en offrant différents niveaux de service. En outre, nous introduisons le scénario informatique en nuage multimédia, qui, conjointement avec l'architecture des Edge DCs, résulte en l'architecture Multimédia Edge Cloud (MEC). Dans ce cadre, nous proposons une nouvelle approche pour l'allocation des ressources dans les architectures informatique en nuage multimédia lors du positionnement de ces DCs afin de réduire les problèmes liés à la communication, tels que la latence et la gigue. Dans cette formulation, nous proposons également de mettre en œuvre des technologies optiques de réseau de fibres pour améliorer les communications entre les DCs. Plusieurs travaux ont proposé de nouvelles méthodes pour améliorer la performance et la transmission de données. Dans nos travaux, nous avons décidé de mettre en œuvre le multiplexage en longueur d'onde (WDM) pour renforcer l'utilisation des liens et les chemins optiques dans le but de grouper différents signaux sur la même longueur d'onde. Un environnement de simulation réel est également présenté pour l’évaluation des performances et de l'efficacité des approches proposées. Pour ce faire, nous utilisons le scénario spécifié pour les DCs, et nous comparons par simulation nos modèles au moyen de différents critères de performances tel que l'impact de la formulation optique sur la performance du réseau. Les résultats numériques obtenus ont montré que, en utilisant nos modèles, le FN peut efficacement réduire les coûts d'allocation en maintenant toujours un niveau satisfaisant quant à l'acceptation de requêtes et la qualité du service
The cloud architecture offers on-demand computing, storage and applications. Within this structure, Cloud Providers (CPs) not only administer infrastructure resources but also directly benefit from leasing them. In this thesis, we propose three optimization models to assist CPs reduce the costs incurred in the resource allocation process when serving users’ demands. Implementing the proposed models will not only increase the CP’s revenue but will also enhance the quality of the services offered, benefiting all parties. We focus on Infrastructure as a Service (IaaS) resources which constitute the physical infrastructure of the cloud and are contained in datacenters (DCs). Following existing research in DC design and cloud computing applications, we propose the implementation of smaller DCs (Edge DCs) be located close to end users as an alternative to large centralized DCs. Lastly, we use the Column Generation optimization technique to handle large scale optimization models efficiently. The proposed formulation optimizes both the communications and information technology resources in a single phase to serve IaaS requests. Based on this formulation, we also propose a second model that includes QoS guarantees under the same Infrastructure as a Service resource allocation perspective, to provide different solutions to diverse aspects of the resource allocation problem such as cost and delay reduction while providing different levels of service. Additionally, we consider the multimedia cloud computing scenario. When Edge DCs architecture is applied to this scenario it results in the creation of the Multimedia Edge Cloud (MEC) architecture. In this context we propose a resource allocation approach to help with the placement of these DCs to reduce communication related problems such as jitter and latency. We also propose the implementation of optical fiber network technologies to enhance communication between DCs. Several studies can be found proposing new methods to improve data transmission and performance. For this study, we decided to implement Wavelength Division Multiplexing (WDM) to strengthen the link usage and light-paths and, by doing so, group different signals over the same wavelength. Using a realistic simulation environment, we evaluate the efficiency of the approaches proposed in this thesis using a scenario specifically designed for the DCs, comparing them with different benchmarks and also simulating the effect of the optical formulation on the network performance. The numerical results obtained show that by using the proposed models, a CP can efficiently reduce allocation costs while maintaining satisfactory request acceptance and QoS ratios
APA, Harvard, Vancouver, ISO, and other styles
9

Politaki, Dimitra. "Vers la modélisation de clusters de centres de données vertes." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4116.

Full text
Abstract:
La consommation énergétique des clusters de centres de données augmente rapidement, ce qui en fait les consommateurs d'électricité à la croissance la plus rapide au monde. Les sources d’électricité renouvelables et en particulier l’énergie solaire en tant qu’énergie propre et abondante peuvent être utilisées pour couvrir leurs besoins en électricité et les rendre «verts», c’est-à-dire alimentés par le photovoltaïque. Ce potentiel peut être exploré en prévoyant l'irradiance solaire et en évaluant la capacité fournie pour les clusters de centres de données. Dans cette thèse, nous développons des modèles stochastiques pour l'énergie solaire; un à la surface de la Terre et un second qui modélise le courant de sortie photovoltaïque. Nous d'abord validons nos modèles par des données réels, puis nous proposons une étude comparative avec d’autres systèmes, notamment les modèles dits on-off. Nous concluons que notre modèle d'irradiance solaire peut capturer les corrélations multi-échelles de façon plus optimale, et il se montre particulièrement convénient dans le cas d’une production à petite échelle. De plus, nous proposons une nouvelle analyse de cycle de vie pour un système de cluster réel, ainsi qu'un modèle de cluster prenant en charge la soumission de travaux par lots et prenant en compte le comportement client impatient et persistant. Enfin, pour comprendre les caractéristiques essentielles du cluster d’ordinateurs, nous analysons deux cas: le complexe Google publié et le Nef cluster de l’Inria. Nous avons également implémenté marmoteCore-Q, un outil de simulation d’une famille de modèles de file d’attente, basé sur nos modèles
Data center clusters energy consumption is rapidly increasing making them the fastest-growing consumers of electricity worldwide. Renewable electricity sources and especially solar energy as a clean and abundant energy can be used, in many locations, to cover their electricity needs and make them "green" namely fed by photovoltaics. This potential can be explored by predicting solar irradiance and assessing the capacity provision for data center clusters. In this thesis we develop stochastic models for solar energy; one at the surface of the Earth and a second one which models the photovoltaic output current. We then compare them to the state of the art on-off model and validate them against real data. We conclude that the solar irradiance model can better capture the multiscales correlations and is suitable for small scale cases. We then propose a new job life-cycle of a complex and real cluster system and a model for data center clusters that supports batch job submissions and cons iders both impatient and persistent customer behavior. To understand the essential computer cluster characteristics, we analyze in detail two different workload type traces; the first one is the published complex Google trace and the second, simpler one, which serves scientific purposes, is from the Nef cluster located at the research center Inria Sophia Antipolis. We then implement the marmoteCore-Q, a tool for the simulation of a family of queueing models based on our multi-server model for data center clusters with abandonments and resubmissions
APA, Harvard, Vancouver, ISO, and other styles
10

Božić, Nikola. "Blockchain technologies and their application to secure virtualized infrastructure control." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS596.

Full text
Abstract:
Blockchain est une technologie qui fait du concept de registre partagé à partir de systèmes distribués une réalité pour un certain nombre de domaines d’application, du crypto-monnaie à potentiellement tout système industriel nécessitant une prise de décision décentralisée, robuste, fiable et automatisée dans une situation à plusieurs parties prenantes. Néanmoins, les avantages réels de l’utilisation de la blockchain au lieu de toute autre solution traditionnelle (telle que des bases de données centralisées) ne sont pas complètement compris à ce jour, ni quel type de blockchain répond le mieux aux exigences du cas d'utilisation et à son utilisation. Au début, notre objectif est de fournir une sorte de « vademecum » à la communauté, tout en donnant une présentation générale de la blockchain qui dépasse son cas d'utilisation en des crypto monnaies telle que Bitcoin, et en passant en revue une sélection de la vaste littérature qui est apparue au cours des dernières années. Nous décrivons les exigences clés et leur évolution lorsque nous passons des blockchains publics à priver, en présentant les différences entre les mécanismes de consensus proposés et expérimentés, et en décrivant les plateformes de blockchain existantes. De plus, nous présentons la blockchain B-VMOA pour sécuriser les opérations d’orchestration de machines virtuelles pour les systèmes de cloud computing et de virtualisation des fonctions réseau en appliquant la logique de vademecum proposée. À l'aide d'exemples de didacticiels, nous décrivons nos choix de conception et élaborons des plans de mise en œuvre. Nous développons plus avant la logique de vademecum appliquée à l'orchestration dans le cloud et comment elle peut conduire à des spécifications de plateforme précises. Nous capturons les opérations du système clés et les interactions complexes entre elles. Nous nous concentrons sur la dernière version de la plateforme Hyperledger Fabric en tant que moyen de développer le système B-VMOA. De plus, Hyperledger Fabric optimise les performances, la sécurité et l’évolutivité conçues pour le réseau B-VMOA en séparant la charge de travail entre (i) les homologues d’exécution et de validation de transaction et (ii) les nœuds qui sont charges pour l'ordre des transactions. Nous étudions et utilisons une architecture <> qui différencie notre système B-VMOA conçu des systèmes distribués hérités qui suivent une architecture de réplication d'état de machine traditionnelle. Nous paramétrons et validons notre modèle avec les données recueillies sur un banc d'essai réaliste, en présentant une étude empirique pour caractériser les performances du système et identifier les goulots d'étranglement potentiels. En outre, nous présentons les outils que nous avons utilisés, la configuration du réseau et la discussion sur les observations empiriques issues de la collecte de données. Nous examinons l'impact de divers paramètres configurables pour mener une étude approfondie des composants principaux et des performances de référence pour les modèles d'utilisation courants. À savoir, B-VMOA est destiné à être exécuté dans un centre de données. Différentes topologies d'interconnexion de centres de données évoluent différemment en raison des protocoles de communication. Il semble difficile de concevoir efficacement les interconnexions réseau de manière à rentabiliser le déploiement et la maintenance de l’infrastructure. Nous analysons les propriétés structurelles de plusieurs topologies DCN et présentons également une comparaison entre ces architectures de réseau dans le but de réduire les coûts indirects de la technologie B-VMOA. D'après notre analyse, nous recommandons l'hypercube topologie comme solution pour remédier au goulot d'étranglement des performances dans le plan de contrôle B-VMOA provoqué par gossip, le protocole de diffusion, ainsi qu'une estimation de l'amélioration des performances
Blockchain is a technology making the shared registry concept from distributed systems a reality for a number of application domains, from the cryptocurrency one to potentially any industrial system requiring decentralized, robust, trusted and automated decision making in a multi-stakeholder situation. Nevertheless, the actual advantages in using blockchain instead of any other traditional solution (such as centralized databases) are not completely understood to date, or at least there is a strong need for a vademecum guiding designers toward the right decision about when to adopt blockchain or not, which kind of blockchain better meets use-case requirements, and how to use it. At first, we aim at providing the community with such a vademecum, while giving a general presentation of blockchain that goes beyond its usage in Bitcoin and surveying a selection of the vast literature that emerged in the last few years. We draw the key requirements and their evolution when passing from permissionless to permissioned blockchains, presenting the differences between proposed and experimented consensus mechanisms, and describing existing blockchain platforms. Furthermore, we present the B-VMOA blockchain to secure virtual machine orchestration operations for cloud computing and network functions virtualization systems applying the proposed vademecum logic. Using tutorial examples, we describe our design choices and draw implementation plans. We further develop the vademecum logic applied to cloud orchestration and how it can lead to precise platform specifications. We capture the key system operations and complex interactions between them. We focus on the last release of Hyperledger Fabric platform as a way to develop B-VMOA system. Besides, Hyperledger Fabric optimizes conceived B-VMOA network performance, security, and scalability by way of workload separation across: (i) transaction execution and validation peers, and (ii) transaction ordering nodes. We study and use a distributed execute-order-validate architecture which differentiates our conceived B-VMOA system from legacy distributed systems that follow a traditional state-machine replication architecture. We parameterize and validate our model with data collected from a realistic testbed, presenting an empirical study to characterize system performance and identify potential performance bottlenecks. Furthermore, we present the tools we used, the network setup and the discussion on empirical observations from the data collection. We examine the impact of various configurable parameters to conduct an in-dept study of core components and benchmark performance for common usage patterns. Namely, B-VMOA is meant to be run within data center. Different data center interconnection topologies scale differently due to communication protocols. Enormous challenges appear to efficiently design the network interconnections so that the deployment and maintenance of the infrastructure is cost-effective. We analyze the structural properties of several DCN topologies and also present some comparison among these network architectures with the aim to reduce B-VMOA overhead costs. From our analysis, we recommend the hypercube topology as a solution to address the performance bottleneck in the B-VMOA control plane caused by gossip dissemination protocol along with an estimate of performance improvement
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Centre de données cloud"

1

Ruprecht, Jaenicke, Deutsche Forschungsgemeinschaft, and Collaborative Research Centre 233 "Dynamik und Chemie der Hydrometeore", eds. Dynamics and chemistry of hydrometeors: Final report of the Collaborative Research Centre 233 "Dynamik und Chemie der Hydrometeore". Weinheim: Wiley-VCH, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Workshop on Cloud Processes and Cloud Feedbacks in Large-scale Models (1999 Reading, Berkshire, United Kingdom). Workshop on Cloud Processes and Cloud Feedbacks in Large-scale Models, European Centre for Medium-range Weather Forecasts, Reading, Berkshire, United Kingdom, 9-13 November 1999. Geneva, Switzerland: Joint Planning Staff for WCRP, World Meteorological Organization, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Sauveur, Paula. La protection du secret commercial dans les nuages publics de l'infonuagique (cloud computing). Cowansville, Québec: Éditions Y. Blais, 2013.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Krishnaswamy, Jayaram. Microsoft SQL Azure: Enterprise application development ; build enterprise-ready applications and projects with SQL Azure. Birmingham, U.K: Packt, 2010.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Patrick, Boucheron, Broise Henri, and Thébert Yvon, eds. La brique antique et médiévale: Production et commercialisation d'un materiau : actes du colloque international organisé par le Centre d'histoire urbaine de l'Ecole normale supérieure de Fontenay/Saint Cloud et l'Ecole française de Rome, Saint-Cloud, 16-18 novembre 1995. Rome: Ecole française de Rome, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Colloque La condition des femmes immigrantes : en savoir davantage (1989 Montréal, Québec). Actes du Colloque La condition des femmes immigrantes : en savoir davantage: Faits actuels et données récentes [organisé par] le Centre des femmes de Montréal, tenu le 21 avril 1989. Montréal: Éditions Communiqu'Elles, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Jean-Louis, Biget, Boissière Jean, and Hervé Jean-Claude, eds. Le bois et la ville, du Moyen Age au XXe siècle: Colloque organisé à Saint-Cloud les 18 et 19 novembre 1988, par le Centre d'histoire urbaine de l'Ecole normale supérieure de Fontenay/Saint-Cloud et le Groupe d'histoire des forêts françaises. Fontenay-aux-Roses: ENS de Fontenay/Saint-Cloud, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Journet, Charles. Commentaire de la première lettre de saint Jean et de ses récits sur la résurrection: Conférences données par le cardinal Journet à Genève au Centre universitaire catholique, du 1er novembre 1969 au 13 juin 1970. [s.l.]: Fondation du cardinal Journet, 1987.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Nicole, Jacques-Lefèvre, Regard Frédéric, and École normale supérieure de Fontenay-Saint-Cloud. Centre de recherche Li Di Sa., eds. Une Histoire de la "fonction-auteur" est-elle possible?: Actes du colloque organisé par le Centre de recherche LiDiSa (Littérature et Discours du Savoir) 11-13 mai 2000, ENS Fontenay-Saint-Cloud. Saint-Etienne: Publications de l'Université de Saint-Étienne, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Jones, Gareth, Campbell John, Chris Crone, Surekha Parekh, and Jay Yothers. Db2 11: The Ultimate Database for Cloud, Analytics, and Mobile. MC Press, LLC, 2014.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Centre de données cloud"

1

Dubey, Kalka, Aida A. Nasr, S. C. Sharma, Nirmeen El-Bahnasawy, Gamal Attiya, and Ayman El-Sayed. "Efficient VM Placement Policy for Data Centre in Cloud Environment." In Advances in Intelligent Systems and Computing, 301–9. Singapore: Springer Singapore, 2020. http://dx.doi.org/10.1007/978-981-15-0751-9_28.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Ismaeel, Salam, and Ali Miri. "Multivariate Time Series ELM for Cloud Data Centre Workload Prediction." In Lecture Notes in Computer Science, 565–76. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-39510-4_52.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Reißer, Sabin. "Plans for a German Grid Operations and Support Centre." In Managed Grids and Cloud Systems in the Asia-Pacific Research Community, 293–98. Boston, MA: Springer US, 2010. http://dx.doi.org/10.1007/978-1-4419-6469-4_21.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Singh, Nongmaithem Ajith, and M. Hemalatha. "Reduce Energy Consumption through Virtual Machine Placement in Cloud Data Centre." In Mining Intelligence and Knowledge Exploration, 466–74. Cham: Springer International Publishing, 2013. http://dx.doi.org/10.1007/978-3-319-03844-5_47.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Gomes, Sheridan, Adel N. Toosi, and Barrett Ens. "Digital Twin of a Cloud Data Centre: An OpenStack Cluster Visualisation." In Internet of Things, 209–25. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-031-05528-7_8.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Arulkumar, V., R. Lathamanju, and A. Sandanakaruppan. "Assurance on data integrity in cloud data centre using PKI built RDIC method." In Recent Trends in Communication and Electronics, 98–102. London: CRC Press, 2021. http://dx.doi.org/10.1201/9781003193838-19.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Sathiya, R. R., and P. Prakash. "Cloud Management: An Autoencoder-Based Clustering of Virtual Machines for Data Centre Workload." In Advances in Automation, Signal Processing, Instrumentation, and Control, 3113–21. Singapore: Springer Singapore, 2021. http://dx.doi.org/10.1007/978-981-15-8221-9_290.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Venkata Subba Reddy, Kothapuli, Jagirdar Srinivas, and Ahmed Abdul Moiz Qyser. "A Dynamic Hierarchical Load Balancing Service Architecture for Cloud Data Centre Virtual Machine Migration." In Smart Intelligent Computing and Applications, 9–17. Singapore: Springer Singapore, 2018. http://dx.doi.org/10.1007/978-981-13-1921-1_2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Ramesh, Dharavath, Rahul Mishra, and Amitesh Kumar Pandit. "An Efficient Stream Cipher Based Secure and Dynamic Updation Method for Cloud Data Centre." In Soft Computing Systems, 505–16. Singapore: Springer Singapore, 2018. http://dx.doi.org/10.1007/978-981-13-1936-5_53.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Srinivasulu Reddy, J., and P. Supraja. "Flow Distribution-Aware Load Balancing for the Data Centre over Cloud Services with Virtualization." In New Trends in Computational Vision and Bio-inspired Computing, 863–71. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-41862-5_87.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Centre de données cloud"

1

Cucinotta, Tommaso, Diego Lugones, Davide Cherubini, and Eric Jul. "Data Centre Optimisation Enhanced by Software Defined Networking." In 2014 IEEE 7th International Conference on Cloud Computing (CLOUD). IEEE, 2014. http://dx.doi.org/10.1109/cloud.2014.28.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Ismaeel, Salam, Ali Miri, and Ayman Al-Khazraji. "Energy-consumption clustering in cloud data centre." In 2016 3rd MEC International Conference on Big Data and Smart City (ICBDSC). IEEE, 2016. http://dx.doi.org/10.1109/icbdsc.2016.7460373.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Sankari, Subbiah, Perumal Varalakshmi, and Boopathi Divya. "Network Traffic Analysis of cloud data centre." In 2015 International Conference on Computing and Communications Technologies (ICCCT). IEEE, 2015. http://dx.doi.org/10.1109/iccct2.2015.7292785.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Yu, Yale, Guojian Cheng, and Xinjian Qiang. "Data centre transformation: Integrated business model framework of cloud computing oriented data centre." In 2016 IEEE Advanced Information Management, Communicates, Electronic and Automation Control Conference (IMCEC). IEEE, 2016. http://dx.doi.org/10.1109/imcec.2016.7867538.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Tsafara, Amalia, Christos Tryfonopoulos, and Spiros Skiadopoulos. "CloudStudy: A cloud-based system for supporting multi-centre studies." In 2013 IEEE 13th International Conference on Bioinformatics and Bioengineering (BIBE). IEEE, 2013. http://dx.doi.org/10.1109/bibe.2013.6701549.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Vasile, Ionut, Dragos Ciobanu-Zabet, and Mihnea Dulea. "The new operations centre of the Romanian grid infrastructure." In 2015 Conference Grid, Cloud & High Performance Computing in Science (ROLCG). IEEE, 2015. http://dx.doi.org/10.1109/rolcg.2015.7367429.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

De Maio, Vincenzo, Gabor Kecskemeti, and Radu Prodan. "An improved model for live migration in data centre simulators." In UCC '16: 9th International Conference on Utility and Cloud Computing. New York, NY, USA: ACM, 2016. http://dx.doi.org/10.1145/2996890.2996892.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

LIN, Chih-hsun, George Chu, Pei-rong Tsai, Chan-hin Iong, Felix Lee, Eric Yen, and Shih-chang Lee. "A single rack cloud centre with unprecedented power and thermal efficiency." In International Symposium on Grids and Clouds (ISGC) 2017. Trieste, Italy: Sissa Medialab, 2017. http://dx.doi.org/10.22323/1.293.0016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

de Frein, Ruairi. "The data-centre whisperer: Relative attribute usage estimation for cloud servers." In 2016 24th European Signal Processing Conference (EUSIPCO). IEEE, 2016. http://dx.doi.org/10.1109/eusipco.2016.7760336.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Tsafara, Amalia, Christos Tryfonopoulos, Spiros Skiadopoulos, and Lefteris Zervakis. "Cloud-Based Data and Knowledge Management for Multi-Centre Biomedical Studies." In K-CAP 2015: Knowledge Capture Conference. New York, NY, USA: ACM, 2015. http://dx.doi.org/10.1145/2815833.2816949.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Centre de données cloud"

1

Dudley, J. P., and S. V. Samsonov. Système de traitement automatisé du gouvernement canadien pour la détection des variations et l'analyse des déformations du sol à partir des données de radar à synthèse d'ouverture de RADARSAT-2 et de la mission de la Constellation RADARSAT : description et guide de l'utilisateur. Natural Resources Canada/CMSS/Information Management, 2021. http://dx.doi.org/10.4095/329134.

Full text
Abstract:
Remote sensing using Synthetic Aperture Radar (SAR) offers powerful methods for monitoring ground deformation from both natural and anthropogenic sources. Advanced analysis techniques such as Differential Interferometric Synthetic Aperture Radar (DInSAR), change detection, and Speckle Offset Tracking (SPO) provide sensitive measures of ground movement. With both the RADARSAT-2 and RADARSAT Constellation Mission (RCM) SAR satellites, Canada has access to a significant catalogue of SAR data. To make use of this data, the Canada Centre for Mapping and Earth Observation (CCMEO) has developed an automated system for generating standard and advanced deformation products from SAR data using both DInSAR and SPO methods. This document provides a user guide for this automated processing system.
APA, Harvard, Vancouver, ISO, and other styles
2

Saulais, Laure, and Maurice Doyon. Impact du design de questions sur la perception des compensations proposées et les intentions de participation au pad: étude de préfaisabilité. CIRANO, August 2022. http://dx.doi.org/10.54932/ziga3839.

Full text
Abstract:
Le Plan d’agriculture durable (PAD) du gouvernement du Québec offre aux entreprises agricoles un ensemble de possibilités pour accélérer l’adoption des meilleures pratiques agroenvironnementales d’ici 2030. Il est prévu que des rétributions soient offertes pour compenser les coûts encourus suite à la mise en œuvre de certaines pratiques. Cette étude s’appuie sur les principes de l’économie comportementale et les techniques de l’économie expérimentale pour mettre en évidence des leviers comportementaux de l’acceptation et de l’adhésion des entreprises agricoles à certaines pratiques proposées par le PAD. À partir de l’analyse de données fournies par le Centre d’études sur les coûts de production en agriculture (CECPA) recueillies auprès de 489 répondants, les auteurs concluent que : 1. La façon de présenter l’information aux agricultrices et agriculteurs a un impact sur leur perception du montant de rétribution qui leur est présenté. 2. Présenter l’information comme un incitatif ou un bénéfice est préférable à présenter l’information comme une compensation de coûts. 3. Ajouter un préambule à l’offre de rétribution qui reconnaît les efforts déjà faits par les entreprises agricoles québécoises et la hauteur des défis vers l'amélioration du bilan environnemental de leur entreprise crée une émotion négative, réduisant ainsi la probabilité que les personnes interrogées acceptent un niveau donné de rétribution.
APA, Harvard, Vancouver, ISO, and other styles
3

Rousseau, Henri-Paul. Gutenberg, L’université et le défi numérique. CIRANO, December 2022. http://dx.doi.org/10.54932/wodt6646.

Full text
Abstract:
Introduction u cours des deux derniers millénaires, il y a eu plusieurs façons de conserver, transmettre et même créer la connaissance ; la tradition orale, l’écrit manuscrit, l’écrit imprimé et l’écrit numérisé. La tradition orale et le manuscrit ont dominé pendant plus de 1400 ans, et ce, jusqu’à l’apparition du livre imprimé en 1451, résultant de l’invention mécanique de Gutenberg. Il faudra attendre un peu plus de 550 ans, avant que l’invention du support électronique déloge à son tour le livre imprimé, prenant une ampleur sans précédent grâce à la révolution numérique contemporaine, résultat du maillage des technologies de l’informatique, de la robotique et de la science des données. Les premières universités qui sont nées en Occident, au Moyen Âge, ont développé cette tradition orale de la connaissance tout en multipliant l’usage du manuscrit créant ainsi de véritables communautés de maîtres et d’étudiants ; la venue de l’imprimerie permettra la multiplication des universités où l’oral et l’écrit continueront de jouer un rôle déterminant dans la création et la transmission des connaissances même si le « support » a évolué du manuscrit à l’imprimé puis vers le numérique. Au cours de toutes ces années, le modèle de l’université s’est raffiné et perfectionné sur une trajectoire somme toute assez linéaire en élargissant son rôle dans l’éducation à celui-ci de la recherche et de l’innovation, en multipliant les disciplines offertes et les clientèles desservies. L’université de chaque ville universitaire est devenue une institution florissante et indispensable à son rayonnement international, à un point tel que l’on mesure souvent sa contribution par la taille de sa clientèle étudiante, l’empreinte de ses campus, la grandeur de ses bibliothèques spécialisées ; c’est toutefois la renommée de ses chercheurs qui consacre la réputation de chaque université au cours de cette longue trajectoire pendant laquelle a pu s’établir la liberté universitaire. « Les libertés universitaires empruntèrent beaucoup aux libertés ecclésiastiques » : Étudiants et maîtres, qu'ils furent, ou non, hommes d'Église, furent assimilés à des clercs relevant de la seule justice ecclésiastique, réputée plus équitable. Mais ils échappèrent aussi largement à la justice ecclésiastique locale, n'étant justiciables que devant leur propre institution les professeurs et le recteur, chef élu de l’université - ou devant le pape ou ses délégués. Les libertés académiques marquèrent donc l’émergence d'un droit propre, qui ménageait aux maîtres et aux étudiants une place à part dans la société. Ce droit était le même, à travers l'Occident, pour tous ceux qui appartenaient à ces institutions supranationales que furent, par essence, les premières universités. À la fin du Moyen Âge, l'affirmation des États nationaux obligea les libertés académiques à s'inscrire dans ce nouveau cadre politique, comme de simples pratiques dérogatoires au droit commun et toujours sujettes à révision. Vestige vénérable de l’antique indépendance et privilège octroyé par le prince, elles eurent donc désormais un statut ambigu » . La révolution numérique viendra fragiliser ce statut. En effet, la révolution numérique vient bouleverser cette longue trajectoire linéaire de l’université en lui enlevant son quasi monopole dans la conservation et le partage du savoir parce qu’elle rend plus facile et somme toute, moins coûteux l’accès à l’information, au savoir et aux données. Le numérique est révolutionnaire comme l’était l’imprimé et son influence sur l’université, sera tout aussi considérable, car cette révolution impacte radicalement tous les secteurs de l’économie en accélérant la robotisation et la numérisation des processus de création, de fabrication et de distribution des biens et des services. Ces innovations utilisent la radio-identification (RFID) qui permet de mémoriser et de récupérer à distance des données sur les objets et l’Internet des objets qui permet aux objets d’être reliés automatiquement à des réseaux de communications .Ces innovations s’entrecroisent aux technologies de la réalité virtuelle, à celles des algorithmiques intelligentes et de l’intelligence artificielle et viennent littéralement inonder de données les institutions et les organisations qui doivent alors les analyser, les gérer et les protéger. Le monde numérique est né et avec lui, a surgi toute une série de compétences radicalement nouvelles que les étudiants, les enseignants et les chercheurs de nos universités doivent rapidement maîtriser pour évoluer dans ce Nouveau Monde, y travailler et contribuer à la rendre plus humain et plus équitable. En effet, tous les secteurs de l’activité commerciale, économique, culturelle ou sociale exigent déjà clairement des connaissances et des compétences numériques et technologiques de tous les participants au marché du travail. Dans cette nouvelle logique industrielle du monde numérique, les gagnants sont déjà bien identifiés. Ce sont les fameux GAFAM (Google, Apple, Facebook, Amazon et Microsoft) suivis de près par les NATU (Netflix, Airbnb, Tesla et Uber) et par les géants chinois du numérique, les BATX (Baidu, Alibaba, Tenant et Xiaomi). Ces géants sont alimentés par les recherches, les innovations et les applications mobiles (APPs) créées par les partenaires de leurs écosystèmes regroupant, sur différents campus d’entreprises, plusieurs des cerveaux qui sont au cœur de cette révolution numérique. L’université voit donc remise en question sa capacité traditionnelle d’attirer, de retenir et de promouvoir les artisans du monde de demain. Son aptitude à former des esprits critiques et à contribuer à la transmission des valeurs universelles est également ébranlée par ce tsunami de changements. Il faut cependant reconnaître que les facultés de médecine, d’ingénierie et de sciences naturelles aux États-Unis qui ont développé des contacts étroits, abondants et suivis avec les hôpitaux, les grandes entreprises et l’administration publique et cela dès la fin du 19e siècle ont été plus en mesure que bien d’autres, de recruter et retenir les gens de talent. Elle ont énormément contribué à faire avancer les connaissances scientifiques et la scolarisation en sciences appliquées ..La concentration inouïe des Prix Nobel scientifiques aux États-Unis est à cet égard très convaincante . La révolution numérique contemporaine survient également au moment même où de grands bouleversements frappent la planète : l’urgence climatique, le vieillissement des populations, la « déglobalisation », les déplacements des populations, les guerres, les pandémies, la crise des inégalités, de l’éthique et des démocraties. Ces bouleversements interpellent les universitaires et c’est pourquoi leur communauté doit adopter une raison d’être et ainsi renouveler leur mission afin des mieux répondre à ces enjeux de la civilisation. Cette communauté doit non seulement se doter d’une vision et des modes de fonctionnement adaptés aux nouvelles réalités liées aux technologies numériques, mais elle doit aussi tenir compte de ces grands bouleversements. Tout ceci l’oblige à s’intégrer à des écosystèmes où les connaissances sont partagées et où de nouvelles compétences doivent être rapidement acquises. Le but de ce texte est de mieux cerner l’ampleur du défi que pose le monde numérique au milieu universitaire et de proposer quelques idées pouvant alimenter la réflexion des universitaires dans cette démarche d’adaptation au monde numérique. Or, ma conviction la plus profonde c’est que la révolution numérique aura des impacts sur nos sociétés et notre civilisation aussi grands que ceux provoqués par la découverte de l’imprimerie et son industrialisation au 15e siècle. C’est pourquoi la première section de ce document est consacrée à un rappel historique de la révolution de l’imprimerie par Gutenberg alors que la deuxième section illustrera comment les caractéristiques de la révolution numérique viennent soutenir cette conviction si profonde. Une troisième section fournira plus de détails sur le défi d’adaptation que le monde numérique pose aux universités alors que la quatrième section évoquera les contours du changement de paradigme que cette adaptation va imposer. La cinquième section servira à illustrer un scénario de rêves qui permettra de mieux illustrer l’ampleur de la gestion du changement qui guette les universitaires. La conclusion permettra de revenir sur quelques concepts et principes clefs pour guider la démarche vers l’action. L’université ne peut plus « être en haut et seule », elle doit être « au centre et avec » des écosystèmes de partenariats multiples, dans un modèle hybride physique/virtuel. C’est ainsi qu’elle pourra conserver son leadership historique de vigie du savoir et des connaissances d’un monde complexe, continuer d’établir l’authenticité des faits et imposer la nécessaire rigueur de la science et de l’objectivité.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography