Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Informatique dans les nuages – Économies d'énergie.

Dissertationen zum Thema „Informatique dans les nuages – Économies d'énergie“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-34 Dissertationen für die Forschung zum Thema "Informatique dans les nuages – Économies d'énergie" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Borgetto, Damien. „Allocation et réallocation de services pour les économies d'énergie dans les clusters et les clouds“. Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2100/.

Der volle Inhalt der Quelle
Annotation:
L'informatique dans les nuages (cloud computing) est devenu durant les dernières années un paradigme dominant dans le paysage informatique. Son principe est de fournir des services décentralisés à la demande. La demande croissante pour ce type de service amène les fournisseurs de clouds à augmenter la taille de leurs infrastructures à tel point que les consommations d'énergie ainsi que les coûts associés deviennent très importants. Chaque fournisseur de service cloud doit répondre à des demandes différentes. C'est pourquoi au cours de cette thèse, nous nous sommes intéressés à la gestion des ressources efficace en énergie dans les clouds. Nous avons tout d'abord modélisé et étudié le problème de l'allocation de ressources initiale en fonction des services, en calculant des solutions approchées via des heuristiques, puis en les comparant à la solution optimale. Nous avons ensuite étendu notre modèle de ressources pour nous permettre d'avoir une solution plus globale, en y intégrant de l'hétérogénéité entre les machines et des infrastructures de refroidissement. Nous avons enfin validé notre modèle par simulation. Les services doivent faire face à différentes phases de charge, ainsi qu'à des pics d'utilisation. C'est pourquoi, nous avons étendu le modèle d'allocation de ressources pour y intégrer la dynamicité des requêtes et de l'utilisation des ressources. Nous avons mis en œuvre une infrastructure de cloud simulée, visant à contrôler l'exécution des différents services ainsi que le placement de ceux-ci. Ainsi notre approche permet de réduire la consommation d'énergie globale de l'infrastructure, ainsi que de limiter autant que possible les dégradations de performance
Cloud computing has become over the last years an important paradigm in the computing landscape. Its principle is to provide decentralized services and allows client to consume resources on a pay-as-you-go model. The increasing need for this type of service brings the service providers to increase the size of their infrastructures, to the extent that energy consumptions as well as operating costs are becoming important. Each cloud service provider has to provide for different types of requests. Infrastructure manager then have to host all the types of services together. That's why during this thesis, we tackled energy efficient resource management in the clouds. In order to do so, we first modeled and studied the initial service allocation problem, by computing approximated solutions given by heuristics, then comparing it to the optimal solution computed with a linear program solver. We then extended the model of resources to allow us to have a more global approach, by integrating the inherent heterogeneity of clusters and the cooling infrastructures. We then validated our model via simulation. Usually, the services must face different stages of workload, as well as utilization spikes. That's why we extended the model to include dynamicity of requests and resource usage, as well as the concept of powering on or off servers, or the cost of migrating a service from one host to another. We implemented a simulated cloud infrastructure, aiming at controlling the execution of the services as well as their placement. Thus, our approach enables the reduction of the global energy consumption of the infrastructure, and limits as much as possible degrading the performances
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Jacquet, Pierre. „Enhancing IaaS Consolidation with resource oversubscription“. Electronic Thesis or Diss., Université de Lille (2022-....), 2024. http://www.theses.fr/2024ULILB015.

Der volle Inhalt der Quelle
Annotation:
En migrant sa charge de travail vers des centres de données plus grands, le numérique a pu améliorerson efficacité énergétique. La consommation liée à l'augmentation des usages a ainsi été atténuée parde nettes améliorations de l'infrastructure mutualisée (appelée communément Cloud Computing), cequi est visible via des indicateurs tels que le Power Usage Efficiency (PUE).L'infrastructure n'est cependant pas le seul point à optimiser. Le serveur en lui même, et les tâchesqu'il exécute, reste un axe important de la recherche. Le taux d'usage est notamment particulièrementétudié car sa valeur relativement faible représente un gain potentiel non-négligeable. Ainsi, d'un pointde vue énergétique (consommation) et matériel (coût environnemental et financier), l'utilisation d'unserveur chargé à 100% est préférable à celle de 3 serveurs chargés à 30%. Je propose donc d'étudierces taux d'usages au travers de quatre contributions complémentaires:1. La création d'expériences contrôlées réalistes dans un contexte Infrastructure-as-a-Service(IAAS). Alors que les plateformes supportant les infrastructures Cloud sont particulièrementétudiées, la génération de charges de travail réalistes est primordiale. Chaque Cloud providerayant ses propres caractéristiques (distribution de tailles de Virtual Machines (VMs), tauxd'usage individuels), nous proposons un outil permettant de générer ces charges réalistes.2. L'amélioration du calcul du taux de surréservation individuel des serveurs. En tenant encompte de la stabilité individuel des serveurs, il est possible d'affiner le calcul de ce taux sanscauser de violations supplémentaires.3. L'introduciton d'un nouveau paradigme de surréservation. En démontrant tout d'abord queles vCPUs des VMs ne sont pas uniformément utilisés en conditions réelles, nous exposons auxVMs des coeurs de différentes puissances (car surréservés à différents niveaux) et démontronsque ce paradigme peut améliorer les performances globales.4. La complémentarité des taux de surréservation pour réduire les ressources non-allouées.La comparaison des VMs dites premium et des VMs surréservées permet d'identifier qu'ellestendent à saturer différemment les ressources de leur hôtes. En les hébergeant sur les mêmesserveurs, il est ainsi possible de bénéficier de synergies, et de réduire jusqu'à 9.6% la taille duparc
By migrating its workload to larger Data Centers (DCs), the digital realm has been able to improve its energy efficiency. The consumption due to the increase in usage has thus been mitigated by significant improvements in shared infrastructure (commonly referred to as Cloud Computing), which is evident through indicators such as Power Usage Efficiency (PUE). However, infrastructure is not the sole point of optimization. The server itself, and the tasks it executes, remain an important focus of research. Usage rate, in particular, is closely studied because its relatively low value also represents a considerable potential gain. Thus, from both an energy (consumption) and material (environmental and financial cost) standpoint, the use of a server loaded at 100% is preferable to that of 3 servers loaded at 30%. I propose to examine these usage rates along four complementary contributions:1. The creation of realistic controlled experiments in an Infrastructure-as-a-Service (IAAS) context. While platforms supporting Cloud infrastructures are extensively studied, generating realistic workloads is crucial. As each Cloud Provider has its characteristics (distribution of VM sizes, individual usage rates), we propose a tool to generate these workloads.2. The calculation of individual server oversubscription ratio. By considering the individual stability of servers, it is possible to fine-tune the calculation of this ratio without causing additional violations.3. The introduction of a new oversubscription paradigm. By first demonstrating that Virtual Machine (VM) vCPUs are not uniformly used in a real-world context, we expose to VMs cores of different powers (by oversubscribing them to different amounts) and demonstrate that this paradigm can improve overall performance.4. The complementarity of oversubscription techniques to reduce unallocated resources. Comparing so-called premium VMs and oversubscribed VMs identifies that they tend to saturate their hosts' resources differently. By hosting them on the same servers, it is thus possible to benefit from synergies and reduce the number of servers by up to 9.6%
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Ghribi, Chaima. „Energy efficient resource allocation in cloud computing environments“. Thesis, Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0035/document.

Der volle Inhalt der Quelle
Annotation:
L'informatique en nuage (Cloud Computing) a émergé comme un nouveau paradigme pour offrir des ressources informatiques à la demande et pour externaliser des infrastructures logicielles et matérielles. Le Cloud Computing est rapidement et fondamentalement en train de révolutionner la façon dont les services informatiques sont mis à disposition et gérés. Ces services peuvent être demandés à partir d'un ou plusieurs fournisseurs de Cloud d'où le besoin de la mise en réseau entre les composants des services informatiques distribués dans des emplacements géographiquement répartis. Les utilisateurs du Cloud veulent aussi déployer et instancier facilement leurs ressources entre les différentes plateformes hétérogènes de Cloud Computing. Les fournisseurs de Cloud assurent la mise à disposition des ressources de calcul sous forme des machines virtuelles à leurs utilisateurs. Par contre, ces clients veulent aussi la mise en réseau entre leurs ressources virtuelles. En plus, ils veulent non seulement contrôler et gérer leurs applications, mais aussi contrôler la connectivité réseau et déployer des fonctions et des services de réseaux complexes dans leurs infrastructures virtuelles dédiées. Les besoins des utilisateurs avaient évolué au-delà d'avoir une simple machine virtuelle à l'acquisition de ressources et de services virtuels complexes, flexibles, élastiques et intelligents. L'objectif de cette thèse est de permettre le placement et l'instanciation des ressources complexes dans des infrastructures de Cloud distribués tout en permettant aux utilisateurs le contrôle et la gestion de leurs ressources. En plus, notre objectif est d'assurer la convergence entre les services de cloud et de réseau. Pour atteindre ces objectifs, cette thèse propose des algorithmes de mapping d'infrastructures virtuelles dans les centres de données et dans le réseau tout en respectant les exigences des utilisateurs. Avec l'apparition du Cloud Computing, les réseaux traditionnels sont étendus et renforcés avec des réseaux logiciels reposant sur la virtualisation des ressources et des fonctions réseaux. En plus, le nouveau paradigme d'architecture réseau (SDN : Software Defined Networks) est particulièrement pertinent car il vise à offrir la programmation du réseau et à découpler, dans un équipement réseau, la partie plan de données de la partie plan de contrôle. Dans ce contexte, la première partie de la thèse propose des algorithmes optimaux (exacts) et heuristiques de placement pour trouver le meilleur mapping entre les demandes des utilisateurs et les infrastructures sous-jacentes, tout en respectant les exigences exprimées dans les demandes. Cela inclut des contraintes de localisation permettant de placer une partie des ressources virtuelles dans le même nœud physique. Ces contraintes assurent aussi le placement des ressources dans des nœuds distincts. Les algorithmes proposés assurent le placement simultané des nœuds et des liens virtuels sur l'infrastructure physique. Nous avons proposé aussi un algorithme heuristique afin d'accélérer le temps de résolution et de réduire la complexité du problème. L'approche proposée se base sur la technique de décomposition des graphes et la technique de couplage des graphes bipartis. Dans la troisième partie de la thèse, nous proposons un cadriciel open source (framework) permettant d'assurer la mise en réseau dynamique entre des ressources Cloud distribués et l'instanciation des fonctions réseau dans l'infrastructure virtuelle de l'utilisateur. Ce cadriciel permettra de déployer et d'activer les composants réseaux afin de mettre en place les demandes des utilisateurs. Cette solution se base sur un gestionnaire des ressources réseaux "Cloud Network Gateway Manager" et des passerelles logicielles permettant d'établir la connectivité dynamique et à la demande entre des ressources cloud et réseau [...]
Cloud computing has rapidly emerged as a successful paradigm for providing IT infrastructure, resources and services on a pay-per-use basis over the past few years. As, the wider adoption of Cloud and virtualization technologies has led to the establishment of large scale data centers that consume excessive energy and have significant carbon footprints, energy efficiency is becoming increasingly important for data centers and Cloud. Today data centers energy consumption represents 3 percent of all global electricity production and is estimated to further rise in the future. This thesis presents new models and algorithms for energy efficient resource allocation in Cloud data centers. The first goal of this work is to propose, develop and evaluate optimization algorithms of resource allocation for traditional Infrastructutre as a Service (IaaS) architectures. The approach is Virtual Machine (VM) based and enables on-demand and dynamic resource scheduling while reducing power consumption of the data center. This initial objective is extended to deal with the new trends in Cloud services through a new model and optimization algorithms of energy efficient resource allocation for hybrid IaaS-PaaS Cloud providers. The solution is generic enough to support different type of virtualization technologies, enables both on-demand and advanced resource provisioning to deal with dynamic resource scheduling and fill the gap between IaaS and PaaS services and create a single continuum of services for Cloud users. Consequently, in the thesis, we first present a survey of the state of the art on energy efficient resource allocation in cloud environments. Next, we propose a bin packing based approach for energy efficient resource allocation for classical IaaS. We formulate the problem of energy efficient resource allocation as a bin-packing model and propose an exact energy aware algorithm based on integer linear program (ILP) for initial resource allocation. To deal with dynamic resource consolidation, an exact ILP algorithm for dynamic VM reallocation is also proposed. This algorithm is based on VM migration and aims at constantly optimizing energy efficiency at service departures. A heuristic method based on the best-fit algorithm has also been adapted to the problem. Finally, we present a graph-coloring based approach for energy efficient resource allocation in the hybrid IaaS-PaaS providers context. This approach relies on a new graph coloring based model that supports both VM and container virtualization and provides on-demand as well as advanced resource reservation. We propose and develop an exact Pre-coloring algorithm for initial/static resource allocation while maximizing energy efficiency. A heuristic Pre-coloring algorithm for initial resource allocation is also proposed to scale with problem size. To adapt reservations over time and improve further energy efficiency, we introduce two heuristic Re-coloring algorithms for dynamic resource reallocation. Our solutions are generic, robust and flexible and the experimental evaluation shows that both proposed approaches lead to significant energy savings while meeting the users' requirements
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Cuadrado-Cordero, Ismael. „Microclouds : an approach for a network-aware energy-efficient decentralised cloud“. Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S003/document.

Der volle Inhalt der Quelle
Annotation:
L'architecture actuelle du cloud, reposant sur des datacenters centralisés, limite la qualité des services offerts par le cloud du fait de l'éloignement de ces datacenters par rapport aux utilisateurs. En effet, cette architecture est peu adaptée à la tendance actuelle promouvant l'ubiquité du cloud computing. De plus, la consommation énergétique actuelle des data centers, ainsi que du cœur de réseau, représente 3% de la production totale d'énergie, tandis que selon les dernières estimations, seulement 42,3% de la population serait connectée. Dans cette thèse, nous nous intéressons à deux inconvénients majeurs des clouds centralisés: la consommation d'énergie ainsi que la faible qualité de service offerte. D'une part, du fait de son architecture centralisée, le cœur de réseau consomme plus d'énergie afin de connecter les utilisateurs aux datacenters. D'autre part, la distance entre les utilisateurs et les datacenters entraîne une utilisation accrue du réseau mondial à large bande, menant à des expériences utilisateurs de faible qualité, particulièrement pour les applications interactives. Une approche semi-centralisée peut offrir une meilleur qualité d'expérience aux utilisateurs urbains dans des réseaux clouds mobiles. Pour ce faire, cette approche confine le traffic local au plus proche de l'utilisateur, tout en maintenant les caractéristiques centralisées s’exécutant sur les équipements réseaux et utilisateurs. Dans cette thèse, nous proposons une nouvelle architecture de cloud distribué, basée sur des "microclouds". Des "microclouds" sont créés de manière dynamique, afin que les ressources utilisateurs provenant de leurs ordinateurs, téléphones ou équipements réseaux puissent être mises à disposition dans le cloud. De ce fait, les microclouds offrent un système dynamique, passant à l'échelle, tout en évitant d’investir dans de nouvelles infrastructures. Nous proposons également un exemple d'utilisation des microclouds sur un cas typique réel. Par simulation, nous montrons que notre approche permet une économie d'énergie pouvant atteindre 75%, comparée à une approche centralisée standard. En outre, nos résultats indiquent que cette architecture passe à l'échelle en terme du nombre d'utilisateurs mobiles, tout en offrant une bien plus faible latence qu'une architecture centralisée. Pour finir, nous analysons comment inciter les utilisateurs à partager leur ressources dans les clouds mobiles et proposons un nouveau mécanisme d'enchère adapté à l'hétérogénéité et la forte dynamicité de ces systèmes. Nous comparons notre solution aux autres mécanismes d’enchère existants dans des cas d'utilisations typiques au sein des clouds mobiles, et montrons la pertinence de notre solution
The current datacenter-centralized architecture limits the cloud to the location of the datacenters, generally far from the user. This architecture collides with the latest trend of ubiquity of Cloud computing. Also, current estimated energy usage of data centers and core networks adds up to 3% of the global energy production, while according to latest estimations only 42,3% of the population is connected. In the current work, we focused on two drawbacks of datacenter-centralized Clouds: Energy consumption and poor quality of service. On the one hand, due to its centralized nature, energy consumption in networks is affected by the centralized vision of the Cloud. That is, backbone networks increase their energy consumption in order to connect the clients to the datacenters. On the other hand, distance leads to increased utilization of the broadband Wide Area Network and poor user experience, especially for interactive applications. A distributed approach can provide a better Quality of Experience (QoE) in large urban populations in mobile cloud networks. To do so, the cloud should confine local traffic close to the user, running on the users and network devices. In this work, we propose a novel distributed cloud architecture based on microclouds. Microclouds are dynamically created and allow users to contribute resources from their computers, mobile and network devices to the cloud. This way, they provide a dynamic and scalable system without the need of an extra investment in infrastructure. We also provide a description of a realistic mobile cloud use case, and the adaptation of microclouds on it. Through simulations, we show an overall saving up to 75% of energy consumed in standard centralized clouds with our approach. Also, our results indicate that this architecture is scalable with the number of mobile devices and provide a significantly lower latency than regular datacenter-centralized approaches. Finally, we analyze the use of incentives for Mobile Clouds, and propose a new auction system adapted to the high dynamism and heterogeneity of these systems. We compare our solution to other existing auctions systems in a Mobile Cloud use case, and show the suitability of our solution
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Villebonnet, Violaine. „Scheduling and Dynamic Provisioning for Energy Proportional Heterogeneous Infrastructures“. Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEN057/document.

Der volle Inhalt der Quelle
Annotation:
La consommation énergétique des centres de calculs et de données, aussi appelés « data centers », représentait 2% de la consommation mondiale d'électricité en 2012. Leur nombre est en augmentation et suit l'évolution croissante des objets connectés, services, applications, et des données collectées. Ces infrastructures, très consommatrices en énergie, sont souvent sur-dimensionnées et les serveurs en permanence allumés. Quand la charge de travail est faible, l'électricité consommée par les serveurs inutilisés est gaspillée, et un serveur inactif peut consommer jusqu'à la moitié de sa consommation maximale. Cette thèse s'attaque à ce problème en concevant un data center ayant une consommation énergétique proportionnelle à sa charge. Nous proposons un data center hétérogène, nommé BML pour « Big, Medium, Little », composé de plusieurs types de machines : des processeurs très basse consommation et des serveurs classiques. L'idée est de profiter de leurs différentes caractéristiques de performance, consommation, et réactivité d'allumage, pour adapter dynamiquement la composition de l'infrastructure aux évolutions de charge. Nous décrivons une méthode générique pour calculer les combinaisons de machines les plus énergétiquement efficaces à partir de données de profilage de performance et d'énergie acquis expérimentalement considérant une application cible, ayant une charge variable au cours du temps, dans notre cas un serveur web.Nous avons développé deux algorithmes prenant des décisions de reconfiguration de l'infrastructure et de placement des instances de l'application en fonction de la charge future. Les différentes temporalités des actions de reconfiguration ainsi que leur coûts énergétiques sont pris en compte dans le processus de décision. Nous montrons par simulations que nous atteignons une consommation proportionnelle à la charge, et faisons d'importantes économies d'énergie par rapport aux gestions classiques des data centers
The increasing number of data centers raises serious concerns regarding their energy consumption. These infrastructures are often over-provisioned and contain servers that are not fully utilized. The problem is that inactive servers can consume as high as 50% of their peak power consumption.This thesis proposes a novel approach for building data centers so that their energy consumption is proportional to the actual load. We propose an original infrastructure named BML for "Big, Medium, Little", composed of heterogeneous computing resources : from low power processors to classical servers. The idea is to take advantage of their different characteristics in terms of energy consumption, performance, and switch on reactivity to adjust the composition of the infrastructure according to the load evolutions. We define a generic methodology to compute the most energy proportional combinations of machines based on hardware profiling data.We focus on web applications whose load varies over time and design a scheduler that dynamically reconfigures the infrastructure, with application migrations and machines switch on and off, to minimize the infrastructure energy consumption according to the current application requirements.We have developed two different dynamic provisioning algorithms which take into account the time and energy overheads of the different reconfiguration actions in the decision process. We demonstrate through simulations based on experimentally acquired hardware profiles that we achieve important energy savings compared to classical data center infrastructures and management
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Ghribi, Chaima. „Energy efficient resource allocation in cloud computing environments“. Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0035.

Der volle Inhalt der Quelle
Annotation:
L'informatique en nuage (Cloud Computing) a émergé comme un nouveau paradigme pour offrir des ressources informatiques à la demande et pour externaliser des infrastructures logicielles et matérielles. Le Cloud Computing est rapidement et fondamentalement en train de révolutionner la façon dont les services informatiques sont mis à disposition et gérés. Ces services peuvent être demandés à partir d'un ou plusieurs fournisseurs de Cloud d'où le besoin de la mise en réseau entre les composants des services informatiques distribués dans des emplacements géographiquement répartis. Les utilisateurs du Cloud veulent aussi déployer et instancier facilement leurs ressources entre les différentes plateformes hétérogènes de Cloud Computing. Les fournisseurs de Cloud assurent la mise à disposition des ressources de calcul sous forme des machines virtuelles à leurs utilisateurs. Par contre, ces clients veulent aussi la mise en réseau entre leurs ressources virtuelles. En plus, ils veulent non seulement contrôler et gérer leurs applications, mais aussi contrôler la connectivité réseau et déployer des fonctions et des services de réseaux complexes dans leurs infrastructures virtuelles dédiées. Les besoins des utilisateurs avaient évolué au-delà d'avoir une simple machine virtuelle à l'acquisition de ressources et de services virtuels complexes, flexibles, élastiques et intelligents. L'objectif de cette thèse est de permettre le placement et l'instanciation des ressources complexes dans des infrastructures de Cloud distribués tout en permettant aux utilisateurs le contrôle et la gestion de leurs ressources. En plus, notre objectif est d'assurer la convergence entre les services de cloud et de réseau. Pour atteindre ces objectifs, cette thèse propose des algorithmes de mapping d'infrastructures virtuelles dans les centres de données et dans le réseau tout en respectant les exigences des utilisateurs. Avec l'apparition du Cloud Computing, les réseaux traditionnels sont étendus et renforcés avec des réseaux logiciels reposant sur la virtualisation des ressources et des fonctions réseaux. En plus, le nouveau paradigme d'architecture réseau (SDN : Software Defined Networks) est particulièrement pertinent car il vise à offrir la programmation du réseau et à découpler, dans un équipement réseau, la partie plan de données de la partie plan de contrôle. Dans ce contexte, la première partie de la thèse propose des algorithmes optimaux (exacts) et heuristiques de placement pour trouver le meilleur mapping entre les demandes des utilisateurs et les infrastructures sous-jacentes, tout en respectant les exigences exprimées dans les demandes. Cela inclut des contraintes de localisation permettant de placer une partie des ressources virtuelles dans le même nœud physique. Ces contraintes assurent aussi le placement des ressources dans des nœuds distincts. Les algorithmes proposés assurent le placement simultané des nœuds et des liens virtuels sur l'infrastructure physique. Nous avons proposé aussi un algorithme heuristique afin d'accélérer le temps de résolution et de réduire la complexité du problème. L'approche proposée se base sur la technique de décomposition des graphes et la technique de couplage des graphes bipartis. Dans la troisième partie de la thèse, nous proposons un cadriciel open source (framework) permettant d'assurer la mise en réseau dynamique entre des ressources Cloud distribués et l'instanciation des fonctions réseau dans l'infrastructure virtuelle de l'utilisateur. Ce cadriciel permettra de déployer et d'activer les composants réseaux afin de mettre en place les demandes des utilisateurs. Cette solution se base sur un gestionnaire des ressources réseaux "Cloud Network Gateway Manager" et des passerelles logicielles permettant d'établir la connectivité dynamique et à la demande entre des ressources cloud et réseau [...]
Cloud computing has rapidly emerged as a successful paradigm for providing IT infrastructure, resources and services on a pay-per-use basis over the past few years. As, the wider adoption of Cloud and virtualization technologies has led to the establishment of large scale data centers that consume excessive energy and have significant carbon footprints, energy efficiency is becoming increasingly important for data centers and Cloud. Today data centers energy consumption represents 3 percent of all global electricity production and is estimated to further rise in the future. This thesis presents new models and algorithms for energy efficient resource allocation in Cloud data centers. The first goal of this work is to propose, develop and evaluate optimization algorithms of resource allocation for traditional Infrastructutre as a Service (IaaS) architectures. The approach is Virtual Machine (VM) based and enables on-demand and dynamic resource scheduling while reducing power consumption of the data center. This initial objective is extended to deal with the new trends in Cloud services through a new model and optimization algorithms of energy efficient resource allocation for hybrid IaaS-PaaS Cloud providers. The solution is generic enough to support different type of virtualization technologies, enables both on-demand and advanced resource provisioning to deal with dynamic resource scheduling and fill the gap between IaaS and PaaS services and create a single continuum of services for Cloud users. Consequently, in the thesis, we first present a survey of the state of the art on energy efficient resource allocation in cloud environments. Next, we propose a bin packing based approach for energy efficient resource allocation for classical IaaS. We formulate the problem of energy efficient resource allocation as a bin-packing model and propose an exact energy aware algorithm based on integer linear program (ILP) for initial resource allocation. To deal with dynamic resource consolidation, an exact ILP algorithm for dynamic VM reallocation is also proposed. This algorithm is based on VM migration and aims at constantly optimizing energy efficiency at service departures. A heuristic method based on the best-fit algorithm has also been adapted to the problem. Finally, we present a graph-coloring based approach for energy efficient resource allocation in the hybrid IaaS-PaaS providers context. This approach relies on a new graph coloring based model that supports both VM and container virtualization and provides on-demand as well as advanced resource reservation. We propose and develop an exact Pre-coloring algorithm for initial/static resource allocation while maximizing energy efficiency. A heuristic Pre-coloring algorithm for initial resource allocation is also proposed to scale with problem size. To adapt reservations over time and improve further energy efficiency, we introduce two heuristic Re-coloring algorithms for dynamic resource reallocation. Our solutions are generic, robust and flexible and the experimental evaluation shows that both proposed approaches lead to significant energy savings while meeting the users' requirements
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Gbaguidi, Fréjus A. Roméo. „Approche prédictive de l'efficacité énergétique dans les Clouds Datacenters“. Electronic Thesis or Diss., Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1163.

Der volle Inhalt der Quelle
Annotation:
Avec la démocratisation des technologies du numérique, la construction d'un cyberespace globalisé s'est faite insidieusement, transformant littéralement notre mode de vie et notre vécu quotidien. Faire communiquer plus de 4 milliards d'individus à une vitesse devenue incontrôlable, nécessite l'invention de nouveaux concepts pour la production des services informatiques capable de s'adapter à ce défis. Le Cloud Computing, dans cette optique permet de fournir à travers des Datacenters, une partie ou la totalité des composants nécessaires aux entreprises pour la délivrance de leurs services dans les délais et avec des performances conformes aux exigences de leurs clients. Dès lors, la prolifération conséquente des Datacenters aux quatre coins du monde a mis au jour la préoccupante question de la quantité d'énergie nécessaire pour leur fonctionnement et la difficulté qui en résulte pour l'humanité dont les réserves actuelles ne sont pas extensibles à l'infini. Ainsi, il est apparu nécessaire de développer des techniques permettant de réduire la consommation électrique des Datacenters en minimisant les pertes d'énergie orchestrées sur les serveurs dont le moindre watt gaspillé entraine par effet de cascade une augmentation substantielle de la facture globale des Datacenters. Notre travail a consisté à faire dans un premier temps une revue de la littérature sur le sujet, puis de tester la capacité de quelques outils de prédiction à améliorer l'anticipation des risques de pertes d'énergie engendrer par la mauvaise allocation des machines virtuelles sur les serveurs. Cette étude s'est focalisée notamment sur les outil ARMA et les réseaux de neurones qui dans la littérature ont produit des résultats intéressants dans des domaines proches. Après cette étape, il nous est apparu que les outils ARMA bien qu'ayant des performances inférieures aux réseaux de neurones dans notre contexte, s'exécute dans plus rapidement et sont les plus adaptés pour être implémenter dans les environnements de Cloud Computing. Ainsi, nous avons utilisé les résultats de cette méthode pour améliorer le processus de prise de décision, notamment pour la re-allocation proactive des machines virtuelles avant qu'il n'entraine des sous-consommations des ressources sur les serveurs physiques ou des surconsommation pouvant induire des violations des accords de niveaux de service. Cette démarche a permis sur la base de nos simulations de réduire de plus de 5Kwh la consommation d'énergie dans une ferme de 800 serveurs et sur une durée d'une journée. Ce gain pourrait se révéler important lorsque l'on considère la taille énorme des datacenters modernes et que l'on se projette dans une durée relativement longue. Il serait encore plus intéressant d'approfondir cette recherche afin de généraliser l'intégration de cette approche prédictive dans les techniques existantes afin d'optimiser de façon significative les consommations d'énergie au sein des Datacenters tout en préservant les performances et la qualité de service indispensable dans le concept de Cloud Computing
With the democratization of digital technologies, the construction of a globalized cyberspace insidiously transforms our lifestyle. Connect more than 4 billion people at high speed, requires the invention of new concept of service provision and trafic management that are capable to face the challenges. For that purpose, Cloud Computing have been set up to enable Datacenters to provide part or total IT components needed by companies for timely services delivering with performance that meets the requirements of their clients. Consequently, the proliferation of Datacenters around the world has brought to light the worrying question about the amount of energy needed for their function and the resulting difficulty for the humanity, whose current reserves are not extensible indefinitely. It was therefore necessary to develop techniques that reduce the power consumption of Datacenters by minimizing the energy losses orchestrated on servers where each wasted watt results in a chain effect on a substantial increase in the overall bill of Datacenters. Our work consisted first in making a review of the literature on the subject and then testing the ability of some prediction tools to improve the anticipation of the risks of energy loss caused by the misallocation of virtual equipment on servers. This study focused particularly on the ARMA tools and neural networks which in the literature have produced interesting results in related fields. After this step, it appeared to us that ARMA tools, although having less performance than neural networks in our context, runs faster and are best suited to be implemented in cloud computing environments. Thus, we used the results of this method to improve the decision-making process, notably for the proactive re-allocation of virtual equipment before it leads to under-consumption of resources on physical servers or over-consumption inducing breaches of SLAs. Based on our simulations, this approach enabled us to reduce energy consumption on a firm of 800 servers over a period of one day by more than 5Kwh. This gain could be significant when considering the enormous size of modern data centers and projected over a relatively long period of time. It would be even more interesting to deepen this research in order to generalize the integration of this predictive approach into existing techniques in order to significantly optimize the energy consumption within Datacenters while preserving performance and quality of service which are key requirements in the concept of Cloud Computing
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Haderer, Nicolas. „APISENSE® : une plate-forme répartie pour la conception, le déploiement et l’exécution de campagnes de collecte de données sur des terminaux intelligents“. Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10118/document.

Der volle Inhalt der Quelle
Annotation:
Le mobile crowdsensing est une nouvelle forme de collecte de données exploitant la foule de terminaux intelligents déjà déployés à travers le monde pour collecter massivement des données environnementales ou comportementales d'une population.Ces dernières années, ce type de collecte de données a suscité l'intérêt d'un grand nombre d'acteurs industriels et académiques dans de nombreux domaines tels que l'étude de la mobilité urbaine, la surveillance de l'environnement, la santé ou l'étude des comportements socioculturels. Cependant, le mobile crowdsensing n'en n'est qu'à ses premiers stades de développement, et de nombreux défis doivent encore être relevés pour pleinement profiter de son potentiel. Ces défis incluent la protection de la vie privée des utilisateurs, les ressources énergétiques limitées des terminaux mobiles, la mise en place de modèles de récompense et de déploiement adaptés pour recruter les utilisateurs les plus à même de collecter les données désirées, ainsi que faire face à l’hétérogénéité des plateformes mobiles disponibles. Dans cette thèse, nous avons cherché à réétudier les architectures des systèmes dédiés au mobile crowdsensing pour adresser les limitations liées au développement, au déploiement et à l'exécution de campagnes de collecte de données. Les différentes contributions proposées sont articulées autour APISENSE, la plate-forme résultante des travaux de cette thèse. APISENSE a été utilisé pour réaliser une campagne de collecte de données déployée auprès d'une centaine d'utilisateurs au sein d'une étude sociologique, et évalué à travers des expériences qui démontrent la validité, l'efficacité et le passage à échelle de notre solution
Mobile crowdsensing is a new form of data collection that takes advantage of millions smart devices already deployed throughout the world to collect massively environmental or behavioral data from a population. Recently, this type of data collection has attracted interest from a large number of industrials and academic players in many areas, such as the study of urban mobility, environmental monitoring, health or the study of sociocultural attitudes. However, mobile crowdsensing is in its early stages of development, and many challenges remain to be addressed to take full advantage of its potential. These challenges include privacy, limited energy resources of devices, development of reward and recruitment models to select appropriates mobile users and dealing with heterogeneity of mobile platforms available. In this thesis, we aim to reconsider the architectural design of current mobile crowdsensing systems to provide a simple and effective way to design, deploy and manage data collection campaigns.The main contributions of this thesis are organize around APISENSE, the resulting platform of this research. APISENSE has been used to carry out a data collection campaign deployed over hundred of users in a sociological study and evaluated through experiments demonstrating the validity, effectiveness and scalability of our solution
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Gbaguidi, Fréjus A. Roméo. „Approche prédictive de l'efficacité énergétique dans les Clouds Datacenters“. Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1163/document.

Der volle Inhalt der Quelle
Annotation:
Avec la démocratisation des technologies du numérique, la construction d'un cyberespace globalisé s'est faite insidieusement, transformant littéralement notre mode de vie et notre vécu quotidien. Faire communiquer plus de 4 milliards d'individus à une vitesse devenue incontrôlable, nécessite l'invention de nouveaux concepts pour la production des services informatiques capable de s'adapter à ce défis. Le Cloud Computing, dans cette optique permet de fournir à travers des Datacenters, une partie ou la totalité des composants nécessaires aux entreprises pour la délivrance de leurs services dans les délais et avec des performances conformes aux exigences de leurs clients. Dès lors, la prolifération conséquente des Datacenters aux quatre coins du monde a mis au jour la préoccupante question de la quantité d'énergie nécessaire pour leur fonctionnement et la difficulté qui en résulte pour l'humanité dont les réserves actuelles ne sont pas extensibles à l'infini. Ainsi, il est apparu nécessaire de développer des techniques permettant de réduire la consommation électrique des Datacenters en minimisant les pertes d'énergie orchestrées sur les serveurs dont le moindre watt gaspillé entraine par effet de cascade une augmentation substantielle de la facture globale des Datacenters. Notre travail a consisté à faire dans un premier temps une revue de la littérature sur le sujet, puis de tester la capacité de quelques outils de prédiction à améliorer l'anticipation des risques de pertes d'énergie engendrer par la mauvaise allocation des machines virtuelles sur les serveurs. Cette étude s'est focalisée notamment sur les outil ARMA et les réseaux de neurones qui dans la littérature ont produit des résultats intéressants dans des domaines proches. Après cette étape, il nous est apparu que les outils ARMA bien qu'ayant des performances inférieures aux réseaux de neurones dans notre contexte, s'exécute dans plus rapidement et sont les plus adaptés pour être implémenter dans les environnements de Cloud Computing. Ainsi, nous avons utilisé les résultats de cette méthode pour améliorer le processus de prise de décision, notamment pour la re-allocation proactive des machines virtuelles avant qu'il n'entraine des sous-consommations des ressources sur les serveurs physiques ou des surconsommation pouvant induire des violations des accords de niveaux de service. Cette démarche a permis sur la base de nos simulations de réduire de plus de 5Kwh la consommation d'énergie dans une ferme de 800 serveurs et sur une durée d'une journée. Ce gain pourrait se révéler important lorsque l'on considère la taille énorme des datacenters modernes et que l'on se projette dans une durée relativement longue. Il serait encore plus intéressant d'approfondir cette recherche afin de généraliser l'intégration de cette approche prédictive dans les techniques existantes afin d'optimiser de façon significative les consommations d'énergie au sein des Datacenters tout en préservant les performances et la qualité de service indispensable dans le concept de Cloud Computing
With the democratization of digital technologies, the construction of a globalized cyberspace insidiously transforms our lifestyle. Connect more than 4 billion people at high speed, requires the invention of new concept of service provision and trafic management that are capable to face the challenges. For that purpose, Cloud Computing have been set up to enable Datacenters to provide part or total IT components needed by companies for timely services delivering with performance that meets the requirements of their clients. Consequently, the proliferation of Datacenters around the world has brought to light the worrying question about the amount of energy needed for their function and the resulting difficulty for the humanity, whose current reserves are not extensible indefinitely. It was therefore necessary to develop techniques that reduce the power consumption of Datacenters by minimizing the energy losses orchestrated on servers where each wasted watt results in a chain effect on a substantial increase in the overall bill of Datacenters. Our work consisted first in making a review of the literature on the subject and then testing the ability of some prediction tools to improve the anticipation of the risks of energy loss caused by the misallocation of virtual equipment on servers. This study focused particularly on the ARMA tools and neural networks which in the literature have produced interesting results in related fields. After this step, it appeared to us that ARMA tools, although having less performance than neural networks in our context, runs faster and are best suited to be implemented in cloud computing environments. Thus, we used the results of this method to improve the decision-making process, notably for the proactive re-allocation of virtual equipment before it leads to under-consumption of resources on physical servers or over-consumption inducing breaches of SLAs. Based on our simulations, this approach enabled us to reduce energy consumption on a firm of 800 servers over a period of one day by more than 5Kwh. This gain could be significant when considering the enormous size of modern data centers and projected over a relatively long period of time. It would be even more interesting to deepen this research in order to generalize the integration of this predictive approach into existing techniques in order to significantly optimize the energy consumption within Datacenters while preserving performance and quality of service which are key requirements in the concept of Cloud Computing
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Politaki, Dimitra. „Vers la modélisation de clusters de centres de données vertes“. Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4116.

Der volle Inhalt der Quelle
Annotation:
La consommation énergétique des clusters de centres de données augmente rapidement, ce qui en fait les consommateurs d'électricité à la croissance la plus rapide au monde. Les sources d’électricité renouvelables et en particulier l’énergie solaire en tant qu’énergie propre et abondante peuvent être utilisées pour couvrir leurs besoins en électricité et les rendre «verts», c’est-à-dire alimentés par le photovoltaïque. Ce potentiel peut être exploré en prévoyant l'irradiance solaire et en évaluant la capacité fournie pour les clusters de centres de données. Dans cette thèse, nous développons des modèles stochastiques pour l'énergie solaire; un à la surface de la Terre et un second qui modélise le courant de sortie photovoltaïque. Nous d'abord validons nos modèles par des données réels, puis nous proposons une étude comparative avec d’autres systèmes, notamment les modèles dits on-off. Nous concluons que notre modèle d'irradiance solaire peut capturer les corrélations multi-échelles de façon plus optimale, et il se montre particulièrement convénient dans le cas d’une production à petite échelle. De plus, nous proposons une nouvelle analyse de cycle de vie pour un système de cluster réel, ainsi qu'un modèle de cluster prenant en charge la soumission de travaux par lots et prenant en compte le comportement client impatient et persistant. Enfin, pour comprendre les caractéristiques essentielles du cluster d’ordinateurs, nous analysons deux cas: le complexe Google publié et le Nef cluster de l’Inria. Nous avons également implémenté marmoteCore-Q, un outil de simulation d’une famille de modèles de file d’attente, basé sur nos modèles
Data center clusters energy consumption is rapidly increasing making them the fastest-growing consumers of electricity worldwide. Renewable electricity sources and especially solar energy as a clean and abundant energy can be used, in many locations, to cover their electricity needs and make them "green" namely fed by photovoltaics. This potential can be explored by predicting solar irradiance and assessing the capacity provision for data center clusters. In this thesis we develop stochastic models for solar energy; one at the surface of the Earth and a second one which models the photovoltaic output current. We then compare them to the state of the art on-off model and validate them against real data. We conclude that the solar irradiance model can better capture the multiscales correlations and is suitable for small scale cases. We then propose a new job life-cycle of a complex and real cluster system and a model for data center clusters that supports batch job submissions and cons iders both impatient and persistent customer behavior. To understand the essential computer cluster characteristics, we analyze in detail two different workload type traces; the first one is the published complex Google trace and the second, simpler one, which serves scientific purposes, is from the Nef cluster located at the research center Inria Sophia Antipolis. We then implement the marmoteCore-Q, a tool for the simulation of a family of queueing models based on our multi-server model for data center clusters with abandonments and resubmissions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Gouvy, Nicolas. „Routage géographique dans les réseaux de capteurs et d’actionneurs“. Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10185/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse se positionne dans le contexte des réseaux sans fil multi-sauts (réseaux de capteurs/actionneurs/robots mobiles). Ces réseaux sont composés d’entités indépendantes à la puissance limitée et fonctionnant sur batteries qui communiquent exclusivement par voie radio. Pour pouvoir relayer les messages d’un robot à une station de base, on utilise des protocoles dits « de routage» qui ont en charge de déterminer quel robot doit relayer le message. Nous nous sommes basés sur le protocole CoMNet, qui adapte la topologie du réseau à son trafic lors du routage afin d’économiser de l’énergie en déplaçant les robots. Mais modifier la topologie c'est aussi modifier les possibilités de routage. Nous proposons donc MobileR (Mobile Recursivity) qui choisit le prochain noeud en ayant anticipé par le calcul les conséquences de tous les changements de topologie possibles. Un autre problème vient du fait qu’il y a souvent plusieurs nœuds qui détectent un même événement et vont émettre des messages à router vers la station de base. Ces messages vont finir par se croiser, et le nœud de croisement va sans cesse être relocalisé sur chacun des chemins. Le protocole PAMAL (PAth Merging ALgorithm) détecte ces intersections : il va provoquer une fusion des chemins de routage en amont du nœud de croisement et une agrégation de paquets en aval. Enfin, le protocole GRR (Greedy Routing Recovery) propose un mécanisme de récupération pour augmenter le taux de délivrance des messages dans les réseaux de capteurs/actionneurs avec obstacle(s). En effet, les protocoles de routage actuels échouent face à un obstacle. GRR va permettre de contourner l’obstacle en relocalisant des nœuds tout autour
This thesis is about wireless multi-hop networks such as sensor/actuator networks and actuator networks. Those networks are composed of independent entities which have limited computing and memory capabilities and are battery powered. They communicate through the radio medium and do not require any static infrastructure. In order to relay messages between actuators up to the base station, we use what is called "routing protocols". My works rely on CoMNet, the first geographic routing protocol which aims to adapt the network topology to the routed traffic in order to save energy. Nevertheless, CoMNet does not consider the consequences of those relocations more than in a one-hop way. We proposed MobileR (Mobile Recursivity), which anticipates the routing in a multi-hop manner through computations over its one-hop neighbors. Hence it can select the “best” next forwarding node according to its knowledge. Another important topic is that events are likely to be detected by multiple sensors and all of them transmit message toward the destination. But those messages are likely to cross over an intersection node. This crossing provokes useless oscillation for it and premature node death. The PAMAL (PAth Merging ALgorithm) routing algorithm detects those routing path crossing and provokes a path merging upstream and uses a packet aggregation downstream. Finally, the Greedy Routing Recovery (GRR) protocol takes controlled mobility into account in order to increase delivery rate on topology with holes or obstacles. GRR includes a dedicated relocation pattern which will make it circumvent routing holes and create a routing path
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Faheem, Yasir. „Routage avec économie d'énergie dans les réseaux de capteurs sans fils“. Paris 13, 2012. http://scbd-sto.univ-paris13.fr/secure/edgalilee_th_2013_faheem.pdf.

Der volle Inhalt der Quelle
Annotation:
La limitation de la capacité de la batterie est un facteur clé dans le déploiement des réseaux de capteurs sans fil (WSNs), malgré leurs nombreuses applications en petite échelle comme pour les réseaux de capteurs embarqués sur des personnes appelés communément réseaux WBANs (Wireless Body Area Networks) et également en grande échelle comme dans le domaine de l’agriculture et de la surveillance de l’habitat. En grande échelle, les protocoles de routage à base d’un puits statique ont une durée de vie limitée. Cela est dû au fait que les noeuds relais proches du puits épuisent leur batterie rapidement à cause de la charge du trafic, et par conséquent avoir un réseau avec une destination non joignable. En revanche, la mobilité du puits prolonge la durée de vie du réseau par la distribution de la consommation d’énergie entre les noeuds relais. Cependant, le puits mobile doit diffuser périodiquement sa position dans le réseau. Ce trafic de contrôle est non-négligeable dans le cas des capteurs sans fil car ils ont une capacité très limitée, ce qui engendre le problème de consommation d’énergie des noeuds. Dans cette thèse, nous nous sommes focalisés sur la conception de protocoles de routage pour les réseaux de capteurs sans fils avec optimisation de la consommation d’énergie. Dans ce contexte, nous nous sommes intéressés à deux applications des réseaux de capteurs sans fil ; les réseaux WBANs, et les réseaux de capteurs à grande échelle. Dans un premier temps, une analyse approfondie de deux techniques de dissémination d’informations et de leur consommation d’´energie dans es réseaux WBANs est effectuée. Nous avons comparé la consommation d’énergie liée à la dissémination d’informations dans un réseau WBAN à un saut et dans un réseau WBAN multi-sauts. Dans un second temps, on a étudié le problème de dissémination des données dans les réseaux de capteurs sans fil à large échelle et dans lesquels le collecteur de données, appelé communément sink, est mobile. Dans ce contexte, on a proposé deux algorithmes de routage distribués. Le premier algorithme, appelé SN-MPR, permet de limiter la propagation des messages de contrôle sur la localisation du sink aux seules zones affectées par la mobilité de ce dernier. Le deuxième algorithme, appelé duty-cycle SN-MPR, permet d’économiser l’énergie des capteurs en permettant à ceux qui ne sont pas MPR d’éteindre leurs radios respectives quand ils n’ont pas de données à transmettre vers le sink. Dans la dernière partie de cette thèse, nous avons traité la dissémination d’informations dans les réseaux de capteurs sans fils hétérogènes utilisant la technologie IEEE 802. 15. 4, et dans le contexte d’applications nécessitant un plus haut débit. En se basant sur l’utilisation parallèle de plusieurs canaux pour l’´echange de données, on a proposé un algorithme distribué, appelé TABA, pour la sélection de canaux en fonction du trafic dans le réseau. Cet algorithme permet, d’une part, d’économiser la consommation d’énergie en minimisant les collisions et retransmissions de paquets, et d’autre part, d’offrir un meilleur débit pour l’envoi de données multimédias
Limited battery power is one of the major stringent factors in deploying Wireless Sensor Networks (WSNs), in spite of their numerous applications both on small scale as inWireless Body Area Networks (WBANs) and on large scale as in agricultural and habitat monitoring. Especially, stationary sink based data gathering protocols for large scaleWSNs have limited network lifetime, because relay nodes around the sink quickly deplete their battery power due to high traffic loads, making the rest of the network unreachable to the sink. On the other hand, sink mobility improves network lifetime by distributing relay nodes’ energy consumption. However, mobile sink now has to periodically update the network about its changing position. This control traffic is non-negligible for low power, limited capacity sensors as it induces energy consumption problem. In this thesis, we are considering energy efficient routing protocols in the context of WBANs and large scale WSNs. Moreover, we also address multi-channel assignment algorithm with the aim of minimizing power consumption and increasing network throughput. In the first part of this thesis, a deep analysis of the energy consumption of one hop vs multi-hop communications in WBANs is performed. In fact, recent advances in technology has led to the development of small, intelligent, wearable sensors which are capable of remotely performing critical health monitoring tasks, and then transmitting patient’s data back to health care centers over wireless medium. But to the day, energy also remains to be a big constraint in enhancing WBAN lifetime [Net12]. Some recent literature on WBANs proposes deliberate use of multi-hops to transfer data from a sensor to the gateway via relay health sensors as more energy efficient than single hop communication. There are studies which argue contrarily. In this context, we have analyzed the single vs multi-hop energy consumption effect for real very short range sensor devices. In the second part of this thesis, two distributed energy-efficient sink location update algorithms are proposed for large scale mobile sink WSNs. First algorithm, named SN- MPR, uses a combination of multi-point relay broadcast and a local path repair mechanism by means of which sink’s location update packets are forwarded only to nodes which are affected by sink mobility; the rest of the network does not receive these update messages. Next, a duty-cycle aware multi-point relay based algorithm which is a modified version of the SN-MPR algorithm is proposed. It allows non-relay nodes to switch-off their radios when communication is not desired. Simulation results show that the two aforementioned algorithms minimize network’s power consumption without compromising data delivery efficiency. The final part of this thesis deals with traffic-aware channel assignment problem in IEEE 802. 15. 4 standard-based heterogeneous WSNs which have rather high traffic rate requirements than low-rate scalar WSN applications. In fact, traditional single channel communication suffers from interferences caused by concurrent transmissions in the same neighborhood. These parallel transmissions waste battery power as multiple retransmis- sions are required before a packet can be successfully delivered at the destination due to frequent collisions. Moreover, already limited network throughput of the single channel communication protocols is further degraded at higher traffic rates due to increased colli-sions and congestion. On the other hand, concurrent transmissions over multiple channels not only reduce power consumption as packet collisions are minimized or eliminated depend- ing upon the efficiency of the concerned channel assignment algorithm, but also offer better network throughput and data delivery delays. Modern WSN platforms like crossbow’s Mi-caZ nodes [Mot12] are equipped with single, half-duplex IEEE 802. 15. 4 standard-based radio which can operate over sixteen multiple channels. In order to make effective use of multiple channels, a number of channel assignment algorithms have been proposed recently for WSNs. However, they are suitable for rather low-rate homogeneous WSNs, and they consider fixed physical channel widths. These multi-channel assignments increase network throughput, but they may not be able to ensure QoS requirements of high bandwidth de- manding multimedia traffic, as in the case of heterogeneous WSNs. In order to address the energy issue and at the same time increase network capacity, we propose a distributive Traffic-Aware Bandwidth-Adaptive (TABA) channel selection algorithm which enables the nodes to not only choose interference free channels in the neighborhood, but also to adapt channel-width to increase/decrease throughput according to varying traffic conditions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Hasan, MD Sabbir. „Smart management of renewable energy in clouds : from infrastructure to application“. Thesis, Rennes, INSA, 2017. http://www.theses.fr/2017ISAR0010/document.

Der volle Inhalt der Quelle
Annotation:
Avec l'avènement des technologies de Cloud computing et son adoption, les entreprises et les institutions académiques transfèrent de plus en plus leurs calculs et leurs données vers le Cloud. Alors que ce progrès et ce modèle simple d'accès ont eu un impact considérable sur notre communauté scientifique et industrielle en termes de réduction de la complexité et augmentation des revenus, les centres de données consomment énormément d'énergie, ce qui se traduit par des émissions plus élevées de C02. En réponse, de nombreux travaux de recherche se sont focalisés sur les enjeux du développement durable pour le Cloud à travers la réduction de la consommation d'énergie en concevant des stratégies d'efficacité énergétiques. Cependant, l'efficacité énergétique dans l'infrastructure du C!oud ne suffira pas à stimuler la réduction de • l'empreinte carbone. Il est donc impératif d'envisager une utilisation intelligente de l'énergie verte à la fois au niveau de l'infrastructure et de l'application pour réduire davantage l'empreinte carbone. Depuis peu, certains fournisseurs de Cloud computing alimentent leurs centres de données avec de l'énergie renouvelable. Les sources d'énergie renouvelable sont très intermittentes, ce qui crée plusieurs défis pour les gérer efficacement. Pour surmonter ces défis, nous étudions les options pour intégrer les différentes sources d'énergie renouvelable de manière réaliste et proposer un Cloud energy broker qui peut ajuster la disponibilité et la combinaison de prix pour acheter de l'énergie verte dynamiquement sur le marché de l'énergie et rendre les centres de données partiellement verts. Puis, nous introduisons le concept de la virtualisation de l'énergie verte, qui peut être vu comme une alternative au stockage d'énergie utilisé dans les centres de données pour éliminer le problème d'intermittence dans une certaine mesure. Avec l'adoption du concept de virtualisation, nous maximisons l'utilisation de l'énergie verte contrairement au stockage d'énergie qui induit des pertes d'énergie, tout en introduisant des Green SLA basé sur l'énergie verte pour le fournisseur de services et les utilisateurs finaux. En utilisant des traces réalistes et une simulation et une analyse approfondie, nous montrons que la proposition peut fournir un système efficace, robuste et rentable de gestion de l'énergie pour le centre de données. Si une gestion efficace de l'énergie en présence d'énergie verte intermittente est nécessaire, la façon dont les applications Cloud modernes peuvent tirer profit de la présence ou l'absence d'énergie verte n'a pas été suffisamment étudiée. Contrairement aux applications Batch, les applications Interactive Cloud doivent toujours être accessibles et ne peuvent pas être programmées à l'avance pour correspondre au profil d'énergie verte. Par conséquent, cette thèse propose une solution d'autoscaling adaptée à l'énergie pour exploiter les caractéristiques internes des applications et créer une conscience d'énergie verte dans l'application, tout en respectant les propriétés traditionnelles de QoS. Pour cela, nous concevons un contrôleur d'application green qui profite de la disponibilité de l'énergie verte pour effectuer une adaptation opportuniste dans une application gérée par un contrôleur orienté performance. L'expérience est réalisée avec une application réelle sur Grid5000 et les résultats montrent une réduction significative de la consommation d'énergie par rapport à l'approche orientée performance, tout en respectant les attributs traditionnels de QoS
With the advent of cloud enabling technologies and adoption of cloud computing, enterprise and academic institutions are moving their IT workload to the cloud. Although this prolific advancement and easy to access model have greatly impacted our scientific and industrial community in terms of reducing complexity and increasing revenue, data centers are consuming enormous amount of energy, which translates into higher carbon emission. In response, varieties of research work have focused on environmental sustainability for Cloud Computing paradigm through energy consumption reduction by devising energy efficient strategies. However, energy efficiency in cloud infrastructure alone is not going to be enough to boost carbon footprint reduction. Therefore, it is imperative to envision of smartly using green energy at infrastructure and application level for further reduction of carbon footprint. In recent years, some cloud providers are powering their data centers with renewable energy. The characteristics of renewable energy sources are highly intermittent which creates several challenges to manage them efficiently. To overcome the problem, we investigate the options and challenges to integrate different renewable energy sources in a realistic way and propose a Cloud energy broker, which can adjust the availability and price combination to buy Green energy dynamically from the energy market in advance to make a data center partially green. Later, we introduce the concept of Virtualization of Green Energy, which can be seen as an alternative to energy storage used in data center to eliminate the intermittency problem to some extent. With the adoption of virtualization concept, we maximize the usage of green energy contrary to energy storage which induces energy losses, while introduce Green Service Level Agreement based on green energy for service provider and end users. By •using realistic traces and extensive simulation and analysis, we show that, the proposal can provide an efficient, robust and cost-effective energy management scheme for data center. While an efficient energy management in the presence of intermittent green energy is necessary, how modern Cloud applications can take advantage of the presence/absence of green energy has not been studied with requisite effort. Unlike Batch applications, Interactive Cloud applications have to be always accessible and car not be scheduled in advance to match with green energy profile. Therefore, this thesis proposes an energy adaptive autoscaling solution to exploit applications internal to create green energy awareness in the application, while respecting traditional QoS properties. To elaborate, we design green energy aware application controller that takes advantage of green energy availability to perform opportunistic adaptation in an application along with performance aware application controller. Experiment is performed with real life application at Grid5000 and results show significant reduction of energy consumption while respecting traditional QoS attributes compared to performance aware approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Hamzaoui, Khalil Ibrahim. „Contribution à la modélisation de la consommation d'énergie dans un dispositif mobile“. Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I030/document.

Der volle Inhalt der Quelle
Annotation:
L’objectif principal de cette thèse consiste à modéliser la consommation d’énergie d’une application particulière fonctionnant sur un appareil mobile. Nous proposons un modèle de suivi du comportement énergétique, nous décrivons également une méthodologie pour identifier les paramètres du modèle. À cette fin, nous avons analysé une collection de données expérimentales recueillies lors de mon tour de France en fauteuil roulant électrique. Nous avons appliqué des outils statistiques pour obtenir les paramètres du modèle. Nous validons enfin le modèle en comparant les résultats avec d’autres données expérimentales.La première étude de cas permet de comparer l’évolution du coût énergétique dans les environnements mobiles des différents composants des smartphones en se basant sur des plusieurs modèles énergétiques.— La deuxième étude de cas traite l’évaluation, les mesures du coût d’énergie consommée et les problèmes rencontrés dans les méthodes utilisées pour l’évaluation de la consommation d’énergie. Pour une meilleure évaluation, on a introduit le cas d’étude du comportement énergétique en utilisant les machines virtuelles.— La troisième étude de cas est basée sur le traitement des résultats des mesures obtenues lors de mon tour de France en fauteuil roulant électrique connecté. L’objectif consiste en une gestion anticipée des ressources, en réalisant des mesures réelles, ensuite, de faire le suivi du comportement énergétique dans un environnement réel et diversifié. Le modèle peut être utilisé pour définir une fréquence optimale en termes de consommation d’énergie pour des situations précises sans trop dégrader la qualité de service souhaitée par l’utilisateur
The main goal of this thesis is to model the power consumption of a particular application running on a mobile device. We propose a model of energy behavior monitoring, we also describe a methodology to identify the parameters of the model. To this end, we analyzed a collection of experimental data collected during my tour de France in an electric wheelchair. We applied statistical tools to obtain the parameters of the model. Finally, we validate the model by comparing the results with other experimental data.The first case study compares the evolution of the energy cost in the mobile environments of the different components of smartphones based on several energy models.- The second case study deals with the evaluation, the measurements of the energy cost consumed and the problems encountered in the methods used for the evaluation of energy consumption. For a better evaluation, the case study of energy behavior was introduced using the virtual machines.- The third case study is based on the treatment of the results of the measurements obtained during my tour of France in a connected electric wheelchair. The goal is to anticipate resource management, realizing measurements, and then tracking energy behavior in a real and diverse environment. The model can be used to define an optimal frequency in terms of energy consumption for specific situations without degrading the quality of service desired by the user
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Thiam, Cheikhou. „Anti load-balancing for energy-aware distributed scheduling of virtual machines“. Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2441/.

Der volle Inhalt der Quelle
Annotation:
La multiplication de l'informatique en nuage (Cloud) a abouti à la création de centres de données dans le monde entier. Le Cloud contient des milliers de nœuds de calcul. Cependant, les centres de données consomment d'énorme quantités d'énergie à travers le monde estimées à plus de 1,5 % de la consommation mondiale d'électricité et devrait continuer à croître. Une problématique habituellement étudiée dans les systèmes distribués est de répartir équitablement la charge. Mais lorsque l'objectif est de réduire la consommation électrique, ce type d'algorithmes peut mener à avoir des serveurs fortement sous chargés et donc à consommer de l'énergie inutilement. Cette thèse présente de nouvelles techniques, des algorithmes et des logiciels pour la consolidation dynamique et distribuée de machines virtuelles (VM) dans le Cloud. L'objectif principal de cette thèse est de proposer des stratégies d'ordonnancement tenant compte de l'énergie dans le Cloud pour les économies d'énergie. Pour atteindre cet objectif, nous utilisons des approches centralisées et décentralisées. Les contributions à ce niveau méthodologique sont présentées sur ces deux axes. L'objectif de notre démarche est de réduire la consommation de l'énergie totale du centre de données en contrôlant la consommation globale d'énergie des applications tout en assurant les contrats de service pour l'exécution des applications. La consommation d'énergie est réduite en désactivant et réactivant dynamiquement les nœuds physiques pour répondre à la demande des ressources. Les principales contributions sont les suivantes: - Ici on s'intéressera à la problématique contraire de l'équilibrage de charge. Il s'agit d'une technique appelée Anti Load-Balancing pour concentrer la charge sur un nombre minimal de nœuds. Le but est de pouvoir éteindre les nœuds libérés et donc de minimiser la consommation énergétique du système. - Ensuite une approche centralisée a été proposée et fonctionne en associant une valeur de crédit à chaque nœud. Le crédit d'un nœud dépend de son affinité pour ses tâches, sa charge de travail actuelle et sa façon d'effectuer ses communications. Les économies d'énergie sont atteintes par la consolidation continue des machines virtuelles en fonction de l'utilisation actuelle des ressources, les topologies de réseaux virtuels établis entre les machines virtuelles et l'état thermique de nœuds de calcul. Les résultats de l'expérience sur une extension de CloudSim (EnerSim) montrent que l'énergie consommée par les applications du Cloud et l'efficacité énergétique ont été améliorées. - Le troisième axe est consacré à l'examen d'une approche appelée "Cooperative scheduling Anti load-balancing Algorithm for cloud". Il s'agit d'une approche décentralisée permettant la coopération entre les différents sites. Pour valider cet algorithme, nous avons étendu le simulateur MaGateSim. Avec une large évaluation expérimentale d'un ensemble de données réelles, nous sommes arrivés à la conclusion que l'approche à la fois en utilisant des algorithmes centralisés et décentralisés peut réduire l'énergie consommée des centres de données
The multiplication of Cloud computing has resulted in the establishment of largescale data centers around the world containing thousands of compute nodes. However, Cloud consume huge amounts of energy. Energy consumption of data centers worldwide is estimated at more than 1. 5% of the global electricity use and is expected to grow further. A problem usually studied in distributed systems is to evenly distribute the load. But when the goal is to reduce energy consumption, this type of algorithms can lead to have machines largely under-loaded and therefore consuming energy unnecessarily. This thesis presents novel techniques, algorithms, and software for distributed dynamic consolidation of Virtual Machines (VMs) in Cloud. The main objective of this thesis is to provide energy-aware scheduling strategies in cloud computing for energy saving. To achieve this goal, we use centralized and decentralized approaches. Contributions in this method are presented these two axes. The objective of our approach is to reduce data center's total energy consumed by controlling cloud applications' overall energy consumption while ensuring cloud applications' service level agreement. Energy consumption is reduced by dynamically deactivating and reactivating physical nodes to meet the current resource demand. The key contributions are: - First, we present an energy aware clouds scheduling using anti-load balancing algorithm : concentrate the load on a minimum number of severs. The goal is to turn off the machines released and therefore minimize the energy consumption of the system. - The second axis proposed an algorithm which works by associating a credit value with each node. The credit of a node depends on its affinity to its jobs, its current workload and its communication behavior. Energy savings are achieved by continuous consolidation of VMs according to current utilization of resources, virtual network topologies established between VMs, and thermal state of computing nodes. The experiment results, obtained with a simulator which extends CloudSim (EnerSim), show that the cloud application energy consumption and energy efficiency are being improved. - The third axis is dedicated to the consideration of a decentralized dynamic scheduling approach entitled Cooperative scheduling Anti-load balancing Algorithm for cloud. It is a decentralized approach that allows cooperation between different sites. To validate this algorithm, we have extended the simulator MaGateSim. With an extensive experimental evaluation with a real workload dataset, we got the conclusion that both the approach using centralized and decentralized algorithms can reduce energy consumed by data centers
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Milent, Etienne. „Contribution à l'étude d'un actionneur asynchrone à contrôle vectoriel et de ses possibilités d'utilisation dans des applications embarquées“. Compiègne, 1992. http://www.theses.fr/1992COMPD508.

Der volle Inhalt der Quelle
Annotation:
Le moteur asynchrone, robuste, bon marché et sans entretien, voit depuis quelques années son champ d'application s'élargir considérablement grâce à la technique du contrôle vectoriel. Cette commande lui confère une précision et des qualités comparables à celles des moteurs à courant continu ou aux machines autosynchrones. Pour des applications embarquées, le point faible qui apparaît dans les procédés généralement mis en œuvre est la nécessité de maintenir le flux magnétique dans la machine, donc d'y créer en permanence une dissipation de chaleur et surtout de consommer sans discontinuer de l'énergie à la source. L'objectif de cette étude est de concilier les techniques modernes de contrôle vectoriel et les contraintes liées à l'énergie embarquée, et de montrer ainsi la faisabilité de l'intégration d'actionneurs asynchrones, précis et rapides, pour ces applications. Nous avons donc développé une nouvelle stratégie de contrôle vectoriel à flux variable permettant, d'une part, de maîtriser rapidement le couple délivré par l'activateur et, d'autre part, de minimiser la consommation d'énergie et, en particulier, de l'annuler lorsque le moteur n'est pas sollicité. Afin d'illustrer les performances, nous avons réalisé un asservissement de position destiné à piloter l'orientation des roues arrières d'un véhicule à quatre roues directrices. La définition, la simulation et l'expérimentation sur maquette du contrôle de couple sont présentées dans le mémoire, tant en statique qu'en dynamique, ainsi que les principes d'élaboration et les résultats expérimentaux de l'asservissement de position. La concordance entre les simulations et ces résultats a permis de valider les stratégies proposées. On a ainsi montré que la nécessité d'être avare sur la consommation d'énergie n'est pas incompatible avec les performances dynamiques élevées offertes par le contrôle vectoriel et que l'utilisation de ces techniques modernes dans les applications embarquées est tout a fait envisageable.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Ingelrest, François. „Protocoles localisés de diffusion et économie d'énergie dans les réseaux ad hoc et de capteurs“. Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2006. http://tel.archives-ouvertes.fr/tel-00113869.

Der volle Inhalt der Quelle
Annotation:
Un réseau ad hoc sans fil est composé d'un ensemble décentralisé d'objets mobiles et auto-organisés. Un tel réseau ne repose sur aucune infrastructure, et est donc complètement autonome et dynamique. Selon ces hypothèses, tout ensemble d'objets équipés d'interfaces de communication adéquates peut spontanément former un tel réseau. Puisque des communications sans fil sont utilisées, seuls les objets suffisamment proches les uns des autres peuvent communiquer ensemble. Les communications de longue portée doivent donc être effectuées via un mécanisme multi-sauts : cela veut simplement dire que les objets intermédiaires doivent faire suivre les messages jusqu'au destinataire.

Les réseaux de capteurs sont similaires aux réseaux ad hoc, car ils sont également décentralisés et autonomes. Un capteur est un petit appareil capable de surveiller son environnement. Des cas typiques d'utilisation peuvent être la surveillance de zones militaires (détection de mouvements) ou de forêts (détection d'incendie).

Parmi les problèmes communs à ces deux types de réseaux se trouve la diffusion. Dans une telle communication, un message est envoyé depuis un objet donné vers tous les autres du réseau. Les applications de ce processus sont nombreuses : découverte de routes, synchronisation... Comme les objets mobiles utilisent une batterie, il est nécessaire que la diffusion soit la plus économe possible d'un point de vue énergétique. Cela est généralement obtenu en réduisant la quantité de relais nécessaires, ou en limitant la puissance d'émission à chaque relais.

Le but de mon travail était d'étudier la diffusion dans les réseaux ad hoc et de capteurs, afin de mettre en lumière les caractéristiques et les défauts des mécanismes existants, puis d'en proposer de nouveaux, plus efficaces. Dans tous ces travaux, nous avons toujours voulu rester dans le domaine des solutions 'réalistes' : beaucoup des précédentes études utilisaient en effet des mécanismes centralisés, où une connaissance globale du réseau est nécessaire pour effectuer la diffusion. Nous nous sommes concentrés sur des solutions fiables et localisés, c'est-à-dire n'utilisant que des informations sur le voisinage de chaque noeud. Ce type de mécanisme permet également un passage à l'échelle simplifié, car la quantité d'informations nécessaire ne varie pas avec la taille du réseau. Nos études montrent de plus que ces solutions peuvent être aussi efficaces que les méthodes centralisées.

Puisque l'ajustement de portée est un mécanisme très important dans la conservation de l'énergie, nous avons proposé une méthode de diffusion originale, basée sur le concept de portée optimale de communication. Cette dernière est calculée de manière théorique grâce au modèle énergétique considéré, et représente le meilleur compromis entre l'énergie dépensée à chaque noeud et le nombre de relais nécessaires. Nous avons ainsi proposé deux protocoles différents basés sur ce concept, chacun étant plus spécifiquement adapté soit aux réseaux ad hoc (TR-LBOP), soit aux réseaux de capteurs (TR-DS).

Afin de réduire encore plus la consommation énergétique, nous avons étudié le fameux protocole centralisé nommé BIP. Son efficacité est due au fait qu'il considère la couverture obtenue par une seule émission omnidirectionnelle, au lieu de considérer chaque lien séparément. Nous avons proposé une solution localisée basée sur BIP, afin de construire incrémentalement une structure de diffusion. Nous avons montré de manière expérimentale que les résultats ainsi obtenus sont très proches de ceux fournis par BIP, notamment dans les réseaux de forte densité, tout en n'utilisant que des informations locales à chaque noeud.

Nous avons finalement considéré la suppression d'une hypothèse forte, largement répandue dans la communauté des réseaux ad hoc et de capteurs : l'utilisation d'un graphe du disque unitaire. Ce dernier définit la zone de communication d'un noeud comme étant un cercle parfait. Nous avons remplacé cette hypothèse par une autre plus réaliste afin d'en étudier les conséquences sur un protocole connu, le protocole de diffusion par relais multipoints (MPR). Nous avons montré que ce dernier ne fournit plus de résultats suffisants dans un tel environnement. Nous avons également proposé quelques modifications afin d'obtenir à nouveau de bons résultats.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Messai, Sarra. „Gestion de la mobilité dans les réseaux de capteurs sans fil“. Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1183.

Der volle Inhalt der Quelle
Annotation:
Les réseaux de capteurs sans fil (RCSFs) envahissent de plus en plus notre vie. A l'ère de l'Internet des objets, ils sont utilisés dans les domaines nécessitant l'observation du monde physique et la collecte de données. Toutefois, beaucoup d'obstacles inhérents aux spécificités des RCSFs doivent être surmontés avant de pouvoir atteindre la maturité de cette technologie. Parmi ces entraves, la limitation des ressources telles que l'énergie, la puissance de calcul, la bande passante et l'espace mémoire des capteurs. Dans cette thèse, nous nous intéressons à la gestion de la mobilité comme solution permettant d'améliorer les performances du réseau en termes de consommation d'énergie et d'optimisation de la collecte de données. Un réseau de capteurs sans fil mobile est un réseau dans lequel au moins la station de base est mobile. Nous nous sommes tout d'abord intéressés au cas où seule la station de base est mobile. Dans ce cadre, nous avons proposé une organisation du réseau de capteurs qui tire parti de la mobilité de la station de base pour optimiser la collecte de données tout en réduisant l'énergie dissipée par les capteurs. L'organisation proposée s'appuie sur une architecture en grille et un algorithme optimisé de déplacement de la station de base pour visiter les cellules de la grille et collecter les données. Nous avons implémenté notre solution dans l'environnement de simulation NS-2. Les résultats de simulation obtenus montrent nettement l'amélioration apportée par rapport aux autres approches de l'état de l'art. Nous nous sommes ensuite intéressés au cas où la mobilité est totale, autrement dit, tous les nœuds du réseau peuvent se déplacer. Dans ce cas, nous avons travaillé sur la problématique de la gestion de clés cryptographiques dans les RCSFs pour assurer la sécurité de la collecte de données. Dans ce cadre, nous avons proposé un schéma de gestion de de clés cryptographiques basé sur la distribution aléatoire de clés. Notre solution a la particularité d'assurer l'auto-guérison (self-healing ) du réseau en cas de compromission de nœuds. Nous avons évalué et implémenté notre solution et nous l'avons comparée avec deux autres solutions de référence pour montrer son efficacité
Wireless Sensor Networks (WSNs) are increasingly invading our lives. With the rise of Internet of Things (IoT), WSNs are used in applications that require observation of the physical world and data collection. However, many obstacles inherent to the specificities of WSNs must be overcome before reaching the maturity of this technology. Among these obstacles, the resource limitations such as energy, computing capability, bandwidth and storage capability of sensor nodes. In this thesis, we focus on mobility management as a solution to improve network performance in terms of energy consumption and optimization of data collection. A mobile wireless sensor network is a network in which at least the base station is mobile.We first looked at the case where only the base station is mobile. In this context, we proposed a network organization that leverages base station mobility to optimize data collection while reducing the dissipated energy by sensor nodes. The proposed organization is based on a grid architecture and an optimized base station mobility algorithm for collecting data. We implemented our solution in the NS-2 simulation environment. The obtained simulation results show clearly the improvement of our proposal compared to other existing approaches. Then we looked at the case where the mobility is total, in other words, each sensor node in the network can be mobile. In this case, we worked on the issue of key management to ensure the security of data collection. In this context, we proposed a new key management scheme based on the random key pre-distribution. Our solution has the particularity of ensuring the self-healing of the network where sensor nodes are compromised. We evaluated and implemented our solution and compared it with two other reference schemes to show its effectiveness
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Rostirolla, Gustavo. „Ordonnancement dans un centre de calculs alimenté par des sources d'énergie renouvelables sans connexion au réseau avec une charge de travail mixte basée sur des phases“. Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30160.

Der volle Inhalt der Quelle
Annotation:
Les centres de données sont reconnus pour être l'un des principaux acteurs en matière de consommation d'énergie du fait de l'augmentation de l'utilisation du cloud, des services web et des applications de calcul haute performance dans le monde entier. En 2006, les centres de données ont consommé 61,4 milliards de kWh aux états-Unis. Au niveau mondial, les centres de données consomment actuellement plus d'énergie que l'ensemble du Royaume-Uni, c'est-à-dire environ 1,3% de la consommation électrique mondiale, et ils sont de fait appelés les usines de l'ère numérique. Un des moyens d'atténuer le changement climatique est d'alimenter les centres de données en énergie renouvelable (énergie propre). La grande majorité des fournisseurs de cloud computing qui prétendent alimenter leurs centres de données en énergie verte sont en fait connectés au réseau classique et déploient des panneaux solaires et des éoliennes ailleurs puis vendent l'électricité produite aux compagnies d'électricité. Cette approche entraîne des pertes d'énergie lorsque l'électricité traverse le réseau. Même si différents efforts ont été réalisés au niveau informatique dans les centres de données partiellement alimentés par des énergies renouvelables, des améliorations sont encore possibles notamment concernant l'ordonnancement prenant en compte les sources d'énergie renouvelables sur site sans connexion au réseau et leur intermittence. C'est le but du projet ANR DataZERO, dans le cadre duquel cette thèse a été réalisée. L'efficacité énergétique dans les centres de données étant directement liée à la consommation de ressources d'un nœud de calcul, l'optimisation des performances et un ordonnancement efficace des calculs sont essentiels pour économiser l'énergie. La spécificité principale de notre approche est de placer le centre de données sous une contrainte de puissance, provenant entièrement d'énergies renouvelables : la puissance disponible peut ainsi varier au cours du temps. L'ordonnancement de tâches sous ce genre de contrainte rend le problème plus difficile, puisqu'on doit notamment s'assurer qu'une tâche qui commence aura assez d'énergie pour aller jusqu'à son terme. Dans cette thèse, nous commençons par proposer une planification de tâches de type "batch" qui se caractérisent par leur instant d'arrivée, leur date d'échéance et leurs demandes de ressources tout en respectant une contrainte de puissance. Les données utilisées pour les tâches de type batch viennent de traces de centres de données et contiennent des mesures de consommation CPU, mémoire et réseau. Quant aux enveloppes de puissance considérées, elles représentent ce que pourrait fournir un module de décision électrique, c'est-à-dire la production d'énergie prévue (énergie renouvelable seulement) basée sur les prévisions météorologiques. L'objectif est de maximiser la Qualité de Service avec une contrainte sur la puissance électrique. Par la suite, nous examinons une charge de travail composée de tâches de type "batch" et de services, où la consommation des ressources varie au cours du temps. Les tracecs utilisées pour les services proviennent d'une centre de données à "business critique". Dans ce cadre, nous envisageons le concpet de phases, dans lequel les changements significatifs de consommation de resources à l'intérieur d'une même tâche marquent le début d'une nouvelle phase. Nous considérons également un modèle de tâches pouvant recevoir moins de ressources que demandées. Nous étudions l'impact de ce modèle sur le profit du centre de données pour chaque type de tâche. Nous intégrons aussi le concept de "corrélation croisée" pour évaluer où placer une tâche selon une courbe de puissance afin de trouver le meilleur nœud pour placer plusieurs tâches (c.-à-d. Partager les ressources)
Due to the increase of cloud, web-services and high performance computing demands all over the world, datacenters are now known to be one of the biggest actors when talking about energy consumption. In 2006 alone, datacenters were responsible for consuming 61.4 billion kWh in the United States. When looking at the global scenario, datacenters are currently consuming more energy than the entire United Kingdom, representing about 1.3\% of world's electricity consumption, and being even called the factories of the digital age. Supplying datacenters with clean-to-use renewable energy is therefore essential to help mitigate climate change. The vast majority of cloud provider companies that claim to use green energy supply on their datacenters consider the classical grid, and deploy the solar panels/wind turbines somewhere else and sell the energy to electricity companies, which incurs in energy losses when the electricity travels throughout the grid. Even though several efforts have been conducted at the computing level in datacenters partially powered by renewable energy sources, the scheduling considering on site renewable energy sources and its variations, without connection to the grid can still be widely explored. Since energy efficiency in datacenters is directly related to the resource consumption of the computing nodes, performance optimization and an efficient load scheduling are essential for energy saving. Today, we observe the use of cloud computing as the basis of datacenters, either in a public or private fashion. The main particularity of our approach is that we consider a power envelope composed only by renewable energy as a constraint, hence with a variable amount of power available at each moment. The scheduling under this kind of constraint becomes more complex: without further checks, we are not ensured that a running task will run until completion. We start by addressing the IT load scheduling of batch tasks, which are characterized by their release time, due date and resource demand, in a cloud datacenter while respecting the aforementioned power envelope. The data utilized for the batch tasks comes from datacenter traces, containing CPU, memory and network values. The power envelopes considered, represent an estimation which would be provided by a power decision module and is the expected power production based on weather forecasts. The aim is to maximize the Quality of Service with a variable constraint on electrical power. Furthermore, we explore a workload composed by batch and services, where the resources consumption varies over time. The traces utilized for the service tasks originate from business critical datacenter. In this case we rely on the concept of phases, where each significant resource change in the resources consumption constitutes a new phase of the given task. In this task model phases could also receive less resources than requested. The reduction of resources can impact the QoS and consequently the datacenter profit. In this approach we also include the concept of cross-correlation to evaluate where to place a task under a power curve, and what is the best node to place tasks together (i.e. sharing resources). Finally, considering the previous workload of batch tasks and services, we present an approach towards handling unexpected events in the datacenter. More specifically we focus on IT related events such as tasks arriving at any given time, demanding more or less resources than expected, or having a different finish time than what was initially expected. We adapt the proposed algorithms to take actions depending on which event occurs, e.g. task degradation to reduce the impact on the datacenter profit
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Sbai, Hugo. „Système de vidéosurveillance intelligent et adaptatif, dans un environnement de type Fog/Cloud“. Thesis, Lille, 2018. http://www.theses.fr/2018LIL1I018.

Der volle Inhalt der Quelle
Annotation:
Les systèmes de vidéosurveillance utilisent des caméras sophistiquées (caméras réseau, smart caméras) et des serveurs informatiques pour l’enregistrement vidéo dans un système entièrement numérique. Ces systèmes intègrent parfois des centaines de caméras et génèrent une quantité colossale de données, dépassant largement les capacités des agents humains. Ainsi, l'un des défis modernes les plus importants est de faire évoluer un système basé sur le Cloud intégrant plusieurs caméras intelligentes hétérogènes et l'adapter à une architecture Fog/Cloud pour en améliorer les performances. Les FPGA sont de plus en plus présents dans les architectures FCIoT (FoG-Cloud-IoT). Ils sont caractérisés par des modes de configuration dynamiques et partiels, permettant de s'adapter rapidement aux changements survenus tout en augmentant la puissance de calcul disponible. De telles plateformes présentent de sérieux défis scientifiques, notamment en termes de déploiement et de positionnement des FoGs.Cette thèse propose un modèle de vidéosurveillance composé de caméras intelligentes plug & play, dotées de FPGAs dynamiquement reconfigurables sur une base hiérarchique FOG/ CLOUD. Dans ce système fortement évolutif, à la fois en nombre de caméras et de cibles trackées, nous proposons une approche automatique et optimisée d’authentification des caméras et de leur association dynamique avec les FoGs. L’approche proposée comporte également une méthodologie pour l’affectation optimale des trackers matériels aux ressources électroniques disponibles pour maximiser les performances et minimiser la consommation d’énergie. Toutes les contributions ont été validées avec un prototype de taille réelle
CCTV systems use sophisticated cameras (network cameras, smart cameras) and computer servers for video recording in a fully digital system. They often integrate hundreds of cameras generating a huge amount of data, far beyond human agent monitoring capabilities. One of the most important and modern challenges, in this field, is to scale an existing cloud-based video surveillance system with multiple heterogeneous smart cameras and adapt it to a Fog / Cloud architecture to improve performance without a significant cost overhead. Recently, FPGAs are becoming more and more present in FCIoT (FoG-Cloud-IoT) platform architectures. These components are characterized by dynamic and partial configuration modes, allowing platforms to quickly adapt themselves to changes resulting from an event, while increasing the available computing power. Today, such platforms present a certain number of serious scientific challenges, particularly in terms of deployment and positioning of FoGs. This thesis proposes a video surveillance model composed of plug & play smart cameras, equipped with dynamically reconfigurable FPGAs on a hierarchical FOG / CLOUD basis. In this highly dynamic and scalable system, both in terms of intelligent cameras (resources) and in terms of targets to track, we propose an automatic and optimized approach for camera authentication and their dynamic association with the FOG components of the system. The proposed approach also includes a methodology for an optimal allocation of hardware trackers to the electronic resources available in the system to maximize performance and minimize power consumption. All contributions have been validated with a real size prototype
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Madon, Maël. „Étude de comportements de sobriété dans les centres de calculs“. Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES046.

Der volle Inhalt der Quelle
Annotation:
L'industrie des technologies de l'information a une empreinte carbone croissante (2,1 à 3,9 % des émissions mondiales de gaz à effet de serre en 2020), incompatible avec la décarbonation rapide nécessaire pour atténuer le changement climatique. Les centres de calculs y contribuent significativement en raison de leur consommation d'électricité : 1 % de la consommation mondiale en 2018. Pour réduire cette empreinte, les travaux de recherche se sont principalement concentrés sur des mesures d'efficacité énergétique et l'utilisation d'énergies renouvelables. Si ces travaux sont nécessaires, ils entraînent également des effets rebond, à savoir une augmentation de la demande en réponse aux gains d'efficacité. Pour cette raison, il apparaît essentiel de les accompagner de mesures de sobriété, c'est-à-dire d'une utilisation raisonnée des technologies du numérique, afin de diminuer la quantité globale d'énergie et de ressources consommée. Dans cette thèse, nous présentons un modèle de centre de calculs et de ses utilisateurices. Dans la première partie, nous nous concentrons sur les utilisateurices directes, qui interagissent avec l'infrastructure en soumettant des tâches. Nous définissons cinq leviers de sobriété qu'iels peuvent adopter pour réduire leur impact sur l'infrastructure, à savoir Délai, Reconfiguration, Dégradation Spatiale, Dégradation Temporelle et Renoncement. Nous caractérisons ces leviers à l'aide de simulations sur des données réelles. Les résultats nous permettent de les classer en fonction de leur potentiel d'économie d'énergie, de leur impact sur les métriques d'ordonnancement et de l'effort requis de la part des utilisateurices. L'un des inconvénients des leviers de sobriété est leur inertie, que nous expliquons à l'aide de métriques ad hoc. Nous étudions ensuite le potentiel des leviers dans un contexte de gestion des énergies renouvelables. Nous montrons que l'adoption des leviers de sobriété en période de faible production renouvelable conduit à des économies d'énergie non renouvelable. Les économies sont proportionnelles aux efforts fournis par les utilisateurices. Dans la deuxième partie, nous nous appuyons sur notre modèle d'utilisateurices et son implémentation pour aborder un problème ouvert dans la simulation de systèmes distribués. La plupart des travaux utilisent des traces réelles pour simuler les soumissions dans l'infrastructure, en rejouant des tâches ayant les mêmes caractéristiques et les mêmes temps de soumission. Toutefois, ce modèle pose problème lorsque les performances simulées diffèrent de celles de l'infrastructure d'origine. Nous modélisons et mettons en œuvre le <<~rejeu avec feedback~>>, une façon d'utiliser les traces réelles, en préservant le temps de réflexion entre les tâches plutôt que les temps de soumission originaux. Nous fournissons une analyse approfondie de l'impact de notre méthode à l'aide de nouvelles métriques. Dans la dernière partie, nous nous concentrons sur l'utilisation indirecte des centres de calculs, en étudiant des utilisateurices de cloud professionnel. Nous menons une étude qualitative afin d'examiner ce que signifierait, en pratique, un usage sobre du cloud. L'étude comprend trois focus groups analysés par le biais d'une analyse thématique. Les résultats dressent une image préliminaire de la nature de nos besoins professionnels numériques, ainsi qu'une liste de "tactiques vers la sobriété", c'est-à-dire d'actions concrètes pour se concentrer sur l'essentiel tout en limitant son empreinte environnementale. Ce manuscrit offre un aperçu de la sobriété numérique dans les centres de calculs, impliquant à la fois simulation et sciences sociales. Nous espérons que nos codes libres et nos campagnes de simulation reproductibles seront utiles pour de futurs travaux dans cette direction
The Information Technologies (IT) industry has an increasing carbon footprint (2.1-3.9% of global greenhouse gas emissions in 2020), incompatible with the rapid decarbonization needed to mitigate climate change. Data centers hold a significant share due to their electricity consumption amounting to 1% of the global electricity consumption in 2018. To reduce this footprint, research has mainly focused on energy efficiency measures and use of renewable energy. While these works are needed, they also convey the risk of rebound effects, i.e., a growth in demand as a result of the efficiency gains. For this reason, it appears essential to accompany them with sufficiency measures, i.e., a conscious use of these technologies with the aim to decrease the total energy and resource consumption. In this thesis, we introduce a model for data centers and their users. In the first part, we focus on direct users, interacting with the infrastructure by submitting jobs. We define five sufficiency behaviors they can adopt to reduce their stress on the infrastructure, namely Delay, Reconfig, Space Degrad, Time Degrad and Renounce. We characterize these behaviors through simulation on real-world inputs. The results allow us to classify them according to their energy saving potential, impact on scheduling metrics and effort required from users. One drawback of sufficiency behaviors is their inertia, that we explain with appropriate metrics. We investigate thereafter the behaviors' usefulness in the context of renewable energy management. A three-state energy feedback mechanism informs the users on the status of electricity production. We show that adopting the sufficiency behaviors when renewable energy is scarce leads to brown energy savings. Savings are proportional to the efforts made by users. In the second part, we build upon our user model and implementation to tackle an open issue in distributed system simulation. Most works use recorded traces to simulate workloads, by replaying jobs of the same characteristics and same submission time. However, this model is problematic when the performance of the simulated infrastructure differs from that of the original infrastructure. We model and implement "replay with feedback", a way of using recorded traces, preserving the think time between jobs rather than the original dates of submission. We provide an in-depth analysis of our method's impact with the help of novel metrics. In the last part, we shift our focus to indirect users of data centers by studying professional cloud users. We design and conduct a qualitative study to investigate what a sufficient use of the cloud would mean, in practice. The study involves three focus groups analyzed through thematic analysis. The results provide a preliminary picture of the nature of our digital professional needs, along with a list of "tactics towards sufficiency", concrete actions to focus on the essential while limiting environmental footprint. This manuscript offers an insight into digital sufficiency in data centers, involving both simulation and social sciences. We hope that our open-source code and reproducible simulation campaigns will be useful for future works in that direction
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Péneau, Pierre-Yves. „Intégration de technologies de mémoires non volatiles émergentes dans la hiérarchie de caches pour améliorer l'efficacité énergétique“. Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS108/document.

Der volle Inhalt der Quelle
Annotation:
De nos jours, des efforts majeurs pour la conception de systèmes sur puces performants et efficaces énergétiquement sont en cours. Le déclin de la loi de Moore au début du XX e siècle a poussé les concepteurs à augmenter le nombre de cœurs par processeur pour continuer d’améliorer les performances. En conséquence, la surface de silicium occupée par les mémoires caches a augmentée. La finesse de gravure toujours plus petite a également fait augmenter le courant de fuite des transistors CMOS. Ainsi, la consommation énergétique des mémoires occupe une part de plus en plus importante dans la consommation globale des puces. Pour diminuer cette consommation, de nouvelles technologies de mémoires émergent depuis une dizaine d’années : les mémoires non volatiles (NVM). Ces mémoires ont la particularité d’avoir un courant de fuite très faible comparé aux technologies CMOS classiques. De fait, leur utilisation dans une architecture permettrait de diminuer la consommation globale de la hiérarchie de caches. Cependant, ces technologies souffrent de latences d’accès plus élevées que la SRAM, de coûts énergétiques d’accès plus importants et d’une durée de vie limitée. Leur intégration à des systèmes sur puces nécessite de continuer à rechercher des solutions. Cette thèse cherche à évaluer l’impact d’un changement de technologie dans la hiérarchie de caches.Plus spécifiquement, elle s’intéresse au cache de dernier niveau (LLC) et la technologie non volatile considérée est la STT-MRAM. Nos travaux adoptent un point de vue architectural dans lequel une modification de la technologie n’est pas retenue. Nous cherchons alors à intégrer les caractéristiques différentes de la STT-MRAM lors de la conception de la hiérarchie mémoire. Une première étude a permis de mettre en place un cadre d’exploration architectural pour des systèmes contenant des mémoires émergentes. Une seconde étude sur les optimisations architecturales au niveau du LLC a été menée pour identifier quelles sont les opportunités d’intégration de la STT-MRAM. Le but est d’améliorer l’efficacité énergétique tout en atténuant les pénalités d’accès dues aux fortes latences de cette technologie
Today, intensive efforts to design energy-efficient and high-performance systems-on-chip (SoCs) are underway. Moore’s end in the early 20 th century pushed designers to increase the number of core per processor to continue to improve the performance. As a result, the silicon area occupied by cache memories has increased. The ever smaller technology node also increased the leakage current of CMOS transistors. Thus, the energy consumption of memories represents an increasingly important part in the overall consumption of chips.To reduce this energy consumption, new memory technologies have emerged overthe past decade : non-volatile memories (NVM). These memories have the particularity of having a very low leakage current compared to conventional CMOS technologies. In fact, their use in an architecture would reduce the overall consumption of the cache hierarchy. However, these technologies sufferfrom higher access latencies than SRAM, higher access energy costs and limitedlifetime. Their integration into SoCs requires a continuous research effort.This thesis work aims to evaluate the impact of a change in technology in the cache hierarchy. More specifically, we are interested in the Last-Level Cache(LLC) and we consider the STT-MRAM technology. Our work adopts an architectural point of view in which a modification of the technology is not retained. Then,we try to integrate the different characteristics of the STT-MRAM atarchitectural level when designing the memory hierarchy. A first study set upan architectural exploration framework for systems containing emerging memories. A second study on architectural optimizations at LLC was conducted toidentify opportunities for the integration of STT-MRAM. The goal is to improve energy efficiency while reducing access penalties due to the high latency ofthis technology
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Ben, Ammar Amira. „Approche cross-layer pour la minimisation d’énergie dans les réseaux de capteurs sans fil“. Electronic Thesis or Diss., Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1191.

Der volle Inhalt der Quelle
Annotation:
Les réseaux de capteurs sans fil (RCSF) sont des réseaux ad hoc généralement constitués d’entités autonomes miniaturisées appelés noeuds capteurs pouvant communiquer entre eux par liaison radio. Les RCSF ont suscité beaucoup d’engouement dans la recherche scientifique en raison notamment des nouveaux problèmes de routage sous forte contrainte de durée de vie du réseau et de faibles capacités des noeuds.Ce type de réseau diffère des réseaux filaires par ses caractéristiques et limitations qui ont motivé le développement d’une nouvelle approche de conception cross-layer ignorant certains paradigmes de l’approche classique permettant l’échange mutuel d’informations même entre couches non adjacentes. Cette approche qui n’est pas encore standardisée, a démontré son intérêt à travers plusieurs travaux visant un meilleur compromis entre consommation d’énergie et une certaine qualité de service.Nos contributions peuvent être classées en deux catégories suivant la stratégie de routage à savoir le routage ad-hoc et le routage suivant la technique de clustering.Dans la première partie, nous proposons une architecture cross-layer, modulaire, adaptable et extensible nommée XL-AODV (cross layer AODV) basée sur l'échange du SNR (Signal-to-Noise-Ratio) entre la couche réseau et la couche physique qui a été modélisée par la distribution K. Nous évaluons sous le simulateur NS2 les performances de notre approche XL-AODV. Une analyse comparative avec AODV, a montré pour différentes configurations de réseaux, l’efficacité de notre proposition en termes de gains énergétiques et de latence de bout en bout.Pour la deuxième partie, nous proposons une première approche XL-LEACH qui constitue une amélioration de la version originale de LEACH, en l'adaptant aux réseaux de capteurs denses et à grande échelle tout en tenant compte des caractéristiques de la couche physique modélisée par la distribution K. Dans une troisième partie, nous introduisons une amélioration de XL-LEACH par l'approche dite, XL-CLEACH (XL Cooperative LEACH) en intégrant la communication coopérative au niveau MAC. Nous avons prouvé par une étude analytique qui a été validée par les simulations, le gain apporté en termes de consommation d’énergie, de la durée de vie du réseau et du TES (Taux d'Erreur Symbol). Les architectures XL-LEACH et XL-CLEACH ont été implémentées sous MATLAB
Wireless sensor networks (WSN) can be defined as an ad hoc network consisting of miniaturized autonomous entities, called sensor nodes which communicate with each other over a radio link. WSNs is a research topic which has gained a lot of interest due, in particular, to new routing problems under low node capacity and high network lifetime constraints.WSNs differ from wired networks in their characteristics and limitations which have motivated the development of a new cross-layer design that ignores certain paradigms of the classical approach allowing the mutual exchange of information even between non-adjacent layers. This approach, which is not yet standardized, has gained a lot of attention through several works aiming to energy consumption minimization under a required QoS (Quality of Service).In this thesis, our contributions can be classified are twofold according to the considered routing strategy namely the ad-hoc routing and clustering based routing.In the first part, we propose a new adaptable and extensible cross-layer design called XL-AODV (Cross Layer AODV) based on the exchange of the SNR (Signal-to-Noise-Ratio) between the network and the physical layer which has been modelled by the K distribution.We evaluate under the NS2 simulator, the performance of XL-AODV. A comparative analysis with AODV, showed for different network configurations, the efficiency of our proposition in terms of energy saving and end-to-end latency.In the second part, we propose an XL-LEACH approach which is an improvement of the original version of LEACH by its adapting to dense and large scale sensor networks. We have also taken into account the characteristics of the physical layer modelled by the K distribution.In a third part, XL-CLEACH (XL Cooperative LEACH) approach is introduced to improve XL-LEACH by integrating the cooperative communication at the MAC layer.We have proved through an analytical study and validated by simulations, the gain in terms of energy consumption, network lifetime and SER (Symbol Error Rate). The XL-LEACH and XL-CLEACH architecture were implemented under MATLAB
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Gallais, Antoine. „Ordonnancement d'Activité dans les Réseaux de Capteurs : l'Exemple de la Couverture de surface“. Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2007. http://tel.archives-ouvertes.fr/tel-00256841.

Der volle Inhalt der Quelle
Annotation:
De par leur taille miniature, les capteurs sans fils sont fortement contraints en énergie, imposant une gestion raisonnée du réseau qu'ils peuvent former grâce à leur capacité de communication sans fil. Cette dernière, limitée, impose des portées réduites contraignant les informations à être relayées d'objet en objet avant d'atteindre leur destinataire. On parle alors de communications multi-sauts. Le déploiement de ces réseaux sur des zones sensibles ou distantes rend également impossible le rechargement ou le remplacement des batteries. Il est alors crucial d'ordonnancer l'activité des capteurs; Pendant qu'une partie des objets participe à l'application, les autres sont dans un mode passif, peu consommateur de ressources. Le critère retenu pour l'ordonnancement est celui de la couverture de surface: l'ensemble des capteurs actifs doit être capable d'observer une zone aussi large que celle couverte par l'ensemble des capteurs déployés. Nous souhaitons également que cet ensemble soit connecté, c'est à dire que les communications multi-sauts soient possibles entre toute paire d'éléments du réseau.
Nous avons choisi d'étudier des approches localisées uniquement, ne reposant sur aucune infrastructure. L'objectif est d'obtenir un comportement global cohérent à partir de décisions individuelles simples issues d'informations locales. Chaque noeud décide de sa propre activité en ne se basant que sur l'observation de ses propres voisins. Les changements de topologie du réseau (dus à la mobilité, aux pannes ou à des changements de statut) ne sont par conséquent vécus par les noeuds que comme de simples modifications de leurs voisinages. Ceci permet d'obtenir des solutions robustes, adaptables et surtout passables à l'échelle, aspect extrêmement important dans des réseaux où les densités évoquées peuvent être d'une centaine de noeuds par zone de communication.
Nos propositions se distinguent non seulement parce qu'elles considèrent les problèmes de connexité et de couverture de zone comme n'en étant qu'un seul, mais aussi de par leur faible coût en communication ainsi que par leur robustesse. Nous avons ensuite étudié diverses méthodes d'extension à la couverture multiple où tout point de la zone doit être couvert par un nombre fixé de capteurs actifs. Enfin, nous avons évalué toutes ces approches à l'aide de modèles de communication réalistes, montrant que nos solutions conservent toute leur cohérence, en termes de couverture et de connexité. En revanche, aux protocoles classiques souffrant de pertes de performances, nous avons proposé des mécanismes améliorerant leur comportement dans des environnements réalistes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Laubé, Alexandre. „Agrégation de trafic pour réduire la consommation énergétique globale dans les réseaux sans fil multi-sauts“. Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS298/document.

Der volle Inhalt der Quelle
Annotation:
Les incitations économiques et environnementales poussent dorénavant à intégrer des considérations énergétiques dès les premiers stades de développement des réseaux. Dans les réseaux sans fil multi-sauts, l'approche la plus courante consiste à répartir le trafic sur l'ensemble des nœuds afin de réduire équitablement la consommation énergétique de chacun, avec pour objectif la maximisation de la durée de vie du réseau. Or cette approche n'est pas optimale vis-à-vis de la consommation globale du réseau, le niveau d'activité d'un nœud n'ayant souvent que peu d'influence sur sa propre consommation. Nous montrons que la meilleure approche consiste à éteindre un maximum de nœuds. Parmi les travaux réalisés, nous avons développé une solution s'appuyant sur de la programmation linéaire en nombres entiers et des simulations de graphes et de réseaux. La solution proposée permet ainsi une agrégation de flux optimale, réduisant significativement le nombre de nœuds utilisés dans le réseau. Afin de la rendre applicable en pratique, une heuristique est détaillée permettant une mise en œuvre distribuée grâce à l'utilisation d'une métrique de routage. Ainsi, tout algorithme de plus court chemin peut nativement réaliser de l'agrégation de flux efficace. Il est important de souligner que la qualité de service en termes de débit est respectée. En effet, les interférences sont prises en compte et il est possible de profiter de la synergie offerte par l'utilisation conjointe de l'agrégation de flux et du codage réseau. Nos résultats améliorent significativement les méthodes d'économie d'énergie basées sur l'extinction des nœuds en leur permettant d'en éteindre davantage
Economic and ecologic incentives are now leading people to design networks with energetic considerations at early stages of development. Most of the works for multi-hop wireless networks tend to spread the traffic uniformly over the network to reduce the energy consumption of each node individually. However, considering that the traffic of a node doesn't impact significantly its energy consumption, this approach is not optimal regarding the global energy consumption of the network. Finding a way to turnoff as much node as possible seems then to be a better way. This PhD thesis focus on routing a set of flows over a multi-hop wireless network while minimizing the number of used nodes. This is done by using a distributed metric that allows the shortest path routing algorithms to perform flow aggregation. Using integer linear programming and simulations, we proposed an efficient solution to aggregate flows to significantly reduce the number of nodes used in the network. It allows, then, to improve algorithms that reduce the energy consumption of networks by increasing the number of nodes that can be turned off
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Jemili, Imen. „Clusterisation et conservation d’énergie dans les réseaux ad hoc hybrides à grande échelle“. Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13818/document.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre des réseaux ad hoc à grande envergure, le concept de clusterisation peut être mis à profit afin de faire face aux problèmes de passage à l'échelle et d'accroître les performances du système. Tout d’abord, cette thèse présente notre algorithme de clusterisation TBCA ‘Tiered based Clustering algorithm’, ayant pour objectif d’organiser le processus de clusterisation en couches et de réduire au maximum le trafic de contrôle associé à la phase d’établissement et de maintenance de l’infrastructure virtuelle générée. La formation et la maintenance d’une infrastructure virtuelle ne sont pas une fin en soi. Dans cet axe, on a exploité les apports de notre mécanisme de clusterisation conjointement avec le mode veille, à travers la proposition de l’approche de conservation d’énergie baptisée CPPCM ‘Cluster based Prioritized Power Conservation Mechanism’ avec deux variantes. Notre objectif principal est de réduire la consommation d’énergie tout en assurant l’acheminement des paquets de données sans endurer des temps d’attente importants aux niveaux des files d’attente des nœuds impliqués dans le transfert. Nous avons proposé aussi un algorithme de routage LCR ‘Layered Cluster based Routing’ se basant sur l’existence d’une infrastructure virtuelle. L’exploitation des apports de notre mécanisme TBCA et la limitation des tâches de routage additionnelles à un sous ensemble de nœuds sont des atouts pour assurer le passage à l’échelle de notre algorithme
Relying on a virtual infrastructure seems a promising approach to overcome the scalability problem in large scale ad hoc networks. First, we propose a clustering mechanism, TBCA ‘Tiered based Clustering algorithm’, operating in a layered manner and exploiting the eventual collision to accelerate the clustering process. Our mechanism does not necessitate any type of neighbourhood knowledge, trying to alleviate the network from some control messages exchanged during the clustering and maintenance process. Since the energy consumption is still a critical issue, we combining a clustering technique and the power saving mode in order to conserve energy without affecting network performance. The main contribution of our power saving approach lies on the differentiation among packets based on the amount of network resources they have been so far consumed. Besides, the proposed structure of the beacon interval can be adjusted dynamically and locally by each node according to its own specific requirements. We propose also a routing algorithm, LCR ‘Layered Cluster based Routing’. The basic idea consists on assigning additional tasks to a limited set of dominating nodes, satisfying specific requirements while exploiting the benefits of our clustering algorithm TBCA
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Ben, Rekhissa Hajer. „Réduction de la consommation énergétique dans les modules M2M utilisant la technologie LTE/LTE-A“. Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4085.

Der volle Inhalt der Quelle
Annotation:
A l’heure actuelle, la communication des machines est devenue une technologie incontournable, en pleine expansion vue le nombre de services qu'elle est capable de proposer. La technologie M2M (Machineto-Machine) se définit comme le mariage des technologies de l’information et de la communication avec des objets intelligents. Les réseaux cellulaires, tel que les technologies Long Term Evolution (LTE) et LTEAdvanced (LTE-A), sont de plus en plus utilisés afin d'assurer la communication des modules M2M. Cependant, adapter les réseaux LTE et LTE-A afin de satisfaire aux caractéristiques et exigences des modules M2M, en termes de qualité de service (QoS) et consommation énergétique, est crucial. L'objectif de cette thèse est de proposer des solutions de réduction de la consommation énergétique pour les modules M2M utilisant les technologies LTE et LTE-A. Pour ce faire deux approches ont été proposées. La première approche consiste à stocker les paquets de données dans une mémoire tampon jusqu'à atteindre un seuil donné du nombre de paquets stockés et du délai maximal autorisé. Ceci permet d'augmenter le temps passé en mode basse consommation et de réduire le passage du mode veille au mode connecté, tout en tenant en compte des contraintes de délai. La deuxième approche consiste à proposer deux techniques d'allocation de ressources radio en voie montante qui permettent de réduire la consommation énergétique dans les modules M2M tout en satisfaisant la QoS requise en termes de délai de transmission
Machine-to-Machine (M2M) communication, which refers to the interaction between intelligent devices without human intervention, is gaining more prominence in mobile cellular networks. Long Term Evolution (LTE) and LTE-Advanced (LTE-A) networks are considered excellent candidates to support M2M communication. However, M2M communication over LTE/LTE-A networks faces some challenges. The main challenge is how to reduce energy consumption for M2M devices, as the majority of them are battery driven. The aim of this thesis is to propose solutions to reduce energy consumption in M2M devices over LTE/LTE-A technologies. We proposed two approaches; the first one consists of increasing time spent in low power mode by buffering data until reaching given thresholds of number of buffered data and maximum delay authorized. This approach allows to reduce signaling from idle state to connected state. Besides, it considers quality of service (QoS) requirements. The second approach consists of proposing two uplink schedulers which take into account the coexistence of M2M and Human-to-Human (H2H) devices. Both of them consider channel quality while allocating resource blocks, which have a consequence reducing energy consumption in M2M devices. Our second algorithm consider, also, delay constraint
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Jlassi, Aymen. „Optimisation de la gestion des ressources sur une plate-forme informatique du type Big Data basée sur le logiciel Hadoop“. Thesis, Tours, 2017. http://www.theses.fr/2017TOUR4042.

Der volle Inhalt der Quelle
Annotation:
L'entreprise "Cyres-group" cherche à améliorer le temps de réponse de ses grappes Hadoop et la manière dont les ressources sont exploitées dans son centre de données. Les idées sous-jacentes à la réduction du temps de réponse sont de faire en sorte que (i) les travaux soumis se terminent au plus tôt et que (ii) le temps d'attente de chaque utilisateur du système soit réduit. Nous identifions deux axes d'amélioration : 1. nous décidons d'intervenir pour optimiser l'ordonnancement des travaux sur une plateforme Hadoop. Nous considérons le problème d'ordonnancement d'un ensemble de travaux du type MapReduce sur une plateforme homogène. 2. Nous décidons d'évaluer et proposer des outils capables (i) de fournir plus de flexibilité lors de la gestion des ressources dans le centre de données et (ii) d'assurer l'intégration d'Hadoop dans des infrastructures Cloud avec le minimum de perte de performance. Dans une première étude, nous effectuons une revue de la littérature. À la fin de cette étape, nous remarquons que les modèles mathématiques proposés dans la littérature pour le problème d'ordonnancement ne modélisent pas toutes les caractéristiques d'une plateforme Hadoop. Nous proposons à ce niveau un modèle plus réaliste qui prend en compte les aspects les plus importants tels que la gestion des ressources, la précédence entre les travaux, la gestion du transfert des données et la gestion du réseau. Nous considérons une première modélisation simpliste et nous considérons la minimisation de la date de fin du dernier travail (Cmax) comme critère à optimiser. Nous calculons une borne inférieure à l'aide de la résolution du modèle mathématique avec le solveur CPLEX. Nous proposons une heuristique (LocFirst) et nous l'évaluons. Ensuite, nous faisons évoluer notre modèle et nous considérons, comme fonction objective, la somme des deux critères identifiés depuis la première étape : la minimisation de la somme pondérée des dates de fin des travaux ( ∑ wjCj) et la minimisation du (Cmax). Nous cherchons à minimiser la moyenne pondérée des deux critères, nous calculons une borne inférieure et nous proposons deux heuristiques de résolution
"Cyres-Group" is working to improve the response time of his clusters Hadoop and optimize how the resources are exploited in its data center. That is, the goals are to finish work as soon as possible and reduce the latency of each user of the system. Firstly, we decide to work on the scheduling problem in the Hadoop system. We consider the problem as the problem of scheduling a set of jobs on a homogeneous platform. Secondly, we decide to propose tools, which are able to provide more flexibility during the resources management in the data center and ensure the integration of Hadoop in Cloud infrastructures without unacceptable loss of performance. Next, the second level focuses on the review of literature. We conclude that, existing works use simple mathematical models that do not reflect the real problem. They ignore the main characteristics of Hadoop software. Hence, we propose a new model ; we take into account the most important aspects like resources management and the relations of precedence among tasks and the data management and transfer. Thus, we model the problem. We begin with a simplistic model and we consider the minimisation of the Cmax as the objective function. We solve the model with mathematical solver CPLEX and we compute a lower bound. We propose the heuristic "LocFirst" that aims to minimize the Cmax. In the third level, we consider a more realistic modelling of the scheduling problem. We aim to minimize the weighted sum of the following objectives : the weighted flow time ( ∑ wjCj) and the makespan (Cmax). We compute a lower bound and we propose two heuristics to resolve the problem
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Ben, Ammar Amira. „Approche cross-layer pour la minimisation d’énergie dans les réseaux de capteurs sans fil“. Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1191/document.

Der volle Inhalt der Quelle
Annotation:
Les réseaux de capteurs sans fil (RCSF) sont des réseaux ad hoc généralement constitués d’entités autonomes miniaturisées appelés noeuds capteurs pouvant communiquer entre eux par liaison radio. Les RCSF ont suscité beaucoup d’engouement dans la recherche scientifique en raison notamment des nouveaux problèmes de routage sous forte contrainte de durée de vie du réseau et de faibles capacités des noeuds.Ce type de réseau diffère des réseaux filaires par ses caractéristiques et limitations qui ont motivé le développement d’une nouvelle approche de conception cross-layer ignorant certains paradigmes de l’approche classique permettant l’échange mutuel d’informations même entre couches non adjacentes. Cette approche qui n’est pas encore standardisée, a démontré son intérêt à travers plusieurs travaux visant un meilleur compromis entre consommation d’énergie et une certaine qualité de service.Nos contributions peuvent être classées en deux catégories suivant la stratégie de routage à savoir le routage ad-hoc et le routage suivant la technique de clustering.Dans la première partie, nous proposons une architecture cross-layer, modulaire, adaptable et extensible nommée XL-AODV (cross layer AODV) basée sur l'échange du SNR (Signal-to-Noise-Ratio) entre la couche réseau et la couche physique qui a été modélisée par la distribution K. Nous évaluons sous le simulateur NS2 les performances de notre approche XL-AODV. Une analyse comparative avec AODV, a montré pour différentes configurations de réseaux, l’efficacité de notre proposition en termes de gains énergétiques et de latence de bout en bout.Pour la deuxième partie, nous proposons une première approche XL-LEACH qui constitue une amélioration de la version originale de LEACH, en l'adaptant aux réseaux de capteurs denses et à grande échelle tout en tenant compte des caractéristiques de la couche physique modélisée par la distribution K. Dans une troisième partie, nous introduisons une amélioration de XL-LEACH par l'approche dite, XL-CLEACH (XL Cooperative LEACH) en intégrant la communication coopérative au niveau MAC. Nous avons prouvé par une étude analytique qui a été validée par les simulations, le gain apporté en termes de consommation d’énergie, de la durée de vie du réseau et du TES (Taux d'Erreur Symbol). Les architectures XL-LEACH et XL-CLEACH ont été implémentées sous MATLAB
Wireless sensor networks (WSN) can be defined as an ad hoc network consisting of miniaturized autonomous entities, called sensor nodes which communicate with each other over a radio link. WSNs is a research topic which has gained a lot of interest due, in particular, to new routing problems under low node capacity and high network lifetime constraints.WSNs differ from wired networks in their characteristics and limitations which have motivated the development of a new cross-layer design that ignores certain paradigms of the classical approach allowing the mutual exchange of information even between non-adjacent layers. This approach, which is not yet standardized, has gained a lot of attention through several works aiming to energy consumption minimization under a required QoS (Quality of Service).In this thesis, our contributions can be classified are twofold according to the considered routing strategy namely the ad-hoc routing and clustering based routing.In the first part, we propose a new adaptable and extensible cross-layer design called XL-AODV (Cross Layer AODV) based on the exchange of the SNR (Signal-to-Noise-Ratio) between the network and the physical layer which has been modelled by the K distribution.We evaluate under the NS2 simulator, the performance of XL-AODV. A comparative analysis with AODV, showed for different network configurations, the efficiency of our proposition in terms of energy saving and end-to-end latency.In the second part, we propose an XL-LEACH approach which is an improvement of the original version of LEACH by its adapting to dense and large scale sensor networks. We have also taken into account the characteristics of the physical layer modelled by the K distribution.In a third part, XL-CLEACH (XL Cooperative LEACH) approach is introduced to improve XL-LEACH by integrating the cooperative communication at the MAC layer.We have proved through an analytical study and validated by simulations, the gain in terms of energy consumption, network lifetime and SER (Symbol Error Rate). The XL-LEACH and XL-CLEACH architecture were implemented under MATLAB
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Chkirbene, Zina. „Network topologies for cost reduction and QoS improvement in massive data centers“. Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCK002/document.

Der volle Inhalt der Quelle
Annotation:
L'expansion des services en ligne, l'avènement du big data, favorisé par l'internet des objets et les terminaux mobiles, a entraîné une croissance exponentielle du nombre de centres de données qui fournissent des divers services de cloud computing. Par conséquent, la topologie du centre de données est considérée comme un facteur d'influence sur la performance du centre de données. En effet, les topologies des centres de données devraient offrir une latence faible, une longueur de chemin moyenne réduite avec une bande passante élevée. Ces exigences augmentent la consommation énergétique dans les centres de données. Dans cette dissertation, différentes solutions ont été proposées pour surmonter ces problèmes. Tout d'abord, nous proposons une nouvelle topologie appelée LCT (Linked Cluster Topology) qui augmente le nombre de nœuds, améliore la connexion réseau et optimise le routage des données pour avoir une faible latence réseau. Une nouvelle topologie appelée VacoNet (Variable connexion Network) a été également présentée. VacoNet offre un nouveau algorithme qui définit le exact nombre de port par commutateur pour connecter le nombre de serveurs requis tout en réduisant l'énergie consommée et les matériaux inutilisés (câbles, commutateurs). En outre, nous _étudions une nouvelle technique pour optimiser la consumation d'énergie aux centres de données. Cette technique peut périodiquement estimer la matrice de trafic et gérer l'_état des ports de serveurs tout en maintenant le centre de données entièrement connecté. La technique proposée prend en considération le trafic réseau dans la décision de gestion des ports
Data centers (DC) are being built around the world to provide various cloud computing services. One of the fundamental challenges of existing DC is to design a network that interconnects massive number of nodes (servers)1 while reducing DC' cost and energy consumption. Several solutions have been proposed (e.g. FatTree, DCell and BCube), but they either scale too fast (i.e., double exponentially) or too slow. Effcient DC topologies should incorporate high scalability, low latency, low Average Path Length (APL), high Aggregated Bottleneck Throughput (ABT) and low cost and energy consumption. Therefore, in this dissertation, different solutions have been proposed to overcome these problems. First, we propose a novel DC topology called LCT (Linked Cluster Topology) as a new solution for building scalable and cost effective DC networking infrastructures. The proposed topology reduces the number of redundant connections between clusters of nodes, while increasing the numbers of nodes without affecting the network bisection bandwidth. Furthermore, in order to reduce the DCs cost and energy consumption, we propose first a new static energy saving topology called VacoNet (Variable Connection Network) that connects the needed number of servers while reducing the unused materials (cables, switches). Also, we propose a new approach that exploits the correlation in time of internode communication and some topological features to maximize energy saving without too much impacting the average path length
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Bouallegue, Mehdi. „Protocoles de communication et optimisation de l'énergie dans les réseaux de capteurs sans fil“. Thesis, Le Mans, 2016. http://www.theses.fr/2016LEMA1011/document.

Der volle Inhalt der Quelle
Annotation:
Les réseaux de capteurs sans fil (RCSFs) sont constitués d’un grand nombre de noeuds de capteurs qui sont généralement alimentés par batterie et conçu pour fonctionner pendant une grande période. Les domaines d’application sont nombreux et variés, tel que le domaine environnementale, médicale et militaire.L’atout majeur de ce dispositif est un déploiement à grande échelle sans aucune maintenance. Les capteurs n’ont pas besoin d’une infrastructure établie pour parvenir à transmettre des données vitales à l’étude de l’environnement. Il est nécessaire également de garantir une bonne qualité de service, car les réseaux de capteurs sans fils doivent intégrer des mécanismes qui permettent aux utilisateurs de prolonger la durée de vie du réseau en entier, car chaque noeud est alimenté par une source d’énergie limitée et généralement irremplaçable.C’est pourquoi, il est nécessaire d’optimiser la consommation d’énergie à tous les niveaux de conception de ce type de réseau. Par conséquent, la minimisation de la consommation d’énergie est un facteur de conception des plus importants dans les réseaux de capteurs.Le but de cette thèse est étudier les différents techniques de routages existant dans un contexte sans fil multi-saut afin d’obtenir de meilleures performances. Nous portons notre étude sur les protocoles de routages les plus connus afin de proposer dans une deuxième partie un nouveau protocole de routage permettant d’optimiser la consommation d’énergie dans les réseaux de capteurs sans fil, en gardant une qualité de service optimale
Wireless sensor networks (WSNs) are composed of a large number of sensor nodes that are typicallybattery-powered and designed to operate for a long period. Application areas are many and varied, such as the environmental field, medical and military.The major advantage of this device is a large-scale deployment without any maintenance. The sensors do not need to achieve an established infrastructure to transmit vital data to the study of the environment. It is also necessary to ensure good quality service, because without son sensor networks must incorporate mechanisms that allow users to extend the life of the entire network, as each node is supplied by a limited power source and generally irreplaceable. Therefore, it is necessary to optimize the power consumption at all levels of design of this type of network. Accordingly, minimization of power consumption is one of the most important design factors in sensor networks.The aim of this thesis is study the different existing routing techniques in a context without multi-hop son to get better performance. We carry our study of the most popular routing protocols to offer in a second part a new routing protocol for optimizing energy consumption without son sensor networks, keeping an optimal quality of service
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Antilahy, Herimpitia Tsilavina Chrystelle. „Développement et mise en œuvre d’un mécanisme « 4D-addressing Wakeup radio » pour la réduction de la consommation d’énergie dans les réseaux de capteurs sans fil“. Thesis, La Réunion, 2018. http://www.theses.fr/2018LARE0038.

Der volle Inhalt der Quelle
Annotation:
Les réseaux de capteurs sans fil qui conviennent pour vaste domaine d’applications, constituent une solution prometteuse qui répond à toute exigence de surveillance continue. L’autonomie énergétique des nœuds constitue un facteur de vulnérabilité qui influe directement leur longévité et la capacité du réseau à assurer longuement la couverture d’une zone géographique d’intérêt. La gestion de consommation énergétique représente la seule approche pour accroître la durée de vie de ces réseaux et leur conférer une autonomie raisonnable. Des solutions logicielles proposées à travers les protocoles MAC, apportent des améliorations significatives à la minimisation de la dépense énergétique des nœuds. Elles permettent de réduire les périodes d’écoute du canal qui, représente l’opération la plus coûteuse en termes d’énergie dans le fonctionnement des nœuds de capteurs sans fil. Néanmoins, se limiter à ces solutions n’est pas suffisant pour garantir une longévité acceptable. La seule méthode pour optimiser la conservation d’énergie dans les RCSFs est de mettre chaque nœud constamment en mode faible puissance et d’utiliser un mécanisme de télé-réveil à travers des signaux de réveil. Cela implique, l’utilisation de circuits de réveil de faible consommation qui assurent la surveillance de canal et qui déclenchent le réveil des nœuds uniquement à chaque fois qu’événement d’intérêt se produit. Dans ce contexte, une quantité importante de travaux ont proposés l’utilisation d’un mécanisme d’adressage (adresses MAC ou d’autres informations binaires), pour permettre aux nœuds non concernés de retourner rapidement dans son état de sommeil. Cette démarche est intéressante, mais implique toutefois une dépense énergétique non négligeable, liée à la réception et au traitement des informations d’adresse au niveau de tous les nœuds. La solution la plus efficace énergétiquement serait l’utilisation d’une autre forme d’adresse. Cette thèse s’inscrit dans le contexte de minimisation de la consommation énergétique des RCSFs par la mise en œuvre d’un adressage qui permet aux nœuds de recevoir et de traiter les signaux de réveil, sans allumer leur module de communication principal. Il s’agit pour nous de supprimer la dépense énergétique liée à l’allumage du module RF et à la réception de paquets d’adresse, en se tournant vers l’exploitation de la durée des signaux de réveils. Notre solution se repose sur les caractéristiques matérielles du microcontrôleur (IRQ, Timer/Counter) des nœuds de capteurs. Elle permet de réduire les complexités liées aux conditionnements des signaux de réveils. Notre solution est implémentée sur un réseau de petite taille. Elle est évaluée expérimentalement et ses performances énergétiques sont comparées à celles d’un schéma classique de télé-réveil sans mécanisme d’adressage et à celles d’un schéma classique basé sur le duty-cycling
Wireless sensor networks that are suitable for a wide range of applications, represent a promising solution that meets any requirement for continuous monitoring. The energy autonomy of sensor nodes constitutes a vulnerability factor that directly affects their longevity and the capacity of the network to ensure long coverage of the geographical area of interest. Energy consumption management is the only way to increase the lifespan of these networks and to give them a reasonable autonomy. Software solutions proposed through MAC protocols, bring significant improvements to the minimization of the energy expenditure of sensor nodes. They reduce the idle-listening periods which represents the most expensive operation in terms of energy, in the operation of the wireless sensor nodes. However, Focusing lonely on these solutions is not enough to guarantee acceptable longevity. The only way to optimize energy conservation in the WSN is to constantly put each node in low power mode and use a wakeup mechanism through wake-up signals. This involves the use of low-power wake-up circuits that provide channel monitoring, and trigger node wake-up only whenever event of interest occurs. In this context, a significant amount of work has proposed the use of an addressing mechanism (MAC addresses or other binary informations), to allow non-concerned nodes to quickly return to their sleep state. This approach is interesting, but involves a significant energy expenditure, related to address information’s reception and processing at all nodes. The most energy efficient solution would be the use of another type of address. This thesis is part of the context of minimizing the energy consumption of the WSN, using an addressing system that allows sensor nodes to receive and process the wake-up signals, without turning on their main communication module. It is to eliminate the energy expenditure related to the RF module’s activation and the reception of address packets, by exploiting wakeup signals duration. Our solution is based on the hardware characteristics of the microcontroller (IRQ, Timer/Counter) of sensor nodes. It reduces the complexities related to wakeup signals conditioning. Our solution is implemented on a small network. Its evaluations were done experimentally and its energy performance is compared to a conventional wake-up mechanism without addressing,and a conventional scheme based on duty-cycling
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Sayadi, Afef. „Medium access protocol (MAC) design for wireless multi-hop ad hoc and sensor networks“. Thesis, Evry, Institut national des télécommunications, 2013. http://www.theses.fr/2013TELE0002/document.

Der volle Inhalt der Quelle
Annotation:
Les réseaux sans fil multi-sauts ad hoc et les réseaux de capteurs présentent une solution prometteuse pour assurer une connectivité quasi-permanente dans l'Internet du Futur. Cette connectivité, néanmoins, nécessite la conception d'un protocole d'accès au canal radio fiable, ce qui défi les caractéristiques hostiles et instables des réseaux ad hoc et des réseaux de capteurs. Cet environnement, en effet, est caractérisé par la rareté des ressources radio disponibles, la perte de la bande passante due aux collisions et aux interférences. La nécessité de garantir une meilleure qualité de service aux couches applicatives a promu la conception des protocoles MAC basés sur la technique d'accès TDMA. Essayant de contourner la contrainte d’une fine synchronisation horloge imposée par ce type de protocoles, les recherches se sont orientées vers une conception de protocoles MAC basés sur la technique TDMA dont la taille de la trame est fixe. Cependant, cette conception présente deux principaux inconvénients: d'une part elle procure une inflexibilité quant à la variation de la topologie du réseau suite aux mouvements des nœuds. D'une autre part, elle soulève un problème de dimensionnement : si la taille de la trame est surdimensionnée par rapport au nombre de nœuds présents dans le réseau, des slots non alloués apparaissent induisant la perte de la bande passante. Toutefois, si la taille de la trame est sous-dimensionnée, un risque de famine surgit. Les protocoles MAC basés sur la technique TDMA à taille de trame dynamique présentent une alternative, qui réussit à augmenter le débit au détriment d’une non-équité entre les nœuds dans le réseau. Outre l'utilisation optimale et équitable de la bande passante disponible, la réduction de la consommation d'énergie constitue un autre défi majeur pour les réseaux ad hoc et les réseaux de capteurs. Dans ce travail, deux contributions nommées OSTR et S-OSTR, sont conçues pour améliorer le débit, l'équité et la réduction de la consommation d'énergie dans l'environnement des réseaux ad hoc et des réseaux de capteurs. L'idée motrice d'OSTR consiste à augmenter la taille de la trame TDMA dynamiquement de manière à aboutir à une taille de trame réduite. Dans ce but, OSTR met en place une augmentation à la demande de la taille de la trame. Cette augmentation est établie slot par slot. OSTR se base sur une réutilisation spatiale des times slots ; i.e. un même slot peut être utilisé au même moment par plusieurs nœuds dans le réseau. Afin de prévenir les collisions dues à la coexistence de plusieurs tailles de trames au même temps dans le réseau, OSTR déploie une solution coopérative qui consiste à fixer un rendez-vous au moment duquel la taille de la trame est augmentée simultanément par tous les nœuds dans le réseau. S-OSTR constitue une adaptation du protocole OSTR à l'environnement des réseaux de capteurs. S-OSTR vise à augmenter la durée de vie du réseau. Il déploie ainsi une période d'activité dynamique qui consiste en une trame TDMA augmentant slot-par-slot. S-OSTR effectue également un ordonnancement des activités des nœuds afin de prolonger la période d'inactivité, et par suite prolonger la durée de vie du réseau. Nos deux contributions se basent sur une nouvelle technique d'augmentation dynamique de la taille de la trame TDMA qui consiste à augmenter la taille slot-par-slot. Cette technique permet d'atteindre une taille réduite, et par conséquent d’améliorer l'utilisation de la bande passante et de minimiser la consommation de l'énergie dans le réseau. L'analyse des performances d'OSTR et de S-OSTR souligne leurs potentiels pour s'adapter aux exigences des applications en termes de QoS, pour assurer un accès équitable au canal radio, pour réduire la consommation de l'énergie et pour s'adapter aux différents changements de la topologie du réseau
Wireless multi-hop ad hoc and sensor networks provide a promising solution to ensure ubiquitous connectivity for the Future Internet. Good network connectivity requires designing a reliable Medium Access Control (MAC) protocol, which is a challenging task in the ad hoc and sensor environments. The broadcast and shared nature of the wireless channel renders the bandwidth resources limited and expose the transmissions to relatively high collisions and loss rates. The necessity to provide guaranteed Quality of Service (QoS) to the upper layers triggered the design of conflict-free MAC protocols. The TDMA synchronization constraint is basically behind the rush of MAC protocol design based on a fixed frame size. This design shows inflexibility towards network variations and creates a network dimensioning issue that leads to a famine risk in case the network is under-dimensioned, and to a waste of resources, otherwise. Moreover, the alternative dynamic protocols provide more adaptive solutions to network topology variations at the expense of a fair access to the channel. Alongside with the efficient channel usage and the fair medium access, reducing the energy consumption represents another challenge for ad hoc and sensor networks. Solutions like node activity scheduling tend to increase the network lifetime while fulfilling the application requirements in terms of throughput and delay, for instance. Our contributions, named OSTR and S-OSTR, address the shortcomings of the medium access control protocol design in the challenging environment of wireless multi-hop ad hoc and sensor networks, respectively. For OSTR the idea consists in adopting a dynamic TDMA frame size that increases slot-by-slot according to the nodes arrival/departure to/from the network, and aiming to achieve a minimum frame size. For this end, OSTR couples three major attributes: (1) performing slot-by-slot frame size increase, (2) providing a spatial reuse scheme that favors the reuse of the same slot if possible, (3) and ensuring an on-demand frame size increase only according to the node requirements in terms of throughput. To tackle different frame sizes co-existence in the network, OSTR brings a cooperative solution that consists in fixing an appointment, a date when the frame size in the network is increased. Concerning S-OSTR, it is an amendment of OSTR for wireless sensor networks. It brings the idea of a dynamic active period, since it deploys a dynamic frame size that is built slot-by-slot according to nodes arrival to the network. S-OSTR enforces the slot-by-slot frame size increase by a node activity scheduling to prolong the inactivity period in the network, and hence prolong the overall network lifetime for wireless sensor networks. Our contributions are both based on the new dynamic TDMA frame size increase that consists in increasing the frame size slot-by-slot aiming to achieve a shorter frame size, and hence improve the channel utilization, and reduce the energy consumption. The performance analysis of OSTR and S-OSTR shows that they present good potentials to support QoS requirements, to provide energy-efficiency, to ensure fair medium access, to accommodate network topology changes and finally, to enhance robustness against scalability. The impact of this new TDMA frame size increase technique on the medium access control protocol performance is highlighted through multiple simulations of OSTR and S-OSTR. Multiple comparative studies are also handled to point out the effectiveness of this new technique and the soundness of our contributions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Guibourdenche, Julien. „Préoccupations et agencements dans les contextes d'activité domestique : Contribution à la conception de situations informatiques diffuses, appropriables et énergétiquement efficaces“. Phd thesis, Université Lumière - Lyon II, 2013. http://tel.archives-ouvertes.fr/tel-01068697.

Der volle Inhalt der Quelle
Annotation:
L'objectif de notre thèse est de contribuer à la conception de situations informatiques diffuses efficaces énergétiquement et appropriables par les habitants au quotidien. Pour cela, à partir d'une approche centrée sur l'activité, nous caractérisons les contextes d'activité quotidienne, ce qui permet d'élaborer nos principes de conception et des scénarios. Cette recherche est menée en référence au cadre du " cours d'action " (Theureau, 2004) ainsi qu'à une approche critique et située (e.g., Barad, 2007; Suchman, 2007) de l'agentivité physique sous-tendant l'action collective, via la notion de " cours d'agencement ". Les spécificités de l'informatique diffuse (e.g., en réseau disséminé dans l'environnement) et des situations domestiques investiguées (e.g., plusieurs pièces et étages) nous amènent à créer une méthodologie pour l'analyse formelle du collectif et les scénarios : le format " multi-portées ". Sur ces bases, nous caractérisons les contextes d'activité de plusieurs familles vivant dans des maisons à forte consommation énergétique. Nos résultats mettent en évidence les préoccupations des habitants, les jeux de suspension/actualisation à travers le temps, ou de préoccupations multiples à l'instant " t " et les anticipations qui les structurent. Nous caractérisons également des contextes d'articulations collectives, montrant que les membres de la famille sont engagés dans des préoccupations à la fois similaires et différentes, oscillant entre convergence et divergence à différentes échelles de temps. Enfin, nous comparons 85 agencements du collectif dans l'habitat et les types d' " (im)possibilités " perceptives et pratiques qui en émergent entre humains, objets et espaces physiques. Ces résultats permettent d'alimenter notre modèle de conception de situations informatiques diffuses appropriables et efficaces énergétiquement. Après avoir présenté les orientations et principes de conception généraux, nous construisons des scénarios collectifs d'" interactions incidentes/intentionnelles " (Dix, 2002) entre humains et réseaux, puis nous définissons comment le futur système devra fonctionner afin d'être appropriable et efficace énergétiquement. Ce travail montre qu'il est possible et nécessaire de concevoir l'efficience énergétique des réseaux socio-techniques tout en donnant des possibilités d'action et d'appropriation à l'humain.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie