Siga este enlace para ver otros tipos de publicaciones sobre el tema: Serveurs (informatique) – Économies d'énergie.

Tesis sobre el tema "Serveurs (informatique) – Économies d'énergie"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Serveurs (informatique) – Économies d'énergie".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Santi, Nina. "Prédiction des besoins pour la gestion de serveurs mobiles en périphérie". Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILB050.

Texto completo
Resumen
L'informatique en périphérie est un paradigme émergent au sein de l'Internet des Objets (IoT) et complémentaire à l'informatique en nuage. Ce paradigme propose l'implémentation de serveurs de calcul situés à proximité des utilisateurs, réduisant ainsi la pression et les coûts de l'infrastructure réseau locale. La proximité avec les utilisateurs suscite de nouveaux cas d'utilisation, tels que le déploiement de serveurs mobiles embarqués sur des drones ou des robots, offrant une alternative moins coûteuse, plus éco-énergétique et flexible par rapport aux infrastructures fixes lors d'événements ponctuels ou exceptionnels. Cependant, cette approche soulève également de nouveaux enjeux pour le déploiement et l'allocation de ressources en temps et en espace, souvent dépendants de la batterie.Dans le cadre de cette thèse, nous proposons des outils et des algorithmes de prédiction pour la prise de décision concernant l'allocation de ressources fixes et mobiles, à la fois en termes de temps et d'espace, au sein d'environnements dynamiques. Nous mettons à disposition des jeux de données riches et reproductibles qui reflètent l'hétérogénéité inhérente aux applications de l'Internet des Objets (IoT), tout en présentant un taux de contention et d'interférence élevé. Pour cela, nous utilisons le FIT-IoT Lab, un banc d'essai ouvert dédié à l'IoT, et nous mettons l'ensemble du code à disposition de manière ouverte. De plus, nous avons développé un outil permettant de générer de manière automatisée et reproductible des traces de l'IoT. Nous exploitons ces jeux de données pour entraîner des algorithmes d'apprentissage automatique basés sur des techniques de régression afin de les évaluer dans leur capacité à prédire le débit des applications de l'IoT. Dans une démarche similaire, nous avons également entraîné et analysé un réseau neuronal de type transformateur temporel pour prédire plusieurs métriques de la Qualité de Service (QoS). Afin de tenir compte de la mobilité des ressources, nous générons des traces de l'IoT intégrant des points d'accès mobiles embarqués sur des robots TurtleBot. Ces traces, qui intègrent la mobilité, sont utilisées pour valider et tester un framework d'apprentissage fédéré reposant sur des transformateurs temporels parcimonieux. Enfin, nous proposons un algorithme décentralisé de prédiction de la densité de la population humaine par régions, basé sur l'utilisation d'un filtre à particules. Nous testons et validons cet algorithme à l'aide du simulateur Webots dans un contexte de serveurs embarqués sur des robots, et du simulateur ns-3 pour la partie réseaux
Multi-access Edge computing is an emerging paradigm within the Internet of Things (IoT) that complements Cloud computing. This paradigm proposes the implementation of computing servers located close to users, reducing the pressure and costs of local network infrastructure. This proximity to users is giving rise to new use cases, such as the deployment of mobile servers mounted on drones or robots, offering a cheaper, more energy-efficient and flexible alternative to fixed infrastructures for one-off or exceptional events. However, this approach also raises new challenges for the deployment and allocation of resources in terms of time and space, which are often battery-dependent.In this thesis, we propose predictive tools and algorithms for making decisions about the allocation of fixed and mobile resources, in terms of both time and space, within dynamic environments. We provide rich and reproducible datasets that reflect the heterogeneity inherent in Internet of Things (IoT) applications, while exhibiting a high rate of contention and interference. To achieve this, we are using the FIT-IoT Lab, an open testbed dedicated to the IoT, and we are making all the code available in an open manner. In addition, we have developed a tool for generating IoT traces in an automated and reproducible way. We use these datasets to train machine learning algorithms based on regression techniques to evaluate their ability to predict the throughput of IoT applications. In a similar approach, we have also trained and analysed a neural network of the temporal transformer type to predict several Quality of Service (QoS) metrics. In order to take into account the mobility of resources, we are generating IoT traces integrating mobile access points embedded in TurtleBot robots. These traces, which incorporate mobility, are used to validate and test a federated learning framework based on parsimonious temporal transformers. Finally, we propose a decentralised algorithm for predicting human population density by region, based on the use of a particle filter. We test and validate this algorithm using the Webots simulator in the context of servers embedded in robots, and the ns-3 simulator for the network part
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Nitu, Vlad-Tiberiu. "Improving energy efficiency of virtualized datacenters". Phd thesis, Toulouse, INPT, 2018. http://oatao.univ-toulouse.fr/23799/1/NITU_Vlad%20Tiberiu.pdf.

Texto completo
Resumen
Nowadays, many organizations choose to increasingly implement the cloud computing approach. More specifically, as customers, these organizations are outsourcing the management of their physical infrastructure to data centers (or cloud computing platforms). Energy consumption is a primary concern for datacenter (DC) management. Its cost represents about 80% of the total cost of ownership and it is estimated that in 2020, the US DCs alone will spend about $13 billion on energy bills. Generally, the datacenter servers are manufactured in such a way that they achieve high energy efficiency at high utilizations. Thereby for a low cost per computation all datacenter servers should push the utilization as high as possible. In order to fight the historically low utilization, cloud computing adopted server virtualization. The latter allows a physical server to execute multiple virtual servers (called virtual machines) in an isolated way. With virtualization, the cloud provider can pack (consolidate) the entire set of virtual machines (VMs) on a small set of physical servers and thereby, reduce the number of active servers. Even so, the datacenter servers rarely reach utilizations higher than 50% which means that they operate with sets of longterm unused resources (called 'holes'). My first contribution is a cloud management system that dynamically splits/fusions VMs such that they can better fill the holes. This solution is effective only for elastic applications, i.e. applications that can be executed and reconfigured over an arbitrary number of VMs. However the datacenter resource fragmentation stems from a more fundamental problem. Over time, cloud applications demand more and more memory but the physical servers provide more an more CPU. In nowadays datacenters, the two resources are strongly coupled since they are bounded to a physical sever. My second contribution is a practical way to decouple the CPU-memory tuple that can simply be applied to a commodity server. Thereby, the two resources can vary independently, depending on their demand. My third and my forth contribution show a practical system which exploit the second contribution. The underutilization observed on physical servers is also true for virtual machines. It has been shown that VMs consume only a small fraction of the allocated resources because the cloud customers are not able to correctly estimate the resource amount necessary for their applications. My third contribution is a system that estimates the memory consumption (i.e. the working set size) of a VM, with low overhead and high accuracy. Thereby, we can now consolidate the VMs based on their working set size (not the booked memory). However, the drawback of this approach is the risk of memory starvation. If one or multiple VMs have an sharp increase in memory demand, the physical server may run out of memory. This event is undesirable because the cloud platform is unable to provide the client with the booked memory. My fourth contribution is a system that allows a VM to use remote memory provided by a different rack server. Thereby, in the case of a peak memory demand, my system allows the VM to allocate memory on a remote physical server.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Ait, Aba Massinissa. "Optimisation de l'énergie et de la performance d'applications sur des micro-serveurs hétérogènes". Electronic Thesis or Diss., Sorbonne université, 2020. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2020SORUS106.pdf.

Texto completo
Resumen
Les applications récentes dans l'industrie ou dans la recherche nécessitent souvent des calculs massifs. Ainsi, les applications deviennent plus exigeantes en vitesse de calcul, ce qui engendre une très grande consommation énergétique des plateformes matérielles. Les plateformes de calcul hétérogènes offrent un bon compromis avec une puissance de calcul importante tout en préservant l'énergie consommée pour l'exécution d'applications parallèles de hautes performances. Elles représentent donc de nos jours des moyens de calcul intéressants. Afin de profiter des avantages offerts par l'hétérogénéité en termes de performance, la gestion efficace et automatique des ressources de calcul est de plus en plus importante pour exécuter des applications parallèles. L'objectif de cette thèse est de déterminer un ordonnancement efficace d'une application parallèle sur un système de ressources hétérogènes afin de minimiser le temps d'exécution total (makespan) de l'application tout en respectant une contrainte d'énergie. Deux classes de plateformes hétérogènes ont été considérées dans notre travail : des architectures totalement hétérogènes qui combinent plusieurs éléments de traitement (CPUs, GPUs, FPGAs), et des plateformes hybrides limitées à deux types de processeurs (CPU + GPU par exemple) en très grand nombre. Nous proposons plusieurs stratégies d'ordonnancement d'applications sur les deux plateformes avec deux modèles d'exécution. Les expériences préliminaires des algorithmes proposés en utilisant différentes applications et des plateformes de tailles différentes ont donné de bons résultats par rapport aux méthodes existantes dans la littérature
Recent applications, both in industry and research often need massive calculations. They have different hardware requirements in terms of computing speed, which leads to very high energy consumption of hardware platforms. Heterogeneous computing platforms offer a good compromise with high computing power while preserving the energy consumed to run high-performance parallel applications. They are therefore nowadays an interesting computing resource. In order to exploit the advantages offered by heterogeneity in terms of performance, efficient and automatic management of computing resources is becoming increasingly important to execute parallel applications. These new architectures have thus given rise to new scheduling problems that allocate and sequence calculations on the different resources by optimizing one or more criteria. The objective of this thesis is to determine an efficient scheduling of a parallel application on a heterogeneous resource system in order to minimize the total execution time (makespan) of the application while respecting an energy constraint. Two classes of heterogeneous platforms have been considered in our work: fully heterogeneous architectures that combine several processing elements (CPUs, GPUs, FPGAs), and hybrid platforms limited to two types of processors (CPU + GPU for example). We propose several application scheduling strategies on both platforms with two execution models. Preliminary experiments with the proposed algorithms using different applications and platforms of different sizes have shown good results compared to existing methods in the literature
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Borgetto, Damien. "Allocation et réallocation de services pour les économies d'énergie dans les clusters et les clouds". Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2100/.

Texto completo
Resumen
L'informatique dans les nuages (cloud computing) est devenu durant les dernières années un paradigme dominant dans le paysage informatique. Son principe est de fournir des services décentralisés à la demande. La demande croissante pour ce type de service amène les fournisseurs de clouds à augmenter la taille de leurs infrastructures à tel point que les consommations d'énergie ainsi que les coûts associés deviennent très importants. Chaque fournisseur de service cloud doit répondre à des demandes différentes. C'est pourquoi au cours de cette thèse, nous nous sommes intéressés à la gestion des ressources efficace en énergie dans les clouds. Nous avons tout d'abord modélisé et étudié le problème de l'allocation de ressources initiale en fonction des services, en calculant des solutions approchées via des heuristiques, puis en les comparant à la solution optimale. Nous avons ensuite étendu notre modèle de ressources pour nous permettre d'avoir une solution plus globale, en y intégrant de l'hétérogénéité entre les machines et des infrastructures de refroidissement. Nous avons enfin validé notre modèle par simulation. Les services doivent faire face à différentes phases de charge, ainsi qu'à des pics d'utilisation. C'est pourquoi, nous avons étendu le modèle d'allocation de ressources pour y intégrer la dynamicité des requêtes et de l'utilisation des ressources. Nous avons mis en œuvre une infrastructure de cloud simulée, visant à contrôler l'exécution des différents services ainsi que le placement de ceux-ci. Ainsi notre approche permet de réduire la consommation d'énergie globale de l'infrastructure, ainsi que de limiter autant que possible les dégradations de performance
Cloud computing has become over the last years an important paradigm in the computing landscape. Its principle is to provide decentralized services and allows client to consume resources on a pay-as-you-go model. The increasing need for this type of service brings the service providers to increase the size of their infrastructures, to the extent that energy consumptions as well as operating costs are becoming important. Each cloud service provider has to provide for different types of requests. Infrastructure manager then have to host all the types of services together. That's why during this thesis, we tackled energy efficient resource management in the clouds. In order to do so, we first modeled and studied the initial service allocation problem, by computing approximated solutions given by heuristics, then comparing it to the optimal solution computed with a linear program solver. We then extended the model of resources to allow us to have a more global approach, by integrating the inherent heterogeneity of clusters and the cooling infrastructures. We then validated our model via simulation. Usually, the services must face different stages of workload, as well as utilization spikes. That's why we extended the model to include dynamicity of requests and resource usage, as well as the concept of powering on or off servers, or the cost of migrating a service from one host to another. We implemented a simulated cloud infrastructure, aiming at controlling the execution of the services as well as their placement. Thus, our approach enables the reduction of the global energy consumption of the infrastructure, and limits as much as possible degrading the performances
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Pamba, Capo-Chichi Medetonhan Shambhalla Eugène William. "Conception d’une architecture hiérarchique de réseau de capteurs pour le stockage et la compression de données". Besançon, 2010. http://www.theses.fr/2010BESA2031.

Texto completo
Resumen
Les récentes avancées dans les divers domaines liés à la micro-électronique, à l'informatique et aux réseaux sans fil ont donné naissance à de nouvelles thématiques de recherche. Les réseaux de capteurs issus de ces nouveaux progrès technologiques constituent un axe de recherche très fertile. En effet, la capacité réduite des noeuds en teme de calcul, de mémoire et d'énergie génère de nombreuses problématiques intéressantes. Le but de cette thèse est la conception d'une architecture hiérarchique de réseaux de capteurs capables de s'adapter à différents contextes en prenant en compte les contraintes énergétiques et en permettant de fournir des informations riches comme le multimédia à l'utilisateur final. Nous proposons une architecture hiérarchique avec les différents noeuds qui la composent et les technologies sans fil qui les relient. L'économie d'énergie étant un fil conducteur de notre travail et le module de transmission la principale source d'énergie, nous proposons deux nouveaux algorithmes de compression de données permettant d'optimiser l'utilisation du canal de communication. Nous présentons également une solution pour le stockage de grandes quantités d'informations sur les noeuds en integrant le système de fichiers FAT16 sous TinyOS-2. X
Recent advances in various aeras related to micro-electronics, computer science and wireless networks have resulted in the development of new research topics. Sensor networks are one of them. The particularity of this new research direction is the reduced performances of nodes in terms of computation, memory and energy. The purpose of this thesis is the definition of a new hierarchical architecture of sensor networks usable in different contexts by taking into account the sensors constraints and providing a high quality data such as multimedia to the end-users. We present our hierachical architecture with different nodes and the wireless technologies that connect them. Because of the high consumtpionof data transmission, we have developped two data compression algortithms in order to optimize the use of the channel by reducing data transmitted. We also present a solution for storing large amount of data on nodes by integrating the file system FAT16 under TinyOS-2. X
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Chebira, Mahmoud Sabri. "Définition d'une stratégie de gestion locale d'un réseau sans fil à contraintes d'échéances strictes et économie d'énergie". Paris 12, 2006. https://athena.u-pec.fr/primo-explore/search?query=any,exact,990003939310204611&vid=upec.

Texto completo
Resumen
Avec la démocratisation des réseaux sans fil, des applications multiples émergent dans des domaines différents. La plupart d'entre elles concernent les activités de bureautique et de domotique. Qu'en est-il en ce qui concerne les applications industrielles ? En prenant en compte les contraintes temporelles et de qualité de connexion liées à ce domaine, que propose le marché actuellement ? Au travers de cette thèse, nous proposons des implantations pour des processus industriels demandant une connectivité sans fil soumise à des contraintes temporelles et énergétiques strictes. Après une étude comparative des différents standards de réseaux sans fil disponibles sur le marché, nous avons opté pour le standard 802. 15. 4 (alias ZigBee), qui est le dernier né des standards sans fil. Il est conçu avec des dispositifs d'économie d'énergie. Ces particularités présentent un réel avantage pour les applications industrielles par rapport aux autres standards. Néanmoins dans notre travail nous proposons quelques modifications au sein de ce standard au niveau de la couche MAC qui vont permettre une plus grande flexibilité en ce qui concerne la gestion de la bande passante et la garantie de délivrance temporelle des messages
Many applications appear in different fields with the democratization of wireless networks. Most of them concern the activities of office and home automation. However, what about industrial applications? What does the market currently propose by taking into account temporal and quality constraints of connection linked to this domain? With this thesis, we propose implementations for industrial processes which request a wireless link subjected to strict temporal and energetic constraints. After a comparative study of various standards of wireless networks without thread available on the market, we opted for the latest standard 802. 15. 4 (alias ZigBee). It is designed with energy consumption saving abilities. These particularities present a real advantage for industrial automation control applications. Nevertheless, in our work, we propose few modifications within this standard at the MAC layer level which will allow a bigger flexibility regarding the management of the busy bandwidth and the guarantee of temporal deliverance of messages. This study ends with an analysis of the methods used for interconnection of network cells concerning an energetically-optimized routing technique to be developed at the level of the network layer
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Gouvy, Nicolas. "Routage géographique dans les réseaux de capteurs et d’actionneurs". Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10185/document.

Texto completo
Resumen
Cette thèse se positionne dans le contexte des réseaux sans fil multi-sauts (réseaux de capteurs/actionneurs/robots mobiles). Ces réseaux sont composés d’entités indépendantes à la puissance limitée et fonctionnant sur batteries qui communiquent exclusivement par voie radio. Pour pouvoir relayer les messages d’un robot à une station de base, on utilise des protocoles dits « de routage» qui ont en charge de déterminer quel robot doit relayer le message. Nous nous sommes basés sur le protocole CoMNet, qui adapte la topologie du réseau à son trafic lors du routage afin d’économiser de l’énergie en déplaçant les robots. Mais modifier la topologie c'est aussi modifier les possibilités de routage. Nous proposons donc MobileR (Mobile Recursivity) qui choisit le prochain noeud en ayant anticipé par le calcul les conséquences de tous les changements de topologie possibles. Un autre problème vient du fait qu’il y a souvent plusieurs nœuds qui détectent un même événement et vont émettre des messages à router vers la station de base. Ces messages vont finir par se croiser, et le nœud de croisement va sans cesse être relocalisé sur chacun des chemins. Le protocole PAMAL (PAth Merging ALgorithm) détecte ces intersections : il va provoquer une fusion des chemins de routage en amont du nœud de croisement et une agrégation de paquets en aval. Enfin, le protocole GRR (Greedy Routing Recovery) propose un mécanisme de récupération pour augmenter le taux de délivrance des messages dans les réseaux de capteurs/actionneurs avec obstacle(s). En effet, les protocoles de routage actuels échouent face à un obstacle. GRR va permettre de contourner l’obstacle en relocalisant des nœuds tout autour
This thesis is about wireless multi-hop networks such as sensor/actuator networks and actuator networks. Those networks are composed of independent entities which have limited computing and memory capabilities and are battery powered. They communicate through the radio medium and do not require any static infrastructure. In order to relay messages between actuators up to the base station, we use what is called "routing protocols". My works rely on CoMNet, the first geographic routing protocol which aims to adapt the network topology to the routed traffic in order to save energy. Nevertheless, CoMNet does not consider the consequences of those relocations more than in a one-hop way. We proposed MobileR (Mobile Recursivity), which anticipates the routing in a multi-hop manner through computations over its one-hop neighbors. Hence it can select the “best” next forwarding node according to its knowledge. Another important topic is that events are likely to be detected by multiple sensors and all of them transmit message toward the destination. But those messages are likely to cross over an intersection node. This crossing provokes useless oscillation for it and premature node death. The PAMAL (PAth Merging ALgorithm) routing algorithm detects those routing path crossing and provokes a path merging upstream and uses a packet aggregation downstream. Finally, the Greedy Routing Recovery (GRR) protocol takes controlled mobility into account in order to increase delivery rate on topology with holes or obstacles. GRR includes a dedicated relocation pattern which will make it circumvent routing holes and create a routing path
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Choy, Laurent. "Vers un paradigme de programmation orienté workflow pour la résolution de méthodes d'algèbre linéaire sur des plateformes de calcul global à faible consommation énergétique". Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-Choy.pdf.

Texto completo
Resumen
Le calcul global est un domaine de recherche vaste, dynamique mais qui bénéficie d'un effort de recherche inégal selon la spécialité. Un travail important reste à faire au niveau applicatif. Nous présentons une méthodologie pour la parallélisation et la distribution d'une méthode d'algèbre linéaire pour la recherche des éléments propres d'une matrice réelle symétrique. Nous discutons de l'impact des choix algorithmiques sur les paradigmes de parallélisme et la répartition des données. En particulier, nous opposons le parallélisme paramétrique à un parallélisme fortement communicant et synchronisé dans un contexte défavorable de plateformes réparties à l'échelle de l'Internet, puis sur Grille'5000. Nous proposons des mécanismes indispensables pour le déploiement d'applications à grande échelle sur des ressources hétérogènes non dédiées tels la persistance des données, la programmation "out-of-core" et un algorithme numérique redémarré. Nous contribuons en parallèle au développement du logiciel YML qui masque la complexité et l'hétérogénéité des logiciels de calcul global afin que les scientifiques ne se soucient que des détails applicatifs de leurs problèmes. A la mise-en-oeuvre de modules logiciels d'YML tel un "back-end" pour le logiciel de calcul sur grille OmniRPC, nous ajoutons une réflexion. Sur la programmation haut-niveau d'applications numériques par orchestration de composants au moyen du langage de "workflow" YvetteML. Dans la continuité du travail précédent, notre étude de cas est la recherche des éléments propres d'une matrice réelle symétrique. Enfin, nous explorons un domaine de recherche naissant mais prometteur: le calcul sur grille à faible consommation d'énergie. Dans un contexte de grille de calcul très hétérogène et pour des applications communicantes et synchronisées telle notre méthode de recherches des éléments propres d'une matrice, nous montrons comment réaliser des économies d'énergies significatives en faisant varier la fréquence des processeurs et sans affecter de façon importante les temps de calculs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Faheem, Yasir. "Routage avec économie d'énergie dans les réseaux de capteurs sans fils". Paris 13, 2012. http://scbd-sto.univ-paris13.fr/secure/edgalilee_th_2013_faheem.pdf.

Texto completo
Resumen
La limitation de la capacité de la batterie est un facteur clé dans le déploiement des réseaux de capteurs sans fil (WSNs), malgré leurs nombreuses applications en petite échelle comme pour les réseaux de capteurs embarqués sur des personnes appelés communément réseaux WBANs (Wireless Body Area Networks) et également en grande échelle comme dans le domaine de l’agriculture et de la surveillance de l’habitat. En grande échelle, les protocoles de routage à base d’un puits statique ont une durée de vie limitée. Cela est dû au fait que les noeuds relais proches du puits épuisent leur batterie rapidement à cause de la charge du trafic, et par conséquent avoir un réseau avec une destination non joignable. En revanche, la mobilité du puits prolonge la durée de vie du réseau par la distribution de la consommation d’énergie entre les noeuds relais. Cependant, le puits mobile doit diffuser périodiquement sa position dans le réseau. Ce trafic de contrôle est non-négligeable dans le cas des capteurs sans fil car ils ont une capacité très limitée, ce qui engendre le problème de consommation d’énergie des noeuds. Dans cette thèse, nous nous sommes focalisés sur la conception de protocoles de routage pour les réseaux de capteurs sans fils avec optimisation de la consommation d’énergie. Dans ce contexte, nous nous sommes intéressés à deux applications des réseaux de capteurs sans fil ; les réseaux WBANs, et les réseaux de capteurs à grande échelle. Dans un premier temps, une analyse approfondie de deux techniques de dissémination d’informations et de leur consommation d’´energie dans es réseaux WBANs est effectuée. Nous avons comparé la consommation d’énergie liée à la dissémination d’informations dans un réseau WBAN à un saut et dans un réseau WBAN multi-sauts. Dans un second temps, on a étudié le problème de dissémination des données dans les réseaux de capteurs sans fil à large échelle et dans lesquels le collecteur de données, appelé communément sink, est mobile. Dans ce contexte, on a proposé deux algorithmes de routage distribués. Le premier algorithme, appelé SN-MPR, permet de limiter la propagation des messages de contrôle sur la localisation du sink aux seules zones affectées par la mobilité de ce dernier. Le deuxième algorithme, appelé duty-cycle SN-MPR, permet d’économiser l’énergie des capteurs en permettant à ceux qui ne sont pas MPR d’éteindre leurs radios respectives quand ils n’ont pas de données à transmettre vers le sink. Dans la dernière partie de cette thèse, nous avons traité la dissémination d’informations dans les réseaux de capteurs sans fils hétérogènes utilisant la technologie IEEE 802. 15. 4, et dans le contexte d’applications nécessitant un plus haut débit. En se basant sur l’utilisation parallèle de plusieurs canaux pour l’´echange de données, on a proposé un algorithme distribué, appelé TABA, pour la sélection de canaux en fonction du trafic dans le réseau. Cet algorithme permet, d’une part, d’économiser la consommation d’énergie en minimisant les collisions et retransmissions de paquets, et d’autre part, d’offrir un meilleur débit pour l’envoi de données multimédias
Limited battery power is one of the major stringent factors in deploying Wireless Sensor Networks (WSNs), in spite of their numerous applications both on small scale as inWireless Body Area Networks (WBANs) and on large scale as in agricultural and habitat monitoring. Especially, stationary sink based data gathering protocols for large scaleWSNs have limited network lifetime, because relay nodes around the sink quickly deplete their battery power due to high traffic loads, making the rest of the network unreachable to the sink. On the other hand, sink mobility improves network lifetime by distributing relay nodes’ energy consumption. However, mobile sink now has to periodically update the network about its changing position. This control traffic is non-negligible for low power, limited capacity sensors as it induces energy consumption problem. In this thesis, we are considering energy efficient routing protocols in the context of WBANs and large scale WSNs. Moreover, we also address multi-channel assignment algorithm with the aim of minimizing power consumption and increasing network throughput. In the first part of this thesis, a deep analysis of the energy consumption of one hop vs multi-hop communications in WBANs is performed. In fact, recent advances in technology has led to the development of small, intelligent, wearable sensors which are capable of remotely performing critical health monitoring tasks, and then transmitting patient’s data back to health care centers over wireless medium. But to the day, energy also remains to be a big constraint in enhancing WBAN lifetime [Net12]. Some recent literature on WBANs proposes deliberate use of multi-hops to transfer data from a sensor to the gateway via relay health sensors as more energy efficient than single hop communication. There are studies which argue contrarily. In this context, we have analyzed the single vs multi-hop energy consumption effect for real very short range sensor devices. In the second part of this thesis, two distributed energy-efficient sink location update algorithms are proposed for large scale mobile sink WSNs. First algorithm, named SN- MPR, uses a combination of multi-point relay broadcast and a local path repair mechanism by means of which sink’s location update packets are forwarded only to nodes which are affected by sink mobility; the rest of the network does not receive these update messages. Next, a duty-cycle aware multi-point relay based algorithm which is a modified version of the SN-MPR algorithm is proposed. It allows non-relay nodes to switch-off their radios when communication is not desired. Simulation results show that the two aforementioned algorithms minimize network’s power consumption without compromising data delivery efficiency. The final part of this thesis deals with traffic-aware channel assignment problem in IEEE 802. 15. 4 standard-based heterogeneous WSNs which have rather high traffic rate requirements than low-rate scalar WSN applications. In fact, traditional single channel communication suffers from interferences caused by concurrent transmissions in the same neighborhood. These parallel transmissions waste battery power as multiple retransmis- sions are required before a packet can be successfully delivered at the destination due to frequent collisions. Moreover, already limited network throughput of the single channel communication protocols is further degraded at higher traffic rates due to increased colli-sions and congestion. On the other hand, concurrent transmissions over multiple channels not only reduce power consumption as packet collisions are minimized or eliminated depend- ing upon the efficiency of the concerned channel assignment algorithm, but also offer better network throughput and data delivery delays. Modern WSN platforms like crossbow’s Mi-caZ nodes [Mot12] are equipped with single, half-duplex IEEE 802. 15. 4 standard-based radio which can operate over sixteen multiple channels. In order to make effective use of multiple channels, a number of channel assignment algorithms have been proposed recently for WSNs. However, they are suitable for rather low-rate homogeneous WSNs, and they consider fixed physical channel widths. These multi-channel assignments increase network throughput, but they may not be able to ensure QoS requirements of high bandwidth de- manding multimedia traffic, as in the case of heterogeneous WSNs. In order to address the energy issue and at the same time increase network capacity, we propose a distributive Traffic-Aware Bandwidth-Adaptive (TABA) channel selection algorithm which enables the nodes to not only choose interference free channels in the neighborhood, but also to adapt channel-width to increase/decrease throughput according to varying traffic conditions
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Soto, Lima María Consuelo. "Optimization methods for the memory allocation problems in embedded systems". Lorient, 2011. http://www.theses.fr/2011LORIS238.

Texto completo
Resumen
La gestion de la mémoire pour les systèmes embarqués a un impact significatif sur les performances et sur la consommation énergétique de ces systèmes embarqués. Comme l'allocation mémoire n'est pas une tâche simple, elle est souvent laissée au compilateur. Néanmoins, une allocation mémoire soigneusement optimisée peut conduire à des économies substantielles en termes de la durée d'exécution et de consommation d'énergie. Cette thèse présente différentes versions du problème d'allocation mémoire, par croissante. Le nombre de bancs mémoire, leur capacité, la taille et le nombre d'accès des structures de données et les conflits entre structures de données à chaque intervalle de temps sont les principales contraintes prises en compte dans ces problèmes. Pour chaque version du problème, un programme linéaire en nombres entiers PLNE est proposé pour le résoudre de manière exacte; ainsi que quelques méta-heuristiques. Ces travaux ambitionnent également d'analyser les modèles et les méthodes proposés, afin de mettre en évidence ce qui fait le succès des méta-heuristiques dans ce domaine
Memory allocation in embedded systems is one of the main challenges that electronic designers have to face. This part, rather difficult to handle is often left to the compiler with which automatic rules are applied. Nevertheless, a carefully tailored allocation of data to memory banks may lead to great savings in terms of running time and energy consumption. This thesis addresses various versions of the memory allocation problem. At each version the problem's complexity increases, i. E. , the number of constrains increases. The number of memory banks, bank capacities, sizes and number of accesses of data structures, and the conflicting data structures at each time interval are the main constrains handled in the memory allocationproblems. In this work we present an ILP formulation and some metaheuristics implemented for each problem version. We also assess ourmetaheuristics with the exact methods and other literature metaheuristics with the aim of highlighting what makes the success of metaheuristics for these problems
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Kacem, Fadi. "Algorithmes exacts et approchés pour des problèmes d'ordonnancement et de placement". Thesis, Evry-Val d'Essonne, 2012. http://www.theses.fr/2012EVRY0007/document.

Texto completo
Resumen
Dans cette thèse, nous nous intéressons à la résolution de quelques problèmes d'optimisation combinatoires que nous avons choisi de traiter en deux volets. Dans un premier temps, nous étudions des problèmes d'optimisation issus de l'ordonnancement d'un ensemble de tâches sur des machines de calcul et où on cherche à minimiser l'énergie totale consommée par ces machines tout en préservant une qualité de service acceptable. Dans un deuxième temps, nous traitons deux problèmes d'optimisation classiques à savoir un problème d'ordonnancement dans une architecture de machines parallèles avec des temps de communication, et un problème de placement de données dans des graphes modélisant des réseaux pair-à-pair et visant à minimiser le coût total d'accès aux données
In this thesis, we focus on solving some combinatorial optimization problems that we have chosen to study in two parts. Firstly, we study optimization problems issued from scheduling a set of tasks on computing machines where we seek to minimize the total energy consumed by these machines while maintaining acceptable quality of service. In a second step, we discuss two optimization problems, namely a classical scheduling problem in architecture of parallel machines with communication delays, and a problem of placing data in graphs that represent peer-to-peer networks and the goal is to minimize the total cost of data access
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Bessaoud, Karim. "Algorithmes auto-stabilisants pour les réseaux ad hoc". Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0048.

Texto completo
Resumen
Dans cette thèse, nous proposons trois algorithmes auto-stabilisants pour les réseaux ad hoc sans fil. Le premier est un algorithme de construction d’un ensemble connexe dominant de poids faible, appelé backbone. Le backbone est utilisé pour créer une infrastructure logique dans un réseau ad hoc. Nous avons montré par simulation l’efficacité de cet algorithme dans différents contextes selon la sémantique donnée aux poids des nœuds : le backbone pouvant contenir par exemple les nœuds les plus chargés en énergie ou les moins mobiles. Les deux autres algorithmes traitent de l’économie d’énergie dans les réseaux de capteurs. Nous proposons deux solutions basées sur le contrôle de la topologie à travers la réduction des puissances de transmission, chacune dédié à un type de communication utilisé par les capteurs : communication entre tout couple de capteurs ou par diffusion. Tous les algorithmes présentés sont prouvés formellement et évalués par simulation
In this thesis, we propose three self-stabilizing algorithms for ad hoc wireless networks. The first one is an algorithm that builds a low weight connected dominating set, called backbone. The backbone is used to create a logical infrastructure in an ad hoc network. We show by simulation the efficiency of this algorithm in different contexts according to the semantics given to the weight of the nodes : the backbone may contain for instance the least mobile nodes or nodes with the highest battery level. The two other algorithms deal with energy conservation in wireless sensor networks. We propose two solutions based on topology control by reducing transmission powers, each one dedicated to a type of communication used by the sensors : communication between any pair of sensors or by diffusion. The proposed algorithms are formally proven and evaluated by simulation
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Hamzaoui, Khalil Ibrahim. "Contribution à la modélisation de la consommation d'énergie dans un dispositif mobile". Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I030/document.

Texto completo
Resumen
L’objectif principal de cette thèse consiste à modéliser la consommation d’énergie d’une application particulière fonctionnant sur un appareil mobile. Nous proposons un modèle de suivi du comportement énergétique, nous décrivons également une méthodologie pour identifier les paramètres du modèle. À cette fin, nous avons analysé une collection de données expérimentales recueillies lors de mon tour de France en fauteuil roulant électrique. Nous avons appliqué des outils statistiques pour obtenir les paramètres du modèle. Nous validons enfin le modèle en comparant les résultats avec d’autres données expérimentales.La première étude de cas permet de comparer l’évolution du coût énergétique dans les environnements mobiles des différents composants des smartphones en se basant sur des plusieurs modèles énergétiques.— La deuxième étude de cas traite l’évaluation, les mesures du coût d’énergie consommée et les problèmes rencontrés dans les méthodes utilisées pour l’évaluation de la consommation d’énergie. Pour une meilleure évaluation, on a introduit le cas d’étude du comportement énergétique en utilisant les machines virtuelles.— La troisième étude de cas est basée sur le traitement des résultats des mesures obtenues lors de mon tour de France en fauteuil roulant électrique connecté. L’objectif consiste en une gestion anticipée des ressources, en réalisant des mesures réelles, ensuite, de faire le suivi du comportement énergétique dans un environnement réel et diversifié. Le modèle peut être utilisé pour définir une fréquence optimale en termes de consommation d’énergie pour des situations précises sans trop dégrader la qualité de service souhaitée par l’utilisateur
The main goal of this thesis is to model the power consumption of a particular application running on a mobile device. We propose a model of energy behavior monitoring, we also describe a methodology to identify the parameters of the model. To this end, we analyzed a collection of experimental data collected during my tour de France in an electric wheelchair. We applied statistical tools to obtain the parameters of the model. Finally, we validate the model by comparing the results with other experimental data.The first case study compares the evolution of the energy cost in the mobile environments of the different components of smartphones based on several energy models.- The second case study deals with the evaluation, the measurements of the energy cost consumed and the problems encountered in the methods used for the evaluation of energy consumption. For a better evaluation, the case study of energy behavior was introduced using the virtual machines.- The third case study is based on the treatment of the results of the measurements obtained during my tour of France in a connected electric wheelchair. The goal is to anticipate resource management, realizing measurements, and then tracking energy behavior in a real and diverse environment. The model can be used to define an optimal frequency in terms of energy consumption for specific situations without degrading the quality of service desired by the user
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Chen, Langshi. "Méthode de Krylov itératives avec communication et efficacité énergétique optimisées sur machine hétérogène". Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10114/document.

Texto completo
Resumen
Les méthodes de Krylov sont fréquemment utilisés dans des problèmes linéaires, comme de résoudre des systèmes linéaires ou de trouver des valeurs propres et vecteurs propres de matrices, avec une taille extrêmement grande. Comme ces méthodes itératives nécessitent un calcul intensif, ils sont normalement déployés sur des grands clusters avec les mémoires distribués et les données communiqués par MPI. Lorsque la taille du problème augmente, la communication devient un bouchon principale d'atteindre une haute scalabité à cause de deux raisons: 1) La plupart des méthodes itératives comptent sur BLAS-2 matrices-vecteurs opérations de bas niveau qui sont communication intensive. 2) Le mouvement de données (accès à la mémoire, la communication par MPI) est beaucoup plus lent que la fréquence du processeur. Dans le cas des opérations de matrice creuse tels que la multiplication de matrices creuses et vecteurs (SpMV), le temps de communication devient dominant par rapport au temps de calcul. En outre, l'avènement des accélérateurs et coprocesseurs comme le GPU de NVIDIA fait le coût du calcul moins cher, tandis que le coût de la communication reste élevé dans des systèmes hétérogènes. Ainsi, la première partie de nos travaux se concentre sur l'optimisation des coûts de communication pour des méthodes itératives sur des clusters hétérogènes. En dehors du coût de communication, le mur de la puissance et de l’énergie devient un autre bouchon de scalabité pour le futur calcul exascale. Les recherches indiquent que la mise en œuvre des implémentations d'algorithmes qui sont informées pourrait efficacement réduire la dissipation de puissance des clusters. Nous explorons également la mise en œuvre des méthodes et des implémentations qui économisent l'énergie dans notre expérimentation. Enfin, l'optimisation de la communication et la mise en œuvre de l'efficacité énergétique seraient intégrés dans un schéma de méthode GMRES, qui exige un cadre d'auto-tuning pour optimiser sa performance
Iterative methods are frequently used in extremely large scale linear problems, such solving linear systems or finding eigenvalue/eigenvectors of matrices. As these iterative methods require a substantial computational workload, they are normally deployed on large clusters of distributed memory architectures communicated via MPI. When the problem size scales up, the communication becomes a major bottleneck of reaching a higher scalability because of two reasons: 1) Many of the iterative methods rely on BLAS-2 low level matrix vector kernels that are communication intensive. 2) Data movement (memory access, MPI communication) is much slower than processor's speed. In case of sparse matrix operations such as Sparse Matrix Vector Multiplication (SpMV), the communication even replaces the computation as the dominant time cost. Furthermore, the advent of accelerators/coprocessors like Nvidia's GPU make computation cost more cheaper, while the communication cost remains high in such CPU-coprocessor heterogeneous systems. Thus, the first part of our work focus on the optimization of communication cost of iterative methods on heterogeneous clusters. Besides the communication cost, power wall becomes another bottleneck of future exascale computing in recent time. Researches indicate that a power-aware algorithmic implementation strategy could efficiently reduce the power dissipation of large clusters. We also explore the potential energy saving implementation of iterative methods in our experimentation. Finally, both the communication optimization and energy efficiency implementation would be integrated into a GMRES method, which demands an auto-tuning framework to maximize its performance
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Milent, Etienne. "Contribution à l'étude d'un actionneur asynchrone à contrôle vectoriel et de ses possibilités d'utilisation dans des applications embarquées". Compiègne, 1992. http://www.theses.fr/1992COMPD508.

Texto completo
Resumen
Le moteur asynchrone, robuste, bon marché et sans entretien, voit depuis quelques années son champ d'application s'élargir considérablement grâce à la technique du contrôle vectoriel. Cette commande lui confère une précision et des qualités comparables à celles des moteurs à courant continu ou aux machines autosynchrones. Pour des applications embarquées, le point faible qui apparaît dans les procédés généralement mis en œuvre est la nécessité de maintenir le flux magnétique dans la machine, donc d'y créer en permanence une dissipation de chaleur et surtout de consommer sans discontinuer de l'énergie à la source. L'objectif de cette étude est de concilier les techniques modernes de contrôle vectoriel et les contraintes liées à l'énergie embarquée, et de montrer ainsi la faisabilité de l'intégration d'actionneurs asynchrones, précis et rapides, pour ces applications. Nous avons donc développé une nouvelle stratégie de contrôle vectoriel à flux variable permettant, d'une part, de maîtriser rapidement le couple délivré par l'activateur et, d'autre part, de minimiser la consommation d'énergie et, en particulier, de l'annuler lorsque le moteur n'est pas sollicité. Afin d'illustrer les performances, nous avons réalisé un asservissement de position destiné à piloter l'orientation des roues arrières d'un véhicule à quatre roues directrices. La définition, la simulation et l'expérimentation sur maquette du contrôle de couple sont présentées dans le mémoire, tant en statique qu'en dynamique, ainsi que les principes d'élaboration et les résultats expérimentaux de l'asservissement de position. La concordance entre les simulations et ces résultats a permis de valider les stratégies proposées. On a ainsi montré que la nécessité d'être avare sur la consommation d'énergie n'est pas incompatible avec les performances dynamiques élevées offertes par le contrôle vectoriel et que l'utilisation de ces techniques modernes dans les applications embarquées est tout a fait envisageable.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Villebonnet, Violaine. "Scheduling and Dynamic Provisioning for Energy Proportional Heterogeneous Infrastructures". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEN057/document.

Texto completo
Resumen
La consommation énergétique des centres de calculs et de données, aussi appelés « data centers », représentait 2% de la consommation mondiale d'électricité en 2012. Leur nombre est en augmentation et suit l'évolution croissante des objets connectés, services, applications, et des données collectées. Ces infrastructures, très consommatrices en énergie, sont souvent sur-dimensionnées et les serveurs en permanence allumés. Quand la charge de travail est faible, l'électricité consommée par les serveurs inutilisés est gaspillée, et un serveur inactif peut consommer jusqu'à la moitié de sa consommation maximale. Cette thèse s'attaque à ce problème en concevant un data center ayant une consommation énergétique proportionnelle à sa charge. Nous proposons un data center hétérogène, nommé BML pour « Big, Medium, Little », composé de plusieurs types de machines : des processeurs très basse consommation et des serveurs classiques. L'idée est de profiter de leurs différentes caractéristiques de performance, consommation, et réactivité d'allumage, pour adapter dynamiquement la composition de l'infrastructure aux évolutions de charge. Nous décrivons une méthode générique pour calculer les combinaisons de machines les plus énergétiquement efficaces à partir de données de profilage de performance et d'énergie acquis expérimentalement considérant une application cible, ayant une charge variable au cours du temps, dans notre cas un serveur web.Nous avons développé deux algorithmes prenant des décisions de reconfiguration de l'infrastructure et de placement des instances de l'application en fonction de la charge future. Les différentes temporalités des actions de reconfiguration ainsi que leur coûts énergétiques sont pris en compte dans le processus de décision. Nous montrons par simulations que nous atteignons une consommation proportionnelle à la charge, et faisons d'importantes économies d'énergie par rapport aux gestions classiques des data centers
The increasing number of data centers raises serious concerns regarding their energy consumption. These infrastructures are often over-provisioned and contain servers that are not fully utilized. The problem is that inactive servers can consume as high as 50% of their peak power consumption.This thesis proposes a novel approach for building data centers so that their energy consumption is proportional to the actual load. We propose an original infrastructure named BML for "Big, Medium, Little", composed of heterogeneous computing resources : from low power processors to classical servers. The idea is to take advantage of their different characteristics in terms of energy consumption, performance, and switch on reactivity to adjust the composition of the infrastructure according to the load evolutions. We define a generic methodology to compute the most energy proportional combinations of machines based on hardware profiling data.We focus on web applications whose load varies over time and design a scheduler that dynamically reconfigures the infrastructure, with application migrations and machines switch on and off, to minimize the infrastructure energy consumption according to the current application requirements.We have developed two different dynamic provisioning algorithms which take into account the time and energy overheads of the different reconfiguration actions in the decision process. We demonstrate through simulations based on experimentally acquired hardware profiles that we achieve important energy savings compared to classical data center infrastructures and management
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Ingelrest, François. "Protocoles localisés de diffusion et économie d'énergie dans les réseaux ad hoc et de capteurs". Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2006. http://tel.archives-ouvertes.fr/tel-00113869.

Texto completo
Resumen
Un réseau ad hoc sans fil est composé d'un ensemble décentralisé d'objets mobiles et auto-organisés. Un tel réseau ne repose sur aucune infrastructure, et est donc complètement autonome et dynamique. Selon ces hypothèses, tout ensemble d'objets équipés d'interfaces de communication adéquates peut spontanément former un tel réseau. Puisque des communications sans fil sont utilisées, seuls les objets suffisamment proches les uns des autres peuvent communiquer ensemble. Les communications de longue portée doivent donc être effectuées via un mécanisme multi-sauts : cela veut simplement dire que les objets intermédiaires doivent faire suivre les messages jusqu'au destinataire.

Les réseaux de capteurs sont similaires aux réseaux ad hoc, car ils sont également décentralisés et autonomes. Un capteur est un petit appareil capable de surveiller son environnement. Des cas typiques d'utilisation peuvent être la surveillance de zones militaires (détection de mouvements) ou de forêts (détection d'incendie).

Parmi les problèmes communs à ces deux types de réseaux se trouve la diffusion. Dans une telle communication, un message est envoyé depuis un objet donné vers tous les autres du réseau. Les applications de ce processus sont nombreuses : découverte de routes, synchronisation... Comme les objets mobiles utilisent une batterie, il est nécessaire que la diffusion soit la plus économe possible d'un point de vue énergétique. Cela est généralement obtenu en réduisant la quantité de relais nécessaires, ou en limitant la puissance d'émission à chaque relais.

Le but de mon travail était d'étudier la diffusion dans les réseaux ad hoc et de capteurs, afin de mettre en lumière les caractéristiques et les défauts des mécanismes existants, puis d'en proposer de nouveaux, plus efficaces. Dans tous ces travaux, nous avons toujours voulu rester dans le domaine des solutions 'réalistes' : beaucoup des précédentes études utilisaient en effet des mécanismes centralisés, où une connaissance globale du réseau est nécessaire pour effectuer la diffusion. Nous nous sommes concentrés sur des solutions fiables et localisés, c'est-à-dire n'utilisant que des informations sur le voisinage de chaque noeud. Ce type de mécanisme permet également un passage à l'échelle simplifié, car la quantité d'informations nécessaire ne varie pas avec la taille du réseau. Nos études montrent de plus que ces solutions peuvent être aussi efficaces que les méthodes centralisées.

Puisque l'ajustement de portée est un mécanisme très important dans la conservation de l'énergie, nous avons proposé une méthode de diffusion originale, basée sur le concept de portée optimale de communication. Cette dernière est calculée de manière théorique grâce au modèle énergétique considéré, et représente le meilleur compromis entre l'énergie dépensée à chaque noeud et le nombre de relais nécessaires. Nous avons ainsi proposé deux protocoles différents basés sur ce concept, chacun étant plus spécifiquement adapté soit aux réseaux ad hoc (TR-LBOP), soit aux réseaux de capteurs (TR-DS).

Afin de réduire encore plus la consommation énergétique, nous avons étudié le fameux protocole centralisé nommé BIP. Son efficacité est due au fait qu'il considère la couverture obtenue par une seule émission omnidirectionnelle, au lieu de considérer chaque lien séparément. Nous avons proposé une solution localisée basée sur BIP, afin de construire incrémentalement une structure de diffusion. Nous avons montré de manière expérimentale que les résultats ainsi obtenus sont très proches de ceux fournis par BIP, notamment dans les réseaux de forte densité, tout en n'utilisant que des informations locales à chaque noeud.

Nous avons finalement considéré la suppression d'une hypothèse forte, largement répandue dans la communauté des réseaux ad hoc et de capteurs : l'utilisation d'un graphe du disque unitaire. Ce dernier définit la zone de communication d'un noeud comme étant un cercle parfait. Nous avons remplacé cette hypothèse par une autre plus réaliste afin d'en étudier les conséquences sur un protocole connu, le protocole de diffusion par relais multipoints (MPR). Nous avons montré que ce dernier ne fournit plus de résultats suffisants dans un tel environnement. Nous avons également proposé quelques modifications afin d'obtenir à nouveau de bons résultats.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Messai, Sarra. "Gestion de la mobilité dans les réseaux de capteurs sans fil". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1183.

Texto completo
Resumen
Les réseaux de capteurs sans fil (RCSFs) envahissent de plus en plus notre vie. A l'ère de l'Internet des objets, ils sont utilisés dans les domaines nécessitant l'observation du monde physique et la collecte de données. Toutefois, beaucoup d'obstacles inhérents aux spécificités des RCSFs doivent être surmontés avant de pouvoir atteindre la maturité de cette technologie. Parmi ces entraves, la limitation des ressources telles que l'énergie, la puissance de calcul, la bande passante et l'espace mémoire des capteurs. Dans cette thèse, nous nous intéressons à la gestion de la mobilité comme solution permettant d'améliorer les performances du réseau en termes de consommation d'énergie et d'optimisation de la collecte de données. Un réseau de capteurs sans fil mobile est un réseau dans lequel au moins la station de base est mobile. Nous nous sommes tout d'abord intéressés au cas où seule la station de base est mobile. Dans ce cadre, nous avons proposé une organisation du réseau de capteurs qui tire parti de la mobilité de la station de base pour optimiser la collecte de données tout en réduisant l'énergie dissipée par les capteurs. L'organisation proposée s'appuie sur une architecture en grille et un algorithme optimisé de déplacement de la station de base pour visiter les cellules de la grille et collecter les données. Nous avons implémenté notre solution dans l'environnement de simulation NS-2. Les résultats de simulation obtenus montrent nettement l'amélioration apportée par rapport aux autres approches de l'état de l'art. Nous nous sommes ensuite intéressés au cas où la mobilité est totale, autrement dit, tous les nœuds du réseau peuvent se déplacer. Dans ce cas, nous avons travaillé sur la problématique de la gestion de clés cryptographiques dans les RCSFs pour assurer la sécurité de la collecte de données. Dans ce cadre, nous avons proposé un schéma de gestion de de clés cryptographiques basé sur la distribution aléatoire de clés. Notre solution a la particularité d'assurer l'auto-guérison (self-healing ) du réseau en cas de compromission de nœuds. Nous avons évalué et implémenté notre solution et nous l'avons comparée avec deux autres solutions de référence pour montrer son efficacité
Wireless Sensor Networks (WSNs) are increasingly invading our lives. With the rise of Internet of Things (IoT), WSNs are used in applications that require observation of the physical world and data collection. However, many obstacles inherent to the specificities of WSNs must be overcome before reaching the maturity of this technology. Among these obstacles, the resource limitations such as energy, computing capability, bandwidth and storage capability of sensor nodes. In this thesis, we focus on mobility management as a solution to improve network performance in terms of energy consumption and optimization of data collection. A mobile wireless sensor network is a network in which at least the base station is mobile.We first looked at the case where only the base station is mobile. In this context, we proposed a network organization that leverages base station mobility to optimize data collection while reducing the dissipated energy by sensor nodes. The proposed organization is based on a grid architecture and an optimized base station mobility algorithm for collecting data. We implemented our solution in the NS-2 simulation environment. The obtained simulation results show clearly the improvement of our proposal compared to other existing approaches. Then we looked at the case where the mobility is total, in other words, each sensor node in the network can be mobile. In this case, we worked on the issue of key management to ensure the security of data collection. In this context, we proposed a new key management scheme based on the random key pre-distribution. Our solution has the particularity of ensuring the self-healing of the network where sensor nodes are compromised. We evaluated and implemented our solution and compared it with two other reference schemes to show its effectiveness
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Horrein, Ludovic. "Gestion d’énergie décomposée d’un véhicule hybride intégrant les aspects thermiques via la représentation énergétique macroscopique". Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10078/document.

Texto completo
Resumen
Le véhicule hybride combine plusieurs sources d’énergie pour se déplacer réduisant ainsi sa consommation. La gestion d’énergie est l’organe intelligent du véhicule qui permet de décider comment et quand utiliser ces sources. Différentes gestions sont possibles pour un même véhicule. Plus elle prend de contraintes en considération, plus elle est efficace, mais plus elle est difficile à réaliser en temps réel. La gestion du chauffage habitacle (impactant sensiblement la consommation) est cependant considérée de manière indépendante de la gestion de la chaîne de traction. Les stratégies optimales permettent de déterminer la meilleure répartition de puissance pour obtenir la consommation minimale. Si cette stratégie peut être déterminée d’un point de vue théorique en simulation, elle ne peut pas être reproduite sur un véhicule réel. En revanche, il est possible de déduire une gestion d’énergie temps réel à partir des stratégies optimales. Néanmoins, cette réalisation est complexe et pour le moment non structurée. L’objectif de la thèse est de proposer une gestion d’énergie globale d’un véhicule hybride incluant à la fois le système de traction et de chauffage. Pour cela, les échanges thermiques sont modélisés et organisés suivant le formalisme REM (Représentation Energétique Macroscopique) permettant d’unifier tous les modèles. Des validations expérimentales permettent de s’assurer de la précision des modèles. Enfin, une démarche progressive est proposée afin de construire une gestion d’énergie utilisable en temps réel et dont les résultats sont proches de l’optimum
Hybrid vehicle uses several energy sources to reduce its fuel consumption. Energy management strategy (EMS) is one key element that enables to decide when and how to use these sources. For a single vehicle, different EMSs are possible. More the EMS considers constraints, more it is efficient but more it is difficult to solve in real time. The cabin heating system management who has a significant impact on the consumption is considered in a different EMS than the traction system management. Optimal EMS enables to evaluate the ideal power splitting to reach the minimal consumption. If this EMS can be theoretically evaluated in simulation, it cannot be implemented in real time. Nevertheless, it is possible to deduce a real time EMS using the results of the optimal EMS. This deduction is complex and no methodology is available to structure this conception. The objective of this thesis is to propose an EMS of a hybrid vehicle who includes the management of the traction system and of the heating system. To do that, the thermal exchanges are modeled and described using EMR (Energetic Macroscopic Representation) to unify all models. Experimental validations enable to evaluate the models accuracy. To finish, a step by step methodology is proposed to organize the development of a real time EMS. The results obtained with this real time EMS are closed to the optimal theoretical result
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Wang, Yewan. "Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/ logicielle et de l’environnement associé". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2020. http://www.theses.fr/2020IMTA0175.

Texto completo
Resumen
Depuis des années, la consommation énergétique du centre de donnée a pris une importance croissante suivant une explosion de demande dans cloud computing. Cette thèse aborde le défi scientifique de la modélisation énergétique d’un centre de données, en fonction des paramètres les plus importants. Disposant d’une telle modélisation, un opérateur pourrait mieux repenser / concevoir ses actuels / futurs centre de données. Pour bien identifier les impacts énergétiques des matériels et logiciels utilisés dans les systèmes informatiques. Dans la première partie de la thèse, nous avons réaliser un grand nombre évaluations expérimentales pour identifier et caractériser les incertitudes de la consommation d’énergie induite par les éléments externes : effets thermiques, différencesentre des processeurs identiques causées par un processus de fabrication imparfait, problèmes de précision issus d’outil de mesure de la puissance, etc. Nous avons terminé cette étude scientifique par le développement d’une modélisation global pour un cluster physique donné, ce cluster est composé par 48 serveurs identiques et équipé d’un système de refroidissement à expansion à direct, largement utilisé aujourd’hui pour les datacenters modernes. La modélisation permet d’estimer la consommation énergétique globale en fonction des configurations opérationnelles et des données relatives à l’activité informatique, telles que la température ambiante, les configurations du système de refroidissement et la charge des serveurs
For years, the energy consumption of the data center has dramatically increased followed by the explosion of demand in cloud computing. This thesis addresses the scientific challenge of energy modeling of a data center, based on the most important variables. With such modeling, an data center operator will be able to better reallocate / design the current / future data centers. In order to identify the energy impacts of hardware and software used in computer systems. In the first part of the thesis, to identify and characterize the uncertainties of energy consumption introduced by external elements: thermal effects, difference between identical processors caused by imperfect manufacturing process, precision problems resulting from power measurement tool, etc. We have completed this scientific study by developing a global power modeling for a given physical cluster, this cluster is composed by 48 identical servers and equipped with a direct expansion cooling system, conventionally used today for modern data centers. The modeling makes it possible to estimate the overall energy consumption of the cluster based on operational configurations and data relating to IT activity, such as ambient temperature, cooling system configurations and server load
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Bechkit, Walid. "Security and energy saving in wireless sensor networks". Compiègne, 2012. http://www.theses.fr/2012COMP2045.

Texto completo
Resumen
Les réseaux de capteurs sans fil (RCSF) présentent de nos jours des avantages indéniables dans plusieurs domaines. Compte tenu des champs d'application critiques d'une part et des limitations de ressources (énergie. Mémoire, etc. ) d'autre part, un compromis doit être trouvé entre la sécurité ct l'efficacité dans ces réseaux. C'est dans ce cadre que s'inscrit cette thèse qui s'attaque à ces deux volets majeurs des RCSF: la sécurité et l'efficacité énergétique. Dans le premier volet, nous nous sommes intéressés à la gestion de clés, une brique de base pour les autres services de sécurité. Nous avons proposé une nouvelle approche scalable de sécurité basée sur une théorie de la conception combinatoire dite "unital design". Notre solution offre une bonne couverture sécurisée des RCSF à grande échelle avec un faible coût de stockage. Nous avons aussi proposé une classe générique de gestion de clés qui améliore la résilience des schémas existants. Dans le deuxième volet qui traite la conservation d'énergie dans les RCSF, nous avons modélisé l'impact de la température sur les communications et proposé des solutions permettant d'économiser l'énergie en adaptant l'activité des émetteurs-récepteurs en fonction de la température. Nous avons, par ailleurs, proposé un protocole de routage efficace qui prend mieux en compte la nature concentrique des RCSF afin d'économiser l'énergie. Nous présentons enfin le projet AgroSens (Picardie / FEDER) dans lequel nous avons conçu et dévelopé une plateforme de RCSF pour l'agriculture. Nous discutons les différentes étapes du projet ainsi que l'implémentation de notre architecture et les fonctionnalités du prototype que nous avons mis en place
Wireless sensor networks (WSN) arc set to become one of the technologies which invade our everyday life. These networks suffer from several constraints mainly related to the resource limitations (energy, memory, etc. ) and to the harsh deployment environment. These limitations, coupled with the required security levels and network autonomy, create a clash between two key design issues : security and efficiency. Ln this thesis, we tackle these two design objectives and propose secure and energy saving solutions for smooth operation of WSN. We focus in the first part on key management which lays the foundation of security in WSN. We develop a new scalable key management scheme which makes use of unital design theory. Our scheme provides a good secure coverage of large scale networks with a low key storage overhead. We also address the problem of network resiliency through a generic class of hash-chain based key management schemes. Ln the second part, we address the energy saving challenging issue. We model the impact of the temperature on the radio communications in WSN and we propose new fully distributed temperature-aware connectivity-driven algorithms for energy saving in WSN. Furthermore, we address the energy aware routing and we propose a new weighted shortest path tree for convergecast traffic routing in WSN. We finally present AgroSens project funded by the ERDF and the Picardy regional council. Ln this project, we design and develop a WSN system for agriculture in Picardy. We present in this thesis the main project phases and we discuss the implementation of our architecture and communication protocols. We also present the main features of the testbed that we set up
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Wang, Yuqi. "Suivi de l’état de santé des réseaux de distribution de chaleur". Thesis, Lille, 2019. http://www.theses.fr/2019LIL1I016.

Texto completo
Resumen
Les entreprises qui exploitent les réseaux de chaleur fournissent un service énergétique à leurs clients. Face à l’augmentation des coûts de l’énergie et aux contraintes réglementaires et sociétales de plus en plus strictes, ces industriels distributeurs d'énergie cherchent à maîtriser l'efficacité énergétique de leurs installations notamment pour améliorer leur compétitivité et leur image. Dans ce contexte, l’industriel doit suivre l’efficacité énergétique et l'état de santé de l’installation, afin de pouvoir réagir en cas de problème, en particulier en effectuant ou en planifiant des opérations de maintenance. En raison du volume important de données à traiter et du temps de réaction court souhaité, il est nécessaire de développer des méthodes efficientes permettant d’aider l’opérateur à suivre l’état de santé du système, et à prendre ainsi les décisions de maintenance nécessaires. L'approche d'aide à la décision que nous proposons s'appuie sur des indicateurs pertinents de l'état de santé de l'installation et des composants, dont les évolutions sont facilement interprétables par l'opérateur. Les modèles de comportements des équipements des réseaux de chaleur sont utilisés d'une part pour générer ces indicateurs, d'autre part pour établir les liens entre les défauts de ces équipements et leurs impacts sur l’efficacité énergétique du réseau de distribution. Ces liens sont analysés pour chercher les sous-systèmes surveillables, vérifier si les défauts à surveiller sont structurellement détectables et guider la génération des indicateurs. Des modèles statiques sont retenus pour leur généricité, leur facilité d’élaboration, de calcul et d’interprétation. Les indicateurs générés en utilisant des modèles statiques doivent être calculés lorsque le système fonctionne en état stationnaire. Pour cette raison, nous proposons une méthode pour rechercher les fenêtres temporelles durant lesquelles le fonctionnement est stationnaire. Les indicateurs calculés sur ces fenêtres temporelles sont ensuite analysés pour donner à l'opérateur des informations sur l'état de santé du système. L’analyse structurelle montre qu'un indicateur peut être sensible à différents défauts, et qu'un défaut peut influencer les valeurs de plusieurs indicateurs. Les évolutions de ces indicateurs peuvent donc être corrélées. Afin d’exploiter les informations des corrélations des évolutions des indicateurs pour isoler les défauts, les valeurs des indicateurs sont traitées dans l’espace des indicateurs. Nous proposons une méthode de clustering dynamique afin d'aider l'opérateur à suivre l'état de santé du réseau. La démarche proposée est appliquée sur un site industriel géré par Veolia, partenaire industriel de cette thèse. Le suivi de l’état de santé est réalisé en utilisant les données enregistrées sur le site durant deux mois. Les résultats obtenus montrent l'efficacité des outils et méthodes proposés
Companies managing district heat networks, provide energy services to customers. Faced with rising energy costs and increasingly stringent regulatory and societal pressures, these energy service companies are seeking to control the system energy efficiency, aiming at improving their competitiveness and social image. In this context, the industrial needs to monitor the energy efficiency of the energy distribution system and its health state, in order to perform maintenance operations in case of problems. Due to the large amount of data and the desired short reaction time, it is necessary to develop methods to support the operator in the health state monitoring and in the maintenance decision-making process. These methods aim at providing appropriate health indicators of system's components, whose evolutions are easy to be interpreted by operators. Behavioral models of heat networks are used on the one hand to generate these indicators, and on the other hand to establish the links between component faults and their impacts on energy efficiency of the network. These links are analyzed to search for monitorable subsystems, i.e. to verify whether the faults to be monitored are structurally detectable, and to guide the indicators generation. Static models are retained for their genericity, simplicity of development, of calculation and of interpretation. Indicators generated using static models must be calculated when the system is operating in steady state. For this reason, we propose a method to determine the steady state time-windows. The computed indicators are then analyzed to give to the operator an information on the system's health state. Structural analysis shows that an indicator can be sensitive to different faults, and that a fault can influence the values of several indicators. The evolutions of these indicators can therefore be correlated. In order to use the information of the correlation between the indicators to isolate the fault,indicators values are analyzed in the space of indicators. We propose a dynamic clustering method to help the operator to monitor the health state of the network.The proposed approach is applied on a heat network plant managed by Veolia, the industrial partner of this thesis, using the data recorded during two months. The results show the efficiency of the proposed tools and methods
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Tayeb, Jamel. "Optimisation des performances et de la consommation de puissance électrique pour architecture Intel Itanium/EPIC". Valenciennes, 2008. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/9eed6aef-dfaf-4a17-883f-d217a1d9a000.

Texto completo
Resumen
Cette thèse propose, dans sa première partie, d’étendre l’architecture EPIC des processeurs de la famille Itanium par l’ajout d’une pile matérielle. L’idée principale est qu’il est possible de combler l’écart de performance entre une architecture généraliste et les circuits spécialisés pour exécuter des machines virtuelles (FORTH,. NET, Java, etc. ). Pour ce faire nous proposons de réassigner dynamiquement un sous-ensemble des ressources existantes d’EPIC pour offrir une pile d’évaluation matérielle. Deux implémentations, non-intrusives et respectant la compatibilité binaire des applications existantes, sont proposées. La principale différence entre ces piles réside dans leur gestionnaire: logiciel ou matériel. La pile d’évaluation sous le contrôle du matériel présente des fonctions avancées comme le support des piles d’évaluation typées promues par la CIL de. NET. Ainsi, nous proposons un traducteur simple-passe de binaire CIL en binaire EPIC, utilisant la pile d’évaluation matérielle. Dans la seconde partie de cette thèse, nous avons étudié l’efficacité énergétique des applications sur les architectures Intel. Nous avons ainsi défini dans un premier temps une méthodologie et des outils de mesure de l’énergie consommée et la quantité de travail utile fournie par les logiciels. Dans un second temps, nous avons entamé l’étude de transformations de code source afin de réduire / contrôler la quantité d’énergie consommée par les logiciels
This thesis proposes, in its first part, to extend the EPIC architecture of the Itanium processor family by providing a hardware stack. The principal idea defended here is that it is possible to close the existing performance gap between generic architectures and application specific designs to run virtual machines (FORTH,. NET, Java, etc). With this intention, we propose to reallocate dynamically a subset of the EPIC architecture’s resources to implement a hardware evaluation stack. Two implementations are proposed, both non-intrusive and compatible with existing binary codes. The fundamental difference between these stacks lies in their manager: software or hardware. The hardware controlled evaluation stack offers support for advanced functions such as the support of strongly typed evaluation stacks required by. NET’s CIL. Thus, we propose a single pass CIL binary translator into EPIC binary, using the hardware evaluation stack. In the second part of this thesis, we studied the energy efficiency of software applications. First, we defined a methodology and developed tools to measure the energy consumption and the useful work provided by the software. In a second time, we engaged the study of source code transformation rules in order to reduce/control the quantity of consumed energy by the software
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Ghribi, Chaima. "Energy efficient resource allocation in cloud computing environments". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0035.

Texto completo
Resumen
L'informatique en nuage (Cloud Computing) a émergé comme un nouveau paradigme pour offrir des ressources informatiques à la demande et pour externaliser des infrastructures logicielles et matérielles. Le Cloud Computing est rapidement et fondamentalement en train de révolutionner la façon dont les services informatiques sont mis à disposition et gérés. Ces services peuvent être demandés à partir d'un ou plusieurs fournisseurs de Cloud d'où le besoin de la mise en réseau entre les composants des services informatiques distribués dans des emplacements géographiquement répartis. Les utilisateurs du Cloud veulent aussi déployer et instancier facilement leurs ressources entre les différentes plateformes hétérogènes de Cloud Computing. Les fournisseurs de Cloud assurent la mise à disposition des ressources de calcul sous forme des machines virtuelles à leurs utilisateurs. Par contre, ces clients veulent aussi la mise en réseau entre leurs ressources virtuelles. En plus, ils veulent non seulement contrôler et gérer leurs applications, mais aussi contrôler la connectivité réseau et déployer des fonctions et des services de réseaux complexes dans leurs infrastructures virtuelles dédiées. Les besoins des utilisateurs avaient évolué au-delà d'avoir une simple machine virtuelle à l'acquisition de ressources et de services virtuels complexes, flexibles, élastiques et intelligents. L'objectif de cette thèse est de permettre le placement et l'instanciation des ressources complexes dans des infrastructures de Cloud distribués tout en permettant aux utilisateurs le contrôle et la gestion de leurs ressources. En plus, notre objectif est d'assurer la convergence entre les services de cloud et de réseau. Pour atteindre ces objectifs, cette thèse propose des algorithmes de mapping d'infrastructures virtuelles dans les centres de données et dans le réseau tout en respectant les exigences des utilisateurs. Avec l'apparition du Cloud Computing, les réseaux traditionnels sont étendus et renforcés avec des réseaux logiciels reposant sur la virtualisation des ressources et des fonctions réseaux. En plus, le nouveau paradigme d'architecture réseau (SDN : Software Defined Networks) est particulièrement pertinent car il vise à offrir la programmation du réseau et à découpler, dans un équipement réseau, la partie plan de données de la partie plan de contrôle. Dans ce contexte, la première partie de la thèse propose des algorithmes optimaux (exacts) et heuristiques de placement pour trouver le meilleur mapping entre les demandes des utilisateurs et les infrastructures sous-jacentes, tout en respectant les exigences exprimées dans les demandes. Cela inclut des contraintes de localisation permettant de placer une partie des ressources virtuelles dans le même nœud physique. Ces contraintes assurent aussi le placement des ressources dans des nœuds distincts. Les algorithmes proposés assurent le placement simultané des nœuds et des liens virtuels sur l'infrastructure physique. Nous avons proposé aussi un algorithme heuristique afin d'accélérer le temps de résolution et de réduire la complexité du problème. L'approche proposée se base sur la technique de décomposition des graphes et la technique de couplage des graphes bipartis. Dans la troisième partie de la thèse, nous proposons un cadriciel open source (framework) permettant d'assurer la mise en réseau dynamique entre des ressources Cloud distribués et l'instanciation des fonctions réseau dans l'infrastructure virtuelle de l'utilisateur. Ce cadriciel permettra de déployer et d'activer les composants réseaux afin de mettre en place les demandes des utilisateurs. Cette solution se base sur un gestionnaire des ressources réseaux "Cloud Network Gateway Manager" et des passerelles logicielles permettant d'établir la connectivité dynamique et à la demande entre des ressources cloud et réseau [...]
Cloud computing has rapidly emerged as a successful paradigm for providing IT infrastructure, resources and services on a pay-per-use basis over the past few years. As, the wider adoption of Cloud and virtualization technologies has led to the establishment of large scale data centers that consume excessive energy and have significant carbon footprints, energy efficiency is becoming increasingly important for data centers and Cloud. Today data centers energy consumption represents 3 percent of all global electricity production and is estimated to further rise in the future. This thesis presents new models and algorithms for energy efficient resource allocation in Cloud data centers. The first goal of this work is to propose, develop and evaluate optimization algorithms of resource allocation for traditional Infrastructutre as a Service (IaaS) architectures. The approach is Virtual Machine (VM) based and enables on-demand and dynamic resource scheduling while reducing power consumption of the data center. This initial objective is extended to deal with the new trends in Cloud services through a new model and optimization algorithms of energy efficient resource allocation for hybrid IaaS-PaaS Cloud providers. The solution is generic enough to support different type of virtualization technologies, enables both on-demand and advanced resource provisioning to deal with dynamic resource scheduling and fill the gap between IaaS and PaaS services and create a single continuum of services for Cloud users. Consequently, in the thesis, we first present a survey of the state of the art on energy efficient resource allocation in cloud environments. Next, we propose a bin packing based approach for energy efficient resource allocation for classical IaaS. We formulate the problem of energy efficient resource allocation as a bin-packing model and propose an exact energy aware algorithm based on integer linear program (ILP) for initial resource allocation. To deal with dynamic resource consolidation, an exact ILP algorithm for dynamic VM reallocation is also proposed. This algorithm is based on VM migration and aims at constantly optimizing energy efficiency at service departures. A heuristic method based on the best-fit algorithm has also been adapted to the problem. Finally, we present a graph-coloring based approach for energy efficient resource allocation in the hybrid IaaS-PaaS providers context. This approach relies on a new graph coloring based model that supports both VM and container virtualization and provides on-demand as well as advanced resource reservation. We propose and develop an exact Pre-coloring algorithm for initial/static resource allocation while maximizing energy efficiency. A heuristic Pre-coloring algorithm for initial resource allocation is also proposed to scale with problem size. To adapt reservations over time and improve further energy efficiency, we introduce two heuristic Re-coloring algorithms for dynamic resource reallocation. Our solutions are generic, robust and flexible and the experimental evaluation shows that both proposed approaches lead to significant energy savings while meeting the users' requirements
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Huin, Nicolas. "Réseaux pilotés par logiciels efficaces en énergie". Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4080/document.

Texto completo
Resumen
Au cours des dernières années, la croissance des architectures de réseaux de télécommunication a rapidement augmenté pour suivre un trafic en plein essor. En outre, leur consommation d'énergie est devenue un enjeu Important, tant pour son impact économique qu'écologique. De multiples approches ont été proposées pour la réduire. Dans cette thèse, nous nous concentrons sur l'approche Energy Aware Routing (EAR) qui consiste à fournir un routage valide tout en diminuant le nombre d'équipements réseau actifs. Cependant, les réseaux actuels ne sont pas adaptés au déploiement de politiques vertes globales en raison de leur gestion distribuée et de la nature fermée des périphériques réseau actuels. Les paradigmes de Software Defined Network (SDN) et de Network Function Virtualization (NFV) promettent de faciliter le déploiement de politiques vertes. En effet, le premier sépare le plan de contrôle et de données et offre donc une gestion centralisée du réseau. Le second propose de découpler le logiciel et le matériel des fonctions réseau et permet une plus grande flexibilité dans la création et la gestion des services réseau. Dans cette thèse, nous nous concentrons sur les défis posés par ces paradigmes pour le déploiement de politiques EAR. Nous consacrons les deux premières parties aux SDNs. Nous étudions d'abord les contraintes de taille de table de routage causées par la complexité accrue des règles, puis le déploiement progressif de périphériques SDN dans un réseau actuel. Nous concentrons notre attention sur NFV dans la dernière partie, et plus particulièrement nous étudions les chaines de fonctions de services
In the recent years, the growth of the architecture of telecommunication networks has been quickly increasing to keep up with a booming traffic. Moreover, the energy consumption of these infrastructures is becoming a growing issue, both for its economic and ecological impact. Multiple approaches were proposed to reduce the networks' power consumption such as decreasing the number of active elements. Indeed, networks are designed to handle high traffic, e.g., during the day, but are over-provisioned during the night. In this thesis, we focus on disabling links and routers inside the network while keeping a valid routing. This approach is known as Energy Aware Routing (EAR). However current networks are not adapted to support the deployment of network-wide green policies due to their distributed management and the black-box nature of current network devices. The SDN and NFV paradigms bear the promise of bringing green policies to reality. The first one decouples the control and data plane and thus enable a centralized control of the network. The second one proposes to decouple the software and hardware of network functions and allows more flexibility in the creation and management of network services. In this thesis, we focus on the challenges brought by these two paradigms for the deployment of EAR policies. We dedicated the first two parts to the SDN paradigm. We first study the forwarding table size constraints due to an Increased complexity of rules. We then study the progressive deployment of SDN devices alongside legacy ones. We focus our attention on the NFV paradigm in the last part, and more particularly, we study the Service Function Chaining problem
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Haderer, Nicolas. "APISENSE® : une plate-forme répartie pour la conception, le déploiement et l’exécution de campagnes de collecte de données sur des terminaux intelligents". Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10118/document.

Texto completo
Resumen
Le mobile crowdsensing est une nouvelle forme de collecte de données exploitant la foule de terminaux intelligents déjà déployés à travers le monde pour collecter massivement des données environnementales ou comportementales d'une population.Ces dernières années, ce type de collecte de données a suscité l'intérêt d'un grand nombre d'acteurs industriels et académiques dans de nombreux domaines tels que l'étude de la mobilité urbaine, la surveillance de l'environnement, la santé ou l'étude des comportements socioculturels. Cependant, le mobile crowdsensing n'en n'est qu'à ses premiers stades de développement, et de nombreux défis doivent encore être relevés pour pleinement profiter de son potentiel. Ces défis incluent la protection de la vie privée des utilisateurs, les ressources énergétiques limitées des terminaux mobiles, la mise en place de modèles de récompense et de déploiement adaptés pour recruter les utilisateurs les plus à même de collecter les données désirées, ainsi que faire face à l’hétérogénéité des plateformes mobiles disponibles. Dans cette thèse, nous avons cherché à réétudier les architectures des systèmes dédiés au mobile crowdsensing pour adresser les limitations liées au développement, au déploiement et à l'exécution de campagnes de collecte de données. Les différentes contributions proposées sont articulées autour APISENSE, la plate-forme résultante des travaux de cette thèse. APISENSE a été utilisé pour réaliser une campagne de collecte de données déployée auprès d'une centaine d'utilisateurs au sein d'une étude sociologique, et évalué à travers des expériences qui démontrent la validité, l'efficacité et le passage à échelle de notre solution
Mobile crowdsensing is a new form of data collection that takes advantage of millions smart devices already deployed throughout the world to collect massively environmental or behavioral data from a population. Recently, this type of data collection has attracted interest from a large number of industrials and academic players in many areas, such as the study of urban mobility, environmental monitoring, health or the study of sociocultural attitudes. However, mobile crowdsensing is in its early stages of development, and many challenges remain to be addressed to take full advantage of its potential. These challenges include privacy, limited energy resources of devices, development of reward and recruitment models to select appropriates mobile users and dealing with heterogeneity of mobile platforms available. In this thesis, we aim to reconsider the architectural design of current mobile crowdsensing systems to provide a simple and effective way to design, deploy and manage data collection campaigns.The main contributions of this thesis are organize around APISENSE, the resulting platform of this research. APISENSE has been used to carry out a data collection campaign deployed over hundred of users in a sociological study and evaluated through experiments demonstrating the validity, effectiveness and scalability of our solution
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Lorandel, Jordane. "Etude de la consommation énergétique de systèmes de communications numériques sans fil implantés sur cible FPGA". Thesis, Rennes, INSA, 2015. http://www.theses.fr/2015ISAR0036/document.

Texto completo
Resumen
Les systèmes de communications sans fil n'ont cessé d'évoluer ces dernières années, poussés par de fortes demandes du marché en systèmes toujours plus autonomes et performants. Ainsi, de nouvelles contraintes de conception sont apparues de manière à mieux prendre en compte les aspects énergétiques et ainsi améliorer la durée de vie des batteries et des circuits. Actuellement, les systèmes de communications numériques sans fil consomment d'importantes quantités d'énergie. D'autre part, la complexité des systèmes croît de génération en génération afin de satisfaire toujours plus d'utilisateurs avec un haut niveau de performances. Dans ce contexte à fortes contraintes, les circuits de type FPGA apparaissent comme une technologie attractive, pouvant supporter des circuits numériques complexes grâce à leur grand nombre de ressources. Pour pouvoir concevoir les futurs systèmes de communications numériques sans fil sur ce type de circuit, les concepteurs de tels systèmes doivent pouvoir estimer la consommation et les performances au plus tôt dans la phase de conception. De cette façon, ils pourront explorer l'espace de conception et effectuer des choix d'implémentation afin d'optimiser leurs systèmes. Durant cette thèse, une méthodologie a été proposée dont les objectifs sont d'estimer rapidement et à haut niveau la consommation de leurs circuits implantés sur FPGA ainsi que leurs performances, d'explorer l'espace de conception, de comparer efficacement plusieurs systèmes entre eux, tout en assurant une bonne précision de l'estimation. La méthodologie repose sur une phase de caractérisation de composants IP matériels ainsi que de leur modélisation en Systeme. Dans un second temps, une représentation haut-niveau du système entier est réalisée à partir de la librairie des modèles Systeme de chaque IP. A travers des simulations haut-niveau, les utilisateurs peuvent tester rapidement de multiples configurations de leur système. Un des caractères innovants de l'approche repose sur l'utilisation de signaux clés qui permettent de tenir compte des comportements dynamiques des composants IP, c-à-d leur temps d'activité (actif/inactif), au sein du système et ainsi obtenir des estimations précises. Les nombreux gains de la méthodologie ont été démontrés à travers plusieurs exemples de systèmes de communications numériques sans fil comme une chaîne de traitement en bande de base de type SISO-OFDM générique, des émetteurs LTE etc. Pour conclure, les limitations ont été adressées et des solutions d'optimisation ont pu être envisagées puis mises en place
Wireless communication systems are still evolving since the last decades, driven by the growing demand of the electronic market for energy efficient and high performance devices. Thereby, new design constraints have appeared that aim at taking into account power consumption in order to improve battery-life of circuits. Current wireless communication systems commonly dissipate a lot of power. On the other hand, the complexity of such systems keeps on increasing through the generations to always satisfy more users at a high degree of performance. In this highly constrained context, FPGA devices seem to be an attractive technology, able to support complex systems thanks to their important number of resources. According to the FPGA nature, designers need to estimate the power consumption and the performance of their wireless communication systems as soon as possible in the design flow. In this way, they will be able to perform efficient design space exploration and make decisive implementation and optimization choices. Throughout this thesis, a power estimation methodology for hardware-focused FPGA device is described and aims at making design space exploration a lot easier, providing early and fast power and performance estimation at high-level. It also proposes an efficient way to efficiently compare several systems. The methodology is effective through an lP characterisation step and the development of their SystemC models. Then, a high level description of the entire system is realized from the SystemC models that have been previously developed. High-level simulations enable to check the functionality and evaluate the power and performance of the system. One of the contributions consists in monitoring the JP time-activities during the simulation. We show that this has an important impact on both power and performances. The effectiveness of the methodology has been demonstrated throughout several baseband processing chains of the wireless communication domain such as a SISO-OFDM generic chain, LTE transmitters etc. To conclude, the main limitations of the proposed methodology have been investigated and addressed
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Gbaguidi, Fréjus A. Roméo. "Approche prédictive de l'efficacité énergétique dans les Clouds Datacenters". Electronic Thesis or Diss., Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1163.

Texto completo
Resumen
Avec la démocratisation des technologies du numérique, la construction d'un cyberespace globalisé s'est faite insidieusement, transformant littéralement notre mode de vie et notre vécu quotidien. Faire communiquer plus de 4 milliards d'individus à une vitesse devenue incontrôlable, nécessite l'invention de nouveaux concepts pour la production des services informatiques capable de s'adapter à ce défis. Le Cloud Computing, dans cette optique permet de fournir à travers des Datacenters, une partie ou la totalité des composants nécessaires aux entreprises pour la délivrance de leurs services dans les délais et avec des performances conformes aux exigences de leurs clients. Dès lors, la prolifération conséquente des Datacenters aux quatre coins du monde a mis au jour la préoccupante question de la quantité d'énergie nécessaire pour leur fonctionnement et la difficulté qui en résulte pour l'humanité dont les réserves actuelles ne sont pas extensibles à l'infini. Ainsi, il est apparu nécessaire de développer des techniques permettant de réduire la consommation électrique des Datacenters en minimisant les pertes d'énergie orchestrées sur les serveurs dont le moindre watt gaspillé entraine par effet de cascade une augmentation substantielle de la facture globale des Datacenters. Notre travail a consisté à faire dans un premier temps une revue de la littérature sur le sujet, puis de tester la capacité de quelques outils de prédiction à améliorer l'anticipation des risques de pertes d'énergie engendrer par la mauvaise allocation des machines virtuelles sur les serveurs. Cette étude s'est focalisée notamment sur les outil ARMA et les réseaux de neurones qui dans la littérature ont produit des résultats intéressants dans des domaines proches. Après cette étape, il nous est apparu que les outils ARMA bien qu'ayant des performances inférieures aux réseaux de neurones dans notre contexte, s'exécute dans plus rapidement et sont les plus adaptés pour être implémenter dans les environnements de Cloud Computing. Ainsi, nous avons utilisé les résultats de cette méthode pour améliorer le processus de prise de décision, notamment pour la re-allocation proactive des machines virtuelles avant qu'il n'entraine des sous-consommations des ressources sur les serveurs physiques ou des surconsommation pouvant induire des violations des accords de niveaux de service. Cette démarche a permis sur la base de nos simulations de réduire de plus de 5Kwh la consommation d'énergie dans une ferme de 800 serveurs et sur une durée d'une journée. Ce gain pourrait se révéler important lorsque l'on considère la taille énorme des datacenters modernes et que l'on se projette dans une durée relativement longue. Il serait encore plus intéressant d'approfondir cette recherche afin de généraliser l'intégration de cette approche prédictive dans les techniques existantes afin d'optimiser de façon significative les consommations d'énergie au sein des Datacenters tout en préservant les performances et la qualité de service indispensable dans le concept de Cloud Computing
With the democratization of digital technologies, the construction of a globalized cyberspace insidiously transforms our lifestyle. Connect more than 4 billion people at high speed, requires the invention of new concept of service provision and trafic management that are capable to face the challenges. For that purpose, Cloud Computing have been set up to enable Datacenters to provide part or total IT components needed by companies for timely services delivering with performance that meets the requirements of their clients. Consequently, the proliferation of Datacenters around the world has brought to light the worrying question about the amount of energy needed for their function and the resulting difficulty for the humanity, whose current reserves are not extensible indefinitely. It was therefore necessary to develop techniques that reduce the power consumption of Datacenters by minimizing the energy losses orchestrated on servers where each wasted watt results in a chain effect on a substantial increase in the overall bill of Datacenters. Our work consisted first in making a review of the literature on the subject and then testing the ability of some prediction tools to improve the anticipation of the risks of energy loss caused by the misallocation of virtual equipment on servers. This study focused particularly on the ARMA tools and neural networks which in the literature have produced interesting results in related fields. After this step, it appeared to us that ARMA tools, although having less performance than neural networks in our context, runs faster and are best suited to be implemented in cloud computing environments. Thus, we used the results of this method to improve the decision-making process, notably for the proactive re-allocation of virtual equipment before it leads to under-consumption of resources on physical servers or over-consumption inducing breaches of SLAs. Based on our simulations, this approach enabled us to reduce energy consumption on a firm of 800 servers over a period of one day by more than 5Kwh. This gain could be significant when considering the enormous size of modern data centers and projected over a relatively long period of time. It would be even more interesting to deepen this research in order to generalize the integration of this predictive approach into existing techniques in order to significantly optimize the energy consumption within Datacenters while preserving performance and quality of service which are key requirements in the concept of Cloud Computing
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Dogeas, Konstantinos. "Energy Minimization, Data Movement and Uncertainty : Models and Algorithms". Electronic Thesis or Diss., Sorbonne université, 2022. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2022SORUS070.pdf.

Texto completo
Resumen
Les plateformes de calcul haute performance (HPC) sont la solution idéale pour exécuter des applications exigeantes en termes de calcul. Étant donné leur consommation importante en énergie, le besoin d'algorithmes plus efficaces en termes d'énergie est indispensable. De meilleurs algorithmes d'ordonnancement peuvent être conçus en exploitant les caractéristiques essentielles d'une plateforme HPC, telles que sa topologie de réseau et l'hétérogénéité de ses machines. On peut également obtenir de meilleures performances en concevant des modèles plus réalistes, qui saisissent les fonctionnalités d'applications réelles. Ainsi, permettre aux algorithmes d’ordonnancement de décider de la quantité de ressources allouées à une application, ou de la vitesse d'exécution des machines, peut ouvrir la voie à de nouvelles implémentations compatibles avec la plateforme. Dans la première partie de la thèse, nous introduisons un modèle qui prend en compte à la fois la topologie et l'hétérogénéité d'une plateforme en introduisant deux types de machines. Nous augmentons le problème d'ordonnancement avec des contraintes dont le but est de réduire implicitement le mouvement des données pendant l'exécution des tâches sur des machines parallèles, et lors de la communication avec le système de fichiers. Nous proposons des algorithmes qui ordonnancent les tâches au cours du temps, et décident du nombre de ressources allouées à une tâche, en tenant compte de ces contraintes supplémentaires. Dans la deuxième partie de la thèse, on s'intéresse à l'incertitude liée à la charge de travail d'une application, cette charge étant directement liée au temps nécessaire à son exécution. La plupart des travaux de la littérature considèrent cette valeur connue à l'avance. C'est cependant rarement le cas dans les systèmes réels. Dans notre approche, la charge de travail donnée est une charge possible mais qui peut éventuellement être réduite. On introduit alors des tests spécifiques à l'application qui peuvent réduire la charge de travail d'une tâche. Étant donné que le test (par exemple, la compression) doit également être exécuté, et que la quantité de réduction (par exemple, la taille) est inconnue avant la fin du test, la décision d'exécuter ou non le test pour une tâche doit être prise. On propose des algorithmes compétitifs pour le problème d'ordonnancement de telles tâches, dans le but de minimiser l'énergie consommée par un ensemble de machines pour lesquelles on peut modifier la vitesse. Dans la troisième partie de la thèse, nous nous intéressons à un contexte similaire d'entrées incertaines et nous considérons un modèle dans lequel les temps d’exécution des tâches ne sont pas connus à l'avance. Nous augmentons l'entrée du problème en introduisant des valeurs prédites des temps d'exécution.Nous concevons alors des algorithmes qui ont d'excellentes performances lorsque les prédictions sont exactes, tout en restant compétitifs lorsque les prédictions se révèlent inexactes
High performance computers (HPCs) is the go-to solution for running computationally demanding applications. As the limit of energy consumption is already achieved, the need for more energy efficient algorithms is critical.Taking advantage of the core characteristics of an HPC, such as its network topology and the heterogeneity of the machines, could lead to better scheduling algorithms. In addition, designing more realistic models, that grasp the features of real-life applications, is a work in the same direction of achieving better performance. Allowing scheduling algorithms to decide either the amount of resources allocated to an application or the running speed of the resources can pave the path to new platform-aware implementations. In the first part of the thesis, we introduce a model which takes into account both the topology and the heterogeneity of a platform by introducing two kind of machines. We augment the scheduling problem with constraints whose purpose is to implicitly reduce data movement either during parallel execution or during the communication with the file system. We propose algorithms that can decide the number of resources allocated to an application taking into consideration the extra constraints.In the second part of the thesis, we deal with the uncertainty on part of the input and more specifically, the workload of an application, that is strictly related to the time needed for its completion. Most works in the literature consider this value known in advance. However, this is rarely the case in real-life systems.In our approach, the given workload is a worst case scenario for the execution of an application. We introduce application-specific tests that may decrease the workload of a task.Since the test (e.g. compression) takes some time, and since the amount of reduction (e.g. in size) is unknown before the completion of the test, the decision of running the test for a task or not has to be taken. We propose competitive algorithms for the problem of scheduling such tasks, in order to minimize the energy consumed in a set of speed-adjustable machines. In the third part of the thesis, we focus on a similar setting of uncertain input and we consider a model where the processing times are not known in advance. Here, we augment the input of the problem by introducing predicted values in place of the unknown processing times. We design algorithms that perform optimally when the predictions are accurate while remaining competitive to the best known ones otherwise
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Douchet, Fabien. "Optimisation énergétique de data centers par utilisation de liquides pour le refroidissement des baies informatiques". Thesis, Lorient, 2015. http://www.theses.fr/2015LORIS386/document.

Texto completo
Resumen
Les data centers sont des infrastructures qui hébergent un grand nombre d’équipements informatiques. Plus de 99% de la puissance électrique consommée par les composants électroniques est transformée en chaleur. Pour assurer leur bon fonctionnement il est donc nécessaire de les refroidir. Cette opération est majoritairement réalisée par l’emploi de systèmes de climatisation à air très énergivores. De plus, la densité de puissance dissipée au sein des baies informatiques est en augmentation permanente. Nous arrivons alors aux limites de l’utilisation de l’air comme fluide caloporteur pour le refroidissement. Les études réalisées durant cette thèse concernent l’amélioration de l’efficacité énergétique des systèmes de refroidissement des baies électroniques par l’exploitation de liquides comme fluides caloporteurs. Cette approche permet de bénéficier de coefficients d’échanges thermiques et de capacités de refroidissement plus importants, avec des perspectives plus viables pour la revalorisation de la chaleur issue des data centers.Durant la thèse, quatre solutions de refroidissement ont été évaluées. Des expérimentations ont été menées à l’échelle de serveurs et d’une baie informatique. Une instrumentation conséquente permet de mettre en évidence le bon refroidissement des composants et de déterminer des indicateurs d’efficacité énergétique des systèmes étudiés. A partir des résultats expérimentaux, deux modèles numériques sont développés par une approche nodale et une identification des paramètres par méthode inverse. Ces modèles pourront être dupliqués à l’échelle d’une salle informatique afin de quantifier les gains potentiels de deux solutions de refroidissement liquide
Data centers are facilities that house a large numbers of computer equipment. More than 99% of the electrical power consumed by the electronic components is converted into heat. To ensure their good working, it is necessary to keep them under their recommended temperatures. This is mainly achieved by the use of air conditioning systems which consume a lot of electrical power. In addition, the power density of computer racks is constantly increasing. So the limits of air as a coolant for electronic equipment cooling are reached.Studies conducted during this thesis concern the improvement of energy efficiency of cooling systems for electronic rack by using liquids as heat transfer fluids. This approach gives higher heat exchange coefficients and larger cooling capacity with more viable aspects for the recovering of heat from data centers.Four cooling solutions are evaluated. Experiments are conducted on several servers and on a computer rack. A consistent instrumentation helps to highlight the efficiency of components cooling and allows us to identify energy efficiency indicators of the studied systems. From the experimental results, two numerical models are developed by a nodal approach and a parameter identification by inverse method is carried out. These models can be duplicated at the scale of a data center room in order to quantify the potential gains of two liquid cooling solutions
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Guzzo, Natale. "Facing the real challenges in wireless sensor network-based applications : an adaptative cross-layer self-organization WSN protocol". Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10190.

Texto completo
Resumen
Le réseau de capteurs sans fil (WSN) est un des protagonistes contribuant à l’évolution et au développement de l’Internet des objets (IoT). Plusieurs cas d’usage peuvent être trouvés dans les différents domaines comme l’industrie du transport maritime où le fret conteneurisé compte environ pour 60% du commerce mondial. Dans ce contexte, la société TRAXENS a développé un dispositif radio alimenté par batterie appelé TRAX-BOX et conçu pour être fixé aux containeurs dans l’objectif de les traquer et les surveiller tout au long de la chaine logistique. Dans cette thèse, je vais présenter une nouvelle pile protocolaire WSN appelée TRAX-NET et conçue pour permettre aux TRAX-BOX de s’auto-organiser dans un réseau sans fil et coopérer pour délivrer les données acquises au serveur TRAXENS d’une façon énergiquement efficiente. Les résultats des simulations et des tests sur le terrain montrent que TRAX-NET est bien optimisé pour les différents scenarios pour lesquels il a été développé et satisfait les exigences de l’application concernée mieux que les autres solutions étudiées dans la littérature. TRAX-NET est une solution complète et adaptée au suivi des conteneurs de fret de par le monde
Wireless Sensor Networks (WSN) is one of the protagonists contributing to the evolution and the development of the Internet of Things (IoT). Several use cases can be found today in the different fields of the modern technology including the container shipping industry where containerized cargo accounts for about 60 percent of all world seaborne trade. In this context, TRAXENS developed a battery-powered device named TRAX-BOX designed to be attached to the freight containers in order to track and monitor the shipping goods along the whole supply chain. In this thesis, we present a new energy-efficient self-organizing WSN protocol stack named TRAX-NET designed to allow the TRAX-BOX devices to cooperate to deliver the sensed data to the TRAXENS platform.The results of simulations and field tests show that TRAX-NET well perform in the different scenarios in which it is supposed to operate and better fulfil the requirements of the assumed application in comparison with the existing schemes
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Wanza, Weloli Joël. "Modélisation, simulation de différents types d’architectures de noeuds de calcul basés sur l’architecture ARM et optimisés pour le calcul haute-performance". Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4042.

Texto completo
Resumen
Ce travail s’inscrit dans le cadre de la famille de projets Européens Mont-Blanc dont l’objectif est de développer la prochaine génération de systèmes Exascale. Il s’intéresse particulièrement à la question de l’efficacité énergétique, d’abord au niveau micro-architectural en considérant l’utilisation de nœuds de calcul basés sur l’Armv8-A 64-bit associée à une topologie SoC pertinente, puis en examinant les aspects exécutifs notamment par une étude de stratégies de gestion énergétique (power management) mieux adaptées à des contraintes de traitement massivement parallèle. Une méthodologie d’exploration architecturale capable de supporter la simulation de larges clusters de calcul parallèle est définie et exploitée pour proposer, développer et évaluer des modèles multi-SoC et de réseaux de communication associés (SoC Coherent Interconnect, SCI). Cette démarche est ensuite poursuivie pour définir une architecture Exascale permettant de réduire globalement la complexité et les coûts de développement en dégradant le moins possible les performances. Le partitionnement de la puce permet ainsi des possibilités intéressantes au niveau technologique telles que l’intégration de nœuds supplémentaires basée sur des technologies System-in-Package (interposer), ou 3D Through Silicon Vias (TSVs) et High Memory Bandwidth (HBM). En second lieu, les aspects énergétiques sont abordés plus directement par l’étude de politiques de gestion énergétique existantes et en proposant deux stratégies pour permettre réduire la consommation en préservant les performance. La première exploite une perception applicative plus fine pour ajuster la fréquence de nombreuses tâches parallèles et mieux équilibrer leurs temps d’exécution. La seconde stratégie réduit la fréquence des coeurs aux points de synchronisation des tâches pour limiter les fonctionnements inutiles à pleine puissance. Les résultats d’expérimentation obtenus avec ces stratégies, à la fois en simulation et sur plateforme réelle, montrent les possibilités offertes par cette approche pour répondre aux fortes contraintes des plateformes pre-exascale sur le plan énergétique
This work is part of a family of European projects called Mont-Blanc whose objective is to develop the next generation of Exascale systems. It addresses specifically the issue of energy efficiency, at micro-architectural level first by considering the use of 64-bit Armv8-A based compute nodes and an associated relevant SoC topology, and examine also the runtime aspects with notably the study of power management strategies that can be better suited to the constraints of HPC highly parallel processing. A design space exploration methodology capable of supporting the simulation of large manycore computing clusters is developped and lead to propose, design and evaluate multi-SoC and their associated SoC Coherent Interconnect models (SCI). This approach is then used to define a pre-exascale architecture allowing to globally reduce the complexity and cost of chip developments without sacrifying performances. The resulting partitioning scheme introduces interesting perspectives at technology level such as the integration of more compute nodes directly on an interposer based System-in-Package (SiP), possibly based on 3D Through Silicon Vias (TSVs) using High Memory Bandwidth (HBM). Energy efficiency is addressed more directly in second instance by studying current power management policies and proposing two strategies to help reducing power while preserving performances. The first one exploits finer application execution knowledge to adjust the frequency of extensive parallel threads and better balance their execution time. The second strategy reduces core frequencies at synchronisation points of jobs to avoid running the cores at full speed while it is not necessary. Experiment results with these strategies, both in simulation and real hardware, show the possibilities offered par this approach to address the strong requirements of Exascale platforms
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Ghribi, Chaima. "Energy efficient resource allocation in cloud computing environments". Thesis, Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0035/document.

Texto completo
Resumen
L'informatique en nuage (Cloud Computing) a émergé comme un nouveau paradigme pour offrir des ressources informatiques à la demande et pour externaliser des infrastructures logicielles et matérielles. Le Cloud Computing est rapidement et fondamentalement en train de révolutionner la façon dont les services informatiques sont mis à disposition et gérés. Ces services peuvent être demandés à partir d'un ou plusieurs fournisseurs de Cloud d'où le besoin de la mise en réseau entre les composants des services informatiques distribués dans des emplacements géographiquement répartis. Les utilisateurs du Cloud veulent aussi déployer et instancier facilement leurs ressources entre les différentes plateformes hétérogènes de Cloud Computing. Les fournisseurs de Cloud assurent la mise à disposition des ressources de calcul sous forme des machines virtuelles à leurs utilisateurs. Par contre, ces clients veulent aussi la mise en réseau entre leurs ressources virtuelles. En plus, ils veulent non seulement contrôler et gérer leurs applications, mais aussi contrôler la connectivité réseau et déployer des fonctions et des services de réseaux complexes dans leurs infrastructures virtuelles dédiées. Les besoins des utilisateurs avaient évolué au-delà d'avoir une simple machine virtuelle à l'acquisition de ressources et de services virtuels complexes, flexibles, élastiques et intelligents. L'objectif de cette thèse est de permettre le placement et l'instanciation des ressources complexes dans des infrastructures de Cloud distribués tout en permettant aux utilisateurs le contrôle et la gestion de leurs ressources. En plus, notre objectif est d'assurer la convergence entre les services de cloud et de réseau. Pour atteindre ces objectifs, cette thèse propose des algorithmes de mapping d'infrastructures virtuelles dans les centres de données et dans le réseau tout en respectant les exigences des utilisateurs. Avec l'apparition du Cloud Computing, les réseaux traditionnels sont étendus et renforcés avec des réseaux logiciels reposant sur la virtualisation des ressources et des fonctions réseaux. En plus, le nouveau paradigme d'architecture réseau (SDN : Software Defined Networks) est particulièrement pertinent car il vise à offrir la programmation du réseau et à découpler, dans un équipement réseau, la partie plan de données de la partie plan de contrôle. Dans ce contexte, la première partie de la thèse propose des algorithmes optimaux (exacts) et heuristiques de placement pour trouver le meilleur mapping entre les demandes des utilisateurs et les infrastructures sous-jacentes, tout en respectant les exigences exprimées dans les demandes. Cela inclut des contraintes de localisation permettant de placer une partie des ressources virtuelles dans le même nœud physique. Ces contraintes assurent aussi le placement des ressources dans des nœuds distincts. Les algorithmes proposés assurent le placement simultané des nœuds et des liens virtuels sur l'infrastructure physique. Nous avons proposé aussi un algorithme heuristique afin d'accélérer le temps de résolution et de réduire la complexité du problème. L'approche proposée se base sur la technique de décomposition des graphes et la technique de couplage des graphes bipartis. Dans la troisième partie de la thèse, nous proposons un cadriciel open source (framework) permettant d'assurer la mise en réseau dynamique entre des ressources Cloud distribués et l'instanciation des fonctions réseau dans l'infrastructure virtuelle de l'utilisateur. Ce cadriciel permettra de déployer et d'activer les composants réseaux afin de mettre en place les demandes des utilisateurs. Cette solution se base sur un gestionnaire des ressources réseaux "Cloud Network Gateway Manager" et des passerelles logicielles permettant d'établir la connectivité dynamique et à la demande entre des ressources cloud et réseau [...]
Cloud computing has rapidly emerged as a successful paradigm for providing IT infrastructure, resources and services on a pay-per-use basis over the past few years. As, the wider adoption of Cloud and virtualization technologies has led to the establishment of large scale data centers that consume excessive energy and have significant carbon footprints, energy efficiency is becoming increasingly important for data centers and Cloud. Today data centers energy consumption represents 3 percent of all global electricity production and is estimated to further rise in the future. This thesis presents new models and algorithms for energy efficient resource allocation in Cloud data centers. The first goal of this work is to propose, develop and evaluate optimization algorithms of resource allocation for traditional Infrastructutre as a Service (IaaS) architectures. The approach is Virtual Machine (VM) based and enables on-demand and dynamic resource scheduling while reducing power consumption of the data center. This initial objective is extended to deal with the new trends in Cloud services through a new model and optimization algorithms of energy efficient resource allocation for hybrid IaaS-PaaS Cloud providers. The solution is generic enough to support different type of virtualization technologies, enables both on-demand and advanced resource provisioning to deal with dynamic resource scheduling and fill the gap between IaaS and PaaS services and create a single continuum of services for Cloud users. Consequently, in the thesis, we first present a survey of the state of the art on energy efficient resource allocation in cloud environments. Next, we propose a bin packing based approach for energy efficient resource allocation for classical IaaS. We formulate the problem of energy efficient resource allocation as a bin-packing model and propose an exact energy aware algorithm based on integer linear program (ILP) for initial resource allocation. To deal with dynamic resource consolidation, an exact ILP algorithm for dynamic VM reallocation is also proposed. This algorithm is based on VM migration and aims at constantly optimizing energy efficiency at service departures. A heuristic method based on the best-fit algorithm has also been adapted to the problem. Finally, we present a graph-coloring based approach for energy efficient resource allocation in the hybrid IaaS-PaaS providers context. This approach relies on a new graph coloring based model that supports both VM and container virtualization and provides on-demand as well as advanced resource reservation. We propose and develop an exact Pre-coloring algorithm for initial/static resource allocation while maximizing energy efficiency. A heuristic Pre-coloring algorithm for initial resource allocation is also proposed to scale with problem size. To adapt reservations over time and improve further energy efficiency, we introduce two heuristic Re-coloring algorithms for dynamic resource reallocation. Our solutions are generic, robust and flexible and the experimental evaluation shows that both proposed approaches lead to significant energy savings while meeting the users' requirements
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Bonamy, Robin. "Modélisation, exploration et estimation de la consommation pour les architectures hétérogènes reconfigurables dynamiquement". Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00931849.

Texto completo
Resumen
L'utilisation des accélérateurs reconfigurables, pour la conception de system-on-chip hétérogènes, offre des possibilités intéressantes d'augmentation des performances et de réduction de la consommation d'énergie. En effet, ces accélérateurs sont couramment utilisés en complément d'un (ou de plusieurs) processeur(s) pour permettre de décharger celui-ci (ceux-ci) des calculs intensifs et des traitements de flots de données. Le concept de reconfiguration dynamique, supporté par certains constructeurs de FPGA, permet d'envisager des systèmes beaucoup plus flexibles en offrant notamment la possibilité de séquencer temporellement l'exécution de blocs de calcul sur la même surface de silicium, réduisant alors les besoins en ressources d'exécution. Cependant, la reconfiguration dynamique n'est pas sans impact sur les performances globales du système et il est difficile d'estimer la répercussion des décisions de configuration sur la consommation d'énergie. L'objectif principal de cette thèse consiste à proposer une méthodologie d'exploration permettant d'évaluer l'impact des choix d'implémentation des différentes tâches d'une application sur un system-on-chip contenant une ressource reconfigurable dynamiquement, en vue d'optimiser la consommation d'énergie ou le temps d'exécution. Pour cela, nous avons établi des modèles de consommation des composants reconfigurables, en particulier les FPGAs, qui permettent d'aider le concepteur dans son design. À l'aide d'une méthodologie de mesure sur Virtex-5, nous montrons dans un premier temps qu'il est possible de générer des accélérateurs matériels de tailles variées ayant des performances temporelles et énergétiques diverses. Puis, afin de quantifier les coûts d'implémentation de ces accélérateurs, nous construisons trois modèles de consommation de la reconfiguration dynamique partielle. Finalement, à partir des modèles définis et des accélérateurs produits, nous développons un algorithme d'exploration des solutions d'implémentation pour un système complet. En s'appuyant sur une plate-forme de modélisation à haut niveau, celui-ci analyse les coûts d'implémentation des tâches et leur exécution sur les différentes ressources disponibles (processeur ou région configurable). Les solutions offrant les meilleures performances en fonction des contraintes de conception sont retenues pour être exploitées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Cuadrado-Cordero, Ismael. "Microclouds : an approach for a network-aware energy-efficient decentralised cloud". Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S003/document.

Texto completo
Resumen
L'architecture actuelle du cloud, reposant sur des datacenters centralisés, limite la qualité des services offerts par le cloud du fait de l'éloignement de ces datacenters par rapport aux utilisateurs. En effet, cette architecture est peu adaptée à la tendance actuelle promouvant l'ubiquité du cloud computing. De plus, la consommation énergétique actuelle des data centers, ainsi que du cœur de réseau, représente 3% de la production totale d'énergie, tandis que selon les dernières estimations, seulement 42,3% de la population serait connectée. Dans cette thèse, nous nous intéressons à deux inconvénients majeurs des clouds centralisés: la consommation d'énergie ainsi que la faible qualité de service offerte. D'une part, du fait de son architecture centralisée, le cœur de réseau consomme plus d'énergie afin de connecter les utilisateurs aux datacenters. D'autre part, la distance entre les utilisateurs et les datacenters entraîne une utilisation accrue du réseau mondial à large bande, menant à des expériences utilisateurs de faible qualité, particulièrement pour les applications interactives. Une approche semi-centralisée peut offrir une meilleur qualité d'expérience aux utilisateurs urbains dans des réseaux clouds mobiles. Pour ce faire, cette approche confine le traffic local au plus proche de l'utilisateur, tout en maintenant les caractéristiques centralisées s’exécutant sur les équipements réseaux et utilisateurs. Dans cette thèse, nous proposons une nouvelle architecture de cloud distribué, basée sur des "microclouds". Des "microclouds" sont créés de manière dynamique, afin que les ressources utilisateurs provenant de leurs ordinateurs, téléphones ou équipements réseaux puissent être mises à disposition dans le cloud. De ce fait, les microclouds offrent un système dynamique, passant à l'échelle, tout en évitant d’investir dans de nouvelles infrastructures. Nous proposons également un exemple d'utilisation des microclouds sur un cas typique réel. Par simulation, nous montrons que notre approche permet une économie d'énergie pouvant atteindre 75%, comparée à une approche centralisée standard. En outre, nos résultats indiquent que cette architecture passe à l'échelle en terme du nombre d'utilisateurs mobiles, tout en offrant une bien plus faible latence qu'une architecture centralisée. Pour finir, nous analysons comment inciter les utilisateurs à partager leur ressources dans les clouds mobiles et proposons un nouveau mécanisme d'enchère adapté à l'hétérogénéité et la forte dynamicité de ces systèmes. Nous comparons notre solution aux autres mécanismes d’enchère existants dans des cas d'utilisations typiques au sein des clouds mobiles, et montrons la pertinence de notre solution
The current datacenter-centralized architecture limits the cloud to the location of the datacenters, generally far from the user. This architecture collides with the latest trend of ubiquity of Cloud computing. Also, current estimated energy usage of data centers and core networks adds up to 3% of the global energy production, while according to latest estimations only 42,3% of the population is connected. In the current work, we focused on two drawbacks of datacenter-centralized Clouds: Energy consumption and poor quality of service. On the one hand, due to its centralized nature, energy consumption in networks is affected by the centralized vision of the Cloud. That is, backbone networks increase their energy consumption in order to connect the clients to the datacenters. On the other hand, distance leads to increased utilization of the broadband Wide Area Network and poor user experience, especially for interactive applications. A distributed approach can provide a better Quality of Experience (QoE) in large urban populations in mobile cloud networks. To do so, the cloud should confine local traffic close to the user, running on the users and network devices. In this work, we propose a novel distributed cloud architecture based on microclouds. Microclouds are dynamically created and allow users to contribute resources from their computers, mobile and network devices to the cloud. This way, they provide a dynamic and scalable system without the need of an extra investment in infrastructure. We also provide a description of a realistic mobile cloud use case, and the adaptation of microclouds on it. Through simulations, we show an overall saving up to 75% of energy consumed in standard centralized clouds with our approach. Also, our results indicate that this architecture is scalable with the number of mobile devices and provide a significantly lower latency than regular datacenter-centralized approaches. Finally, we analyze the use of incentives for Mobile Clouds, and propose a new auction system adapted to the high dynamism and heterogeneity of these systems. We compare our solution to other existing auctions systems in a Mobile Cloud use case, and show the suitability of our solution
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Dominici, Michele. "Contributing to energy efficiency through a user-centered smart home". Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00869455.

Texto completo
Resumen
Smart homes are residences equipped with information and communication technologies that anticipate and respond to the needs of the occupants. Despite the numerous research and industrial efforts, today only few expensive smart homes have been built and sold. The reason behind this slow uptake is the technology-driven approach characterizing existing solutions. The doctoral Thesis aims at demonstrating that a smart home can provide functionalities designed with a user-centered approach, taking into account ergonomic considerations about domestic activity and human cognition. This is achieved in collaboration with cognitive ergonomists, which help "minding the gap" between human context and machine-understandable context. Using off-the-shelf and lightweight instrumentation (also minimizing privacy concerns), extending existing context modeling, reasoning and management tools and following the Ubiquitous Computing principles, the doctoral work led to the following achievements: (i) the inter-disciplinary design of suitable functionalities, in collaboration with cognitive ergonomists; (ii) the design of a context-aware system that captures and reasons about uncertain contextual information in a distributed fashion; (ii) the realization of a working prototype that demonstrates the provision of energy-saving and comfort-preserving functionalities.
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Deddy, Bezeid. "Conception thermique d’une paroi complexe de datacentre pour une optimisation énergétique". Lorient, 2012. http://www.theses.fr/2012LORIS274.

Texto completo
Resumen
La réduction de la consommation énergétique des bâtiments de télécommunications constitue un challenge international que les principaux opérateurs de télécommunications, et les acteurs majeurs de l'internet vont devoir relever. En effet, ces bâtiments possèdent une forte densité d'équipements électroniques et donc des apports thermiques très importants. Il est ainsi nécessaire de recourir à des systèmes de climatisation conséquents et énergivores pour maintenir les conditions ambiantes (température et humidité de l’air) dans des plages fixées par les normes. Une des approches possibles pour limiter les puissances installées des dispositifs de climatisation est d’écrêter les pics de température des ambiances intérieures en agissant sur la capacité de stockage de la chaleur des murs et en adoptant une gestion « jour-nuit » des systèmes. Ainsi, dans le cadre de cette thèse des études expérimentales et numériques ont été menées afin de disposer d’un outil de simulation dédié à la prédiction de la température ambiante dans une salle de datacentre. Dans une première étape, les réponses en température de deux maquettes de volume intérieur 1 m3 sont suivies et simulées dans différentes conditions de test. L’inertie thermique est augmentée par l’intégration de matériaux à changement de phase MCP (paraffine micro-encapsulée) dans du béton. A partir d’expériences et de mesures des propriétés thermophysiques, un modèle thermique représentatif de la conduction monodimensionnelle dans les parois est développé et validé. A partir de ces études, un composant spécifique, représentatif d’une paroi multicouche avec MCP, est développé et couplé au Type 56 de TRNSYS. Ces développements sur TRNSYS sont alors appliqués à l’étude d’un site réel « datacentre ». Après une confrontation à des données expérimentales, différentes configurations de parois destinées à améliorer l’inertie thermique sont évaluées par le biais de simulation
The reduction of energy consumption for telecommunication buildings is an international challenge for main telecommunication operators and principal actors of internet. Indeed, in these buildings there are electronics equipment with a strong power density and thus a very important thermal contribution. Therefore it is necessary to use large air-conditioning systems in order to maintain ambient conditions (temperature and relative humidity of the air) in fixed ranges. One possible approach for limit installed air conditioning systems is to clip the peaks of internal temperature by using a heat storage in the wall and by adopting a night cool storage directly in the masonry. In this thesis, the study describes a numerical and experimental study in order to define new conceptions of optimized telecommunication buildings. Walls are used in order to increased heat transfer and reduced cooling energy consumption. In the first step, the temperature response of the internal volume 1 m3 were followed and simulated under different test conditions. The thermal inertia is increased by incorporating phase change materials (PCM microencapsulated paraffin) in concrete. From experience and measurements of thermophysical properties, a one dimensional thermal model conduction that represents heat transfer in the walls were developed and validated. From these studies, a specific component, representative of a multilayer wall with PCM, is developed and coupled to TRNSYS Type 56. These TRNSYS developments are then applied to the study of a real "data center" site. After confrontation with experimental data, different configurations of walls have been studied in order to improve thermal inertia. New building architectures are proposed in order to reduce cooling energy consumption
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Kaced, Yazid. "Études du refroidissement par free cooling indirect d’un bâtiment exothermique : application au centre de données". Thesis, Lorient, 2018. http://www.theses.fr/2018LORIS499/document.

Texto completo
Resumen
Un centre de données est un site comportant des salles hébergeant un grand nombre d’équipements informatiques. Le fonctionnement de ces équipements informatiques induit des apports de chaleur très conséquents qui doivent être compensés par des systèmes de refroidissement. En effet, les normes imposent des plages restreintes de température et d’humidité dans les salles qui induisent de fortes consommations d’énergie. Il est donc nécessaire de développer et d’optimiser des solutions moins énergivores. Le refroidissement par free cooling consiste à refroidir les équipements en exploitant les conditions climatiques favorables. Les travaux réalisés durant cette thèse s’appuient sur une expérimentation menée dans des conditions climatiques réelles au sein d’un bâtiment. Il s’agit d’étudier le refroidissement de baies informatiques. Pour mettre en place un refroidissement par « free cooling » indirect, la configuration du bâtiment a été modifiée au cours de la thèse et une instrumentation conséquente mise en place. Les objectifs sont de déterminer à partir de séquences de mesures des coefficients de performance, de développer et de valider un modèle numérique destiné à la prédiction du comportement thermo-aéraulique en usage de ce type de solution. Dans un premier temps, des expériences sont menées avec une puissance dissipée à l’intérieur du bâtiment et un refroidissement assuré uniquement par une circulation de l’air extérieur au sein de trois parois. Des modifications ont ensuite été apportées au sein du bâtiment. Une circulation d’air en circuit fermé a été créée à l’intérieure afin de refroidir les baies par un flux d’air traversant. Afin de disposer d’une base de données probante, de nombreuses séquences de mesures avec une ou plusieurs baies sont réalisées dans différentes conditions. La variation des paramètres opératoires permet de bien appréhender le fonctionnement de l’installation et définir les paramètres d’optimisation énergétique. Les modèles numériques sont développés par le biais de TRNSYS / TRNFLOW. La confrontation des simulations à des mesures montre la pertinence de la démarche mise en œuvre
A data center is a warehouse that contains telecommunication equipment, network infrastructure, servers, and computers. This equipment leads to a very high heat dissipation which must be compensated by the use of cooling systems. Telecommunication standards impose restricted climatic ranges (temperatures and humidity) leading to a very high energy consumption devote to air conditioning. The reduction of this energy consumption constitutes a real challenge which should be raised and solved. Many cooling solutions are proposed as the free cooling solution, which consists in cooling equipment by using external air in propitious climatic conditions. The work carried out during this thesis is based on experiments conducted within a building in real climatic conditions in order to study the cooling of telecom cabinets. During this study, the building configuration was modified, an indirect "free cooling" system was set up and a significant instrumentation was implemented. The objectives are to establish performance factors issued from measurements, to develop and to validate a numerical model in order to predict the thermoaeraulic behavior for this type of solution. Initially, experiments are carried out with a power dissipated inside the building and a cooling provided only by an outside air circulation. Then, significant modifications were made into the building to introduce an internal air circulation in a closed loop in order to evacuate the heat dissipated inside cabinets by a crossing airflow. In order to get a convincing database, measurements were conducted by using one and then several cabinets in different conditions. Modifications are made to operating parameters in order to better understand the installation operation and to define the energy optimization parameters. Numerical models are developed through TRNSYS / TRNFLOW. The confrontation of simulations with measurements shows the implemented approach relevance
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Guyot, Dimitri. "Evaluation sur modèle de simulation thermique dynamique calibré des performances d’un contrôleur prédictif basé sur l’utilisation de réseaux de neurones". Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAC022.

Texto completo
Resumen
Le développement des techniques d’apprentissage automatique, et plus particulièrement des réseaux de neurones, associé à celui des nouvelles technologies de l’information et de la communication, bouleverse nos sociétés à travers des avancées technologiques dans une variété de secteurs d’activité. Le secteur du bâtiment n’est pas épargné, si bien que ces techniques peuvent constituer une opportunité intéressante dans un contexte où les émissions de gaz à effet de serre doivent être drastiquement réduites. L’objectif de ces travaux est d’évaluer l’intérêt de ces techniques appliquées à l’énergétique du bâtiment, dans une optique de réduction des consommations énergétiques et d’amélioration du confort thermique. Nous veillons par ailleurs à garder lors de cette évaluation une vision globale, en plaçant les éventuels avantages en face des différents besoins relatifs au développement de ces technologies. Ce travail de thèse s’organise en trois parties précédées d’une introduction détaillée visant à donner au lecteur une vue d’ensemble des différents éléments de contexte, permettant ainsi la mise en perspective du travail de thèse. Nous donnons ensuite dans la première partie le cadre théorique nécessaire à la compréhension des problématiques rencontrées lors de l’élaboration et de la création des réseaux de neurones pour des applications à l’énergétique du bâtiment. Dans un second temps, une étude bibliographique donnant au lecteur un large aperçu des diverses applications des réseaux de neurones au domaine de l’énergétique du bâtiment est présentée. La seconde partie est consacrée à la calibration du modèle de bâtiment utilisé ensuite pour tester et évaluer un contrôleur prédictif mettant en œuvre des réseaux de neurones. Après une explication de la méthode utilisée puis une présentation détaillée du modèle, une analyse complète des résultats de calibration est menée. Nous terminons cette partie par des observations et recommandations concernant les méthodes classiques de calibration préconisées par différents organismes internationaux. Enfin, une application concrète mettant en œuvre des réseaux de neurones pour le contrôle prédictif de la température intérieure est présentée au cours de la troisième partie. Après un point théorique concernant le contrôle prédictif, nous détaillons la méthode développée pour l’entraînement des réseaux de neurones utilisés. Les résultats obtenus en simulation avec un contrôleur prédictif sont ensuite analysés et comparés à ceux obtenus en présence de deux contrôleurs de référence pour diverses hypothèses de simulation. Le contrôleur prédictif est ainsi testé dans plusieurs cas de figures, allant d’une situation idéale à des conditions de fonctionnement plus réalistes, en passant par deux types d’émetteurs de chaleur différents, à savoir des plafonds rayonnants et un plancher chauffant
The development of machine learning techniques, particularly neural networks, combined with the development of new information and communication technologies, is shaking up our societies through technological advances in a variety of sectors. The building sector is not spared, so these techniques may represent an interesting opportunity in a context where greenhouse gas emissions must be drastically reduced. The objective of this work is to assess the interest of these techniques in the field of building energy, with the aim of reducing energy consumption and improving thermal comfort. In addition, we ensure that this evaluation is carried out with a global vision, by placing the possible advantages in front of the different needs relating to the development of these technologies. This thesis work is organized in three parts preceded by a detailed introduction intended to give the reader an overview of the various contextual elements, thus allowing the thesis work to be placed in perspective. We then give in the first part the theoretical framework needed to understand the problems encountered during the elaboration and creation of neural networks for building energy applications. Then, a bibliographical study giving the reader a broad overview of the various applications of neural networks in the field of building energy is presented. The second part is devoted to the calibration of the building model that is then used to test and evaluate a predictive controller implementing neural networks. After an explanation of the method used and a detailed presentation of the model, a complete analysis of the calibration results is carried out. We conclude this part with observations and recommendations regarding the standard calibration guidelines recommended by three international organizations. Finally, a practical application using neural networks for the predictive control of indoor temperature is presented in the third part. After a theoretical introduction concerning predictive control, we detail the method employed to train the neural networks used. The results obtained in simulation with a predictive controller are then analyzed and compared with those obtained with two reference controllers for various simulation hypothesis. The predictive controller is thus tested in several scenarios, ranging from an ideal situation to more realistic operating conditions, including two different types of heat emitters, namely radiant ceilings and underfloor heating
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Harrane, Ibrahim El Khalil. "Estimation distribuée respectueuse de la consommation d’énergie et de la confidentialité sur les réseaux adaptatifs". Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4041.

Texto completo
Resumen
L’estimation adaptative distribuée sur les réseaux tire parti des interconnexions entre agents pour effectuer une tâche d’estimation de paramètres à partir de flux continus de donnée. Comparées aux solutions centralisées, les stratégies distribuées sont robustes aux pertes de communications ou aux défaillances des agents. Cependant, ces avantages engendrent de nouveaux défis. Les stratégies distribuées nécessitent une communication permanente entre agents voisins, engendrant un coût considérable, en particulier pour les agents dont le budget énergétique est limité. Au-delà du coût de communication, comme pour tout algorithme distribué, on peut craindre des problèmes de confidentialité, en particulier pour les applications impliquant des données sensibles. L’objectif de cette thèse est de répondre à ces deux défis. Pour réduire le coût de communication et par conséquent la consommation d’énergie, nous proposons deux stratégies. La première repose sur la compression tandis que la seconde vise à limiter les coûts de communication en considérant un réseau moins dense. Pour la première approche, nous proposons une version compressée du diffusion LMS dans laquelle seules quelques composantes des vecteurs de données partagés, sélectionnées aléatoirement, sont transmises. Nous effectuons une analyse théorique de l’algorithme ainsi que des simulations numériques pour confirmer la validité du modèle théorique. Nous effectuons aussi des simulations selon un scénario réaliste dans lequel les agents s’allument et s’éteignent pour économiser les ressources énergétiques. L’algorithme proposé surpasse les performances des méthodes de l’état de l’art. La seconde approche exploite l’aspect multitâche pour réduire les coûts de communication. Dans un environnement multitâche, il est avantageux de ne communiquer qu’avec des agents qui estiment des quantités similaires. Pour ce faire, nous considérons un réseau avec deux types d’agents : des agents de cluster estimant la structure du réseau et des agents réguliers chargés d’estimer leurs paramètres objectifs respectifs. Nous analysons théoriquement le comportement de l’algorithme dans les deux scénarios : l’un dans lequel tous les agents sont correctement groupés et l’autre dans lequel certains agents sont affectés au mauvais cluster. Nous effectuons une analyse numérique approfondie pour confirmer la validité des modèles théoriques et pour étudier l’effet des paramètres de l’algorithme sur sa convergence. Pour répondre aux préoccupations en matière de confidentialité, nous nous sommes inspirés de la notion de "differential privacy" pour proposer une version du diffusion LMS prenant en compte la confidentialité des données. Sachant que le diffusion LMS repose sur la communication entre agents, la sécurité des données est constamment menacée. Pour éviter ce risque et tirer profit de l’échange d’informations, nous utilisons des matrices aléatoires de Wishart pour corrompre les données transmises. Ce faisant, nous empêchons la reconstruction des données par les voisins adverses ainsi que les menaces externes. Nous analysons théoriquement et numériquement le comportement de l’algorithme. Nous étudions également l’effet du rang des matrices de Wishart sur la vitesse de convergence et la préservation de confidentialité
Distributed estimation over adaptive networks takes advantage of the interconnections between agents to perform parameter estimation from streaming data. Compared to their centralized counterparts, distributed strategies are resilient to links and agents failures, and are scalable. However, such advantages do not come without a cost. Distributed strategies require reliable communication between neighbouring agents, which is a substantial burden especially for agents with a limited energy budget. In addition to this high communication load, as for any distributed algorithm, there may be some privacy concerns particularly for applications involving sensitive data. The aim of this dissertation is to address these two challenges. To reduce the communication load and consequently the energy consumption, we propose two strategies. The first one involves compression while the second one aims at limiting the communication cost by sparsifying the network. For the first approach, we propose a compressed version of the diffusion LMS where only some random entries of the shared vectors are transmitted. We theoretically analyse the algorithm behaviour in the mean and mean square sense. We also perform numerical simulations that confirm the theoretical model accuracy. As energy consumption is the main focus, we carry out simulations with a realistic scenario where agents turn on and off to save energy. The proposed algorithm outperforms its state of the art counterparts. The second approach takes advantage of the multitask setting to reduce the communication cost. In a multitask setting it is beneficial to only communicate with agents estimating similar quantities. To do so, we consider a network with two types of agents: cluster agents estimating the network structure, and regular agents tasked with estimating their respective objective vectors. We theoretically analyse the algorithm behaviour under two scenarios: one where all agents are properly clustered, and a second one where some agents are asigned to wrong clusters. We perform an extensive numerical analysis to confirm the fitness of the theoretical models and to study the effect of the algorithm parameters on its convergence. To address the privacy concerns, we take inspiration from differentially private Algorithms to propose a privacy aware version of diffusion LMS. As diffusion strategies relies heavily on communication between agents, the data are in constant jeopardy. To avoid such risk and benefit from the information exchange, we propose to use Wishart matrices to corrupt the transmitted data. Doing so, we prevent data reconstruction by adversary neighbours as well as external threats. We theoretically and numerically analyse the algorithm behaviour. We also study the effect of the rank of the Wishart matrices on the convergence speed and privacy preservation
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Wambecke, Jérémy. "Visualisation de données temporelles personnelles". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM051/document.

Texto completo
Resumen
La production d’énergie, et en particulier la production d’électricité, est la principale responsable de l’émission de gaz à effet de serre au niveau mondial. Le secteur résidentiel étant le plus consommateur d’énergie, il est essentiel d’agir au niveau personnel afin de réduire ces émissions. Avec le développement de l’informatique ubiquitaire, il est désormais aisé de récolter des données de consommation d’électricité des appareils électriques d’un logement. Cette possibilité a permis le développement des technologies eco-feedback, dont l’objectif est de fournir aux consommateurs un retour sur leur consommation dans le but de la diminuer. Dans cette thèse nous proposons une méthode de visualisation de données temporelles personnelles basée sur une interaction what if, qui signifie que les utilisateurs peuvent appliquer des changements de comportement de manière virtuelle. En particulier notre méthode permet de simuler une modification de l’utilisation des appareils électriques d’un logement, puis d’évaluer visuellement l’impact de ces modifications sur les données. Cette méthode a été implémentée dans le système Activelec, que nous avons évalué avec des utilisateurs sur des données réelles. Nous synthétisons les éléments de conception indispensables aux systèmes eco-feedback dans un état de l’art. Nous exposons également les limitations de ces technologies, la principale étant la difficulté rencontrée par les utilisateurs pour trouver des modifications de comportement pertinentes leur permettant de consommer moins d’énergie.Nous présentons ensuite trois contributions. La première contribution est la conception d’une méthode what if appliquée à l’eco-feedback ainsi que son implémentation dans le système Activelec. La seconde contribution est l’évaluation de notre méthode grâce à deux expérimentations menées en laboratoire. Dans ces expérimentations nous évaluons si des participants utilisant notre méthode trouvent des modifications qui économisent de l’énergie et qui nécessitent suffisamment peu d’efforts pour être appliquées en vrai. Enfin la troisième contribution est l’évaluation in-situ du système Activelec dans des logements personnels pour une durée d’environ un mois. Activelec a été déployé dans trois appartements privés afin de permettre l’évaluation de notre méthode en contexte domestique réel. Dans ces trois expérimentations, les participants ont pu trouver des modifications d’utilisation des appareils qui économiseraient une quantité d’énergie significative, et qui ont été jugées faciles à appliquer en réalité. Nous discutons également de l’application de notre méthode what if au-delà des données de consommation électrique au domaine de la visualisation personnelle, qui est définie comme l’analyse visuelle des données personnelles. Nous présentons ainsi plusieurs applications possibles à d’autres données temporelles personnelles, par exemple concernant l’activité physique ou les transports. Cette thèse ouvre de nouvelles perspectives pour l’utilisation d’un paradigme d’interaction what if pour la visualisation personnelle
The production of energy, in particular the production of electricity, is the main responsible for the emission of greenhouse gases at world scale. The residential sector being the most energy consuming, it is essential to act at a personal scale to reduce these emissions. Thanks to the development of ubiquitous computing, it is now easy to collect data about the electricity consumption of electrical appliances of a housing. This possibility has allowed the development of eco-feedback technologies, whose objective is to provide to consumers a feedback about their consumption with the aim to reduce it. In this thesis we propose a personal visualization method for time-dependent data based on a what if interaction, which means that users can apply modifications in their behavior in a virtual way. Especially our method allows to simulate the modification of the usage of electrical appliances of a housing, and then to evaluate visually the impact of the modifications on data. This approach has been implemented in the Activelec system, which we have evaluated with users on real data.We synthesize the essential elements of conception for eco-feedback systems in a state of the art. We also outline the limitations of these technologies, the main one being the difficulty faced by users to find relevant modifications in their behavior to decrease their energy consumption. We then present three contributions. The first contribution is the development of a what if approach applied to eco-feedback as well as its implementation in the Activelec system. The second contribution is the evaluation of our approach with two laboratory studies. In these studies we assess if participants using our method manage to find modifications that save energy and which require a sufficiently low effort to be applied in reality. Finally the third contribution is the in-situ evaluation of the Activelec system. Activelec has been deployed in three private housings and used for a duration of approximately one month. This in-situ experiment allows to evaluate the usage of our approach in a real domestic context. In these three studies, participants managed to find modifications in the usage of appliances that would savea significant amount of energy, while being judged easy to be applied in reality.We also discuss of the application of our what if approach to the domain of personal visualization, beyond electricity consumption data, which is defined as the visual analysis of personal data. We hence present several potential applications to other types of time-dependent personal data, for example related to physical activity or to transportation. This thesis opens new perspectives for using a what if interaction paradigm for personal visualization
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Danilo, Robin. "Approches connexionnistes pour la vision par ordinateur embarquée". Thesis, Lorient, 2018. http://www.theses.fr/2018LORIS518/document.

Texto completo
Resumen
Pour concevoir des systèmes de vision embarquée, deux axes peuvent être considérés. Le premier se focalise sur la conception de nouveaux dispositifs numériques plus puissants capables de mettre en œuvre de manière efficace des algorithmes complexes. Le second se concentre sur l'élaboration de nouveaux algorithmes de vision, moins gourmands en ressources et qui peuvent efficacement être mis en œuvre sur des systèmes numériques embarqués. Nous privilégions dans ces travaux le second axe avec comme approche l'utilisation de modèles connexionnistes. Parmi les différents modèles existants, nous nous intéressons à deux modèles de réseaux de neurones artificiels, les réseaux à clusters et les réseaux convolutifs. Le premier modèle que nous utilisons, appelé réseau à clusters, n'avait jamais été utilisé pour réaliser des tâches de vision par ordinateur. Cependant, il paraissait être un bon candidat pour être utilisé sur des systèmes embarqués, notamment par des mises en œuvre sur des architectures matérielles dédiées. L'objectif a été tout d'abord de trouver les types de tâches pouvant être réalisées à l'aide de ce modèle de réseau. Ce modèle a été conçu pour réaliser des mémoires associatives. En vision par ordinateur, cela peut se rapprocher de problèmes tels que la recherche d'images par le contenu. Ce type d'application utilise massivement des algorithmes de recherche de plus proches voisins approchée et c'est donc sur ce type de tâches que nous nous sommes concentrés. Le second type de réseau étudié appelé réseau convolutif, est lui très populaire pour concevoir des systèmes de vision par ordinateur. Notre objectif a été ici de trouver des manières de simplifier ces réseaux tout en conservant des performances élevées. Nous proposons notamment une technique qui consiste à ré-entrainer des réseaux quantifiés
To design embedded computer vision systems, two axes can be considered. The first focuses on designing new, more powerful, digital devices that can efficiently implement complex algorithms. The second targets the development of new, lightweight computer vision algorithms that can be effectively implemented on digital embedded systems. In this work, we favor the second axis by using connectionist models. In this context, we focus on two models of artificial neural networks: cluster-based networks and convolutional networks. The first model we use, i.e. cluster-based network, was never been used to perform computer vision tasks before. However, it seemed to be a good candidate to design embedded systems, especially through dedicated hardware architectures implementation. The goal was first to find out the kinds of tasks that could be performed using this network model. This model has been designed to implement associative memories which can come close to problems such as content- based image retrieval in computer vision domain. This type of application massively uses approximated nearest neighbor search algorithms which makes it a good candidate to focus on. The second type of network studied in this work, called convolutional network, is very popular to design computer vision systems. Our goal here was to find different ways to simplify their complexity while maintaining high performance. In particular, we proposed a technique that involves re-training quantified networks
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Das, Satyajit. "Architecture and Programming Model Support for Reconfigurable Accelerators in Multi-Core Embedded Systems". Thesis, Lorient, 2018. http://www.theses.fr/2018LORIS490/document.

Texto completo
Resumen
La complexité des systèmes embarqués et des applications impose des besoins croissants en puissance de calcul et de consommation énergétique. Couplé au rendement en baisse de la technologie, le monde académique et industriel est toujours en quête d'accélérateurs matériels efficaces en énergie. L'inconvénient d'un accélérateur matériel est qu'il est non programmable, le rendant ainsi dédié à une fonction particulière. La multiplication des accélérateurs dédiés dans les systèmes sur puce conduit à une faible efficacité en surface et pose des problèmes de passage à l'échelle et d'interconnexion. Les accélérateurs programmables fournissent le bon compromis efficacité et flexibilité. Les architectures reconfigurables à gros grains (CGRA) sont composées d'éléments de calcul au niveau mot et constituent un choix prometteur d'accélérateurs programmables. Cette thèse propose d'exploiter le potentiel des architectures reconfigurables à gros grains et de pousser le matériel aux limites énergétiques dans un flot de conception complet. Les contributions de cette thèse sont une architecture de type CGRA, appelé IPA pour Integrated Programmable Array, sa mise en œuvre et son intégration dans un système sur puce, avec le flot de compilation associé qui permet d'exploiter les caractéristiques uniques du nouveau composant, notamment sa capacité à supporter du flot de contrôle. L'efficacité de l'approche est éprouvée à travers le déploiement de plusieurs applications de traitement intensif. L'accélérateur proposé est enfin intégré à PULP, a Parallel Ultra-Low-Power Processing-Platform, pour explorer le bénéfice de ce genre de plate-forme hétérogène ultra basse consommation
Emerging trends in embedded systems and applications need high throughput and low power consumption. Due to the increasing demand for low power computing and diminishing returns from technology scaling, industry and academia are turning with renewed interest toward energy efficient hardware accelerators. The main drawback of hardware accelerators is that they are not programmable. Therefore, their utilization can be low is they perform one specific function and increasing the number of the accelerators in a system on chip (SoC) causes scalability issues. Programmable accelerators provide flexibility and solve the scalability issues. Coarse-Grained Reconfigurable Array (CGRA) architecture consisting of several processing elements with word level granularity is a promising choice for programmable accelerator. Inspired by the promising characteristics of programmable accelerators, potentials of CGRAs in near threshold computing platforms are studied and an end-to-end CGRA research framework is developed in this thesis. The major contributions of this framework are: CGRA design, implementation, integration in a computing system, and compilation for CGRA. First, the design and implementation of a CGRA named Integrated Programmable Array (IPA) is presented. Next, the problem of mapping applications with control and data flow onto CGRA is formulated. From this formulation, several efficient algorithms are developed using internal resources of a CGRA, with a vision for low power acceleration. The algorithms are integrated into an automated compilation flow. Finally, the IPA accelerator is augmented in PULP - a Parallel Ultra-Low-Power Processing-Platform to explore heterogeneous computing
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Hossain, Mohaimenul. "Green Metrics to Improve Sustainable Networking". Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0201.

Texto completo
Resumen
Le monde actuel reposant sur une économie et des activités personnelles de plus en plus digitalisées a pour conséquence que la quantité d’information circulant à travers internet ne cesse de croître d’année en année. Les architectures de communication doivent être dimensionnées en conséquence, voire surdimensionnées pour anticiper les besoins futurs ou pour pallier des pics de trafic ou encore des défaillances éventuelles. À cela s’ajoute des systèmes de refroidissement pour garantir le bon fonctionnement des équipements d’interconnexion. Aussi, actuellement les réseaux représentent 20\% de la consommation d’énergie de la sphère numérique sachant que si cette sphère était un pays, elle sera au cinquième rang des pays en terme de consommation d’énergie. Il est donc essentiel de trouver des stratégies d’optimisation considérant à la fois cette consommation tout en maintenant la Qualité de Services exigée par les utilisateurs de l’internet. Cette thèse propose tout d’abord un premier un algorithme de routage permettant de réduire l’électricité nécessaire pour alimenter le réseau en utilisant deux mécanismes : l’endormissement des nœuds et l’adaptation des débits des lignes de transmission. Le problème étant NP difficile, des algorithmes génétiques sont employés. Les résultats montrent l’intérêt de cette approche sur le réseau Européen Géant-2 et cela en se reposant sur des architectures SDN (Software Defined Network). Cependant, une optimisation basée uniquement sur l’électricité peut être une vue tronquée sur l’impact environnemental de l’internet. Dans la suite de cette thèse, le type d’énergie utilisé pour produire l’électricité a été pris en compte pour analyser le routage selon deux autres indicateurs : le taux d’énergie renouvelable et le taux d’émission carbone. Les algorithmes ainsi développés sont de nouveau appliqués à Géant-2 pour illustrer l’incidence de ces nouveaux indicateurs sur le routage. Finalement, la reconfiguration du plan de contrôle du réseau doit se faire au rythme de l’évolution du trafic. Mais cela peut générer une instabilité du système de communication et donc une rupture de Qualité de Service. Aussi, des mécanismes de filtrage et de pénalité sont introduits dans les précédents algorithmes pour éliminer des changements intempestifs de reconfiguration néfastes au maintien global de la performance du réseau
Achieving energy efficiency has in recent times become a major concern of networking research due to the ever-escalating power consumption and CO2 emissions produced by large data networks. This problem is becoming more and more challenging because of the drastic traffic increase in the last few years and it is expected to be increased even more in the coming years. Using efficient energy-aware strategies that could overturn this situation by reducing the electricity consumption as well as mitigating the environmental impact of data transmission networks. However, CO2 and energy consumption cannot be considered proportionate if the means of electricity production differs. This research work focuses on reducing the environmental impact of data transmission network by implementing energy aware routing, where unused network devices will be put into sleep/shut down and high capacity links will be adapted according to demand requirement. But, alongside with energy, this work has introduced two different metrics namely carbon emission factor and non-renewable energy usage percentage, which are considered as objective functions for designing green network. Here a centralized approach like using Software-Defined Networking (SDN), is used for designing to solve this problem as they allow flexible programmability suitable for this problem. Our proposal proposes a routing technique using genetic algorithm that minimizes the number of network-elements required and at the same time adapt the bandwidth capacity while satisfying an incoming traffic load. Different from existing related works, we focus on optimizing not only energy consumption but also carbon emission and non-renewable energy consumption in SDN in order to close this important gap in the literature and provide solutions compatible with operational backbone networks. Complementing the general aim of improving the environmental impact of data transmission network, this research is also intended to cover important related features such as realistic large demand size, network performance, and Quality of Service (QoS) requirements. At the same time this work focuses on network stability and analyzes the impact of network stability while implementing a green solution. Our work proposes a penalty and filtering mechanism which helps to find an optimal balance between stability and green networking. By using realistic input data, significant values of switched-off links and nodes are reached which demonstrate the effectiveness of our algorithm. The obtained result validated the importance of considering environmental factors rather than considering only energy. Results also show the trade-off between environmental and performance concerns, considering a couple of performance indicators. Moreover, it is shown that the penalty and filtering mechanism is an effective approach to avoid incoherent system and improve the stability of the system. As a whole, this conducted research and contributions reported through this manuscript stand as a valuable solution on the road to sustainable networking
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Attoue, Nivine. "Use of Smart Technology for heating energy optimization in buildings : experimental and numerical developments for indoor temperature forecasting". Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I021/document.

Texto completo
Resumen
L’inquiétude croissante concernant le futur des ressources énergétique a fait de l’optimisation énergétique une priorité dans tous les secteurs. De nombreux sujets de recherche se sont focalisés sur celui du bâtiment étant le principal consommateur d’énergie, en particulier à cause de ses besoins en chauffage. L’application des stratégies de contrôle et de gestion innovantes peuvent contribuer à des économies d'énergie. L'objectif de cette thèse est d'introduire le concept intelligent dans les bâtiments pour réduire la consommation d'énergie. L'étude vise à développer un modèle permettant de prédire le comportement thermique des bâtiments. La thèse propose une méthodologie basée sur la sélection des paramètres d'entrée pertinents, après une analyse de pertinence, pour développer un modèle simplifié de réseau de neurones artificiel, utilisé pour la prévision de température intérieure. Le domaine intelligent nécessite un processus automatisé pour comprendre la dynamique des bâtiments et décrire ses caractéristiques. L’utilisation des modèles thermiques réduits convient pour de telles stratégies. Ainsi, la thèse présente une étude préliminaire pour la génération d'un processus automatisé pour déterminer la prévision de température intérieure à court terme et les caractéristiques des bâtiments basées sur la modélisation en boîte grise. Cette étude est basée sur une méthodologie capable de trouver l'ensemble de données le plus fiable qui décrit le mieux la dynamique du bâtiment. L'étude montre que l'ordre le plus performant pour les modèles réduits est régi par la dynamique des données collectées utilisées
With the highly developing concerns about the future of energy resources, the optimization of energy consumption becomes a must in all sectors. A lot of research was dedicated to buildings regarding that they constitute the highest energy consuming sector mainly because of their heating needs. Technologies have been improved and several methods are proposed for energy consumption optimization. Energy saving procedures can be applied through innovative control and management strategies. The objective of this thesis is to introduce the smart concept in the building system to reduce the energy consumption, as well as to improve comfort conditions and users’ satisfaction. The study aims to develop a model that makes it possible to predict thermal behavior of buildings. The thesis proposes a methodology based on the selection of pertinent input parameters, after a relevance analysis of a large set of input parameters, for the development of a simplified artificial neural network (ANN) model, used for indoor temperature forecasting. This model can be easily used in the optimal regulation of buildings’ energy devices. The smart domain needs an automated process to understand the buildings’ dynamics and to describe its characteristics. Such strategies are well described using reduced thermal models. Thus, the thesis presents a preliminary study for the generation of an automated process to determine short term indoor temperature prediction and buildings characteristics based on grey-box modeling. This study is based on a methodology capable of finding the most reliable set of data that describes the best the building’s dynamics. The study shows that the most performant order for reduced-models is governed by the dynamics of the collected data used
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Molina, Troconis Laudin Alessandro. "Techniques et métriques non intrusives pour caractériser les réseaux Wi-Fi". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0091/document.

Texto completo
Resumen
Aujourd’hui, les appareils mobiles sont présents dans le monde entier. Ces appareils permettent aux utilisateurs d'accéder à l’Internet notamment par l'intermédiaire des réseaux WiFi. La diversité et le nombre de déploiements sans coordination centrale (y compris les utilisateurs à leur domicile) conduit à des déploiements qu’on peut qualifier de chaotiques. En conséquence, les réseaux WiFi sont largement déployés avec une forte densité dans les zones urbaines. Dans ce contexte, les utilisateurs et les opérateurs tentent d’exploiter ces déploiements pour obtenir une connectivité omniprésente, et éventuellement d'autres services. Cependant, pour tirer parti de ces déploiements, il faut des stratégies pour identifier les réseaux utilisables et choisir les plus adaptés aux besoins. Pour cela, nous étudions le processus de découverte des réseaux dans le contexte de ces déploiements. Ensuite, nous présentons une plateforme de partage de mesures sans fil, un système d'information collaboratif où les stations mobiles recueillent des mesures du réseau et les envoient à un système central. En rassemblant mesures provenant de différents utilisateurs, la plateforme donne accès à des caractéristiques du déploiement précieuses. Nous évaluons l'utilité de cette plateforme collaborative grâce à deux applications : (1) l’ensemble minimal de points d'accès, afin de réduire l'énergie nécessaire pour offrir une couverture WiFi dans une zone donnée. (2) l'optimisation des paramètres de recherche de réseau, afin de réduire le temps nécessaire pour découvrir les réseaux existants. Ensuite, nous étudions une méthode passive pour déterminer si un réseau fonctionne dans un canal saturé
Nowadays, mobile devices are present worldwide, with over 4.40 Billion devices globally. These devices enable users to access the Internet via wireless networks. Different actors (e.g., home users, enterprises) are installing WiFi networks everywhere, without central coordination, creating chaotic deployments. As a result, WiFi networks are widely deployed all over the world, with high accesspoint (AP) density in urban areas. In this context, end-users and operators are trying to exploit these dense network deployments to obtain ubiquitous Internet connectivity, and possibly other services. However, taking advantage of these deployments requires strategies to gather and provide information about the available networks. In this dissertation, we first study the network discovery process within the context of these deployments. Then, we present the Wireless Measurements Sharing Platform, a collaborative information system, to which mobile stations send simple network measurements that they collected. By gathering and processing several network measurements from different users, the platform provides access to valuable characteristics of the deployment. We evaluate the usefulness of this collaborative platform thanks to two applications: (1) the minimal access point set, to reduce the energy needed to offer WiFi coverage in a given area.(2) The optimization of the scanning parameters,to reduce the time a mobile station needs for the network discovery. Finally, we describe a method to identify whether an AP operates ina saturated channel, by passively monitoring beacon arrival distribution
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Ndour, Geneviève. "Approximate computing for high energy-efficiency in IoT applications". Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S033/document.

Texto completo
Resumen
Les unités à taille réduite font partie des méthodes proposées pour la réduction de la consommation d’énergie. Cependant, la plupart de ces unités sont évaluées séparément,c’est-à-dire elles ne sont pas évaluées dans une application complète. Dans cette thèse, des unités à taille réduite pour le calcul et pour l’accès à la mémoire de données, configurables au moment de l’exécution, sont intégrées dans un processeur RISC-V. La réduction d’énergie et la qualité de sortie des applications exécutées sur le processeur RISC-V étendu avec ces unités, sont évaluées. Les résultats indiquent que la consommation d’énergie peut être réduite jusqu’à 14% pour une erreur ≤0.1%. De plus, nous avons proposé un modèle d’énergie générique qui inclut à la fois des paramètres logiciels et architecturaux. Le modèle permet aux concepteurs logiciels et matériels d’avoir un aperçu rapide sur l’impact des optimisations effectuées sur le code source et/ou sur les unités de calcul
Reduced width units are ones of the power reduction methods. However such units have been mostly evaluated separately, i.e. not evaluated in a complete applications. In this thesis, we extend the RISC-V processor with reduced width computation and memory units, in which only a number of most significant bits (MSBs), configurable at runtime is active. The energy reduction vs quality of output trade-offs of applications executed with the extended RISC-V are studied. The results indicate that the energy can be reduced by up to 14% for an error ≤ 0.1%. Moreover we propose a generic energy model that includes both software parameters and hardware architecture ones. It allows software and hardware designers to have an early insight into the effects of optimizations on software and/or units
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Gbaguidi, Fréjus A. Roméo. "Approche prédictive de l'efficacité énergétique dans les Clouds Datacenters". Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1163/document.

Texto completo
Resumen
Avec la démocratisation des technologies du numérique, la construction d'un cyberespace globalisé s'est faite insidieusement, transformant littéralement notre mode de vie et notre vécu quotidien. Faire communiquer plus de 4 milliards d'individus à une vitesse devenue incontrôlable, nécessite l'invention de nouveaux concepts pour la production des services informatiques capable de s'adapter à ce défis. Le Cloud Computing, dans cette optique permet de fournir à travers des Datacenters, une partie ou la totalité des composants nécessaires aux entreprises pour la délivrance de leurs services dans les délais et avec des performances conformes aux exigences de leurs clients. Dès lors, la prolifération conséquente des Datacenters aux quatre coins du monde a mis au jour la préoccupante question de la quantité d'énergie nécessaire pour leur fonctionnement et la difficulté qui en résulte pour l'humanité dont les réserves actuelles ne sont pas extensibles à l'infini. Ainsi, il est apparu nécessaire de développer des techniques permettant de réduire la consommation électrique des Datacenters en minimisant les pertes d'énergie orchestrées sur les serveurs dont le moindre watt gaspillé entraine par effet de cascade une augmentation substantielle de la facture globale des Datacenters. Notre travail a consisté à faire dans un premier temps une revue de la littérature sur le sujet, puis de tester la capacité de quelques outils de prédiction à améliorer l'anticipation des risques de pertes d'énergie engendrer par la mauvaise allocation des machines virtuelles sur les serveurs. Cette étude s'est focalisée notamment sur les outil ARMA et les réseaux de neurones qui dans la littérature ont produit des résultats intéressants dans des domaines proches. Après cette étape, il nous est apparu que les outils ARMA bien qu'ayant des performances inférieures aux réseaux de neurones dans notre contexte, s'exécute dans plus rapidement et sont les plus adaptés pour être implémenter dans les environnements de Cloud Computing. Ainsi, nous avons utilisé les résultats de cette méthode pour améliorer le processus de prise de décision, notamment pour la re-allocation proactive des machines virtuelles avant qu'il n'entraine des sous-consommations des ressources sur les serveurs physiques ou des surconsommation pouvant induire des violations des accords de niveaux de service. Cette démarche a permis sur la base de nos simulations de réduire de plus de 5Kwh la consommation d'énergie dans une ferme de 800 serveurs et sur une durée d'une journée. Ce gain pourrait se révéler important lorsque l'on considère la taille énorme des datacenters modernes et que l'on se projette dans une durée relativement longue. Il serait encore plus intéressant d'approfondir cette recherche afin de généraliser l'intégration de cette approche prédictive dans les techniques existantes afin d'optimiser de façon significative les consommations d'énergie au sein des Datacenters tout en préservant les performances et la qualité de service indispensable dans le concept de Cloud Computing
With the democratization of digital technologies, the construction of a globalized cyberspace insidiously transforms our lifestyle. Connect more than 4 billion people at high speed, requires the invention of new concept of service provision and trafic management that are capable to face the challenges. For that purpose, Cloud Computing have been set up to enable Datacenters to provide part or total IT components needed by companies for timely services delivering with performance that meets the requirements of their clients. Consequently, the proliferation of Datacenters around the world has brought to light the worrying question about the amount of energy needed for their function and the resulting difficulty for the humanity, whose current reserves are not extensible indefinitely. It was therefore necessary to develop techniques that reduce the power consumption of Datacenters by minimizing the energy losses orchestrated on servers where each wasted watt results in a chain effect on a substantial increase in the overall bill of Datacenters. Our work consisted first in making a review of the literature on the subject and then testing the ability of some prediction tools to improve the anticipation of the risks of energy loss caused by the misallocation of virtual equipment on servers. This study focused particularly on the ARMA tools and neural networks which in the literature have produced interesting results in related fields. After this step, it appeared to us that ARMA tools, although having less performance than neural networks in our context, runs faster and are best suited to be implemented in cloud computing environments. Thus, we used the results of this method to improve the decision-making process, notably for the proactive re-allocation of virtual equipment before it leads to under-consumption of resources on physical servers or over-consumption inducing breaches of SLAs. Based on our simulations, this approach enabled us to reduce energy consumption on a firm of 800 servers over a period of one day by more than 5Kwh. This gain could be significant when considering the enormous size of modern data centers and projected over a relatively long period of time. It would be even more interesting to deepen this research in order to generalize the integration of this predictive approach into existing techniques in order to significantly optimize the energy consumption within Datacenters while preserving performance and quality of service which are key requirements in the concept of Cloud Computing
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Zabada, Shaker. "Analysis of heating expenditure in social housing : application of economic provisional models". Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10181/document.

Texto completo
Resumen
Le travail mené dans cette thèse porte sur la consommation d’énergie, et plus particulièrement le chauffage dans le logement social. Il vise à (i) analyser l'influence des caractéristiques de bâtiments des indicateurs socio-économiques des occupants sur la consommation de chauffage et (ii) à développer des modèles numériques pour la prédiction de cette consommation. La recherche est basée sur des données fournies par le Lille Métropole Habitat, qui est en charge de la gestion d'un grand parc de logement social à Lille Métropole. La thèse comprend quatre parties. La première présente une analyse bibliographique, qui couvre le logement social en Europe, notamment en France, les facteurs qui affectent la consommation d'énergie dans le logement social et les politiques proposées pour les économies d'énergie dans ce secteur. La deuxième partie présente les données utilisées dans ce travail, qui ont été fournies par LMH. Ces données concernent un grand parc de logement social à Lille Métropole (Nord de la France). Elles comprennent les dépenses de chauffage, des caractéristiques des bâtiments et des indicateurs socio-économiques sur les occupants. La troisième partie présente une analyse de l'influence des caractéristiques des bâtiments (âge, DPE, superficie et nombre d'étages) et des paramètres socio-économiques des occupants (âge, situation matrimonial et revenues) sur la consommation de chauffage. La dernière partie présente l'élaboration des modèles de prévision des dépenses de chauffage dans le parc de LMH et l'utilisation de ces modèles pour la politique de rénovation. Deux méthodes sont utilisées: La Méthode des Moindres Carrés (OLS) et les Réseaux de Neurones Artificie
The research conducted in this doctoral thesis concerns a major socio-economic issue, that of the heating consumption in social housing. It aims at understanding the influence of both building characteristics as well as socio-economic indicators on the heating consumption in this sector and the development of numerical models for the prediction of this consumption. The research is based on data provided by Lille Métropole Habitat, who is in charge of the management of a large social housing stock in Lille Metropolis. The thesis includes four parts. The first part presents a literature review which covers the social housing in Europe, in particular in France, the factors affecting the energy consumption in social housing, and policies proposed for the energy saving in this sector. The second part presents the data used in this work that are provided by LMH. The data concern a large social housing stock in Lille Metropolis (North of France). They include heating expenses as well as the buildings characteristics and some socio-economic indicators on the tenants. The third part presents analysis of the influence of both building characteristics (age, DPE, dwellings’ area, number of floors) and socio-economic parameters (tenants’ age, marital status and income) on the heating consumption. The last part presents the elaboration of prediction models for the heating expenses in the LMH housing stock and the use of these models to analyze the investment policy in the renovation of this stock. Two methods are used: the classical Ordinary Least Squares method (OLS) and the Artificial Neural Networks
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Randriatsiferana, Rivo Sitraka A. "Optimisation énergétique des protocoles de communication des réseaux de capteurs sans fil". Thesis, La Réunion, 2014. http://www.theses.fr/2014LARE0019/document.

Texto completo
Resumen
Pour augmenter la durée de vie des réseaux de capteurs sans fil, une solution est d'améliorer l'efficacité énergétique des protocoles de communication. Le regroupement des nœuds du réseau de capteurs sans fil en cluster est l'une des meilleures méthodes. Cette thèse présente propose plusieurs améliorations en modifiant les paramètres du protocole de référence LEACH. Pour améliorer la distribution énergétique des "cluster-heads", nous proposons deux protocoles de clustering centralisés k-LEACH et sa version optimisée k-LEACH-VAR. Un algorithme distribué, appelé e-LEACH, est également proposé pour réduire l'échange d'information périodique entre les nœuds et la station de base lors de l'élection des "cluster-heads". Par ailleurs, le concept l'équilibrage énergétique est introduit dans les métriques d'élection pour éviter les surcharges des nœuds. Ensuite, nous présentons une version décentralisée de k-LEACH qui, en plus des objectifs précédents, intègre la consommation d'énergie globale du réseau. Ce protocole, appelé, k-LEACH-C2D, vise également à favoriser la scalabilité du réseau. Pour renforcer ce dernier et l'autonomie des réseaux, les deux protocoles de routage "multi-hop" probabiliste, dénotés FRSM et CB-RSM construisent des chemins élémentaires entre les "cluster-heads" et la station de base. Le protocole CB-RSM forme une hiérarchie des "cluster-heads" pendant la phase de formation des clusters, en mettant un accent sur l'auto-ordonnancement et l'auto-organisation entre les "cluster-heads" pour rendre les réseaux le plus "scalable". Ces différents protocoles reposent sur l'idée de base que les nœuds ayant l'énergie résiduelle la plus élevée et la plus faible variance de consommation de l'énergie deviennent "cluster-head". Nous constantans le rôle central de la consommation du nœud dans nos différentes propositions. Ce point fera l'objet de la dernière partie de cette thèse. Nous proposons une méthodologie pour caractériser expérimentalement la consommation d'un nœud. Les objectifs visent à mieux appréhender la consommation pour différentes séquences d'état du nœud. Enfin, nous proposons un modèle global de la consommation du nœud
To increase the lifetime of wireless sensor networks, a solution is to improve the energy efficiency of the communication's protocol. The grouping of nodes in the wireless sensor network clustering is one of the best methods. This thesis proposes several improvements by changing the settings of the reference protocol LEACH. To improve the energy distribution of "cluster-heads", we propose two centralized clustering protocols LEACH and k-optimized version k-LEACH-VAR. A distributed algorithm, called e-LEACH, is proposed to reduce the periodic exchange of information between the nodes and the base station during the election of "cluster-heads". Moreover, the concept of energy balance is introduced in metric election to avoid overloading nodes. Then we presented a decentralized version of k-LEACH, which in addition to the previous objectives, integrates the overall energy consumption of the network. This protocol, called k-LEACH-C2D, also aims to promote the scalability of the network. To reinforce the autonomy and networks, both routing protocols "multi-hop" probability, denoted CB-RSM and FRSM build elementary paths between the "cluster-heads" and elected the base station. The protocol, CB-RSM, forms a hierarchy of "cluster-heads" during the training phase clusters, with an emphasis on self-scheduling and self-organization between "cluster-heads" to make the networks more scalable. These protocols are based on the basic idea that the nodes have the highest residual energy and lower variance of energy consumption become "cluster-head". We see the central role of consumption of the node in our proposals. This point will be the last part of this thesis. We propose a methodology to characterize experimentally the consumption of a node. The objectives are to better understand the consumption for different sequences of the node status. In the end, we propose a global model of the consumption of the node
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía