Tesi sul tema "Évaluation des logiciels – Consommation d'énergie"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Évaluation des logiciels – Consommation d'énergie.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-32 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Évaluation des logiciels – Consommation d'énergie".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Guégain, Edouard. "Optimisation de logiciels par leur configuration". Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILB020.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le domaine du génie logiciel évolue rapidement, exposant les développeurs à collection d'outils, langages, framework et paradigmes en constante croissance.De plus, chacun de ces composant peut avoir sa propre configuration interne.Ainsi, concevoir un nouveau logiciel consiste à sélectionner des composants de cette collection, un processus similaire à la création d'une configuration.Le critère pour configurer de tels systèmes est trop souvent la facilité de développement, ce qui cause des obésiciels sur-dimensionnés et consommateur en énergie.Ce paradigme n'est pas aligné avec les considérations frugales et environnementales.Cette dissertation s'intéresse donc à la possibilité d'utiliser la configuration des logiciels pour optimiser leur performance.Une attention spécifique est portée à la consommation énergétique et la taille de ces logiciels.Un prérequis pour optimiser un système est de comprendre sa performance actuelle.Pour mieux comprendre ce sujet, le logiciel configurable JHipster a été analysé de façon empirique.L'analyse exhaustive de la performance de ses configuration, au travers de différents indicateurs, a montré à quel point la configuration impactent ses performances.Cette compréhension de la performance a permit de créer de configuration de JHipster à haute performance.Ces configuration à haute performance a été créees manuellement, ce qui n'est possible qu'avec un petit espace des configurations.Un algorithme a donc été créé pour automatiser ce processus, et ainsi l'adapter aux plus grands espaces de configuration.Cependant, optimiser une configuration en sélectionnant des options à haute performance n'est pas suffisant, car les options interagissent entre elles:par exemple, dans certaines situation, deux options à haute performance peuvent sous-performer quand elles sont assemblées.L'algorithme d'optimisation a donc été adapté pour tirer profit de ces comportements.L'application de cet algorithme a un large ensemble de configurations a montré que la plupart d'entre elles atteignent une performance presque optimale, avec seulement un nombre limité de modification.Cependant, les contraintes de performance ne se limitent pas à un seul indicateur.La consommation énergétique d'un logiciel n'est pas toujours l'indicateur le plus impactant à optimiser.L'algorithme d'optimisation a donc dû être généralisé pour supporter l'optimisation de plusieurs indicateurs simultanément.Cet algorithme généralisé a été validé sur un couple d'indicateurs de performance: le temps d'exécution et la taille d'un logiciel.Cette validation a montré que la moitié des configurations peut atteindre leur optimum local respectif en modifiant une seule option.De plus, en appliquant cet algorithme à l'exhaustivité d'un espace de configuration, il a été possible de suivre comment il navigue l'espace de configuration à la recherche de configurations optimales, ce qui a mit en lumière certaines limites de l'algorithme, qui peut donc être encore amélioré dans de futures travaux.Dans son état actuel, l'algorithme a été publié sous la forme d'un outil open-source sous le nom d'ICO
The field of software engineering evolves rapidly, exposing practitioners to an ever-increasing collection of tools, languages, frameworks, and paradigms.Each of these components can have its own, internal configuration.Thus, designing a new software system consist in selecting components from this collection, which is akin to creating a configuration.The criterion to configure such systems is too often the ease of development, which leads to oversized, power-hungry bloatware.This paradigm is not aligned with frugal or environmental concerns.Thus, this dissertation looks into the ability to leverage the configuration of a system to optimize its performance.A specific focus is made on energy consumption and the size of software systems.A prerequisite to optimizing a system is to understand its current performance.To gain insight into this subject, the configuration software JHipster was empirically analyzed.Exhaustively assessing the performances of configurations of JHipster, wrt several indicators, showed that different configurations have indeed different performances.Thus, relying on performance insight, it is possible to create high-performance configurations of JHipster.Furthermore, some performance indicators proved correlated across configurations.Therefore, the optimization goal can be simplified by ignoring redundant performance indicators.The process of creating optimized configurations of JHipster was performed manually, which is only possible in smaller configuration spaces.To tackle larger configuration spaces, an algorithm was created, defining how to assess the performance of each option, and then how to improve a given configuration using such performance data.However, optimizing a configuration by selecting high-performance options brought out limitations, as options can interact with each other:in some situations, pairing high-performance options may result in subpar performances.Similarly, low-performance options can prove unexpectedly efficient when paired together.Thus, the optimization algorithm has been designed to leverage such specific behaviors.Applying this algorithm to a large set of configurations showed that most of them can reach near-optimal performances, with only a limited set of modifications.However, performance constraints are not limited to a single performance indicator.Depending on the context, the energy consumption of a system may not be the single most impactful indicator to optimize.Thus, the optimization algorithm must be generalized to support several performance indicators.This generalized algorithm has been validated on a pair of performance indicators: the execution time and the size of the software.The main highlight of this validation is that half of all configurations can reach a local optimum by changing a single setting.Furthermore, by exhaustively applying the algorithm to the configuration space of a system, it was possible to follow how it navigates the configuration space to find optimal configurations.Analyzing this navigation highlighted current limitations in the algorithm, which can thus be further improved as future work.In its current state, the algorithm was published as an open-source tool under the name ICO
2

Wang, Yewan. "Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/ logicielle et de l’environnement associé". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2020. http://www.theses.fr/2020IMTA0175.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Depuis des années, la consommation énergétique du centre de donnée a pris une importance croissante suivant une explosion de demande dans cloud computing. Cette thèse aborde le défi scientifique de la modélisation énergétique d’un centre de données, en fonction des paramètres les plus importants. Disposant d’une telle modélisation, un opérateur pourrait mieux repenser / concevoir ses actuels / futurs centre de données. Pour bien identifier les impacts énergétiques des matériels et logiciels utilisés dans les systèmes informatiques. Dans la première partie de la thèse, nous avons réaliser un grand nombre évaluations expérimentales pour identifier et caractériser les incertitudes de la consommation d’énergie induite par les éléments externes : effets thermiques, différencesentre des processeurs identiques causées par un processus de fabrication imparfait, problèmes de précision issus d’outil de mesure de la puissance, etc. Nous avons terminé cette étude scientifique par le développement d’une modélisation global pour un cluster physique donné, ce cluster est composé par 48 serveurs identiques et équipé d’un système de refroidissement à expansion à direct, largement utilisé aujourd’hui pour les datacenters modernes. La modélisation permet d’estimer la consommation énergétique globale en fonction des configurations opérationnelles et des données relatives à l’activité informatique, telles que la température ambiante, les configurations du système de refroidissement et la charge des serveurs
For years, the energy consumption of the data center has dramatically increased followed by the explosion of demand in cloud computing. This thesis addresses the scientific challenge of energy modeling of a data center, based on the most important variables. With such modeling, an data center operator will be able to better reallocate / design the current / future data centers. In order to identify the energy impacts of hardware and software used in computer systems. In the first part of the thesis, to identify and characterize the uncertainties of energy consumption introduced by external elements: thermal effects, difference between identical processors caused by imperfect manufacturing process, precision problems resulting from power measurement tool, etc. We have completed this scientific study by developing a global power modeling for a given physical cluster, this cluster is composed by 48 identical servers and equipped with a direct expansion cooling system, conventionally used today for modern data centers. The modeling makes it possible to estimate the overall energy consumption of the cluster based on operational configurations and data relating to IT activity, such as ambient temperature, cooling system configurations and server load
3

Lambert, Charlène. "Simulation et optimisation énergétique de procédés agroalimentaires dans un logiciel de génie chimique. Modélisation du séchage convectif d'aliments solides et application à une sucrerie de betteraves". Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLA004.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Pour faire face aux réglementations européennes récentes, l'industrie alimentaire a un besoin crucial d'outils informatiques pour simuler l'ensemble de leur usine en vue de réconcilier les données industrielles et d'optimiser la consommation énergétique. De tels logiciels existent dans le domaine du génie chimique. Ils sont toutefois limités à des mélanges de gaz et de liquides dont les propriétés thermophysiques peuvent être correctement prédites par des modèles thermodynamiques. A ce jour, aucun logiciel commercial n'est capable à la fois de simuler un ensemble d'opérations unitaires alimentaires et de calculer les propriétés thermophysiques nécessaires des aliments, en particulier solides. Une première partie de ce doctorat est dédiée au développement d'un modèle de séchage par air chaud d'aliments solides. Ce modèle est en cours d'ajout dans la base de données d'opérations unitaires de ProSimPlus®. Il a été validé à échelle laboratoire dans le cadre du séchage de 4 produits de compositions et de géométries différentes. Son temps de simulation étant nettement supérieur à celui des autres modules de ProSimPlus®, une nouvelle méthode de réduction de modèle de séchage a également été développée. Pour faciliter le travail de caractérisation d'un nouveau produit, une méthode rapide et innovante d'identification de la diffusivité apparente de l'eau par méthode inverse a été développée. Une deuxième partie de ce doctorat porte sur la simulation et l'optimisation énergétique d'une sucrerie de betteraves, réalisée en collaboration avec V.E.R.I. Chacun des ateliers du site a été modélisé ProSimPlus® en utilisant uniquement des modules d'opérations unitaires non spécifiques de l'agroalimentaire. La modélisation a rendu possible la réconciliation des données industrielles et leur représentation avec une incertitude de 1 %. L'optimisation énergétique de la sucrerie a été réalisée en combinant analyses thermique et exergétique. Au cours de cette étude, des solutions techniques ont été proposées, permettant de diminuer significativement l'irréversibilité totale du site, le besoin en utilité froide et le débit de vapeur haute pression alimentant la sucrerie
To face recent European regulations, the food industry has a critical need for IT tools to simulate their entire factory to reconcile industrial data and optimize energy consumption. Such software exist in the field of chemical engineering. They are limited to mixtures of gases and liquids whose thermo-physical properties can be correctly predicted by thermodynamic models. To date, no commercial software is able to simulate most food unit operations and calculate the required thermophysical properties of foods, especially solid foods. A first part of this Ph.D. is dedicated to the development of a model of hot air drying of solid food. This model is being added to the ProSimPlus® unit operation module database. It has been validated in the laboratory scale for the drying of 4 products of different compositions and geometries. Its simulation time is significantly higher than the one of the other modules of ProSimPlus®. To overcome this issue, an innovative method of drying model reduction has been developed. To facilitate the characterization work of a new product, a new and rapid method for identifying the apparent diffusivity of water by a reverse approach was also developed. A second part of this PhD focuses on the simulation and energy optimization of a sugar beet factory, in collaboration with V.E.R.I. All the unit operations of the factory were modeled with ProSimPlus® using only modules of -food non-specific- unit operations. Data reconciliation has been performed and deviation between simulated and industrial data were below 1 %. Energy optimization of the sugar factory was performed by combining thermal and exergy analyses. In this study, technical solutions were proposed to significantly reduce the total irreversibility, the cold utility requirement and the mass flow-rate of high pressure steam supplying the factory
4

Pokam, Gilles. "Techniques de compilation pour la gestion et l'optimisation de la consommation d'énergie des architectures VLIW". Rennes 1, 2004. http://www.theses.fr/2004REN10045.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'emploie principalement à réduire la consommation d'énergie des architectures VLIW tout en essayant de préserver le maximum de performance possible. Contrairement à certaines approches logicielles tendant à favoriser l'optimisation de code pour obtenir des gains en énergie, nous présentons des arguments en faveur d'une approche synergique intégrant matériel et logicielà la fois. L'idée principale défendue tout au long de cette thèse repose sur le fait que seule une compréhension avançée du comportement dynamique d'un programme au niveau du compilateur est susceptible de produire un meilleur contrôle de la gestion de la consommation d'énergie. Pour cela, nous introduisons une technique d'analyse statique du comportement dynamique d'un programme afin de parvenir à identifier et à caractériser les chemins les plus fréquemment exécutés d'un programme. L'objectif visé étant la réduction de la consommation d'énergie, nous montrons par la suite que sur directive du compilateur, l'architecture de la machine peut être modifiée pour s'adapter à un état dynamique particulier du programme. Nous présentons les conditions d'une telle reconfiguration ainsi que les éventuelles modifications à apporter à l'architecture, à la fois pour le système des caches que pour le chemin de données d'un processeur VLIW.
5

Ordas, Sébastien. "Évaluation de méthodes faible consommation contre les attaques matérielles". Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS023/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La consommation des circuits intégrés n'a cessé d'augmenter cette dernière décennie. Avec l'augmentation du prix de l'énergie et la démocratisation des systèmes embarqués, des méthodes permettant de gérer le compromis consommation performance, comme la gestion dynamique de la fréquence et de la tension d'alimentation ou encore du potentiel de substrat, ont été élaborées. Ces méthodes, qui sont de plus en plus couramment mises en œuvre dans les systèmes intégrés, permettent de diminuer la consommation de ceux-ci, et mieux de gérer le compromis consommation performance. Certains de ces circuits, embarquant ces méthodes peuvent avoir à effectuer des opérations traitant des informations confidentielles. Il est donc nécessaire de s'interroger sur l'éventuel impact de ces sur la sécurité des systèmes intégrés. Dans ce contexte, les travaux de thèse reportés dans le présent document, ont eu pour objectif d'analyser la compatibilité de ces méthodes de gestion de la consommation avec la conception de circuits robustes aux attaques matérielles. Plus particulièrement, l'objectif a été de déterminer si ces techniques de conception faible consommation, constituent des obstacles réels ou bien facilitent les attaques matérielles par observation et perturbation exploitant le canal électromagnétique. Dans un premier temps, une étude sur l'efficacité des attaques par observation en présence de gestion aléatoire de la tension, de la fréquence et de la polarisation de substrat a été conduite. Dans un deuxième temps, l'impact de la gestion dynamique des tensions d'alimentation et de substrat sur la capacité à injecter des fautes par médium électromagnétique a été étudié. Ce document présente l'ensemble des résultats de ces analyses.Mots-clés : Attaques Matérielles, Attaques par Canaux Auxiliaires, Attaques par fautes, Canal électromagnétique, DVFS, Body-Biasing
The consumption of integrated circuits has been increasing over the last decade. With the increase of energy prices and the democratization of embedded systems, methods to manage the consumption performance compromise, such as the dynamic management of the frequency and the supply voltage or the substrate potential, were developed. These methods, which are becoming more commonly implemented in integrated systems, allow to reduce the consumption of those latter, and to better manage the tradeoff between consumption and performance.Some of these circuits, embedding these methods, may have to perform some operations with confidential information. It is therefore necessary to consider the possible impact of these methods on the safety of the integrated systems. In this context, the work reported in this thesis aimed to analyze the compatibility of these methods of power management with the design of robust circuits to physical attacks.Specifically, the objective was to determine whether these low-power techniques constitute real obstacles or facilitate the attacks by observation or perturbation exploiting the electromagnetic channel. Initially, a study on the effectiveness of attacks by observation in the presence of random management of voltage, frequency and substrate polarization was done. Secondly, the impact of the dynamic management of supply voltages and substrate polarization on the ability to inject faults by electromagnetic medium was studied. This document presents the overall results of these analyzes. Keyword : Hardware Attacks, Side Channel Attacks, Faults Attacks, Electromagnetic canal, DVFS, Body-biasing
6

Hamzaoui, Khalil Ibrahim. "Contribution à la modélisation de la consommation d'énergie dans un dispositif mobile". Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I030/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’objectif principal de cette thèse consiste à modéliser la consommation d’énergie d’une application particulière fonctionnant sur un appareil mobile. Nous proposons un modèle de suivi du comportement énergétique, nous décrivons également une méthodologie pour identifier les paramètres du modèle. À cette fin, nous avons analysé une collection de données expérimentales recueillies lors de mon tour de France en fauteuil roulant électrique. Nous avons appliqué des outils statistiques pour obtenir les paramètres du modèle. Nous validons enfin le modèle en comparant les résultats avec d’autres données expérimentales.La première étude de cas permet de comparer l’évolution du coût énergétique dans les environnements mobiles des différents composants des smartphones en se basant sur des plusieurs modèles énergétiques.— La deuxième étude de cas traite l’évaluation, les mesures du coût d’énergie consommée et les problèmes rencontrés dans les méthodes utilisées pour l’évaluation de la consommation d’énergie. Pour une meilleure évaluation, on a introduit le cas d’étude du comportement énergétique en utilisant les machines virtuelles.— La troisième étude de cas est basée sur le traitement des résultats des mesures obtenues lors de mon tour de France en fauteuil roulant électrique connecté. L’objectif consiste en une gestion anticipée des ressources, en réalisant des mesures réelles, ensuite, de faire le suivi du comportement énergétique dans un environnement réel et diversifié. Le modèle peut être utilisé pour définir une fréquence optimale en termes de consommation d’énergie pour des situations précises sans trop dégrader la qualité de service souhaitée par l’utilisateur
The main goal of this thesis is to model the power consumption of a particular application running on a mobile device. We propose a model of energy behavior monitoring, we also describe a methodology to identify the parameters of the model. To this end, we analyzed a collection of experimental data collected during my tour de France in an electric wheelchair. We applied statistical tools to obtain the parameters of the model. Finally, we validate the model by comparing the results with other experimental data.The first case study compares the evolution of the energy cost in the mobile environments of the different components of smartphones based on several energy models.- The second case study deals with the evaluation, the measurements of the energy cost consumed and the problems encountered in the methods used for the evaluation of energy consumption. For a better evaluation, the case study of energy behavior was introduced using the virtual machines.- The third case study is based on the treatment of the results of the measurements obtained during my tour of France in a connected electric wheelchair. The goal is to anticipate resource management, realizing measurements, and then tracking energy behavior in a real and diverse environment. The model can be used to define an optimal frequency in terms of energy consumption for specific situations without degrading the quality of service desired by the user
7

Cherifi, Nadir. "Assistance au développement de logiciels embarqués contraints en énergie". Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I036/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La désignation sous le terme d'Internet des Objets regroupe un ensemble vaste de systèmes connectés différents.Un nombre significatif de ces objets ne disposent pas d'une alimentation continue et sont alimentés grâce à des batteries. Par ailleurs, il existe de nombreux cas d'utilisation où le rechargement de cette dernière se trouve être difficile voire impossible (e.g. objet enfoui dans le béton pour la surveillance de structures). De ce fait, l'aspect énergétique représente une contrainte primordiale à prendre en compte par les développeurs lors de la conception de l'application embarquée sur l'objet. La problématique de nos travaux consiste à placer l'énergie comme ressource de premier ordre lors du développement en fournissant une aide et une assistance aux développeurs face à la complexité de gestion de cette ressource. Nous proposons comme solution une méthodologie et des outils pour soutenir les activités du développeur embarqué dans un environnement contraint en énergie. En outre, nous affirmons que la capacité de mesurer et de suivre finement la consommation énergétique des objets connectés, puis de la corréler au logiciel sous-jacent permet d'améliorer l'efficacité énergétique globale en mettant en œuvre des bonnes pratiques liées à l'utilisation des différents composants matériels.Pour arriver à cela, nous basons nos travaux sur une méthode de mesure énergétique matérielle capable de fournir des chiffres de consommation précis. Nous construisons ainsi un framework de profilage et de cartographie énergétique d'un logiciel embarqué permettant d'aider le développeur dans la compréhension du comportement énergétique de son application
The designation under the term Internet of Things brings together a vast array of different connected systems.A significant number of these objects do not have a continuous power supply and are therefore supplied with batteries. In addition, we can list multiple use cases where the recharging of the battery is difficult or impossible (e.g. a buried object for structures monitoring). As a result, the energetic aspect represents a primary constraint to be taken into account by the developers when designing the embedded application on the object. The work issue consists in placing energy as a hard resource during the development phase by providing assistance and help to the developers in the management of this complex resource. We propose as a solution a methodology and tools to support the activities of the embedded developer in a constrained energy environment. We assert that the ability to accurately measure and track the energy consumption of a connected object and then correlate it to the underlying software can improve overall energy efficiency by implementing best practices related to use of the different hardware components. To achieve this goal, we base our work on a hardware energy measurement method able of providing accurate consumption figures. We than build an energy profiling and cartography framework of embedded software to help the developer understand the energy behavior of his application
8

Ben, Atitallah Rabie. "Modèles et simulation des systèmes sur puce multiprocesseurs : estimation des performances et de la consommation d'énergie". Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10019.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La simulation des systèmes embarqués multiprocesseurs (MPSoC), dés les premières phases de conception, joue un rôle primordial puisqu'elle permet de réduire le temps d'arrivée sur le marché du produit final. Néanmoins, comme ces MPSoC deviennent de plus en plus complexes et hétérogènes, les méthodes conventionnelles de simulation de bas niveau ne sont plus adéquates. La solution proposée à travers cette thèse est l'intégration dans un seul environnement de plusieurs niveaux de simulation. Ceci permet l'évaluation des performances à un niveau précoce dans le flot de conception. L'environnement est utile dans l'exploration de l'espace des solutions architecturales et permet de converger rapidement vers le couple Architecture/Application le plus adéquat. Dans la première partie de cette thèse, nous présentons un outil de simulation performant et qui offre, à travers les trois niveaux qui le composent, différents compromis entre la vitesse de simulation et la précision de l'estimation des performances. Ces trois niveaux se différencient par les détails de l'architecture nécessaires à chacun et se basent sur le standard SystemC-TLM. Dans la deuxième étape, nous nous sommes intéressés à la consommation d'énergie dans les MPSoc. Pour cela, nous avons enrichi notre environnement de simulation par des modèles de consommation d'énergie flexibles et précis. Enfin dans la troisième étape de notre thèse, une chaîne de compilation basée sur la méthodologie Ingénierie Dirigée par les Modèles (!DM) est développée et intégrée à l'environnement Gaspard. Cette chaîne permet la génération automatique du code SystemC à partir d'une modélisation de haut niveau d'un MPSoc
Multiprocessor system on chip (MPSoC) simulation in the first design steps has an important impact in reducing the time to market of the final product. However, MPSoC have become more and more complex and heterogeneous. Consequently, traditional approaches for system simulation at lower levels cannot adequately Support the complexity needed for the design of future MPSoc. Ln this thesis, we propose a framework composed of several simulation levels. This enables early performance evaluation in the design flow. The proposed framework is useful for design space exploration and permits to find rapidly the most adequate Architecture/Application configuration. Ln the first part ofthis thesis, we present an efficient simulation tool composed of three levels that offer several performance/energy tradeoffs. The three levels are differentiated by the accuracy of architectural descriptions based on the SystemC- TLM standard. Ln the second part, we are interested by the MPSoC energy consumption. For this, we enhanced Our simulation framework with flexible and accurate energy consumption models. FinaIly in the third part, a compilation chain based on a Model Driven Engineering (MDE) approach is developed and integrated in the Gaspard environment. This chain allows automatic SystemC code generation from high level MPSoC modeling
9

Djeema, Ahcene. "Modélisation Bottom-Up, un outil d’aide à la décision long terme pour les mesures politiques en matière d’énergie et d’environnement : le modèle TIMES appliqué aux industries grandes consommatrices d’énergie". Paris, ENMP, 2009. http://pastel.paristech.org/5303/01/Thèse_ADjemaa.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail de thèse consiste à construire un modèle pour une prospective énergétique à long terme dans le but d'estimer l'effet des politiques énergétiques et environnementales sur les choix technologiques futures des secteurs industriels. L'accent a été mis sur les industries grandes consommatrices d'énergie (IGCE), pour 29 pays européen et pour un horizon de temps allant jusqu'à 2050. L'outil de modélisation appliqué dans cette étude est le modèle TIMES (famille du modèle MARKAL, il s'agit d'un générateur de modèle d'optimisation de type Bottom-up basé sur la programmation linéaire). L'étude est réalisée dans le cadre d'un partenariat entre EDF R&D et le Centre de Mathématiques appliquées (CMA) de l'Ecole des Mines de Paris. Dans notre analyse, nous avons identifié pour chaque secteur industriel, plusieurs technologies concurrentes. Elles sont choisies par le modèle sous la base de leur coût global actualisé en intégrant l'ensemble des contraintes (prix d'énergie, taxe sur le CO2, plafond sur les émissions…). La capacité à installer dépend étroitement de la demande finale qu'il faut satisfaire pour chaque période sur l'ensemble de l'horizon de temps considéré. Selon les contraintes imposées, les résultats obtenus permettent de : - tracer l'image de l'industrie (profil de production technologique), - calculer les consommations énergétiques et les potentiels d'économies d'énergies réalisables, - estimer les émissions de dioxyde de carbone résultantes. Ce travail indique qu'il existe encore un important potentiel d'économies d'énergie et de réductions des émissions de dioxyde de carbone dans l'ensemble des secteurs industriels
Among the energy users in France and Europe, some industrial sectors are very important and should have a key role when assessing the final energy demand patterns in the future. The aim of our work is to apply a prospective model for the long range analysis of energy/technology choices in the industrial sector, focussing on the energy-intensive sectors. The modelling tool applied in this study is the TIMES model (family of best known MARKAL model). It is an economic linear programming model generator for local, national or multi regional energy systems, which provides a technology-rich basis for estimating energy dynamics over a long term, multi period time. We illustrate our work with nine energy-intensive industrial sectors: paper, steel, glass, cement, lime, tiles, brick, ceramics and plaster. It includes a detailed description of the processes involved in the production of industrial products, providing typical energy uses in each process step. In our analysis, we identified for each industry, several commercially available state-of-the-art technologies, characterized and chosen by the Model on the basis of cost effectiveness. Furthermore, we calculated potential energy savings, carbon dioxide emissions' reduction and we estimated the energy impact of a technological rupture. This work indicates that there still exists a significant potential for energy savings and carbon dioxide emissions' reduction in all industries
10

Trigui, Rochdi. "Motorisation asynchrone pour véhicules électriques : modélisation, optimisation et évaluation". Vandoeuvre-les-Nancy, INPL, 1997. http://www.theses.fr/1997INPL064N.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Notre travail a porté sur la contribution à la conception d'un outil modulaire pour la simulation de véhicules électriques et hybrides sur des trajets d'usage réel. Notre apport a concerné plus précisément la motorisation asynchrone dont le modèle proposé ici tient compte des contraintes imposées à l'entrée et à la sortie du moteur électrique par le type d'usage du véhicule. En effet, une étude préliminaire concernant l'usage réel d'un véhicule utilitaire électrique de livraison nous a permis de mettre en évidence le domaine et le temps d'utilisation du moteur électrique. Celui ci est amené à fonctionner en surcharge pendant des périodes de courtes durées et à faibles puissances pendant un temps important. Le modèle du moteur asynchrone exposé dans ce travail présente de ce fait des paramètres variables pour tenir compte des phénomènes de saturation magnétique, d'effet de peau dans le rotor et de l'élévation de température. Nous présentons les méthodes pour l'identification de ces paramètres à partir d'essais à vide et en charge du moteur. Les mesures sont effectuées sur un banc d'essai muni d'un onduleur à IGBT et d'une commande vectorielle. Le module de calcul développé autour du modèle identifié permet de calculer les grandeurs électriques et énergétiques en offrant plusieurs possibilités de fonctionnement. Ce module est ensuite intégré dans le logiciel de simulation de véhicules électriques et hybrides VERT de l'INRETS. L'utilisation de ce logiciel nous a permis d'examiner deux solutions à motorisation asynchrone. La première a concerné un véhicule urbain léger dont l'étude des performances et de consommation d'énergie nous ont permis de comparer les différentes stratégies de commandes et de vérifier l'importance de l'usage réel du véhicule. La deuxième a consisté en une chaine de traction à deux moteurs asynchrones pour un véhicule utilitaire de livraison en vue d'une économie d'énergie.
11

Ben, Atitallah Rabie. "Modèles et simulation des systèmes sur puce multiprocesseurs : estimation des performances et de la consommation d'énergie". Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10019/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La simulation des systèmes embarqués multiprocesseurs (MPSoC), dés les premières phases de conception, joue un rôle primordial puisqu'elle permet de réduire le temps d'arrivée sur le marché du produit final. Néanmoins, comme ces MPSoC deviennent de plus en plus complexes et hétérogènes, les méthodes conventionnelles de simulation de bas niveau ne sont plus adéquates. La solution proposée à travers cette thèse est l'intégration dans un seul environnement de plusieurs niveaux de simulation. Ceci permet l'évaluation des performances à un niveau précoce dans le flot de conception. L'environnement est utile dans l'exploration de l'espace des solutions architecturales et permet de converger rapidement vers le couple Architecture/Application le plus adéquat. Dans la première partie de cette thèse, nous présentons un outil de simulation performant et qui offre, à travers les trois niveaux qui le composent, différents compromis entre la vitesse de simulation et la précision de l'estimation des performances. Ces trois niveaux se différencient par les détails de l'architecture nécessaires à chacun et se basent sur le standard SystemC-TLM. Dans la deuxième étape, nous nous sommes intéressés à la consommation d'énergie dans les MPSoc. Pour cela, nous avons enrichi notre environnement de simulation par des modèles de consommation d'énergie flexibles et précis. Enfin dans la troisième étape de notre thèse, une chaîne de compilation basée sur la méthodologie Ingénierie Dirigée par les Modèles (!DM) est développée et intégrée à l'environnement Gaspard. Cette chaîne permet la génération automatique du code SystemC à partir d'une modélisation de haut niveau d'un MPSoc
Multiprocessor system on chip (MPSoC) simulation in the first design steps has an important impact in reducing the time to market of the final product. However, MPSoC have become more and more complex and heterogeneous. Consequently, traditional approaches for system simulation at lower levels cannot adequately Support the complexity needed for the design of future MPSoc. ln this thesis, we propose a framework composed of several simulation levels. This enables early performance evaluation in the design flow. The proposed framework is useful for design space exploration and permits to find rapidly the most adequate Architecture/Application configuration. ln the first part ofthis thesis, we present an efficient simulation tool composed of three levels that offer several performance/energy tradeoffs. The three levels are differentiated by the accuracy of architectural descriptions based on the SystemC- TLM standard. ln the second part, we are interested by the MPSoC energy consumption. For this, we enhanced Our simulation framework with flexible and accurate energy consumption models. FinaIly in the third part, a compilation chain based on a Model Driven Engineering (MDE) approach is developed and integrated in the Gaspard environment. This chain allows automatic SystemC code generation from high level MPSoC modeling
12

Colmant, Maxime. "Multi-dimensional analysis of software power consumptions in multi-core architectures". Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10094/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’Informatique "verte" est très importante de nos jours. Parmi les raisons principales, nous pouvons mentionner le rôle majeur des centres de données qui consomment autant que 180 000 foyers en électricité. Associé aux préoccupations énergétiques, cet enjeu représente un challenge technologique et sociétal de premier ordre. Des watt-mètres sont actuellement utilisés et partagés pour récupérer un ensemble agrégé de rapports énergétiques sur plusieurs heures ou minutes. Cependant, pour améliorer l’efficacité énergétique des logiciels, nous devons dépasser ces limitations et proposer des estimations plus fines. Particulièrement, la communauté considère le CPU comme étant le composant le plus énergivore et est donc largement considéré lors de la modélisation énergétique de système. Des dizaines de modèles de consommation ont déjà été proposées pour prendre en compte la grande diversité et la complexité grandissante des CPUs. Dans cette thèse, nous proposons PowerAPI pour apprendre automatiquement les modèles de consommation et construire des watt-mètres logiciels permettant des estimations précises sur des architectures modernes. Avec l’émergence de l’Informatique dématérialisée, nous avons développé BitWatts et WattsKit pour pousser l’utilisation d’estimations énergétiques à grain fin au sein de VMs ou clusters. Un niveau encore plus fin peut être requis pour mieux évaluer l’efficacité d’optimisations logicielles et nous proposons donc codEnergy pour aider à mieux comprendre comment l’énergie est consommée par un logiciel. Nous démontrons aussi dans cette thèse l’utilité de PowerAPI pour mieux comprendre les consommations logicielles sur les architectures modernes
Energy-efficient computing is becoming increasingly important. Among the reasons, one can mention the massive consumption of large data centers that consume as much as 180,000 homes. This trend, combined with environmental concerns, makes energy efficiency a prime technological and societal challenge. Currently, widely used power distribution units (PDUs) are often shared amongst nodes to deliver aggregated power consumption reports, in the range of hours and minutes. However, in order to improve the energy efficiency of software systems, we need to support process-level power estimation in real-time, which goes beyond the capacity of a PDUs. In particular, the CPU is considered by the research community as the major power consumer within a node and draws attention while trying to model the system power consumption. Over the last few years, a dozen of ad hoc power models have been proposed to cope with the wide diversity and the growing complexity of modern CPU architectures. In this thesis, we rather propose PowerAPI for learning power models and building software-defined power meters that provide accurate power estimation on modern architectures. With the emergence of cloud computing, we propose BitWatts and WattsKit for leveraging software power estimation in VMs and clusters. A finer level of estimation may be required to further evaluate the effectiveness of the software optimizations and we therefore propose codEnergy for helping developers to understand how the energy is really consumed by a software. We deeply assessed all above approaches, thus demonstrating the usefulness of PowerAPI to better understand the software power consumption on modern architectures
13

Noureddine, Adel. "Towards a better understanding of the energy consumption of software systems". Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10009/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La consommation énergétique augmente dans les technologies informatiques, notamment à cause de l'augmentation de l'utilisation des services web et distribuée, l'informatique dans les nuages, ou les appareils mobiles. Par conséquent, des approches de gestion de l'énergie ont été développées, de l'optimisation du code des logiciels, à des stratégies d'adaptation basées sur l'utilisation des ressources matérielles. Afin de répondre à ces lacunes, nous présentons dans cette thèse, des modèles énergétiques, approches et outils pour estimer fidèlement la consommation énergétique des logiciels, au niveau de l'application, et au niveau du code, et pour inférer le modèle d'évolution énergétique des méthodes basé sur leurs paramètres d'entrées. Nous proposons aussi Jalen et Jalen Unit, des frameworks énergétiques pour estimer la consommation énergétique de chaque portion de code de l'application, et pour inférer le modèle d'évolution énergétique des méthodes en se basant sur des études et expériences empiriques. En utilisant des modèles énergétiques et d’outils d'estimations logicielles, nous pouvons proposer des informations énergétiques précises sans avoir besoin de wattmètres ou d'investissement de matériels de mesures énergétiques. Les informations énergétiques que nous proposons, offrent aussi aux approches de gestion énergétique des mesures directes et précises pour leurs approches d'adaptations et d'optimisations énergétiques. Ces informations énergétiques établissent aussi un modèle d'évolution énergétique des logiciels en se basant sur leurs paramètres d'entrées. Cela offre aux développeurs une connaissance plus profonde sur l'efficacité énergétique dans les logiciels
With the rise of the usage of computers and mobile devices, and the higher price of electricity, energy management of software has become a necessity for sustainable software, devices and IT services. Energy consumption in IT is rising through the rise of web and distributed services, cloud computing, or mobile devices. However, these approaches do not use proper energy information for their adaptations rendering themselves limited and not energy-aware. They do not provide an energy feedback of software, and limited information is available on how and where energy is spend in software code. To address these shortcomings, we present, in this thesis, energy models, approaches and tools in order to accurately estimate the energy consumption of software at the application level, at the code level, and for inferring energy evolution models based on the method's own input parameters. We also propose Jalen and Jalen Unit, energy frameworks for estimating how much energy each portion of code consumes, and for inferring energy evolution models based on empirical benchmarking of software methods. By using software estimations and energy models, we are able to provide accurate energy information without the need of power meters or hardware energy investment. The energy information we provide also gives energy management approaches direct and accurate energy measurements for their adaptations and optimizations. Provided energy information also draws a model of energy consumption evolution of software based on the values of their input parameters. This gives developers knowledge on energy efficiency in software leading to choose some code over others based on their energy performance
14

Nowicki, Cassandre. "Inventaire thermo-énergétique d'une aluminerie et évaluation du potentiel de récupération et d'intégration des rejets thermiques". Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29385/29385.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Rivalin, Lisa. "Vers une démarche de garantie des consommations énergétiques dans les bâtiments neufs : Méthodes d'évaluation des incertitudes associées à la simulation thermique dynamique dans le processus de conception et de réalisation". Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM007/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La garantie de performance énergétique des bâtiments neufs demande d'estimer, avant construction, l'énergie requise pour assurer le confort de ses utilisateurs. Pour cela, il est nécessaire de définir une consommation contractuelle raisonnablement probable et d'identifier les paramètres clés responsables d'un éventuel dépassement afin de les maitriser. Dans les bâtiments neufs, ce calcul est effectué en phase de conception, alors que beaucoup de données sont encore incertaines. Ainsi, la simulation thermique dynamique doit être effectuée avec des données de conception hypothétiques, sans possibilité de calibration sur des mesures.La thèse a pour but de développer une méthode de quantification des incertitudes lors de la conception et la réalisation d'un bâtiment neuf. Ces incertitudes sont classées en trois catégories : celles liées au modèle physique du bâtiment, celles provenant du manque de connaissance des paramètres à renseigner et celles dues aux sollicitations du bâtiment (usage et météo).Dans une première partie, les incertitudes liées aux méthodes de calcul sont abordées, afin de définir des pratiques permettant d'arbitrer entre finesse de modèle et paramètres inconnus à entrer. Puis, on définit une méthodologie permettant de choisir les paramètres incertains critiques qui seront inclus dans l'étude probabiliste et de leur associer une densité de probabilité, selon la connaissance dont on dispose. La partie centrale de la thèse est consacrée à une comparaison exhaustive des méthodes visant la sélection d'une méthode rapide de propagation des incertitudes et d'analyse de sensibilité. Enfin, après avoir illustré la démarche globale d'engagement et discuté de la prise en compte des risques financiers, la méthode est mise en œuvre sur un cas réel, en ajoutant une formule d'ajustement pour prendre en compte les sollicitations
Before the construction of a building, an energy performance guarantee consists in predicting the energy required for user comfort. To do that, it is necessary to state a contractual consumption and identify the key parameters to pay special attention to. Thus, for new buildings, consumption is calculated under design phase, when several data are uncertain. Thus, the dynamic thermal simulation is carried out with hypothetical data, without having the possibility to calibrate with measures.This PhD thesis aims to develop a method of uncertainty quantification during the design step and construction process of a new building. These uncertainties are classified into three categories: those associated with the calculation methods used for building and system modeling, those related to the lack of knowledge of model parameters and those due to the real use conditions of the building (occupancy and weather).To achieve this goal, uncertainties associated with the calculation methods are addressed, to identify some practices limiting the number of errors and the associated uncertainties. Then, a methodology is defined to choose the critical parameters used for the probabilistic study and to associate them with a distribution according to the available knowledge. The central part of this PhD thesis is dedicated to an exhaustive comparison of methods to select a fast uncertainty propagation and sensitivity analysis method. Finally, after illustrating the overall contracting approach and discussing the inclusion of financial risks, the method is applied on a real case, on which an adjustment formula is added to take into account actual weather and usage
16

Rifaii, Sarraj Ahmad. "Conception et évaluation d'un prototype de fauteuil roulant avec une technique non-conventionnelle de propulsion manuelle". Thesis, Lyon 1, 2009. http://www.theses.fr/2009LYO10349.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le but de ce travail est de prouver la supériorité d’une technique alternative de propulsion manuelle non-conventionnelle basée sur le système à leviers. La faisabilité d’un prototype intégrant la technique non-conventionnelle ainsi que les avantages et les inconvénients sont également recherchés. Les évaluations objectives et subjectives en relation avec l’interface sujetprototype ainsi que les habiletés sur terrain et les paramètres physiologiques ont fait l’objet d’études expérimentales. Le prototype conçu pourrait constituer une tentative dans le domaine de l’handisport permettant aux sportifs handicapés de recourir à une stratégie de propulsion manuelle non-conventionnelle évitant les complications induites par la technique conventionnelle
Wheelchair propulsion has been reported to be responsible for musculoskeletal pain in the upper extremities. Epidemiological studies have shown a high prevalence of shoulder complaints in paraplegic and quadriplegic spinal cord injured (SCI) people. It has been argued that the high incidence of shoulder complaints in SCI was the result of the weightbearing or propulsion function of the upper extremity in those subjects. This work aimed at proposing an alternative wheelchair propulsion technique based on the levers’ system. The interface prototype-users, the wheelchair skills evaluation, the oxygen uptake and the cardiac frequency are investigated by an objective and subjective studies. Our prototype is designed to be an attempt in the field of disabled athletes having some advantages of a non-conventional manual wheelchair propulsion technique, avoiding complications induced by the conventional one
17

Alhaj, Hasan Ola. "Optimization of building energy consumption using simplified models and new control methods". Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10162/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'inquiétude croissante concernant le futur des ressources énergétique a fait de l'optimisation énergétique une priorité dans tous les secteurs. De nombreux sujets de recherche se sont focalisés sur celui du bâtiment étant le principal consommateur d'énergie, en particulier à cause de ses besoins en chauffage. Beaucoup de propositions pour réduire la consommations ont été faites. Ceux-ci vont de l'amélioration de l'isolation au changement du système de gestion du thermostat en passant par la formation des occupants à une meilleure gestion de leur bâtiment. Cette thèse propose une nouvelle méthode de contrôle qui permet de minimiser la consommation énergétique et dépenses budgétaires. La méthode génère un planning énergétique sur une période de temps pré-définie, ceci en prenant compte du confort thermique des occupants. Elle est basée sur l'application de la méthode de Monte Carlo, un générateur aléatoire appliqué au système de chauffage. L'objectif est de déterminer le planning de chauffage optimal, qui respecte les trois contraintes suivantes: - Le confort thermique des résidents; - La minimisation de l'énergie consommée / du budget; - Le déplacement de la charge. De plus, pour tester cette méthode, l'identification du comportement thermique du bâtiment a été requise. De ce fait, un modèle thermique du bâtiment a été développé. Ce modèle a été volontairement simplifié afin de l'intégrer plus simplement dans le processus de contrôle. De plus, une nouvelle approche d'identification thermique du bâtiment aussi bien qu'une nouvelle méthode de contrôle en temps réel ont été présentées
With the highly developing concerns about the future of energy resources, the optimization of energy consumption becomes a must in all sectors. A lot of research was dedicated to buildings regarding that they constitute the highest energy consuming sector mainly because of their heating needs. Many proposals of new strategies to minimize building consumption were done. These proposals vary between recommending better insulation, advising change in occupants' behavior and changing the heating control management. This thesis proposes a new control method that helps minimizing the heating consumption and expenses. This method generates an energy plan over a defined prediction horizon respecting the occupants’ thermal comfort. It is based on the application of Monte Carlo method, i.e., a random generator for the heating system scenarios. The aim is to determine the optimal heating plan for the prediction horizon that fulfills the constraints regarding the following three factors: • The thermal comfort of occupants; • The minimization of the energy consumption/expenses; • Load shifting. However, to test this method, an identification of the building thermal behavior was needed. Thus, a building thermal model to simulate the building behavior was developed. This model was meant to be simplified in order to better integrate it in the control process. Furthermore, a new parameter estimation approach as well as a real time temperature control method are presented to ensure the implementation of the optimal predicted plan
18

Labbé, Stéphane. "Développement d'un outil de coupe économique et écologique pour le broyage des végétaux : analyse du mode de coupe, prototypage et innovation des moyens de coupe et de broyage". Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0296/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’utilisation des plaquettes bois dans le secteur de l’énergie est en pleine croissance depuis les objectifs fixés par le grenelle de l’environnement. Cette utilisation croissante nécessite de plus en plus de matière première ainsi que des matériels de transformation. Ces machines de type déchiqueteuse / broyeur forestier consomme beaucoup d’énergie et dont la principale source est le pétrole. C’est pourquoi cette recherche propose dans un premier temps de définir un moyen d’évaluer la performance énergétique de ces machines puis dans un deuxième temps d’évaluer l’influence des paramètres de coupe sur la performance énergétique. Ce critère est défini comme le rapport entre la tonne de plaquettes sèches et l’énergie consommée par la déchiqueteuse. Il permettra d’évaluer une déchiqueteuse du marché. L’évaluation de la performance énergétique est réalisée en deux endroits distincts de la déchiqueteuse, proche de la coupe et de manière globale. Les différents résultats de l’influence des paramètres de coupe sont présentés afin de caractériser les plus importants dans le but d’une optimisation de la machine étudiée. Cette optimisation a permis de doubler la performance énergétique de la machine. La thèse a également mis en évidence les limites de l’utilisation de certains organes de sécurité réduisant la performance énergétique de 40%. Les différents travaux de recherche doivent permettre d’aider les concepteurs dans le dimensionnement de la source d’énergie nécessaire pour déchiqueter le bois
Consumption of fuelwood, mainly in the form of wood chips, is growing to achieve the goal fixed by the “Grenelle de l’Environment” Laws. Increasing wood chip production needs more and more raw materials and use of wood chippers or shredders is well established. These machines are very energy-consuming particularly in gasoline. First, this thesis presents original methods for measuring chipper performance and focuses on influence of cutting parameters on energy efficiency. Wood chipper energy performance is defined by the ratio between tonnes of dry wood chips and power consumed by the machine to produce them. Using energy efficiency determination method, all wood chippers will be compared and will help customer to choose the machine that consumes the least energy to produce wood chips. Wood chipper performance is measured at two different locations: one closer to the cutting area and the other at the wood chipper drive. The results show that wood chipper performance factor is properly defined and cutting parameters impacts wood chip performance. Cutting optimization halves the chipper fuel consumption to produce the same wood chips quantity. The results also show the limits of safeguard that reduce by 40% chipper performance. This thesis must help designers for developing more efficient machines to reduce their impact on the environment
19

Bramas, Quentin. "Réseaux de capteurs sans fil efficaces en énergie". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066309/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les réseaux de capteurs sans fil sont constitués de noeuds capteurs, capables de récolter des données, de les analyser et de les transmettre. Ces réseaux ont plusieurs applications, en fonction de la zone où ils sont déployés. Application militaire ou de sauvetage dans des zones pouvant être inaccessibles aux humains ; application sanitaire avec des capteurs déployés sur et dans le corps humain ; application de surveillance avec des capteurs sur les voitures d'un ville, ou les arbres d'une forêt. Les noeuds sont autonomes en énergie et il est primordial d'assurer leur longévité sans retarder la récolte des données. La tache principale réalisée par les réseaux de capteurs sans fils consiste à effectuer des mesures et à envoyer ces données jusqu'à un noeud coordinateur. Cette tache d'agrégation est effectuée régulièrement, ce qui en fait la plus consommatrice d'énergie. L'étude approfondie de la consommation d'énergie des capteurs, qui au centre de ma thèse, peut se traduire de différentes manières. Premièrement, nous avons étudié la complexité du problème de l'agrégation de données en utilisant un modèle simplifié pour représenter un réseau de capteurs sans fils. Secondement, nous nous sommes concentrés sur l'estimation de cette durée de vie. Nous présentons WiSeBat, un modèle de batterie et de consommation d'énergie optimisé pour les réseaux de capteurs, implémenté dans le simulateur WSNET. Après validation, nous l'utilisons pour comparer les performances des algorithmes de broadcast efficaces en énergie
A wireless sensor network is an ad-hoc network connecting small devices equipped with sensors. Such networks are self-organized and independent of any infrastructure. The deployment of a WSN is possible in areas inaccessible to humans, or for applications with a long lifetime requirement. Indeed, devices in a wireless sensor network are usually battery-powered, tolerate failure, and may use their own communication protocols, allowing them to optimize the energy consumption. The main application of WSNs it to sense the environment at different locations and aggregate all the data to a specific node that logs it and can send alerts if necessary. This task of data aggregation is performed regularly, making it the most energy consuming. As reducing the energy consumed by sensor is the leading challenge to ensure sustainable applications, we tackle in this thesis the problem of aggregating efficiently the data of the network. Then, we study lifetime evaluation techniques and apply it to benchmark existing energy-centric protocols
20

Hecht, Geoffrey. "Détection et analyse de l'impact des défauts de code dans les applications mobiles". Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10133/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les applications mobiles deviennent des logiciels complexes qui doivent être développés rapidement tout en évoluant de manière continue afin de répondre aux nouveaux besoins des utilisateurs ainsi qu'à des mises à jour régulières. S'adapter à ces contraintes peut provoquer la présence de mauvais choix d'implémentation ou de conception que nous appelons défauts de code. La présence de défauts de code au sein d'une application peut dégrader la qualité et les performances d'une application. Il est alors important de connaître ces défauts mais aussi de pouvoir les détecter et les corriger. Les défauts de code sont bien connus pour les applications orientés objets et de nombreux outils permettent leurs détections, mais ce n'est pas le cas pour les applications mobiles. Les connaissances concernant les défauts de code dans les applications mobiles sont lacunaires, de plus les outils permettant la détection et la correction des défauts sont inexistants ou peu matures. Nous présentons donc ici une classification de 17 défauts de code pouvant apparaître dans les applications Android, ainsi qu'un outil permettant la détection et la correction des défauts de code sur Android. Nous appliquons et validons notre méthode sur de grandes quantités d'applications (plus de 3000) dans deux études qui évaluent la présence et l'évolution du nombre des défauts de code dans des applications populaires. De plus, nous présentons aussi deux approches destinées à évaluer l'impact de la correction des défauts de code sur les performances et la consommation d'énergie. Ces approches nous ont permis d'observer que la correction des défauts de code est bénéfique dans la plupart des cas
Mobile applications are becoming complex software systems that must be developed quickly and evolve continuously to fit new user requirements and execution contexts. However, addressing these constraints may result in poor low-level design choices, known as code smells. The presence of code smells within software systems may incidentally degrade their quality and performance, and hinder their maintenance and evolution. Thus, it is important to know this smells but also to detect and correct them. While code smells are well-known in object-oriented applications, their study in mobile applications is still in their infancy. Moreover there is a lack of tools to detect and correct them. That is why we present a classification of 17 code smells that may appear in Android applications, as well as a tool to detect and correct code smells on Android. We apply and validate our approach on large amounts of applications (over 3000) in two studies evaluating the presence and evolution of the number of code smells in popular applications. In addition, we also present two approaches to assess the impact of the correction of code smells on performance and energy consumption. These approaches have allowed us to observe that the correction of code smells is beneficial in most cases
21

Zahaf, Houssam-Eddine. "Energy efficient scheduling of parallel real-time tasks on heterogeneous multicore systems". Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10100/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les systèmes cyber-physiques (CPS) et d’Internet des objets génèrent un volume et une variété des données sans précédant. Le temps que ces données parcourent le réseau dans son chemin vers le cloud, la possibilité de réagir à un événement critique pourrait être tardive. Pour résoudre ce problème, les traitements de données nécessitant une réponse rapide sont faits à proximité d’où les données sont collectées. Ainsi, seuls les résultats du pré-traitement sont envoyées au cloud et la réaction pourrai être déclenché suffisamment rapide pour préserver l’intégrité du système. Ce modèle de calcul est connu comme Fog Computing. Un large spectre d’applications de CPS ont des contraintes temporelle et peuvent être facilement parallélisées en distribuant les calculs sur différents sous-ensembles de données en même temps. Ceci peut permettre d’obtenir un temps de réponse plus court et un temps de creux plus large. Ainsi, on peut réduire la fréquence du processeur et/ou éteindre des parties du processeur afin de réduire la consommation d’énergie. Dans cette thèse, nous nous concentrons sur le problème d'ordonnancement d’un ensemble de taches temps-réels parallèles sur des architectures multi-coeurs dans l’objectif de réduire la consommation d’énergie en respectant toutes les contraintes temporelles. Nous proposons ainsi plusieurs modèles de tâches et des testes d'ordonnançabilité pour résoudre le problème d’allocation des threads aux processeurs. Nous proposons aussi des méthodes qui permettent de sélectionner les fréquences et les états des processeurs. Les modèles proposés peuvent être implantés comme des directives dans la même logique que OpenMP
Cyber physical systems (CPS) and Internet of Objects (IoT) are generating an unprecedented volume and variety of data that needs to be collected and stored on the cloud before being processed. By the time the data makes its way to the cloud for analysis, the opportunity to trigger a reply might be late. One approach to solve this problem is to analyze the most time-sensitive data at the network edge, close to where it is generated. Thus, only the pre-processed results are sent to the cloud. This computation model is know as *Fog Computing* or *Edge computing*. Critical CPS applications using the fog computing model may have real-time constraints because results must be delivered in a pre-determined time window. Furthermore, in many relevant applications of CPS, the processing can be parallelized by applying the same processing on different sub-sets of data at the same time by the mean parallel programming techniques. This allow to achieve a shorter response time, and then, a larger slack time, which can be used to reduce energy consumption. In this thesis we focus on the problem of scheduling a set of parallel tasks on multicore processors, with the goal of reducing the energy consumption while all deadlines are met. We propose several realistic task models on architectures with identical and heterogeneous cores, and we develop algorithms for allocating threads to processors, select the core frequencies, and perform schedulability analysis. The proposed task models can be realized by using OpenMP-like APIs
22

Tittelein, Pierre. "Environnements de simulation adaptés à l'étude du comportement énergétique des bâtiments basse consommation". Phd thesis, Chambéry, 2008. http://tel.archives-ouvertes.fr/tel-00350664.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En France, à partir de 2012, tous les bâtiments neufs devront répondre aux critères de basse consommation, c'est-à-dire qu'ils devront consommer moins de 50 kW.h/(m².an) en énergie primaire pour le chauffage, le refroidissement, la ventilation, la production d'eau chaude sanitaire et l'éclairage (à moduler selon la région et l'altitude). La simulation numérique a un rôle important à jouer pour atteindre cet objectif.
Les environnements de simulation énergétique existants ont été conçus pour des bâtiments classiques pour lesquels les consommations sont beaucoup plus importantes que celles fixées pour 2012, il faut donc voir si les modèles mais aussi les méthodes de simulations utilisés correspondent toujours aux spécificités de ces nouveaux bâtiments. L'objectif de ce travail est de montrer l'intérêt d'utiliser un environnement de simulation basé sur les systèmes d'équations pour étudier le comportement énergétique des bâtiments basse consommation.
Pour cela, plusieurs modèles ont été implémentés dans l'environnement SIMSPARK. Il s'agit d'un modèle de matériau à changement de phase, d'un modèle de prise en compte du rayonnement de courtes longueurs d'onde par calcul de la tache solaire et d'un modèle d'échangeur air-sol. Ils ont été intégrés dans un modèle global de bâtiment basse consommation ce qui a permis de montrer les avantages de l'environnement de simulation utilisé. Le fait qu'il soit orienté objet permet de valider indépendamment les nouveaux modèles puis de les intégrer facilement à un modèle de niveau hiérarchique supérieur. Le fait qu'il soit basé sur les systèmes d'équations a permis grâce à la non orientation a priori du modèle d'inverser le sens de résolution de plusieurs problèmes dans une simulation dynamique. Enfin, la robustesse des méthodes de résolution utilisées a été éprouvée.
23

Giraudet, Louis-Gaëtan. "Les instruments économiques de maîtrise de l'énergie : une évaluation multidimensionnelle". Phd thesis, Université Paris-Est, 2011. http://tel.archives-ouvertes.fr/tel-00599374.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse évalue l'efficacité de différentes formes de taxes, subventions et réglementations mises en place pour corriger les défaillances de marché qui s'opposent aux économies d'énergie. Elle mobilise plusieurs approches, selon un degré de complexité croissant. Dans un premier temps, un modèle microéconomique standard est développé pour comparer les performances statiques des différents instruments. Dans un deuxième temps, la représentation des comportements des consommateurs est approfondie dans un modèle de prospective de la consommation d'énergie pour le chauffage des ménages français, qui permet d'identifier les mécanismes dynamiques par lesquels les instruments peuvent corriger les principales défaillances de marché. Dans un troisième temps, une évaluation empirique des dispositifs de " certificats blancs " - obligations échangeables d'économies d'énergie imposées aux opérateurs énergétiques - est menée à partir d'une comparaison des expériences britannique, italienne et française, en intégrant les institutions dans l'analyse. Le croisement de ces différentes approches montre que : (i) les taxes sur l'énergie, qui encouragent à la fois l'investissement dans l'efficacité énergétique et la sobriété des comportements, sont particulièrement efficaces ; (ii) les réglementations sur l'efficacité énergétique ont un impact significatif sur la diffusion des technologies efficaces ; (iii) les subventions à l'efficacité énergétique génèrent un effet rebond important ; (iv) en fonction de l'environnement institutionnel dans lequel ils s'insèrent, les " certificats blancs " combinent les propriétés de ces instruments. Appliquée en France au secteur du bâtiment résidentiel, la combinaison la plus efficace de ces instruments ne permet pas d'atteindre les objectifs d'économies d'énergie définis dans le cadre du Grenelle de l'environnement
24

Ranjaranimaro, Manitra Pierrot. "Évaluation de la qualité environnementale, du fonctionnement énergétique des espaces batis à Madagascar : application des outils de simulation sur un site universitaire d’Antsiranana". Thesis, La Réunion, 2019. http://www.theses.fr/2019LARE0011/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le secteur du bâtiment participe à hauteur de plus de 50% de la consommation d’énergie à l’échelle mondiale. Cette consommation ne cesse d’augmenter depuis ces trente dernières années. L’impact environnemental de la consommation d’énergie au niveau de ce secteur est en évolution permanente malgré les recommandations prises durant les COP. Ces constatations sont valables pour la France métropolitaine et aussi pour le cas de Madagascar. Au-delà de la maitrise de la consommation d’énergie, en phase de fonctionnement d’un espace bâti, nous devons également prendre en compte les impacts environnementaux de la phase de construction notamment en ce qui concerne les indicateurs de changement climatique, des maitrises de ressources et de la pollution. Cette thèse s’articule autour de trois concepts. En premier lieu, il s’agit de l’analyse des flux matière autour de leurs caractéristiques techniques et de leurs impacts environnementaux et économiques lors de la construction de l’espace bâti. Dans un second temps, notre analyse se focalise sur l’analyse de flux d’énergie en vue de connaitre la signature énergétique et environnementale du fonctionnement de l’espace bâti et de la mise en œuvre d’un fichier horaire traduisant les caractéristiques de la consommation d’énergie (Profil de consommation journalier et annuel). En dernier lieu, nous abordons également la problématique du pilotage de la distribution de l’énergie électrique dans un espace bâti en vue de dimensionner un système de production d’EnR et un système de stockage et de lisser la courbe de consommation au niveau du réseau de distribution
The building sector accounts for more than 50% of global energy consumption. This consumption has been increasing steadily over the last thirty years. The environmental impact of energy consumption in this sector is constantly changing despite the recommendations made during the COPs. These findings are valid for metropolitan France and also for Madagascar. Beyond the control of energy consumption, during the operating phase of a built space, we must also take into account the environmental impacts of the construction phase, particularly with regard to climate change indicators, resource management and pollution. This thesis is based on three concepts. First, it is about the analysis of material flows around their technical characteristics and their environmental and economic impacts during the construction of the built space. In a second step, our analysis focuses on the analysis of energy flows in order to know the energy and environmental signature of the functioning of the built space and the implementation of a time file reflecting the characteristics of energy consumption (Daily and annual consumption profile). Finally, we also discuss the problem of managing the distribution of electrical energy in a built-up area in order to size an renewable energy production system and a storage system and to smooth the consumption curve at the level of the distribution network
25

Igual, Pérez Román José. "Platform Hardware/Software for the energy optimization in a node of wireless sensor networks". Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10041/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'incroyable augmentation d'objets connectés dans le monde de l'Internet des Objets impliquera plusieurs problèmes. L'efficacité énergétique est un des principaux. Le présent travail étudie l'efficacité énergétique et, plus précisément, la modélisation de l'énergie consommée par le nœud.Nous avons créé une plateforme matérielle et logicielle appelée Synergie. Cette plateforme est composée d'un ensemble d'outils matériel/logiciel :- un dispositif de mesure de la consommation d'énergie;- un algorithme qui crée automatiquement un modèle de la consommation de l'énergie;- un estimateur de la durée de vie du nœud.La plateforme des mesures de l'énergie récupère les valeurs de courant directement du nœud. Ces courants sont mesurés composant par composant du circuit et fonction par fonction du logiciel embarqué. Cette analyse matérielle/logicielle offre information sur le comportement de chaque composant.Un algorithme crée automatiquement un modèle de la consommation énergétique basé sur une chaîne de Markov. Ce modèle est une représentation stochastique du comportement énergétique du nœud en fonctionnement in situ. Le nœud fonctionne dans un réseau réel et dans des conditions réelles de canal.Finalement, une estimation de la durée de vie du nœud est réalisée en utilisant des modèles de batterie. L'estimation est possible grâce au caractère stochastique du modèle de la consommation. La possibilité de simplement changer les paramètres de consommation pour améliorer la durée de vie est présentée.Ce travail représente la première étape d'un projet global qui a pour but obtenir des réseaux de capteurs sans fil autonomes en énergie
The significant increase of connected objects in Internet of Things will entail different problems. Among them, the energy efficiency. The present work deals with the energy efficiency and more precisely with the study of the modeling of the energy consumption in the node.We have designed a platform to instrument a node of wireless sensor network in its real environment. The hardware and software platform is made of:- a hardware energy measurement platform;- a software allowing the automatic generation of an energy consumption model;- a node lifetime estimation algorithm.The energy measurement platform recovers the current values directly from the node under evaluation, component per component in the electronic circuit and function per function of the embedded software. This hardware/software analysis of the energy consumption offers important information about the behavior of each electronic component in the node.An algorithm carries out a statistical analysis of the energy measurements. This algorithm creates automatically an energy consumption model based on a Markov chain. Thus, this platform allows to create a stochastic model of the energy behavior of a real node, in a real network and in real channel conditions. The model is made in contrast to the deterministic energy models found in the literature, whose energy behavior is extracted from the datasheets of the components. Finally, we estimate the node lifetime based on battery models. We also show on examples the simplicity to change some parameters of the model in order to improve the energy efficiency
26

Bramas, Quentin. "Réseaux de capteurs sans fil efficaces en énergie". Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066309.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les réseaux de capteurs sans fil sont constitués de noeuds capteurs, capables de récolter des données, de les analyser et de les transmettre. Ces réseaux ont plusieurs applications, en fonction de la zone où ils sont déployés. Application militaire ou de sauvetage dans des zones pouvant être inaccessibles aux humains ; application sanitaire avec des capteurs déployés sur et dans le corps humain ; application de surveillance avec des capteurs sur les voitures d'un ville, ou les arbres d'une forêt. Les noeuds sont autonomes en énergie et il est primordial d'assurer leur longévité sans retarder la récolte des données. La tache principale réalisée par les réseaux de capteurs sans fils consiste à effectuer des mesures et à envoyer ces données jusqu'à un noeud coordinateur. Cette tache d'agrégation est effectuée régulièrement, ce qui en fait la plus consommatrice d'énergie. L'étude approfondie de la consommation d'énergie des capteurs, qui au centre de ma thèse, peut se traduire de différentes manières. Premièrement, nous avons étudié la complexité du problème de l'agrégation de données en utilisant un modèle simplifié pour représenter un réseau de capteurs sans fils. Secondement, nous nous sommes concentrés sur l'estimation de cette durée de vie. Nous présentons WiSeBat, un modèle de batterie et de consommation d'énergie optimisé pour les réseaux de capteurs, implémenté dans le simulateur WSNET. Après validation, nous l'utilisons pour comparer les performances des algorithmes de broadcast efficaces en énergie
A wireless sensor network is an ad-hoc network connecting small devices equipped with sensors. Such networks are self-organized and independent of any infrastructure. The deployment of a WSN is possible in areas inaccessible to humans, or for applications with a long lifetime requirement. Indeed, devices in a wireless sensor network are usually battery-powered, tolerate failure, and may use their own communication protocols, allowing them to optimize the energy consumption. The main application of WSNs it to sense the environment at different locations and aggregate all the data to a specific node that logs it and can send alerts if necessary. This task of data aggregation is performed regularly, making it the most energy consuming. As reducing the energy consumed by sensor is the leading challenge to ensure sustainable applications, we tackle in this thesis the problem of aggregating efficiently the data of the network. Then, we study lifetime evaluation techniques and apply it to benchmark existing energy-centric protocols
27

Gouin, Victor. "Évaluation de l’impact du Smart Grid sur les pratiques de planification en cas d’insertion de production décentralisée et de charges flexibles". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT097/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les réseaux intelligents, ou Smart Grids, résultent de la combinaison des réseaux électriques et des nouvelles technologies de l'information et de la communication. Ils s'accompagnent de changements de paradigmes comme l'insertion importante de production décentralisée et le développement de nouveaux modes de consommation, comme les véhicules électriques et les « consom'acteurs ». Des contraintes apparaissent ainsi sur des réseaux vieillissants et non dimensionnés pour ces nouveaux usages. Cette thèse étudie l'impact des nouveaux paradigmes sur les techniques de planification des réseaux électriques de distribution. Un premier outil utilisant un algorithme de recuit simulé adapté et des méthodes issues de la théorie des graphes a été développé pour dimensionner les réseaux à moindre coût, selon les règles usuelles de planification. Dans un second temps, une méthodologie combinant une approche de type Monte Carlo et la construction de profils annuels de charge a été proposée pour analyser l'impact de la production décentralisée et des véhicules électriques dans un contexte soumis à des incertitudes. La troisième étape du travail a été de mettre en place des fonctions avancées de conduite comme alternative aux solutions de renforcement, très coûteuses. Un regard particulier est porté sur les stratégies d'effacement. Enfin, une nouvelle planification opérationnelle combinant les précédents outils développés a été créée afin d'évoluer vers une planification des réseaux intelligents
The Smart Grids are the combination of electrical networks and new information and communication technologies. They deal with a change of paradigms that are the insertion of distributed generation and the development of new forms of consumption, such as electric vehicles and prosumers. These changes induce many constraints on networks both aging and historically not sized for this context. This thesis studies the impact of these paradigms on the rules for electrical distribution networks planning. A first tool using an adapted simulated annealing algorithm and methods from graph theory was developed to size the networks at low cost, according to the usual rules for planning. Secondly, a methodology combining a Monte Carlo approach and the construction of annual load profiles was proposed to analyze the impact of distributed generation and electric vehicles in an environment subject to uncertainties. The third stage of the work was to implement advanced distribution automations as an alternative to reinforcement, which is very expensive. This part is focused on demand side management. Finally, a new operational planning combining the previous developed tools was created to move towards the planning of the Smart Grids
28

Habib, Carol. "Energy-efficient data collection and fusion in wireless body sensor networks for continuous health monitoring". Thesis, Bourgogne Franche-Comté, 2018. http://www.theses.fr/2018UBFCD046.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Plusieurs défis existent dans les réseaux de capteurs corporels sans fil tels que la collecte et la fusion de données physiologiques dans un environnement contraignant. En effet, les nœuds de capteurs sans fil ont des ressources limitées en énergie, traitement et mémoire. En outre, une grande quantité de données est collectée. Ces données sont hétérogènes, ambiguës et imprécises. Ajoutons que l'interprétation des données est influencée par plusieurs facteurs externes tels que les informations contextuelles fournies par la personne surveillée. En conséquence la prise de décisions et l'analyse des informations extraite sont influencées.Tout d'abord une technique de collecte de données est proposée. Celle-ci a pour intérêt de réduire la quantité de données collectée et la consommation d'énergie. Dans le modèle proposé, l'énergie consommée par les nœuds capteurs sans fil pour capter et pour transmettre les signes vitaux est particulièrement ciblée. Il s'agit à la fois d'un mécanisme temps-réel pour l'adaptation du taux d'échantillonnage et d'un système de détection local permettant aux nœuds de transmettre uniquement les données indiquant un changement dans l'état de santé de la personne.Deuxièmement, un modèle de fusion de données pour l'évaluation de l'état de santé de la personne surveillée est proposé. Les données fusionnées sont les signes vitaux de la personne qui proviennent de plusieurs capteurs. Ces données sont interprétées de manière humaine et sont caractérisées par l'ambiguïté et l'imprécision. Ainsi, nous proposons d'utiliser un système d'inférence floue.Ensuite, nous proposons d'évaluer l'état de santé de la personne surveillée tout en prenant en compte le contexte dans lequel elle se trouve. Étant donné que les signes vitaux de l'être humain ainsi que son contexte tels que : son activité physique, son dossier médical et ses informations personnelles sont fortement corrélés, interprétation des signes vitaux est largement influencée. Plus particulièrement, nous proposons d'utiliser les ensembles flous hésitants pour déterminer subjectivement l'intensité de l'activité physique de la personne. L'approche proposée prend en considération le profil de la personne ainsi que les caractéristiques de l'activité physique en cours.Finalement, une application médicale spécifique est ciblée. Nous proposons de détecter et d'évaluer le stress en temps réel tout en considérant la consommation d'énergie. Shimmer 3 GSR + est utilisé comme capteur sans fil pour capter le signal Photoplethysmogram (PPG) et la conductance cutanée. Une application mobile Android est développée pour extraire du signal PPG les signes vitaux qui sont corrélés au stress tels que la fréquence cardiaque, la fréquence respiratoire et la pression artérielle
Several challenges exist in Wireless Body Sensor Networks such as the data collection and fusion especially that (1) wireless sensor nodes have limited energy, processing and memory resources, (2) the amount of periodically gathered data is huge, (3) the gathered data are characterized by a heterogeneous nature and (4) the data interpretation to ensure decision-support is influenced byseveral external factors such as the provided context information of the monitored person.In this thesis, the aforementioned challenges were tackled by proposing scientific aproaches. Firstly, an energy-efficient data collection technique is proposed. This technique targets the energy consumed by biosensor nodes for sensing and transmitting vital signs. It consists of a real-timesampling rate adaptation mechanism and a local detection system which are provided at the level of the nodes. Second, in order to perform a health assessment based on the collected data, a multisensor data fusion model is proposed. In this approach, the coordinator of the network performs anassessment of the patient's health condition based on the collected measurements of his/her vital signs. Such data is interpreted in a human-reasoning way and are characterized by ambiguity and imprecision. Thus, we propose to use a Fuzzy Inference System. Then, given that vital signs are highly correlated to the context of the monitored person, a context-aware multi-sensor data fusionmodel for health assessment is proposed. The person's context include his/her physical activity status, medical record and personal information. This information highly influences the interpretation of vital signs. Hesitant fuzzy sets are used to subjectively evaluate the intensity of the person's physical activities based on his/her personal information and the activity's characteristics. Finally, a specific healthcare monitoring application is targeted. A real-time stress detection and evaluation framework is proposed while taking into consideration the energy consumption constraint. Shimmer 3 GSR+ is used as a wireless sensor node to sense the Photoplethysmogram (PPG) signal and the skin conductance. An android mobile application is developed to extract from the PPG signal stress correlated vital signs such as the heart rate, the respiration rate and the blood pressure
29

Brouns, Jordan. "Développement d’outils numériques pour l'audit énergétique des bâtiments". Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1107/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le secteur du bâtiment représente aujourd'hui près de 45% de la facture énergétique nationale, et le parc des bâtiments existants se renouvelle lentement. L'audit énergétique est un outil d'aide à la décision permettant d'améliorer la performance des bâtiments en proposant des scénarios de rénovation adaptés. Cependant, les méthodes d'audit actuelles ne parviennent pas à saisir réellement les propriétés thermiques des bâtiments et les propositions de rénovation peuvent être inadaptées. Nous proposons une méthode innovante d'audit énergétique des bâtiments qui permet de réduire fortement les incertitudes sur les paramètres et la réponse thermique du modèle. Elle diffère des méthodes classiques par son protocole opératoire et ses outils de résolution numérique. En plus du recueil des scénarios d'usage, des caractéristiques thermiques des systèmes et du bâti, et des conditions climatiques, elle exploite l'information contenue dans la mesure de l'état thermique, composé des températures des pièces et des températures de surfaces de certaines parois et des émetteurs. Ces données alimentent un problème inverse d'identification de paramètres. L'utilisation d'un modèle aux EDP nous donne accès aux outils du contrôle optimal, et notamment à la méthode de l'état adjoint. Avec ce formalisme, le problème inverse se réécrit comme un problème d'optimisation non linéaire de calibration du modèle thermique. Les paramètres inconnus sont constitués des paramètres les plus influents : la capacité et la conductivité thermiques des parois, les caractéristiques des émetteurs, la transmittance des fenêtres et le débit de renouvellement d'air moyen. Nous proposons deux variantes de la méthode, que nous appliquons sur un cas d'étude numérique. La première nécessite les données de chaque puissance individuelle fournie aux émetteurs, et la seconde utilise une mesure globale de production de chaleur. L'approche est étudiée numériquement : le modèle thermique sert à la fois pour la génération des mesures et pour l'identification. Une fois les mesures de l'état thermique synthétisées, les paramètres retenus sont perturbés suivant les incertitudes classiques du bâtiment. Nous éprouvons la méthode sur un échantillon de tirages aléatoires, engendrant autant d'initialisations pour l'algorithme, afin de calculer l'incertitude de la méthode. L'allègement du protocole opératoire pour la seconde variante se traduit toutefois par une baisse de la précision de l'identification. Nous analysons la robustesse de la méthode lorsque les conditions climatiques de l'audit changent, que le bruit des capteurs de l'état thermique augmente, et pour de fortes incertitudes initiales des paramètres. Nous montrons que la méthode est stable par rapport au bruit des capteurs et que l'incertitude sur l'état thermique du bâtiment est globalement réduite. Afin d'améliorer la prise en compte de l'aéraulique, nous proposons une technique permettant de discriminer deux sources ayant des dynamiques différentes : l'une constante par morceaux, l'autre régulière dans le temps. La méthode résout un problème inverse prenant en compte la régularité des fonctions par projection. Cet outil est validé sur une étude expérimentale, dont les résultats démontrent la robustesse au bruit de mesure. Ce résultat constitue un jalon dans la volonté de s'affranchir de la contrainte de maîtrise de scénarios d'usage de la méthode d'audit. Enfin, nous proposons un formalisme inverse pour caractériser les propriétés thermiques d'une structure 3D à partir de mesures de température sur une partie de sa frontière. L'outil permet de reconstruire différentes formes et natures de défauts. Il pourrait trouver des débouchés dans la caractérisation de défauts d'isolation ou de ponts thermiques
The building sector currently accounts for nearly 45% of the national energy bill, and the existing buildings are slowly renewed. Energy audit is a tool for decision support to improve building performance by providing suitable renovation strategies. However, actual energy audit methods fail to completely determine the building thermal properties, and the proposed retrofit strategies may be inappropriate. We propose an innovative energy audit method which significantly reduces the uncertainties on the building thermal parameters and the thermal state. It differs from conventional methods by its operating protocol and its numerical resolution. In addition to the collection of use scenarios, thermal characteristics of built and systems, and weather conditions, it exploits the information embedded in the measurement of the thermal state, composed of the temperatures of the rooms, and the surface temperature of walls and heating devices. This data feed an inverse problem of parameters identification. Using a model for EDP gives us a direct access to the tools of the optimal control theory, including the adjoint state method. With this formalism, the inverse problem can be rewritten as a nonlinear optimization problem of the calibration of the thermal model. The unknown parameters consist of the most influential parameters of the building thermal model: the heat capacity and the thermal conductivity of the walls, the heaters characteristics, the windows transmittance and the mean rate of air renewal. We propose two alternatives to the method. The first requires the data of each individual power provided to heating device, and the second uses a global measure of the heat production. We apply them on a numerical case study: the thermal model is used for both the measures generation and the parameters identification. Once the thermal state measurements are synthesized, the selected parameters are disturbed by conventional uncertainties of the building. We investigate the method on a randomly generated sample, which gives us as many starting values for the algorithm. This allows to compute the uncertainty of the method. Reducing the operating protocol for the second alternative results in a decrease of the identification accuracy. We analyze the robustness of the method when the weather conditions of the audit change, when the sensor noise of the thermal state increases, and when we deal with strong initial parameter uncertainties. We show that the method is stable compared to the sensor noise and the thermal response of the rooms is generally well reconstructed. In order to improve the ventilation consideration, we then propose a technique to distinguish two thermal sources whose dynamics differ: one piecewise constant, and one smooth in time. The method is to solve an inverse problem, taking into account the temporal regularity of functions by a projection step. This tool has been validated on an experimental study, and the results demonstrate robustness to measurement noise. This result is a milestone in the will to overcome the constraint of precisely describing to use scenarios in the audit methodology. Finally, we propose an inverse formalism to characterize the thermal properties of a 3D structure from temperature measurements on a part of its boundary. The tool allows the reconstruction of various types and forms of internal defects. He could find opportunities in the thermal building diagnostics for characterizing insulation defects or thermal bridges
30

Martin-Bonnel, de Longchamp Lucie. "Evaluation du risque de non atteinte de la performance énergétique après rénovation : biais cognitifs, asymétries d'information et incitations optimales". Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAB002/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse contribue à rendre le marché de la rénovation énergétique durable et autonome. L’objectif est de contribuer à quantifier le risque de non atteinte de la performance énergétique après rénovation. Tout d’abord, nous analysons les facteurs psychologiques des ménages à prendre en compte pour améliorer les modèles de prédictions de consommation d’énergie. Via le programme Je rénove BBC, nous mettons en évidence quatre biais cognitifs impactant l’écart de la consommation d’énergie réelle et prédite. Puis, nous étudions les structures de contrats les plus appropriés pour améliorer le déroulement des chantiers, incitant les artisans à mieux travailler. D’une part, nous déterminons des contrats pour un Agent devant effectuer deux tâches et sous-estimant l’impact de l’une d’entre elles sur la performance du bâtiment. D’autre part, nous testons des incitations individuelles et collectives sur la capacité de plusieurs artisans à se coordonner selon leur formation initiale (DORéMI, …)
This thesis aims at contributing to make the energy renovation market long-lasting and self-sustaining. To achieve this, our objective is to quantify the risk of not achieving energy performance after renovation. First, we analyze households’ psychological factors that should be considered to improve energy consumption prediction models. Drawing on the Je rénove BBC program, we highlight four cognitive biases that negatively impact the difference between actual and predicted energy consumption. We then study the most appropriate contract structures improving the flow and quality of renovation projects, encouraging craftsmen to work better. On one hand, we determine optimal contracts for an Agent who has to perform two tasks and underestimates the impact of one of them on the building's performance. On the other hand, we test individual-based and group-based incentives on the ability of several real Agents (craftsmen) to coordinate, according to their initial training (DORéMI, …)
31

Nehmeh, Riham. "Quality Evaluation in Fixed-point Systems with Selective Simulation". Thesis, Rennes, INSA, 2017. http://www.theses.fr/2017ISAR0020/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le temps de mise sur le marché et les coûts d’implantation sont les deux critères principaux à prendre en compte dans l'automatisation du processus de conception de systèmes numériques. Les applications de traitement du signal utilisent majoritairement l'arithmétique virgule fixe en raison de leur coût d'implantation plus faible. Ainsi, une conversion en virgule fixe est nécessaire. Cette conversion est composée de deux parties correspondant à la détermination du nombre de bits pour la partie entière et pour la partie fractionnaire. Le raffinement d'un système en virgule fixe nécessite d'optimiser la largeur des données en vue de minimiser le coût d'implantation tout en évitant les débordements et un bruit de quantification excessif. Les applications dans les domaines du traitement d'image et du signal sont tolérantes aux erreurs si leur probabilité ou leur amplitude est suffisamment faible. De nombreux travaux de recherche se concentrent sur l'optimisation de la largeur de la partie fractionnaire sous contrainte de précision. La réduction du nombre de bits pour la partie fractionnaire conduit à une erreur d'amplitude faible par rapport à celle du signal. La théorie de la perturbation peut être utilisée pour propager ces erreurs à l'intérieur des systèmes à l'exception du cas des opérations un- smooth, comme les opérations de décision, pour lesquelles une erreur faible en entrée peut conduire à une erreur importante en sortie. De même, l'optimisation de la largeur de la partie entière peut réduire significativement le coût lorsque l'application est tolérante à une faible probabilité de débordement. Les débordements conduisent à une erreur d'amplitude élevée et leur occurrence doit donc être limitée. Pour l'optimisation des largeurs des données, le défi est d'évaluer efficacement l'effet des erreurs de débordement et de décision sur la métrique de qualité associée à l'application. L'amplitude élevée de l'erreur nécessite l'utilisation d'approches basées sur la simulation pour évaluer leurs effets sur la qualité. Dans cette thèse, nous visons à accélérer le processus d'évaluation de la métrique de qualité. Nous proposons un nouveau environnement logiciel utilisant des simulations sélectives pour accélérer la simulation des effets des débordements et des erreurs de décision. Cette approche peut être appliquée à toutes les applications de traitement du signal développées en langage C. Par rapport aux approches classiques basées sur la simulation en virgule fixe, où tous les échantillons d'entrée sont traités, l'approche proposée simule l'application uniquement en cas d'erreur. En effet, les dépassements et les erreurs de décision doivent être des événements rares pour maintenir la fonctionnalité du système. Par conséquent, la simulation sélective permet de réduire considérablement le temps requis pour évaluer les métriques de qualité des applications. De plus, nous avons travaillé sur l'optimisation de la largeur de la partie entière, qui peut diminuer considérablement le coût d'implantation lorsqu'une légère dégradation de la qualité de l'application est acceptable. Nous exploitons l'environnement logiciel proposé auparavant à travers un nouvel algorithme d'optimisation de la largeur des données. La combinaison de cet algorithme et de la technique de simulation sélective permet de réduire considérablement le temps d'optimisation
Time-to-market and implementation cost are high-priority considerations in the automation of digital hardware design. Nowadays, digital signal processing applications use fixed-point architectures due to their advantages in terms of implementation cost. Thus, floating-point to fixed-point conversion is mandatory. The conversion process consists of two parts corresponding to the determination of the integer part word-length and the fractional part world-length. The refinement of fixed-point systems requires optimizing data word -length to prevent overflows and excessive quantization noises while minimizing implementation cost. Applications in image and signal processing domains are tolerant to errors if their probability or their amplitude is small enough. Numerous research works focus on optimizing the fractional part word-length under accuracy constraint. Reducing the number of bits for the fractional part word- length leads to a small error compared to the signal amplitude. Perturbation theory can be used to propagate these errors inside the systems except for unsmooth operations, like decision operations, for which a small error at the input can leads to a high error at the output. Likewise, optimizing the integer part word-length can significantly reduce the cost when the application is tolerant to a low probability of overflow. Overflows lead to errors with high amplitude and thus their occurrence must be limited. For the word-length optimization, the challenge is to evaluate efficiently the effect of overflow and unsmooth errors on the application quality metric. The high amplitude of the error requires using simulation based-approach to evaluate their effects on the quality. In this thesis, we aim at accelerating the process of quality metric evaluation. We propose a new framework using selective simulations to accelerate the simulation of overflow and un- smooth error effects. This approach can be applied on any C based digital signal processing applications. Compared to complete fixed -point simulation based approaches, where all the input samples are processed, the proposed approach simulates the application only when an error occurs. Indeed, overflows and unsmooth errors must be rare events to maintain the system functionality. Consequently, selective simulation allows reducing significantly the time required to evaluate the application quality metric. 1 Moreover, we focus on optimizing the integer part, which can significantly decrease the implementation cost when a slight degradation of the application quality is acceptable. Indeed, many applications are tolerant to overflows if the probability of overflow occurrence is low enough. Thus, we exploit the proposed framework in a new integer word-length optimization algorithm. The combination of the optimization algorithm and the selective simulation technique allows decreasing significantly the optimization time
32

Novel, Aymeric. "Développement d’une méthode de méta modélisation des consommations énergétiques des bâtiments en fonction des facteurs d’usages et d’exploitation pour la garantie de résultat énergétique". Thesis, La Rochelle, 2019. http://www.theses.fr/2019LAROS001/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
À mesure que les performances intrinsèques des bâtiments s’améliorent, les usages énergétiques non réglementés, que nous associons à une notion d’intensité énergétique des usages, prennent de plus en plus d’importance dans le bilan des consommations des bâtiments. De plus, les bâtiments performants font apparaître des problématiques au niveau de l’exploitation des installations. Ces constats nous permettent d’affirmer qu’il est aujourd’hui important de proposer un cadre pour le suivi et l’optimisation de la sobriété énergétique des usages et l’exploitation performante pour la maîtrise des consommations énergétiques réelles des bâtiments. Cette thèse propose tout d’abord de développer des modèles polynomiaux de prédiction de la consommation énergétique tous usages en fonction des facteurs caractérisant l’intensité d’usage, la qualité d’usage et la qualité d’exploitation. Pour cela, nous utilisons le logiciel EnergyPlus afin de réaliser des simulations énergétiques dynamiques (SED) sur des valeurs de paramètres définis par la méthode des plans d’expérience D-optimaux. Le modèle polynomial créé permet alors d’effectuer, avec un faible temps de calcul, une propagation des incertitudes sur les consommations d’énergie calculées. Pour ce faire, nous utilisons les données mesurées en exploitation dans le cadre de la mesure et de la vérification de la performance énergétique, associées à une incertitude concernant leur valeur. Nous pouvons alors déterminer l’incertitude globale sur les consommations énergétiques et identifier les pistes pour la réduire, permettant ainsi un meilleur suivi et encadrement de la consommation énergétique réelle
Since building envelope and MEP systems characteristics regularly improve, the weight of non-regulatory energy end-uses increases. These energy end-uses are typically associated with tenants or owners’ activities. In addition, high performance buildings show new issues related to HVAC systems operations. Therefore, it is important to evaluate and improve non-regulatory energy end-uses energy as well as HVAC systems operations efficiencies. We have developed polynomial energy models that can predict energy consumption as a function of building’s activities characteristics and HVAC systems operations factors. We used EnergyPlus software in order to build reliable energy models along with the D-optimum design of experiments method (DOE). Then, we used measurement and verification (M&V) data, associated with probability functions, to determine the associated uncertainty of the calculated energy consumption. Finally, we combine the latter with the polynomial modeling error to calculate the energy consumption global uncertainty, with the goal to identify strategies to reduce it

Vai alla bibliografia