To see the other types of publications on this topic, follow the link: Ressource prediction.

Dissertations / Theses on the topic 'Ressource prediction'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 33 dissertations / theses for your research on the topic 'Ressource prediction.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Wassermann, Anne Mai [Verfasser]. "Computational Analysis of Structure-Activity Relationships : from Prediction to Visualization Methods [[Elektronische Ressource]] / Anne Mai Wassermann." Bonn : Universitäts- und Landesbibliothek Bonn, 2012. http://d-nb.info/1044081309/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Brückner, Michael [Verfasser], and Tobias [Akademischer Betreuer] Scheffer. "Prediction games : machine learning in the presence of an adversary [[Elektronische Ressource]] / Michael Brückner. Betreuer: Tobias Scheffer." Potsdam : Universitätsbibliothek der Universität Potsdam, 2012. http://d-nb.info/1026372550/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Santi, Nina. "Prédiction des besoins pour la gestion de serveurs mobiles en périphérie." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILB050.

Full text
Abstract:
L'informatique en périphérie est un paradigme émergent au sein de l'Internet des Objets (IoT) et complémentaire à l'informatique en nuage. Ce paradigme propose l'implémentation de serveurs de calcul situés à proximité des utilisateurs, réduisant ainsi la pression et les coûts de l'infrastructure réseau locale. La proximité avec les utilisateurs suscite de nouveaux cas d'utilisation, tels que le déploiement de serveurs mobiles embarqués sur des drones ou des robots, offrant une alternative moins coûteuse, plus éco-énergétique et flexible par rapport aux infrastructures fixes lors d'événements ponctuels ou exceptionnels. Cependant, cette approche soulève également de nouveaux enjeux pour le déploiement et l'allocation de ressources en temps et en espace, souvent dépendants de la batterie.Dans le cadre de cette thèse, nous proposons des outils et des algorithmes de prédiction pour la prise de décision concernant l'allocation de ressources fixes et mobiles, à la fois en termes de temps et d'espace, au sein d'environnements dynamiques. Nous mettons à disposition des jeux de données riches et reproductibles qui reflètent l'hétérogénéité inhérente aux applications de l'Internet des Objets (IoT), tout en présentant un taux de contention et d'interférence élevé. Pour cela, nous utilisons le FIT-IoT Lab, un banc d'essai ouvert dédié à l'IoT, et nous mettons l'ensemble du code à disposition de manière ouverte. De plus, nous avons développé un outil permettant de générer de manière automatisée et reproductible des traces de l'IoT. Nous exploitons ces jeux de données pour entraîner des algorithmes d'apprentissage automatique basés sur des techniques de régression afin de les évaluer dans leur capacité à prédire le débit des applications de l'IoT. Dans une démarche similaire, nous avons également entraîné et analysé un réseau neuronal de type transformateur temporel pour prédire plusieurs métriques de la Qualité de Service (QoS). Afin de tenir compte de la mobilité des ressources, nous générons des traces de l'IoT intégrant des points d'accès mobiles embarqués sur des robots TurtleBot. Ces traces, qui intègrent la mobilité, sont utilisées pour valider et tester un framework d'apprentissage fédéré reposant sur des transformateurs temporels parcimonieux. Enfin, nous proposons un algorithme décentralisé de prédiction de la densité de la population humaine par régions, basé sur l'utilisation d'un filtre à particules. Nous testons et validons cet algorithme à l'aide du simulateur Webots dans un contexte de serveurs embarqués sur des robots, et du simulateur ns-3 pour la partie réseaux
Multi-access Edge computing is an emerging paradigm within the Internet of Things (IoT) that complements Cloud computing. This paradigm proposes the implementation of computing servers located close to users, reducing the pressure and costs of local network infrastructure. This proximity to users is giving rise to new use cases, such as the deployment of mobile servers mounted on drones or robots, offering a cheaper, more energy-efficient and flexible alternative to fixed infrastructures for one-off or exceptional events. However, this approach also raises new challenges for the deployment and allocation of resources in terms of time and space, which are often battery-dependent.In this thesis, we propose predictive tools and algorithms for making decisions about the allocation of fixed and mobile resources, in terms of both time and space, within dynamic environments. We provide rich and reproducible datasets that reflect the heterogeneity inherent in Internet of Things (IoT) applications, while exhibiting a high rate of contention and interference. To achieve this, we are using the FIT-IoT Lab, an open testbed dedicated to the IoT, and we are making all the code available in an open manner. In addition, we have developed a tool for generating IoT traces in an automated and reproducible way. We use these datasets to train machine learning algorithms based on regression techniques to evaluate their ability to predict the throughput of IoT applications. In a similar approach, we have also trained and analysed a neural network of the temporal transformer type to predict several Quality of Service (QoS) metrics. In order to take into account the mobility of resources, we are generating IoT traces integrating mobile access points embedded in TurtleBot robots. These traces, which incorporate mobility, are used to validate and test a federated learning framework based on parsimonious temporal transformers. Finally, we propose a decentralised algorithm for predicting human population density by region, based on the use of a particle filter. We test and validate this algorithm using the Webots simulator in the context of servers embedded in robots, and the ns-3 simulator for the network part
APA, Harvard, Vancouver, ISO, and other styles
4

CHAABANE, Sondes. "GESTION PREDICTIVE DES BLOCS OPERATOIRES." Phd thesis, INSA de Lyon, 2004. http://tel.archives-ouvertes.fr/tel-00008835.

Full text
Abstract:
La gestion des blocs opératoires est actuellement l'objet de multiples questionnements, aussi bien sur le court terme que sur le long terme. Elle se heurte en effets aux problèmes aigus d'emploi des ressources aussi bien humaines que matérielles, qui sont aujourd'hui toutes deux disponibles en capacité finie. Dans l'investigation de cette problématique, nos travaux de recherche ont été effectués selon trois axes principaux. En premier lieu, dans une perspective initiale descriptive, nous avons analysé les différentes activités, ressources et flux du processus opératoire. Cette analyse nous a permis d'identifier les forces et faiblesses d'un existant et de modéliser ses différentes entités de gestion. Ensuite, nous avons proposé les différentes étapes d'une organisation de gestion d'un processus opératoire. Nous nous sommes limités dans notre étude aux périodes pré- (avant l'intervention) et per-opératoire (pendant l'intervention). Enfin, nous avons proposé des outils de résolution et expérimenté la capacité de ceux-ci à répondre aux différents problèmes de gestion. Quatre problèmes de gestion ont été identifiés : la programmation des interventions, la définition des plages horaires d'ouverture des salles d'opérations, la planification du bloc opératoire et enfin l'ordonnancement des salles d'opérations. Nous avons conçu une extension de la méthode Hongroise pour la résolution des problèmes de programmation et de planification opératoire. La définition des plages horaires d'ouverture des salles d'opérations a été définie comme un problème linéaire. L'ordonnancement des salles d'opérations a été identifié comme un problème de type Flow-Shop Hybride à trois étages sans temps d'attente avec contraintes de précédences. Il a été résolu à l'aide des règles connues d'ordonnancement et d'affectation.
Ces travaux nous ont permis de démontrer que des méthodes d'analyse et outils de résolution issus du manufacturier peuvent être appliqués au domaine hospitalier.
APA, Harvard, Vancouver, ISO, and other styles
5

Choutri, Amira. "Gestion des ressources et de la consommation énergétique dans les réseaux mobiles hétérogènes." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV043/document.

Full text
Abstract:
L'objectif de cette thèse est de développer les méthodes nécessaires à une gestion ciblée et efficace de la mobilité des utilisateurs dans un réseau mobile hétérogène. Ces réseaux sont caractérisés par le déploiement de différents types de cellules (macro, micro, pico et/ou femto). Le déploiement massif des petites cellules (pico et femto) a permis d'offrir une capacité et une qualité de couverture accrue au réseau, notamment dans les zones à forte densité. Cependant, les contraintes temps réel engendrées limitent la QoS offerte aux utilisateurs. De plus, pour des raisons commerciales et/ou environnementales, la nécessité de réduire la consommation énergétique des réseaux mobiles est devenue une réalité. Ainsi, les opérateurs mobiles doivent trouver le bon compromis entre d'une part, la garantie de la QoS offerte aux utilisateurs et la vitesse de mobilité de ces derniers, et d'une autre part, le coût énergétique engendré pour le déploiement du réseau. Pour cela, dans le cadre de la gestion de la mobilité des utilisateurs, nous proposons des modèles pour la gestion des ressources des stations de base ainsi que pour la gestion de leur consommation énergétique. Le premier modèle proposé vise à gérer le partage des ressources entre les clients de l'opérateur mobile. Basé sur la prédiction de la mobilité des utilisateurs, ce modèle permet d'anticiper la gestion des ressources d'une station de base. Le deuxième modèle gère la consommation énergétique du réseau en se basant sur un contrôle d'affectation des utilisateurs mobiles. Cela permet de contrôler en continu la consommation énergétique des stations de base et la QoS qu'elles offrent aux utilisateurs mobiles. Par simulation, en utilisant une topologie réelle d'un réseau mobile, les performances des méthodes proposées sont évaluées en considérant différents scénarios possibles. Leurs performances sont comparées à celles de l'approche adoptée par des opérateurs mobiles actuels, ainsi qu'à celles de certaines approches proposées dans la littérature
The objective of this thesis is to develop methods for a targeted and efficient management of users mobility in heterogeneous mobile networks. This network is characterized by the deployment of different types of cells (macro, micro, pico and/or femto). The massive deployment of small cells (pico and femto) provides a supplementary coverage and capacity to mobile networks, specially in dense areas. However, the resulting real-time constraints limit the offered QoS. Furthermore, for commercial and/or environmental reasons, the needs to reduce the energy consumed by mobile networks became reality. Thus, mobile operators have to find a good compromise between, on the one hand, the users velocity and the guaranteed QoS, and on the other hand, the cost of deployment of such networks. For that, in the context of users mobility management, we propose models for resource and energy consumption management of base stations. The first model aims at controlling resource sharing between clients of the mobile operators. Based on a mobility prediction of users, this model anticipates the resource management of a base station. The second model aims at reducing energy consumption of the network by managing mobile users assignment to detected cells. This allows a continuous control of consumed energy of base stations while offered QoS is guaranteed. Based on simulation of a real mobile network topology, the performances of proposed models are evaluated while considering different possible scenarios. They are compared to the performances of different strategies as the ones proposed in literature or adopted by current mobile operators
APA, Harvard, Vancouver, ISO, and other styles
6

Hopf, Konstantin [Verfasser], and Thorsten [Akademischer Betreuer] Staake. "Predictive Analytics for Energy Efficiency and Energy Retailing / Konstantin Hopf ; Betreuer: Thorsten Staake." Bamberg : University of Bamberg Press, 2019. http://d-nb.info/1191183580/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Chamorro, Chávez Alejandro [Verfasser], and András [Akademischer Betreuer] Bárdossy. "Stochastic and hydrological modelling for climate change prediction in the Lima region, Peru / Alejandro Chamorro Chávez. Betreuer: András Bárdossy." Stuttgart : Universitätsbibliothek der Universität Stuttgart, 2015. http://d-nb.info/1079525483/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

von, Kistowski Jóakim Gunnarsson [Verfasser], Samuel [Gutachter] Kounev, and Hartmut [Gutachter] Schmeck. "Measuring, Rating, and Predicting the Energy Efficiency of Servers / Jóakim Gunnarsson von Kistowski ; Gutachter: Samuel Kounev, Hartmut Schmeck." Würzburg : Universität Würzburg, 2019. http://d-nb.info/1181693748/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Baasch, Annett [Verfasser], Helge Akademischer Betreuer] Bruelheide, Sabine [Akademischer Betreuer] [Tischew, and Norbert [Akademischer Betreuer] Hölzel. "Predicting spatio-temporal patterns during succession in a post-mining landscape / Annett Baasch. Betreuer: Helge Bruelheide ; Sabine Tischew ; Norbert Hölzel." Halle, Saale : Universitäts- und Landesbibliothek Sachsen-Anhalt, 2010. http://d-nb.info/1025011309/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Azeli, Nourelhouda. "Maintenance prévisionnelle des systèmes de production géographiquement distribués sous ressources limitées." Electronic Thesis or Diss., Troyes, 2022. http://www.theses.fr/2022TROY0017.

Full text
Abstract:
Cette thèse aborde la problématique de l’aide à la décision de maintenance prévisionnelle pour des systèmes de production géographiquement dispersés (GDPS). La structure des GDPS représente un défi important pour l'établissement de stratégies de maintenance efficaces et des stratégies de maintenance prévisionnelle sont particulièrement adaptées. Cependant, la question de la disponibilité des ressources de maintenance doit être analysée et intégrée. Dans cette thèse, nous proposons trois politiques de maintenance prévisionnelles prenant en compte des ressources limitées de maintenance pour un GDPS dont les sites de production se dégradent graduellement. Les trois politiques proposées visent à optimiser un critère économique en sélectionnant l'ensemble de sites à maintenir. Les deux premières politiques s’appuient sur des données d’inspections périodiques. La première politique sélectionne pour la maintenance, la permutation des sites qui maximise la fiabilité du système après réparation, sans prise en compte des distances. La deuxième politique construit la tournée des sites à maintenir en tenant compte des ressources disponibles et des distances entre les sites. Enfin, la troisième politique est une politique dynamique. Elle se base sur des données de surveillance en temps réel des niveaux de dégradation pour adapter la tournée. Nous avons utilisé la simulation Monte Carlo pour évaluer le critère économique asymptotique. L’efficacité des politiques proposées est démontrée par comparaison avec des politiques plus classiques
This thesis addresses the problem of predictive maintenance decision making for geographically dispersed production systems (GDPS). The structure of GDPS represents an important challenge for the establishment of efficient maintenance strategies. Predictive maintenance strategies are particularly suitable. However, the issue of the availability of maintenance resources must be analyzed and integrated. In this thesis, we propose three predictive maintenance policies considering limited maintenance resources for a GDPS with gradually degrading production sites. The three proposed policies aim at optimizing an economic criterion by selecting the set of sites to be maintained. The first two policies are based on periodic inspection data. The first policy selects for maintenance, the permutation of sites that maximizes the reliability of the system after repair, without considering the distances. The second policy constructs the tour of sites to be maintained from the available resources and the distances between sites. Finally, the third policy is a dynamic policy. It relies on real-time monitoring data of degradation levels to adapt the tour. We used Monte Carlo simulation to evaluate the asymptotic economic criterion. The effectiveness of the proposed policies is demonstrated by comparison with more conventional policies
APA, Harvard, Vancouver, ISO, and other styles
11

Strauch, Michael Verfasser], Franz [Akademischer Betreuer] [Makeschin, Nicola [Akademischer Betreuer] Fohrer, and Martin [Akademischer Betreuer] Volk. "Integrated watershed modeling in Central Brazil : Toward robust process-based predictions / Michael Strauch. Gutachter: Franz Makeschin ; Nicola Fohrer ; Martin Volk. Betreuer: Franz Makeschin." Dresden : Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2014. http://d-nb.info/1068446757/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Strauch, Michael [Verfasser], Franz [Akademischer Betreuer] Makeschin, Nicola [Akademischer Betreuer] Fohrer, and Martin [Akademischer Betreuer] Volk. "Integrated watershed modeling in Central Brazil : Toward robust process-based predictions / Michael Strauch. Gutachter: Franz Makeschin ; Nicola Fohrer ; Martin Volk. Betreuer: Franz Makeschin." Dresden : Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2014. http://d-nb.info/1068446757/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Boyer, Baptiste. "Optimisation des ressources dans un système énergétique complexe au moyen de modèles fonctionnels." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG033.

Full text
Abstract:
Pour faire face à la complexité croissante des systèmes développés, cette thèse propose une approche méthodologique multi-vues permettant d'accompagner les étapes du cycle de développement de systèmes complexes, dont notamment les systèmes multi-énergies, depuis leur conception jusqu'à leur pilotage en temps réel. Un niveau d'arbitrage entre les différentes missions du système est également intégré et permet d'évaluer plusieurs stratégies. Ce niveau est appliqué au cas du véhicule électrique entre les missions d'autonomie, de confort et de vitesse. La méthodologie développée dans cette thèse est centrée autour de la modélisation fonctionnelle, sur laquelle ces travaux se concentrent. Celle-ci décrit de manière modulaire et au moyen de modèles mathématiques juste nécessaires et de liens énergétiques le comportement des éléments du système et leurs interactions. Afin de prendre en compte au mieux la réponse dynamique des éléments, leurs contraintes et les éventuelles perturbations, des algorithmes de commande prédictive ``PFC'' sont développés puis implémentés au sein des éléments fonctionnels. Ces algorithmes servent également de support pour l'introduction d'un problème d'optimisation pour gérer le processus d'allocation des ressources dans un système multi-sources. Ces concepts sont appliqués au pilotage d'un parc éolien couplé à une unité de stockage, avec la prise en compte de contraintes de congestion sur le réseau. Enfin, l'extension de cette méthodologie à l'optimisation des systèmes multi-énergies soulève de nouvelles problématiques, notamment le couplage entre plusieurs domaines énergétiques, la prise en compte de variables manipulables discrètes et un conflit entre la nécessité d'avoir à la fois un horizon de prédiction long et une résolution temporelle fine. Pour répondre à cette problématique, le modèle fonctionnel est couplé à deux niveaux d'optimisation supérieurs qui permettent de déterminer respectivement l'architecture optimale du système et les plannings de démarrages, d'arrêts et de charge des moyens de production. Cette approche est validée avec la conception et le pilotage d'un réseau urbain multi-énergies dans la commune de Bolbec
In order to face the increasing complexity of the developed systems, this thesis proposes a multi-view methodological approach allowing to accompany the stages of the development cycle of complex systems, including multi-energy systems, from their design to their real time control. A level of arbitration between the different missions of the system is also introduced and enables to test several strategies. This level is illustrated in the case of the electric vehicle with arbitrations between autonomy, vehicle speed and passenger comfort. Functional modeling, on which this work focuses, is the cornerstone of the methodology. This describes in a modular way and through the use of just necessary mathematical models and energy links the behavior of the elements of the system and their interactions. In order to take into account the dynamic response of the elements, their constraints and disturbances, some predictive control algorithms ``PFC'' are developed and implemented within the functional elements. These algorithms are also used to introduce an optimization problem to manage the resources allocation process in a multiple source system. These concepts are applied to the control of a wind farm coupled with a storage unit, taking into account congestion constraints on the electric grid. Finally, the adaptation of this methodology to the optimization of multi-energy systems raises new issues, including the coupling between several energy fields, the consideration of discrete manipulable variables and a conflict between the need for both a high prediction horizon and a fine temporal resolution. To address this issue, the functional model is coupled to two higher levels of optimization that allow to determine respectively the optimal system architecture and the source commitment schedule. This approach is validated on the design and the control of a multi-energy urban network in the town of Bolbec
APA, Harvard, Vancouver, ISO, and other styles
14

Neupane, Bijay [Verfasser], Torben Bach [Akademischer Betreuer] Pedersen, Wolfgang [Akademischer Betreuer] Lehner, Bin [Gutachter] Yang, Mathieu [Gutachter] Sinn, Toon [Gutachter] Calders, Alexander [Gutachter] Schill, Torben Bach [Gutachter] Pedersen, Uwe [Gutachter] Assmann, and Wolfgang [Gutachter] Lehner. "Predictive Data Analytics for Energy Demand Flexibility / Bijay Neupane ; Gutachter: Bin Yang, Mathieu Sinn, Toon Calders, Alexander Schill, Torben Bach Pedersen, Uwe Assmann, Wolfgang Lehner ; Torben Bach Pedersen, Wolfgang Lehner." Dresden : Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2018. http://d-nb.info/1161669426/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Ak, Ronay. "Neural Network Modeling for Prediction under Uncertainty in Energy System Applications." Thesis, Supélec, 2014. http://www.theses.fr/2014SUPL0015/document.

Full text
Abstract:
Cette thèse s’intéresse à la problématique de la prédiction dans le cadre du design de systèmes énergétiques et des problèmes d’opération, et en particulier, à l’évaluation de l’adéquation de systèmes de production d’énergie renouvelables. L’objectif général est de développer une approche empirique pour générer des prédictions avec les incertitudes associées. En ce qui concerne cette direction de la recherche, une approche non paramétrique et empirique pour estimer les intervalles de prédiction (PIs) basés sur les réseaux de neurones (NNs) a été développée, quantifiant l’incertitude dans les prédictions due à la variabilité des données d’entrée et du comportement du système (i.e. due au comportement stochastique des sources renouvelables et de la demande d'énergie électrique), et des erreurs liées aux approximations faites pour établir le modèle de prédiction. Une nouvelle méthode basée sur l'optimisation multi-objectif pour estimer les PIs basée sur les réseaux de neurones et optimale à la fois en termes de précision (probabilité de couverture) et d’information (largeur d’intervalle) est proposée. L’ensemble de NN individuels par deux nouvelles approches est enfin présenté comme un moyen d’augmenter la performance des modèles. Des applications sur des études de cas réels démontrent la puissance de la méthode développée
This Ph.D. work addresses the problem of prediction within energy systems design and operation problems, and particularly the adequacy assessment of renewable power generation systems. The general aim is to develop an empirical modeling framework for providing predictions with the associated uncertainties. Along this research direction, a non-parametric, empirical approach to estimate neural network (NN)-based prediction intervals (PIs) has been developed, accounting for the uncertainty in the predictions due to the variability in the input data and the system behavior (e.g. due to the stochastic behavior of the renewable sources and of the energy demand by the loads), and to model approximation errors. A novel multi-objective framework for estimating NN-based PIs, optimal in terms of both accuracy (coverage probability) and informativeness (interval width) is proposed. Ensembling of individual NNs via two novel approaches is proposed as a way to increase the performance of the models. Applications on real case studies demonstrate the power of the proposed framework
APA, Harvard, Vancouver, ISO, and other styles
16

Dufour, Luc. "Contribution à la mise au point d'un pilotage énergétique décentralisé par prédiction." Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2017. http://www.theses.fr/2017EMAC0004/document.

Full text
Abstract:
Comment satisfaire les besoins en énergie d’une population de 9 milliards d’êtres humains en 2050, de façon économiquement viable tout en minimisant l’impact sur l’environnement. Une des réponses est l’insertion de production d’énergie propre d’origine éolienne et photovoltaïque mais leurs totales dépendances aux variations climatiques accentuent une pression sur le réseau. Les modèles prédictifs historiques centralisés et paramétriques ont du mal à appréhender les variations brutales de productions et de consommations. La révolution internet permet aujourd’hui une convergence entre le numérique et l’énergie. En Europe et depuis cinq ans, l’axe d’étude est celui de la maîtrise locale de l’électricité. Ainsi plusieurs quartiers intelligents ont été créés et les modèles utilisés de pilotage et de prédiction restent souvent la propriété des partenaires des projets. Dans cette thèse, Il s’agit de réaliser un bilan énergétique chaque heure pour prédire l’ensemble des vecteurs énergétiques d’un système. Le besoin en énergie d’un système comme une maison est décomposée en un besoin en chauffage, en un besoin en eau chaude sanitaire, en un besoin en luminaires, en besoin de ventilation et en usages spécifiques électriques utiles. Le système peut posséder une production décentralisée et un système de stockage ce qui augmentera sa capacité d’effacement. Pour le centre de pilotage, l’objectif est d’avoir une possibilité de scénarios de surproductions ou surconsommations sur un quartier donnée à court terme. Nous considérerons dans cette thèse un horizon à l’heure pour notre bilan énergétique. Cela implique une prédiction fine des différents flux énergétiques d’un système en particulier le chauffage et l’eau chaude qui représente le plus gros potentiel de flexibilité dans les bâtiments. Pour réaliser un bilan, nous devons calculer les différents flux énergétiques à l’intérieur de notre système : les déperditions par l’enveloppe et la ventilation, les gains internes solaires, des personnes et des appareils, le stockage, la production d’eau chaude sanitaire, les usages spécifiques électriques utiles. Sur certains de ces points, nous pouvons évaluer assez précisément et en fonction du temps les quantités d’énergie échangées. Pour les autres (ECS, USE, gains internes, stockage), la bibliographie nous donne que des méthodes globales et indépendantes du temps. Il n’est donc pas possible d’envisager une méthode correspondant au pas de temps souhaité. Ceci impose la mise au point d’une méthode prédictive et apprenante dont nos modèles de simulation énergétique seront le point de référence. Il n’en reste pas moins que ces modèles permettent la compréhension du comportement énergétique du système. L’outil se devra non intrusif, personnalisé, robuste et simple. Pour limiter le caractère intrusif de l’outil, il s’agit à la fois d’ajouter de l’intelligence comme par exemple l’identification des appareils utiles à partir d’un seul point de mesure mais aussi la collection et l’analyse d’informations localement. Les données privées ne sont pas transmises vers l’extérieur. Seules les informations de prédictions énergétiques sont envoyées à un niveau supérieur pour agrégation des données des quartiers. L’intelligence est également au niveau des prédictions réalisées issues de méthodes d’apprentissage comme l’utilisation des réseaux de neurones ou des arbres de décision. La robustesse est étudiée d’un point de vue technologie (plusieurs protocoles de communication ont été testés), techniques (plusieurs méthodes de collecte) et d’un point de vue du stockage de données (limiter la fréquence de collecte). La simplicité d’usage engendre une simplicité d’installation minimiser le nombre de données d’entrée tout en gardant une précision souhaitable sera notre principal axe d’optimisation
This work presents a data-intensive solution to manage energy flux after a low transformer voltage named microgrid concept. A microgrid is an aggregation of building with a decentralized energy production and or not a storage system. These microgrid can be aggregate to create an intelligent virtual power plant. However, many problems must be resolved to increase the part of these microgrid and the renewable resource in a energy mix. The physic model can not integrate and resolve in a short time the quickly variations. The intelligent district can be integrate a part of flexibility in their production with a storage system. This storage can be electrical with a battery or thermal with the heating and the hot water. For a virtual power plant, the system can be autonomous when the price electricity prediction is low and increase the production provided on the market when the price electricity is high. For a energy supplier and with a decentralized production building distant of a low transformer voltage, a regulation with a storage capacity enable a tension regulation. Finally, the auto-consumption becomes more and more interesting combined with a low electrical storage price and the result of the COP 21 in Paris engage the different country towards the energy transition. In these cases, a flexibility is crucial at the building level but this flexibility is possible if, and only if, the locally prediction are correct to manage the energy. The main novelties of our approach is to provide an easy implemented and flexible solution to predict the consumption and the production at the building level based on the machine learning technique and tested on the real use cases in a residential and tertiary sector. A new evaluation of the consumption is realized: the point of view is energy and not only electrical. The energy consumption is decomposed between the heating consumption, the hot water consumption and the electrical devices consumption. A prediction every hour is provided for the heating and the hot water consumption to estimate the thermal storage capacity. A characterization of Electrical devices consumption is realized by a non-intrusive disaggregation from the global load curve. The heating and the hot water are identify to provide a non intrusive methodology of prediction. Every day, the heating, the hot water, the household appliances, the cooling and the stand by are identified. Every 15 minutes, our software provide a hot water prediction, a heating prediction, a decentralized prediction and a characterization of the electrical consumption. A comparison with the different physic model simulated enable an error evaluation the error of our different implemented model
APA, Harvard, Vancouver, ISO, and other styles
17

Pérennou, Loïc. "Virtual machine experience design : a predictive resource allocation approach for cloud infrastructures." Electronic Thesis or Diss., Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1246.

Full text
Abstract:
L’un des principaux défis des fournisseurs de services cloud est d’offrir aux utilisateurs une performance acceptable, tout en minimisant les besoins en matériel et énergie. Dans cette thèse CIFRE menée avec Outscale, un fournisseur de cloud, nous visons à optimiser l’allocation des ressources en utilisant de nouvelles sources d’information. Nous caractérisons la charge de travail pour comprendre le stress résultant sur l’orchestrateur, et la compétition pour les ressources disponibles qui dégrade la qualité de service. Nous proposons un modèle pour prédire la durée d’exécution des VMs à partir de caractéristiques prédictives disponibles au démarrage. Enfin, nous évaluons la sensibilité aux erreurs d’un algorithme de placement des VMs de la littérature qui se base sur ces prédictions. Nous ne trouvons pas d’intérêt à coupler note système prédictif avec cet algorithme, mais nous proposons d’autres façons d’utiliser les prédictions pour optimiser le placement des VMs
One of the main challenges for cloud computing providers remains to offer trustable performance for all users, while maintaining an efficient use of hardware and energy resources. In the context of this CIFRE thesis lead with Outscale, apublic cloud provider, we perform an in-depth study aimed at making management algorithms use new sources of information. We characterize Outscale’s workload to understand the resulting stress for the orchestrator, and the contention for hardware resources. We propose models to predict the runtime of VMs based on features which are available when they start. We evaluate the sensitivity with respect to prediction error of a VM placement algorithm from the literature that requires such predictions. We do not find any advantage in coupling our prediction model and the selected algorithm, but we propose alternative ways to use predictions to optimize the placement of VMs
APA, Harvard, Vancouver, ISO, and other styles
18

Ben, Hassine Nesrine. "Machine Learning for Network Resource Management." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV061.

Full text
Abstract:
Une exploitation intelligente des données qui circulent sur les réseaux pourrait entraîner une amélioration de la qualité d'expérience (QoE) des utilisateurs. Les techniques d'apprentissage automatique offrent des fonctionnalités multiples, ce qui permet d’optimiser l'utilisation des ressources réseau.Dans cette thèse, deux contextes d’application sont étudiés : les réseaux de capteurs sans fil (WSNs) et les réseaux de contenus (CDNs). Dans les WSNs, il s’agit de prédire la qualité des liens sans fil afin d’améliorer la qualité des routes et donc d’augmenter le taux de remise des paquets ce qui améliore la qualité de service offerte à l’utilisateur. Dans les CDNs, il s’agit de prédire la popularité des contenus vidéo afin de mettre en cache les contenus les plus populaires, au plus près des utilisateurs qui les demandent. Ceci contribue à réduire la latence pour satisfaire les requêtes des utilisateurs.Dans ce travail, nous avons orchestré des techniques d’apprentissage issues de deux domaines différents, à savoir les statistiques et le Machine Learning. Chaque technique est représentée par un expert dont les paramètres sont réglés suite à une analyse hors-ligne. Chaque expert est chargé de prédire la prochaine valeur de la métrique. Vu la variété des experts retenus et comme aucun d’entre eux ne domine toujours tous les autres, un deuxième niveau d’expertise est nécessaire pour fournir la meilleure prédiction. Ce deuxième niveau est représenté par un expert particulier, appelé forecaster. Le forecaster est chargé de fournir des prédictions à partir des prédictions fournies par un sous ensemble des meilleurs experts.Plusieurs méthodes d’identification de ce sous ensemble sont étudiées. Elles dépendent de la fonction de perte utilisée pour évaluer les prédictions des experts et du nombre k, représentant les k meilleurs experts. Les tâches d’apprentissage et de prédiction sont effectuées en-ligne sur des data sets réels issus d’un WSN déployé à Stanford et de YouTube pour le CDN. La méthodologie adoptée dans cette thèse s’applique à la prédiction de la prochaine valeur d’une série temporelle.Plus précisément, nous montrons comment dans le contexte WSN, la qualité des liens peut être évaluée par le Link Quality Indicator (LQI) et comment les experts Single Exponential Smoothing (SES) et Average Moving Window (AMW) peuvent prédire la prochaine valeur de LQI. Ces experts réagissent rapidement aux changements des valeurs LQI que ce soit lors d’une brusque baisse de la qualité du lien ou au contraire lors d’une forte augmentation de la qualité. Nous proposons deux forecasters, Exponential Weighted Average (EWA) et Best Expert (BE), et fournissons la combinaison Expert-Forecaster permettant de fournir la meilleure prédiction.Dans le contexte des CDNs, nous évaluons la popularité de chaque contenu vidéo par le nombre journalier de requêtes. Nous utilisons à la fois des experts statistiques (ARMA) et des experts issus du Machine Learning (DES, régression polynômiale). Nous introduisons également des forecasters qui diffèrent par rapport à l’horizon des observations utilisées pour la prédiction, la fonction de perte et le nombre d’experts utilisés. Ces prédictions permettent de décider quels contenus seront placés dans les caches proches des utilisateurs. L’efficacité de la technique de caching basée sur la prédiction de la popularité est évaluée en termes de hit ratio et d’update ratio. Nous mettons en évidence les apports de cette technique de caching par rapport à un algorithme de caching classique, Least Frequently Used (LFU).Cette thèse se termine par des recommandations concernant l’utilisation des techniques d’apprentissage en ligne et hors-ligne pour les réseaux (WSN, CDN). Au niveau des perspectives, nous proposons différentes applications où l’utilisation de ces techniques permettrait d’améliorer la qualité d’expérience des utilisateurs mobiles ou des utilisateurs des réseaux IoT
An intelligent exploitation of data carried on telecom networks could lead to a very significant improvement in the quality of experience (QoE) for the users. Machine Learning techniques offer multiple operating, which can help optimize the utilization of network resources.In this thesis, two contexts of application of the learning techniques are studied: Wireless Sensor Networks (WSNs) and Content Delivery Networks (CDNs). In WSNs, the question is how to predict the quality of the wireless links in order to improve the quality of the routes and thus increase the packet delivery rate, which enhances the quality of service offered to the user. In CDNs, it is a matter of predicting the popularity of videos in order to cache the most popular ones as close as possible to the users who request them, thereby reducing latency to fulfill user requests.In this work, we have drawn upon learning techniques from two different domains, namely statistics and Machine Learning. Each learning technique is represented by an expert whose parameters are tuned after an off-line analysis. Each expert is responsible for predicting the next metric value (i.e. popularity for videos in CDNs, quality of the wireless link for WSNs). The accuracy of the prediction is evaluated by a loss function, which must be minimized. Given the variety of experts selected, and since none of them always takes precedence over all the others, a second level of expertise is needed to provide the best prediction (the one that is the closest to the real value and thus minimizes a loss function). This second level is represented by a special expert, called a forecaster. The forecaster provides predictions based on values predicted by a subset of the best experts.Several methods are studied to identify this subset of best experts. They are based on the loss functions used to evaluate the experts' predictions and the value k, representing the k best experts. The learning and prediction tasks are performed on-line on real data sets from a real WSN deployed at Stanford, and from YouTube for the CDN. The methodology adopted in this thesis is applied to predicting the next value in a series of values.More precisely, we show how the quality of the links can be evaluated by the Link Quality Indicator (LQI) in the WSN context and how the Single Exponential Smoothing (SES) and Average Moving Window (AMW) experts can predict the next LQI value. These experts react quickly to changes in LQI values, whether it be a sudden drop in the quality of the link or a sharp increase in quality. We propose two forecasters, Exponential Weighted Average (EWA) and Best Expert (BE), as well as the Expert-Forecaster combination to provide better predictions.In the context of CDNs, we evaluate the popularity of each video by the number of requests for this video per day. We use both statistical experts (ARMA) and experts from the Machine Learning domain (e.g. DES, polynomial regression). These experts are evaluated according to different loss functions. We also introduce forecasters that differ in terms of the observation horizon used for prediction, loss function and number of experts selected for predictions. These predictions help decide which videos will be placed in the caches close to the users. The efficiency of the caching technique based on popularity prediction is evaluated in terms of hit rate and update rate. We highlight the contributions of this caching technique compared to a classical caching algorithm, Least Frequently Used (LFU).This thesis ends with recommendations for the use of online and offline learning techniques for networks (WSN, CDN). As perspectives, we propose different applications where the use of these techniques would improve the quality of experience for mobile users (cellular networks) or users of IoT (Internet of Things) networks, based, for instance, on Time Slotted Channel Hopping (TSCH)
APA, Harvard, Vancouver, ISO, and other styles
19

Pérennou, Loïc. "Virtual machine experience design : a predictive resource allocation approach for cloud infrastructures." Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1246/document.

Full text
Abstract:
L’un des principaux défis des fournisseurs de services cloud est d’offrir aux utilisateurs une performance acceptable, tout en minimisant les besoins en matériel et énergie. Dans cette thèse CIFRE menée avec Outscale, un fournisseur de cloud, nous visons à optimiser l’allocation des ressources en utilisant de nouvelles sources d’information. Nous caractérisons la charge de travail pour comprendre le stress résultant sur l’orchestrateur, et la compétition pour les ressources disponibles qui dégrade la qualité de service. Nous proposons un modèle pour prédire la durée d’exécution des VMs à partir de caractéristiques prédictives disponibles au démarrage. Enfin, nous évaluons la sensibilité aux erreurs d’un algorithme de placement des VMs de la littérature qui se base sur ces prédictions. Nous ne trouvons pas d’intérêt à coupler note système prédictif avec cet algorithme, mais nous proposons d’autres façons d’utiliser les prédictions pour optimiser le placement des VMs
One of the main challenges for cloud computing providers remains to offer trustable performance for all users, while maintaining an efficient use of hardware and energy resources. In the context of this CIFRE thesis lead with Outscale, apublic cloud provider, we perform an in-depth study aimed at making management algorithms use new sources of information. We characterize Outscale’s workload to understand the resulting stress for the orchestrator, and the contention for hardware resources. We propose models to predict the runtime of VMs based on features which are available when they start. We evaluate the sensitivity with respect to prediction error of a VM placement algorithm from the literature that requires such predictions. We do not find any advantage in coupling our prediction model and the selected algorithm, but we propose alternative ways to use predictions to optimize the placement of VMs
APA, Harvard, Vancouver, ISO, and other styles
20

Gbaguidi, Fréjus A. Roméo. "Approche prédictive de l'efficacité énergétique dans les Clouds Datacenters." Electronic Thesis or Diss., Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1163.

Full text
Abstract:
Avec la démocratisation des technologies du numérique, la construction d'un cyberespace globalisé s'est faite insidieusement, transformant littéralement notre mode de vie et notre vécu quotidien. Faire communiquer plus de 4 milliards d'individus à une vitesse devenue incontrôlable, nécessite l'invention de nouveaux concepts pour la production des services informatiques capable de s'adapter à ce défis. Le Cloud Computing, dans cette optique permet de fournir à travers des Datacenters, une partie ou la totalité des composants nécessaires aux entreprises pour la délivrance de leurs services dans les délais et avec des performances conformes aux exigences de leurs clients. Dès lors, la prolifération conséquente des Datacenters aux quatre coins du monde a mis au jour la préoccupante question de la quantité d'énergie nécessaire pour leur fonctionnement et la difficulté qui en résulte pour l'humanité dont les réserves actuelles ne sont pas extensibles à l'infini. Ainsi, il est apparu nécessaire de développer des techniques permettant de réduire la consommation électrique des Datacenters en minimisant les pertes d'énergie orchestrées sur les serveurs dont le moindre watt gaspillé entraine par effet de cascade une augmentation substantielle de la facture globale des Datacenters. Notre travail a consisté à faire dans un premier temps une revue de la littérature sur le sujet, puis de tester la capacité de quelques outils de prédiction à améliorer l'anticipation des risques de pertes d'énergie engendrer par la mauvaise allocation des machines virtuelles sur les serveurs. Cette étude s'est focalisée notamment sur les outil ARMA et les réseaux de neurones qui dans la littérature ont produit des résultats intéressants dans des domaines proches. Après cette étape, il nous est apparu que les outils ARMA bien qu'ayant des performances inférieures aux réseaux de neurones dans notre contexte, s'exécute dans plus rapidement et sont les plus adaptés pour être implémenter dans les environnements de Cloud Computing. Ainsi, nous avons utilisé les résultats de cette méthode pour améliorer le processus de prise de décision, notamment pour la re-allocation proactive des machines virtuelles avant qu'il n'entraine des sous-consommations des ressources sur les serveurs physiques ou des surconsommation pouvant induire des violations des accords de niveaux de service. Cette démarche a permis sur la base de nos simulations de réduire de plus de 5Kwh la consommation d'énergie dans une ferme de 800 serveurs et sur une durée d'une journée. Ce gain pourrait se révéler important lorsque l'on considère la taille énorme des datacenters modernes et que l'on se projette dans une durée relativement longue. Il serait encore plus intéressant d'approfondir cette recherche afin de généraliser l'intégration de cette approche prédictive dans les techniques existantes afin d'optimiser de façon significative les consommations d'énergie au sein des Datacenters tout en préservant les performances et la qualité de service indispensable dans le concept de Cloud Computing
With the democratization of digital technologies, the construction of a globalized cyberspace insidiously transforms our lifestyle. Connect more than 4 billion people at high speed, requires the invention of new concept of service provision and trafic management that are capable to face the challenges. For that purpose, Cloud Computing have been set up to enable Datacenters to provide part or total IT components needed by companies for timely services delivering with performance that meets the requirements of their clients. Consequently, the proliferation of Datacenters around the world has brought to light the worrying question about the amount of energy needed for their function and the resulting difficulty for the humanity, whose current reserves are not extensible indefinitely. It was therefore necessary to develop techniques that reduce the power consumption of Datacenters by minimizing the energy losses orchestrated on servers where each wasted watt results in a chain effect on a substantial increase in the overall bill of Datacenters. Our work consisted first in making a review of the literature on the subject and then testing the ability of some prediction tools to improve the anticipation of the risks of energy loss caused by the misallocation of virtual equipment on servers. This study focused particularly on the ARMA tools and neural networks which in the literature have produced interesting results in related fields. After this step, it appeared to us that ARMA tools, although having less performance than neural networks in our context, runs faster and are best suited to be implemented in cloud computing environments. Thus, we used the results of this method to improve the decision-making process, notably for the proactive re-allocation of virtual equipment before it leads to under-consumption of resources on physical servers or over-consumption inducing breaches of SLAs. Based on our simulations, this approach enabled us to reduce energy consumption on a firm of 800 servers over a period of one day by more than 5Kwh. This gain could be significant when considering the enormous size of modern data centers and projected over a relatively long period of time. It would be even more interesting to deepen this research in order to generalize the integration of this predictive approach into existing techniques in order to significantly optimize the energy consumption within Datacenters while preserving performance and quality of service which are key requirements in the concept of Cloud Computing
APA, Harvard, Vancouver, ISO, and other styles
21

Kundi, Yasir Mansoor. "The role of career orientations, career and personal resources, and personality traits in predicting subjective career success." Electronic Thesis or Diss., Aix-Marseille, 2021. http://theses.univ-amu.fr.lama.univ-amu.fr/211021_KUNDI_521hgegb717gjgxv827scog96woorym_TH.pdf.

Full text
Abstract:
Les chercheurs de carrière reconnaissent de plus en plus la nécessité d’élargir leur champ d’intérêt pour faire avancer dans leur domaine. Une question doit encore être abordée par les chercheurs sur les carrières est ce qui conduit au succès subjectif de carrière. De plus, les spécialistes de la carrière ont négligé les mécanismes sous-jacents et les conditions qui pourraient influer sur le succès subjectif de la carrière. En conséquence, cette thèse vise à répondre à cette question par une étude quantitative des professionnels travaillant dans différentes industries en France. Pour ce faire, nous avons mené trois études qui examinent les facteurs non abordés et inexplorés qui pourraient améliorer le succès subjectif de la carrière. Dans l’étude 1, nous avons examiné la relation entre les orientations professionnelles protéiformes et sans frontières et le succès subjectif de carrière, avec comme médiation, le job crafting. Dans l’étude 2, nous avons examiné la relation entre les ressources d’adaptabilité de la carrière et le succès subjectif de carrière, modéré par la personnalité dite du loup solitaire et le perfectionnisme positif et médiatisé par le job crafting. Dans l’étude 3, nous avons examiné la relation entre les ressources de carrière motivationnelles et le succès subjectif de carrière, médiatisé par le job crafting. Au cours des trois études, nous avons trouvé des résultats significatifs à nos prédictions théoriques, qui contribuent aux carrières, à la personnalité et au job et qui fournissent des implications pratiques tant pour les managers que pour l’employé
Career researchers are increasingly recognizing the need to expand their focus to advance the field. One question still needs to be addressed by career researchers is what leads to subjective career success ? In addition, organizational career scholars have largely neglected the underlying mechanisms and boundary conditions that might affect one’s subjective career success. Accordingly, this dissertation aims to answer this question with a quantitative study of business professionals working in various industries in France. To do so, we conducted three studies to examine the unaddressed and unexplored factors that might enhance individuals subjective career success. In study 1, we examined the relationship between protean and boundaryless career orientations and subjective career success, as mediated by employee job crafting. In study 2, we examined the relationship between career adaptability resources and subjective career success, as moderated by lone wolf personality and positive perfectionism and mediated by employee job crafting. In study 3, we examined the relationship between motivational career resources and subjective career success, as mediated by employee job crafting. Across three studies, we found general support for our theoretical predictions, which contribute to the careers, personality, and job crafting literatures and provide practical implications for both the manager and the employee
APA, Harvard, Vancouver, ISO, and other styles
22

Gbaguidi, Fréjus A. Roméo. "Approche prédictive de l'efficacité énergétique dans les Clouds Datacenters." Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1163/document.

Full text
Abstract:
Avec la démocratisation des technologies du numérique, la construction d'un cyberespace globalisé s'est faite insidieusement, transformant littéralement notre mode de vie et notre vécu quotidien. Faire communiquer plus de 4 milliards d'individus à une vitesse devenue incontrôlable, nécessite l'invention de nouveaux concepts pour la production des services informatiques capable de s'adapter à ce défis. Le Cloud Computing, dans cette optique permet de fournir à travers des Datacenters, une partie ou la totalité des composants nécessaires aux entreprises pour la délivrance de leurs services dans les délais et avec des performances conformes aux exigences de leurs clients. Dès lors, la prolifération conséquente des Datacenters aux quatre coins du monde a mis au jour la préoccupante question de la quantité d'énergie nécessaire pour leur fonctionnement et la difficulté qui en résulte pour l'humanité dont les réserves actuelles ne sont pas extensibles à l'infini. Ainsi, il est apparu nécessaire de développer des techniques permettant de réduire la consommation électrique des Datacenters en minimisant les pertes d'énergie orchestrées sur les serveurs dont le moindre watt gaspillé entraine par effet de cascade une augmentation substantielle de la facture globale des Datacenters. Notre travail a consisté à faire dans un premier temps une revue de la littérature sur le sujet, puis de tester la capacité de quelques outils de prédiction à améliorer l'anticipation des risques de pertes d'énergie engendrer par la mauvaise allocation des machines virtuelles sur les serveurs. Cette étude s'est focalisée notamment sur les outil ARMA et les réseaux de neurones qui dans la littérature ont produit des résultats intéressants dans des domaines proches. Après cette étape, il nous est apparu que les outils ARMA bien qu'ayant des performances inférieures aux réseaux de neurones dans notre contexte, s'exécute dans plus rapidement et sont les plus adaptés pour être implémenter dans les environnements de Cloud Computing. Ainsi, nous avons utilisé les résultats de cette méthode pour améliorer le processus de prise de décision, notamment pour la re-allocation proactive des machines virtuelles avant qu'il n'entraine des sous-consommations des ressources sur les serveurs physiques ou des surconsommation pouvant induire des violations des accords de niveaux de service. Cette démarche a permis sur la base de nos simulations de réduire de plus de 5Kwh la consommation d'énergie dans une ferme de 800 serveurs et sur une durée d'une journée. Ce gain pourrait se révéler important lorsque l'on considère la taille énorme des datacenters modernes et que l'on se projette dans une durée relativement longue. Il serait encore plus intéressant d'approfondir cette recherche afin de généraliser l'intégration de cette approche prédictive dans les techniques existantes afin d'optimiser de façon significative les consommations d'énergie au sein des Datacenters tout en préservant les performances et la qualité de service indispensable dans le concept de Cloud Computing
With the democratization of digital technologies, the construction of a globalized cyberspace insidiously transforms our lifestyle. Connect more than 4 billion people at high speed, requires the invention of new concept of service provision and trafic management that are capable to face the challenges. For that purpose, Cloud Computing have been set up to enable Datacenters to provide part or total IT components needed by companies for timely services delivering with performance that meets the requirements of their clients. Consequently, the proliferation of Datacenters around the world has brought to light the worrying question about the amount of energy needed for their function and the resulting difficulty for the humanity, whose current reserves are not extensible indefinitely. It was therefore necessary to develop techniques that reduce the power consumption of Datacenters by minimizing the energy losses orchestrated on servers where each wasted watt results in a chain effect on a substantial increase in the overall bill of Datacenters. Our work consisted first in making a review of the literature on the subject and then testing the ability of some prediction tools to improve the anticipation of the risks of energy loss caused by the misallocation of virtual equipment on servers. This study focused particularly on the ARMA tools and neural networks which in the literature have produced interesting results in related fields. After this step, it appeared to us that ARMA tools, although having less performance than neural networks in our context, runs faster and are best suited to be implemented in cloud computing environments. Thus, we used the results of this method to improve the decision-making process, notably for the proactive re-allocation of virtual equipment before it leads to under-consumption of resources on physical servers or over-consumption inducing breaches of SLAs. Based on our simulations, this approach enabled us to reduce energy consumption on a firm of 800 servers over a period of one day by more than 5Kwh. This gain could be significant when considering the enormous size of modern data centers and projected over a relatively long period of time. It would be even more interesting to deepen this research in order to generalize the integration of this predictive approach into existing techniques in order to significantly optimize the energy consumption within Datacenters while preserving performance and quality of service which are key requirements in the concept of Cloud Computing
APA, Harvard, Vancouver, ISO, and other styles
23

Moulherat, Sylvain. "Toward the development of predictive systems ecology modeling : metaConnect and its use as an innovative modeling platform in theoretical and applied fields of ecological research." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2668/.

Full text
Abstract:
Dans un contexte de changements globaux, les scientifiques et les législateurs requièrent des outils leur permettant de traiter la question de la perte de biodiversité. L'analyse de viabilité de population (PVA) est l'outil principal pour traiter le problème. Cependant, les outils développés dans les années 90 n'intègrent que très peu les récents progrès réalisés en génétic du paysage et sur la compréhension de la dipsersion. Ici, j'ai développé une plateforme de modélisation flexible et modulaire pour réaliser des PVA qui palie à la plupart des limitations des logiciels existants et répondant de ce fait à l'appel fait par Evans et al. (2013) pour développer des modèles prédictifs des systèmes écologiques. MetaConnect est un modèle individu centré, basé sur le déroulement des processus biologiques et principalement basé sur la réalisation d'analyses de viabilités qui peut être utlisé à la fois comme un outil de recherche ou d'aide à la décision. Dans ma thèse, je présente le module central de MetaConnect et sa validation puis présente différentes application de cette plateforme à des fins théoriques et appliquées
In a context of global change, scientists and policy-makers require tools to address the issue of biodiversity loss. Population viability analysis (PVA) has been the main tool to understand and plan for this problem. However, the tools developed during the 90s poorly integrate recent scientific advances in landscape genetics and dispersal. Here, I developed a flexible and modular modeling platform for PVA that addresses many of the limitations of existing software and in this way answer the call made by Evans et al. (2013) for predictive systems ecology models. MetaConnect is an individual-based, process-based and PVA-based modeling platform which could be used as a research or a decision-making tool. In my thesis, I present the modeling base core of MetaConnect and its validation and then present different uses of this platform in theoretical and applied ecology
APA, Harvard, Vancouver, ISO, and other styles
24

Chkir, Najiba. "Mise au point d'un modèle hydrologique conceptuel intégrant l'état hydrique du sol dans la modélisation pluie-débit." Phd thesis, Marne-la-vallée, ENPC, 1994. http://www.theses.fr/1994ENPC9410.

Full text
Abstract:
L’importance de l’état initial des bassins versants, et surtout de l’état hydrique du sol, dans la formation des débits est reconnue depuis longtemps. La connaissance précise de cet état hydrique et de sa prise en compte dans la modélisation Pluie-Débit reste cependant un des problèmes actuels de l’hydrologie. Aux mesures « in situ », trop ponctuelles et difficilement généralisables, viennent s’ajouter de nouvelles techniques de télédétection pouvant fournir une information « tout temps » et spatialisée de l’état de surface des bassins versants. L’objectif de cette thèse est de mettre au point un modèle hydrologique conceptuel Pluie-Débit, capable de prendre en compte l’état hydrique des sols. Deux outils de base ont été utilisés : le modèle conceptuel GR3J (puis GR4J) pour la simulation des débits et le modèle physique bi-couches inspiré du « Schéma de Deardorff » pour le suivi de l’humidité des deux couches de sol, superficielle et racinaire. De nombreux schémas de couplage ont été testés en s’appuyant sur les données du BVRE de l’Orgeval, où existent des séries de données de pluie, de débit et d’humidité du sol. Le modèle retenu, « GRHUM », a une fonction de production dérivée du schéma de Deardorff et a conservé la fonction de transfert de GR4J. C’est un modèle à six paramètres, simulant le débits journaliers et l’humidité de deux couches de sol. Le modèle a été validé sur le BVRE de Naisin et sur 35 autres bassins versants situés en Bretagne. Les résultats obtenus montrent les bonnes aptitudes du modèle à simuler les débits et l’humidité de la couche de sol racinaire. La prise en compte de l’occupation réelle du sol, à partir de cartes de cultures et accessible par télédétection, améliore la simulation des humidités de surface. Le fonctionnement de ce modèle peut être réalisé en deux modes : « simulation » lorsque les données d’humidité du sol ne sont pas disponibles et « assimilation » lorsque ces données sont présentes. Le modèle « GRHUM » ouvre des perspectives nouvelles pour l’utilisation de l’état hydrique du sol déterminé à partir de données satellitaires (radar, IRT) dans la prévision des débits
Conceptual hydrological modelling fails in describing the temporal evolution of soil hydric state by the use of classic methods of soil moisture measurement. It is well known that soil hydrodynamic behaviour is highly heterogeneous in the catchment. New remote sensed techniques of measurements can provide information about the spatial variability of this date. Actuel conceptual models use an index that represents the soil water content. This approach is not adapted to the use of remotely sensed data. The aim of this research is to develop a software which can estimate the soil hydric state evolution and simulate basin outflows. Thus, we will be able to use the remotely sensed data. This study is based on two existing tools. The first is the hydrologic conceptual model GR3J which is used to simulate the runoff. The second is the physically based two layers model, issued from de « Deardorff’s schema », and which is used to estimate the moisture evolution o f the two soil layers. These models were calibrated apart using date from basins of different hydrodynamic and morphological characteristics. He final model is obtained by a combination of the two previous models and can provide the capacity of each of them. This study have been done on the Orgeval’s catchment. The final model have been successfully validated on the Brittany region (France) where the ERS-1 project is situated. The model can run with two functional modes depending on the soil moisture data availability (simulation and assimilation)
APA, Harvard, Vancouver, ISO, and other styles
25

Hammami, Seif Eddine. "Dynamic network resources optimization based on machine learning and cellular data mining." Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0015.

Full text
Abstract:
Les traces réelles de réseaux cellulaires représentent une mine d’information utile pour améliorer les performances des réseaux. Des traces comme les CDRs (Call detail records) contiennent des informations horodatées sur toutes les interactions des utilisateurs avec le réseau sont exploitées dans cette thèse. Nous avons proposé des nouvelles approches dans l’étude et l’analyse des problématiques des réseaux de télécommunications, qui sont basé sur les traces réelles et des algorithmes d’apprentissage automatique. En effet, un outil global d’analyse de données, pour la classification automatique des stations de base, la prédiction de la charge de réseau et la gestion de la bande passante est proposé ainsi qu’un outil pour la détection automatique des anomalies de réseau. Ces outils ont été validés par des applications directes, et en utilisant différentes topologies de réseaux comme les réseaux WMN et les réseaux basés sur les drone-cells. Nous avons montré ainsi, qu’en utilisant des outils d’analyse de données avancés, il est possible d’optimiser dynamiquement les réseaux mobiles et améliorer la gestion de la bande passante
Real datasets of mobile network traces contain valuable information about the network resources usage. These traces may be used to enhance and optimize the network performances. A real dataset of CDR (Call Detail Records) traces, that include spatio-temporal information about mobile users’ activities, are analyzed and exploited in this thesis. Given their large size and the fact that these are real-world datasets, information extracted from these datasets have intensively been used in our work to develop new algorithms that aim to revolutionize the infrastructure management mechanisms and optimize the usage of resource. We propose, in this thesis, a framework for network profiles classification, load prediction and dynamic network planning based on machine learning tools. We also propose a framework for network anomaly detection. These frameworks are validated using different network topologies such as wireless mesh networks (WMN) and drone-cell based networks. We show that using advanced data mining techniques, our frameworks are able to help network operators to manage and optimize dynamically their networks
APA, Harvard, Vancouver, ISO, and other styles
26

Uppoor, Sandesh. "Understanding and Exploiting Mobility in Wireless Networks." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00912521.

Full text
Abstract:
Le degré de pénétration du marché des appareils intelligents tels que les smartphones et les tablettes avec les technologies de communication embarquées comme le WiFi, 3G et LTE a explosé en moins d'une décennie. En complément de cette tendance technologique, les appli- cations des réseaux sociaux ont virtuellement connecté une grande partie de la population, en génèrant une demande de trafic de données croissant vers et depuis l'infrastructure de com- munication. Les communications pervasive ont aussi acquis une importance dans l'industrie automobile. L'émergence d' une gamme impressionnante d' appareils intelligents dans les véhicules permettant services tels que assistance au conducteur, infotainment, suivi à dis- tance du vehicule, et connectivité àux réseaux sociaux même en déplacement. La demande exponentielle de connectivité a encore défié les fournisseurs de services de télécommunications pour répondre aux attentes des utilisateurs du réseau à grande vitesse. L'objectif de cette thèse est de modéliser et comprendre la mobilité dynamique des utilisateurs à grande vitesse et leurs effets sur les architectures de réseau sans fil. Compte tenu de l' importance du développement de notre étude sur une représentation réal- iste de la mobilité des véhicules, nous étudions tout d'abord les approches les plus populaires pour la génération de trafic routier synthétique et discutons les caractéristiques des ensem- bles de données accessibles au public qui decrivent des mobilités véhiculaires. En utilisant l'information des déplacements de la population dans une région métropolitaine, les données du réseau routier détaillées et des modèles réalistes de conduite microscopiques, nous pro- posons un jeux de données de mobilité véhiculaire original qui redéfinit l'état de l'art et qui replie la circulation routière de facon realiste dans le temps et dans l'espace. Nous étudions ensuite l'impact des dynamiques de mobilité du point de vue de la couverture cellulaire en présence d'un déploiement réel des stations de base. En outre, en examinant les effets de la mobilité des véhicules sur les réseaux autonomes, nous voyons des possibilités pour les futurs paradigmes de réseaux hétérogènes. Motivés par l'évolution dynamique dans le temps de la mobilité des véhicules observée dans notre jeux de données, nous proposons également une approche en ligne pour prédire les flux de trafic macroscopiques. Nous analysons les paramètres affectant la prédiction de la mobilité en milieu urbain. Nous dévoilons quand et où la gestion des ressources réseau est plus crucial pour accueillir le trafic généré par les utilisateurs à bord. Ces études dévoilent des multiples opportunités de gestion intelligente des transports, soit pour construire de nouvelles routes, soit pour l'installation de bornes de recharge électriques, ou pour la conception de systèmes de feux de circulation intelligents, contribuant ainsi à la planification urbaine.
APA, Harvard, Vancouver, ISO, and other styles
27

Hammami, Seif Eddine. "Dynamic network resources optimization based on machine learning and cellular data mining." Thesis, Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0015/document.

Full text
Abstract:
Les traces réelles de réseaux cellulaires représentent une mine d’information utile pour améliorer les performances des réseaux. Des traces comme les CDRs (Call detail records) contiennent des informations horodatées sur toutes les interactions des utilisateurs avec le réseau sont exploitées dans cette thèse. Nous avons proposé des nouvelles approches dans l’étude et l’analyse des problématiques des réseaux de télécommunications, qui sont basé sur les traces réelles et des algorithmes d’apprentissage automatique. En effet, un outil global d’analyse de données, pour la classification automatique des stations de base, la prédiction de la charge de réseau et la gestion de la bande passante est proposé ainsi qu’un outil pour la détection automatique des anomalies de réseau. Ces outils ont été validés par des applications directes, et en utilisant différentes topologies de réseaux comme les réseaux WMN et les réseaux basés sur les drone-cells. Nous avons montré ainsi, qu’en utilisant des outils d’analyse de données avancés, il est possible d’optimiser dynamiquement les réseaux mobiles et améliorer la gestion de la bande passante
Real datasets of mobile network traces contain valuable information about the network resources usage. These traces may be used to enhance and optimize the network performances. A real dataset of CDR (Call Detail Records) traces, that include spatio-temporal information about mobile users’ activities, are analyzed and exploited in this thesis. Given their large size and the fact that these are real-world datasets, information extracted from these datasets have intensively been used in our work to develop new algorithms that aim to revolutionize the infrastructure management mechanisms and optimize the usage of resource. We propose, in this thesis, a framework for network profiles classification, load prediction and dynamic network planning based on machine learning tools. We also propose a framework for network anomaly detection. These frameworks are validated using different network topologies such as wireless mesh networks (WMN) and drone-cell based networks. We show that using advanced data mining techniques, our frameworks are able to help network operators to manage and optimize dynamically their networks
APA, Harvard, Vancouver, ISO, and other styles
28

Goelzer, Anne. "Emergence de structures modulaires dans les régulations des systèmes biologiques : théorie et applications à Bacillus subtilis." Phd thesis, Ecole Centrale de Lyon, 2010. http://tel.archives-ouvertes.fr/tel-00597796.

Full text
Abstract:
Cette thèse consiste à étudier l'organisation du système de contrôle des voies métaboliques des bactéries afin de dégager des propriétés systémiques révélant son fonctionnement. Dans un premier temps, nous montrons que le contrôle des voies métaboliques est hautement structuré et peut se décomposer en modules fortement découplés en régime stationnaire. Ces modules possèdent des propriétés mathématiques remarquables ayant des conséquences importantes en biologie. Cette décomposition, basée intrinsèquement sur la vision système de l'Automatique, offre un cadre théorique formel général d'analyse du contrôle des voies métaboliques qui s'est révélé effectif pour analyser des données expérimentales. dans un deuxième temps, nous nous intéressons aux raisons possibles de l'émergence de cette structure de contrôle similaire. Nous identifions un ensemble de contraintes structurelles agissant au niveau de la répartition d'une ressource commune, les protéines, entre les processus cellulaires. Respecter ces contraintes pour un taux de croissance donné conduit à formaliser et résoudre un problème d'optimisation convexe non différentiable, que nous appelons Resource balance Analysis. Ce problème d'optimisation se résout numériquement à l'échelle de la bactérie grâce à un problème de Programmation Linéaire équivalent. plusieurs propriétés sont déduites de l'analyse théorique du critère obtenu. Tout d'abord, le taux de croissance est structurellement limité par la répartition d'une quantité finie de protéines entre les voies métaboliques et les ribosomes. Ensuite, l'émergence des modules dans les voies métaboliques provient d'une politique générale d'économie en protéines chez la bactérie pour gagner du taux de croissance. Certaines stratégies de transport bien connues comme la répression catabolique ou la substitution de transporteurs haute/basse affinités sont prédites par notre méthode et peuvent alors être interprétées comme le moyen de maximiser la croissance tout en minimisant l'investissement en protéines.
APA, Harvard, Vancouver, ISO, and other styles
29

Gaudin, Théophile. "Développement de modèles QSPR pour la prédiction et la compréhension des propriétés amphiphiles des tensioactifs dérivés de sucre." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2318/document.

Full text
Abstract:
Les tensioactifs dérivés de sucres représentent la principale famille de tensioactifs bio-sourcés et constituent de bons candidats pour substituer les tensioactifs dérivés du pétrole puisqu'ils sont issus de ressources renouvelables et peuvent être autant, voire plus performants dans diverses applications, comme la formulation (détergents, cosmétiques,…), la récupération assistée du pétrole ou des minéraux, etc. Différentes propriétés amphiphiles permettent de caractériser la performance des tensioactifs dans de telles applications, comme la concentration micellaire critique, la tension de surface à la concentration micellaire critique, l'efficience et le point de Krafft. Prédire ces propriétés serait bénéfique pour identifier plus rapidement les tensioactifs possédant les propriétés désirées. Les modèles QSPR sont des outils permettant de prédire de telles propriétés, mais aucun modèle QSPR fiable dédié à ces propriétés n'a été identifié pour les tensioactifs bio-sourcés, et en particulier les tensioactifs dérivés de sucres. Au cours de cette thèse, de tels modèles QSPR ont été développés. Une base de données fiables est nécessaire pour développer tout modèle QSPR. Concernant les tensioactifs dérivés de sucres, aucune base de données existante n'a été identifiée pour les propriétés ciblées. Cela a donné suite à la construction de la première base de données de propriétés amphiphiles de tensioactifs dérivés de sucres, qui est en cours de valorisation. L'analyse de cette base de données a mis en évidence différentes relations empiriques entre la structure de ces molécules et leurs propriétés amphiphiles, et permis d'isoler des jeux de données les plus fiables et au protocole le plus homogène possibles en vue du développement de modèles QSPR. Après établissement d'une stratégie robuste pour calculer les descripteurs moléculaires constituant les modèles QSPR, qui s'appuie notamment sur des analyses conformationnelles des tensioactifs dérivés de sucres et des descripteurs des têtes polaires et chaînes alkyles, différents modèles QSPR ont été développés, validés, et leur domaine d'applicabilité spécifié, pour la concentration micellaire critique, la tension de surface à la concentration micellaire critique, l'efficience et le point de Krafft. Pour les trois premières propriétés, des modèles quantitatifs performants ont pu être obtenus. Si les descripteurs quantiques ont apporté un gain prédictif important pour la tension de surface à la concentration micellaire critique, et un léger gain pour la concentration micellaire critique, aucun gain n'a été observé pour l'efficience. Pour ces trois propriétés, des modèles simples basés sur des descripteurs constitutionnels des parties hydrophile et hydrophobe de la molécule (comme des décomptes d'atomes) ont aussi été obtenus. Pour le point de Krafft, deux arbres de décision qualitatifs, classant la molécule comme soluble ou insoluble dans l'eau à température ambiante, ont été proposés. Les descripteurs quantiques ont ici aussi apporté un gain en prédictivité, même si un modèle relativement fiable basé sur des descripteurs constitutionnels des parties hydrophile et hydrophobe de la molécule a aussi été obtenu. Enfin, nous avons montré comment ces modèles QSPR peuvent être utilisés, pour prédire les propriétés de nouvelles molécules avant toute synthèse dans un contexte de screening, ou les propriétés manquantes de molécules existantes, et pour le design in silico de nouvelles molécules par combinaison de fragments
Sugar-based surfactants are the main family of bio-based surfactants and are good candidates as substitutes for petroleum-based surfactants, since they originate from renewable resources and can show as good as, or even better, performances in various applications, such as detergent and cosmetic formulation, enhanced oil or mineral recovery, etc. Different amphiphilic properties can characterize surfactant performance in such applications, like critical micelle concentration, surface tension at critical micelle concentration, efficiency and Kraft point. Predicting such properties would be beneficial to quickly identify surfactants that exhibit desired properties. QSPR models are tools to predict such properties, but no reliable QSPR model was identified for bio-based surfactants, and in particular sugar-based surfactants. During this thesis, such QSPR models were developed. A reliable database is required to develop any QSPR model. Regarding sugar-based surfactants, no database was identified for the targeted properties. This motivated the elaboration of the first database of amphiphilic properties of sugar-based surfactants. The analysis of this database highlighted various empirical relationships between the chemical structure of these molecules and their amphiphilic properties, and enabled to isolate the most reliable datasets with the most homogeneous possible protocol, to be used for the development of the QSPR models. After the development of a robust strategy to calculate molecular descriptors that constitute QSPR models, notably relying upon conformational analysis of sugar-based surfactants and descriptors calculated only for the polar heads and for the alkyl chains, different QSPR models were developed, validated, and their applicability domain defined, for the critical micelle concentration, the surface tension at critical micelle concentration, the efficiency and the Kraft point. For the three first properties, good quantitative models were obtained. If the quantum chemical descriptors brought a significant additional predictive power for the surface tension at critical micelle concentration, and a slight improvement for the critical micelle concentration, no gain was observed for efficiency. For these three properties, simple models based on constitutional descriptors of polar heads and alkyl chains of the molecule (like atomic counts) were also obtained. For the Krafft point, two qualitative decision trees, classifying the molecule as water soluble or insoluble at room temperature, were proposed. The use of quantum chemical descriptors brought an increase in predictive power for these decision trees, even if a quite reliable model only based on constitutional descriptors of polar heads and alkyl chains was also obtained. At last, we showed how these QSPR models can be used, to predict properties of new surfactants before synthesis in a context of computational screening, or missing properties of existing surfactants, and for the in silico design of new surfactants by combining different polar heads with different alkyl chain
APA, Harvard, Vancouver, ISO, and other styles
30

Awal, Mohammad abdul. "Efficient cqi feedback resource utilisation for multi-user multi-carrier wireless systems." Thesis, Paris 11, 2011. http://www.theses.fr/2011PA112223/document.

Full text
Abstract:
La technologie OFDMA (Orthogonal frequency division multiple access) a été adoptée par les systèmes de télécommunications de 4ème génération (4G) comme technique de transmission et d'accès multiple pour ses performances supérieures en termes d'efficacité spectrale. Dans ce type de systèmes, l'adaptation dynamique du débit en fonction de la qualité du canal CQI (Channel Quality Indicator) constitue une problématique de recherche d'actualité qui attire l'attention de plusieurs acteurs académiques et industriels. Ce problème d'adaptation dynamique est encore plus complexe à gérer dans des environnements multi-utilisateurs hétérogènes et à ressources limitées tels que les systèmes OFDMA comme WiMAX Mobile et Long-term Evolution (LTE). Dans cette thèse, nous nous intéressons au problème d'allocation de ressources de l'information de feedback relative au CQI dans le cadre de systèmes OFDMA multi-porteuses multi-utilisateurs. Dans le but de réduire la charge (overhead) du feedback, nous proposons une méthode de prédiction du CQI basée sur l'exploitation de la corrélation temporelle de ce dernier et d'une solution inter-couches. L'objectif est de trouver des schémas d'allocation de ressources adaptatifs respectant les contraintes de qualité de service (QoS) applicatives.Nous proposons en premier lieu un algorithme de réduction de feedback PBF (Prediction Based Feedack) qui permet à la station de base (BS) à prédire certaines occurrences du CQI en se basant sur l'algorithme des moindres carrés récursif RLS (Recursive least-square). Les résultats de simulation montrent que l'outil de prédiction du CQI réduit sensiblement l'overhead du feedback et améliore par conséquent le débit de la liaison montante. Nous proposons, par la suite, une version opportuniste de PBF pour atténuer les éventuels effets de sur et sous estimations liées à l'algorithme de prédiction. Dans ce mécanisme, nous exploitons les informations inter-couches pour améliorer les performances des mécanismes de feedbacks périodiques dont PBF fait partie. L'approche opportuniste améliore sensiblement les performances du système pour les cas de mobilité élevée comparés aux cas de faible mobilité.Dans un second temps, nous proposons une plateforme (FEREP : feedback resource allocation and prediction) basée sur une approche inter-couches. Implémentée au niveau de la station BS, FEREP intègre les fonctionnalités de prédiction, d'adaptation dynamique du CQI et d'ordonnancement des demandes de feedback. Elle comporte trois modules. Le module FWA (feedback window adaptation) gère dynamiquement la fenêtre de feedbacks de chaque station mobile (MS) en se basant sur les messages ARQ (Automatic Repeat Request) reçus qui reflètent l'état actuel des canaux respectifs. Le module PBFS (priority-based feedback scheduling) effectue ensuite l'ordonnancement des feedbacks en tenant compte de la taille de la fenêtre de feedback, du profil de l'utilisateur sous la contrainte de la limitation des ressources globales du systèmes réservées au feedback. Afin de choisir les paramètres de transmission MCS (modulation and coding schemes), le module PBF (prediction based feedback) est utilisé pour les utilisateurs dont le feedabck n'a pas pu être ordonnancé dans la trame courante. Les résultats de simulation ont montré un gain significatif des performances de FREREP en comparaison à un mécanisme de référence, en particulier, sous de fortes contraintes de limitation des ressources du feedback.Le protocole ARQ génère un accusé de réception uniquement si l'utilisateur est sélectionné par l'ordonnanceur pour envoyer des données sur la liaison descendante. Dans le cas où la fréquence d'ordonnancement des utilisateurs sur le lien descendant est réduite, les messages ARQ s'en trouvent également réduits, dégradant par conséquent les performances de la plateforme FEREP proposée ci-dessus. En effet, dans ce cas la signalisation ARQ devient insuffisante pour adapter efficacement la fenêtre de feedback de chaque utilisateur. Pour pallier à ce problème, nous proposons l'algorithme DCRA (dynamic CQI resource allocation) qui utilise deux modes d'estimation de la fenêtre de feedback. Le premier est un mode hors-ligne basé sur des études empiriques permettant d'estimer la fenêtre moyenne optimale de feedback en utilisant les profils applicatif et de mobilité de l'utilisateur. Notre analyse de performance par simulation montre que la fenêtre de feedback peut être estimée en fonction de la classe de service des utilisateurs et de leurs profils de mobilité pour un environnement cellulaire donné. Le second mode de fonctionnement de DCRA effectue une adaptation dynamique de la fenêtre en temps réel dans le cas où la signalisation ARQ est suffisante. Une étude comparative avec les mécanismes DFS (deterministic feedback scheduling) et OFS (opportunistic feedback scheduling), a montré que DCRA arrive à réaliser un meilleur gain en ressources montantes grâce à la réduction de l'overhead des feedbacks, sans pour autant trop dégrader le débit descendant des utilisateurs. Du point de vue des utilisateurs, DCRA améliore les contraintes de QoS tels que le taux de perte de paquets et réduit la consommation énergétique des terminaux grâce à la réduction de feedback
Orthogonal frequency division multiple access (OFDMA) technology has been adopted by 4th generation (a.k.a. 4G) telecommunication systems to achieve high system spectral efficiency. A crucial research issue is how to design adaptive channel quality indicator (CQI) feedback mechanisms so that the base station can use adaptive modulation and coding (AMC) techniques to adjust its data rate based on the channel condition. This problem is even more challenging in resource-limited and heterogeneous multiuser environments such as Mobile WiMAX, Long-term Evolution (LTE) networks. In this thesis, we consider CQI feedback resource allocation issue for multiuser multicarrier OFDMA systems. We exploit time-domain correlation for CQI prediction and cross-layer information to reduce feedback overhead for OFDMA systems. Our aim is find resource allocation schemes respecting the users QoS constraints.Our study begins with proposing prediction based feedback (PBF) which allows the base station to predict the CQI feedbacks based on recursive least-square (RLS) algorithm. We showed that it is useful to use channel prediction as a tool to reduce the feedback overhead and improve the uplink throughput. Then, we propose an opportunistic periodic feedback mechanism to mitigate the possible under and over estimation effects of CQI prediction. In this mechanism, we exploited the cross-layer information to enhance the performance of periodic feedback mechanisms. The opportunistic mechanism improves the system performance for high mobility cases compared to low mobility cases.For OFDMA systems with limited feedback resource, we propose an integrated cross-layer framework of feedback resource allocation and prediction (FEREP). The proposed framework, implemented at the BS side, is composed of three modules. The feedback window adaptation (FWA) module dynamically tunes the feedback window size for each mobile station based on the received ARQ (Automatic Repeat Request) messages that reflect the current channel condition. The priority-based feedback scheduling (PBFS) module then performs feedback allocation by taking into account the feedback window size, the user profile and the total system feedback budget. To choose adapted modulation and coding schemes (MCS), the prediction based feedback (PBF) module performs channel prediction by using recursive least square (RLS) algorithm for the user whose channel feedback has not been granted for schedule in current frame. Through extensive simulations, the proposed framework shows significant performance gain especially under stringent feedback budget constraint.ARQ protocol receives users acknowledgement only if the user is scheduled in the downlink. The reduction in users scheduling frequency also reduces the rate of ARQ hints and degrades the performance of above contributions. In this case, it is difficult to exploit the ARQ signal to adapt the feedback window for that user. To address this issue, we propose a cross-layer dynamic CQI resource allocation (DCRA) algorithm for multiuser multicarrier OFDMA systems. DCRA uses two modes for feedback window estimation. The first one is an off-line mode based on empirical studies to derive optimal average feedback window based on user application and mobility profile. Our experimental analysis shows that the feedback window can be averaged according to users service class and their mobility profile for a given cell environment. DCRA performs a realtime dynamic window adaptation if sufficient cross-layer hints are available from ARQ signaling. DCRA increases uplink resource by reducing feedback overhead without degrading downlink throughout significantly compared to deterministic feedback scheduling (DFS) and opportunistic feedback scheduling (OFS). From the users perspective, DCRA improves QoS constraints like packet loss rate and saves users power due to feedback reduction
APA, Harvard, Vancouver, ISO, and other styles
31

Uznanski, Przemyslaw. "Large scale platform : Instantiable models and algorithmic design of communication schemes." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00878837.

Full text
Abstract:
The increasing popularity of Internet bandwidth-intensive applications prompts us to consider followingproblem: How to compute efficient collective communication schemes on large-scale platform?The issue of designing a collective communication in the context of a large scale distributed networkis a difficult and a multi-level problem. A lot of solutions have been extensively studied andproposed. But a new, comprehensive and systematic approach is required, that combines networkmodels and algorithmic design of solutions.In this work we advocate the use of models that are able to capture real-life network behavior,but also are simple enough that a mathematical analysis of their properties and the design of optimalalgorithms is achievable.First, we consider the problem of the measuring available bandwidth for a given point-topointconnection. We discuss how to obtain reliable datasets of bandwidth measurements usingPlanetLab platform, and we provide our own datasets together with the distributed software usedto obtain it. While those datasets are not a part of our model per se, they are necessary whenevaluating the performance of various network algorithms. Such datasets are common for latencyrelatedproblems, but very rare when dealing with bandwidth-related ones.Then, we advocate for a model that tries to accurately capture the capabilities of a network,named LastMile model. This model assumes that essentially the congestion happens at the edgesconnecting machines to the wide Internet. It has a natural consequence in a bandwidth predictionalgorithm based on this model. Using datasets described earlier, we prove that this algorithm is ableto predict with an accuracy comparable to best known network prediction algorithm (DistributedMatrix Factorization) available bandwidth between two given nodes. While we were unable toimprove upon DMF algorithm in the field of point-to-point prediction, we show that our algorithmhas a clear advantage coming from its simplicity, i.e. it naturally extends to the network predictionsunder congestion scenario (multiple connections sharing a bandwidth over a single link). We areactually able to show, using PlanetLab datasets, that LastMile prediction is better in such scenarios.In the third chapter, we propose new algorithms for solving the large scale broadcast problem.We assume that the network is modeled by the LastMile model. We show that under thisassumption, we are able to provide algorithms with provable, strong approximation ratios. Takingadvantage of the simplicity and elasticity of the model, we can even extend it, so that it captures theidea of connectivity artifacts, in our case firewalls preventing some nodes to communicate directlybetween each other. In the extended case we are also able to provide approximation algorithmswith provable performance.The chapters 1 to 3 form three successful steps of our program to develop from scratch amathematical network communication model, prove it experimentally, and show that it can beapplied to develop algorithms solving hard problems related to design of communication schemesin networks.In the chapter 4 we show how under different network cost models, using some simplifyingassumptions on the structure of network and queries, one can design very efficient communicationschemes using simple combinatorial techniques. This work is complementary to the previous chapter in the sense that previously when designing communication schemes, we assumed atomicityof connections, i.e. that we have no control over routing of simple connections. In chapter 4 weshow how to solve the problem of an efficient routing of network request, given that we know thetopology of the network. It shows the importance of instantiating the parameters and the structureof the network in the context of designing efficient communication schemes.
APA, Harvard, Vancouver, ISO, and other styles
32

Tsafack, Chetsa Ghislain Landry. "System Profiling and Green Capabilities for Large Scale and Distributed Infrastructures." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2013. http://tel.archives-ouvertes.fr/tel-00946583.

Full text
Abstract:
Nowadays, reducing the energy consumption of large scale and distributed infrastructures has truly become a challenge for both industry and academia. This is corroborated by the many efforts aiming to reduce the energy consumption of those systems. Initiatives for reducing the energy consumption of large scale and distributed infrastructures can without loss of generality be broken into hardware and software initiatives.Unlike their hardware counterpart, software solutions to the energy reduction problem in large scale and distributed infrastructures hardly result in real deployments. At the one hand, this can be justified by the fact that they are application oriented. At the other hand, their failure can be attributed to their complex nature which often requires vast technical knowledge behind proposed solutions and/or thorough understanding of applications at hand. This restricts their use to a limited number of experts, because users usually lack adequate skills. In addition, although subsystems including the memory are becoming more and more power hungry, current software energy reduction techniques fail to take them into account. This thesis proposes a methodology for reducing the energy consumption of large scale and distributed infrastructures. Broken into three steps known as (i) phase identification, (ii) phase characterization, and (iii) phase identification and system reconfiguration; our methodology abstracts away from any individual applications as it focuses on the infrastructure, which it analyses the runtime behaviour and takes reconfiguration decisions accordingly.The proposed methodology is implemented and evaluated in high performance computing (HPC) clusters of varied sizes through a Multi-Resource Energy Efficient Framework (MREEF). MREEF implements the proposed energy reduction methodology so as to leave users with the choice of implementing their own system reconfiguration decisions depending on their needs. Experimental results show that our methodology reduces the energy consumption of the overall infrastructure of up to 24% with less than 7% performance degradation. By taking into account all subsystems, our experiments demonstrate that the energy reduction problem in large scale and distributed infrastructures can benefit from more than "the traditional" processor frequency scaling. Experiments in clusters of varied sizes demonstrate that MREEF and therefore our methodology can easily be extended to a large number of energy aware clusters. The extension of MREEF to virtualized environments like cloud shows that the proposed methodology goes beyond HPC systems and can be used in many other computing environments.
APA, Harvard, Vancouver, ISO, and other styles
33

Nadembéga, Apollinaire. "Gestion des ressources dans les réseaux cellulaires sans fil." Thèse, 2013. http://hdl.handle.net/1866/10520.

Full text
Abstract:
L’émergence de nouvelles applications et de nouveaux services (tels que les applications multimédias, la voix-sur-IP, la télévision-sur-IP, la vidéo-sur-demande, etc.) et le besoin croissant de mobilité des utilisateurs entrainent une demande de bande passante de plus en plus croissante et une difficulté dans sa gestion dans les réseaux cellulaires sans fil (WCNs), causant une dégradation de la qualité de service. Ainsi, dans cette thèse, nous nous intéressons à la gestion des ressources, plus précisément à la bande passante, dans les WCNs. Dans une première partie de la thèse, nous nous concentrons sur la prédiction de la mobilité des utilisateurs des WCNs. Dans ce contexte, nous proposons un modèle de prédiction de la mobilité, relativement précis qui permet de prédire la destination finale ou intermédiaire et, par la suite, les chemins des utilisateurs mobiles vers leur destination prédite. Ce modèle se base sur : (a) les habitudes de l’utilisateur en terme de déplacements (filtrées selon le type de jour et le moment de la journée) ; (b) le déplacement courant de l’utilisateur ; (c) la connaissance de l’utilisateur ; (d) la direction vers une destination estimée ; et (e) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que ce modèle donne une précision largement meilleure aux approches existantes. Dans la deuxième partie de cette thèse, nous nous intéressons au contrôle d’admission et à la gestion de la bande passante dans les WCNs. En effet, nous proposons une approche de gestion de la bande passante comprenant : (1) une approche d’estimation du temps de transfert intercellulaire prenant en compte la densité de la zone de déplacement en terme d’utilisateurs, les caractéristiques de mobilité des utilisateurs et les feux tricolores ; (2) une approche d’estimation de la bande passante disponible à l’avance dans les cellules prenant en compte les exigences en bande passante et la durée de vie des sessions en cours ; et (3) une approche de réservation passive de bande passante dans les cellules qui seront visitées pour les sessions en cours et de contrôle d’admission des demandes de nouvelles sessions prenant en compte la mobilité des utilisateurs et le comportement des cellules. Les résultats de simulation indiquent que cette approche réduit largement les ruptures abruptes de sessions en cours, offre un taux de refus de nouvelles demandes de connexion acceptable et un taux élevé d’utilisation de la bande passante. Dans la troisième partie de la thèse, nous nous penchons sur la principale limite de la première et deuxième parties de la thèse, à savoir l’évolutivité (selon le nombre d’utilisateurs) et proposons une plateforme qui intègre des modèles de prédiction de mobilité avec des modèles de prédiction de la bande passante disponible. En effet, dans les deux parties précédentes de la thèse, les prédictions de la mobilité sont effectuées pour chaque utilisateur. Ainsi, pour rendre notre proposition de plateforme évolutive, nous proposons des modèles de prédiction de mobilité par groupe d’utilisateurs en nous basant sur : (a) les profils des utilisateurs (c’est-à-dire leur préférence en termes de caractéristiques de route) ; (b) l’état du trafic routier et le comportement des utilisateurs ; et (c) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que la plateforme proposée améliore la performance du réseau comparée aux plateformes existantes qui proposent des modèles de prédiction de la mobilité par groupe d’utilisateurs pour la réservation de bande passante.
The emergence of new applications and services (e.g., multimedia applications, voice over IP and IPTV) and the growing need for mobility of users cause more and more growth of bandwidth demand and a difficulty of its management in Wireless Cellular Networks (WCNs). In this thesis, we are interested in resources management, specifically the bandwidth, in WCNs. In the first part of the thesis, we study the user mobility prediction that is one of key to guarantee efficient management of available bandwidth. In this context, we propose a relatively accurate mobility prediction model that allows predicting final or intermediate destinations and subsequently mobility paths of mobile users to reach these predicted destinations. This model takes into account (a) user’s habits in terms of movements (filtered according to the type of day and the time of the day); (b) user's current movement; (c) user’s contextual knowledge; (d) direction from current location to estimated destination; and (e) spatial conceptual maps. Simulation results show that the proposed model provides good accuracy compared to existing models in the literature. In the second part of the thesis, we focus on call admission control and bandwidth management in WCNs. Indeed, we propose an efficient bandwidth utilization scheme that consists of three schemes: (1) handoff time estimation scheme that considers navigation zone density in term of users, users’ mobility characteristics and traffic light scheduling; (2) available bandwidth estimation scheme that estimates bandwidth available in the cells that considers required bandwidth and lifetime of ongoing sessions; and (3) passive bandwidth reservation scheme that passively reserves bandwidth in cells expected to be visited by ongoing sessions and call admission control scheme for new call requests that considers the behavior of an individual user and the behavior of cells. Simulation results show that the proposed scheme reduces considerably the handoff call dropping rate while maintaining acceptable new call blocking rate and provides high bandwidth utilization rate. In the third part of the thesis, we focus on the main limitation of the first and second part of the thesis which is the scalability (with the number of users) and propose a framework, together with schemes, that integrates mobility prediction models with bandwidth availability prediction models. Indeed, in the two first contributions of the thesis, mobility prediction schemes process individual user requests. Thus, to make the proposed framework scalable, we propose group-based mobility prediction schemes that predict mobility for a group of users (not only for a single user) based on users’ profiles (i.e., their preference in terms of road characteristics), state of road traffic and users behaviors on roads and spatial conceptual maps. Simulation results show that the proposed framework improves the network performance compared to existing schemes which propose aggregate mobility prediction bandwidth reservation models.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography