Dissertationen zum Thema „Prédiction de ressources“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Prédiction de ressources.

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-36 Dissertationen für die Forschung zum Thema "Prédiction de ressources" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Santi, Nina. „Prédiction des besoins pour la gestion de serveurs mobiles en périphérie“. Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILB050.

Der volle Inhalt der Quelle
Annotation:
L'informatique en périphérie est un paradigme émergent au sein de l'Internet des Objets (IoT) et complémentaire à l'informatique en nuage. Ce paradigme propose l'implémentation de serveurs de calcul situés à proximité des utilisateurs, réduisant ainsi la pression et les coûts de l'infrastructure réseau locale. La proximité avec les utilisateurs suscite de nouveaux cas d'utilisation, tels que le déploiement de serveurs mobiles embarqués sur des drones ou des robots, offrant une alternative moins coûteuse, plus éco-énergétique et flexible par rapport aux infrastructures fixes lors d'événements ponctuels ou exceptionnels. Cependant, cette approche soulève également de nouveaux enjeux pour le déploiement et l'allocation de ressources en temps et en espace, souvent dépendants de la batterie.Dans le cadre de cette thèse, nous proposons des outils et des algorithmes de prédiction pour la prise de décision concernant l'allocation de ressources fixes et mobiles, à la fois en termes de temps et d'espace, au sein d'environnements dynamiques. Nous mettons à disposition des jeux de données riches et reproductibles qui reflètent l'hétérogénéité inhérente aux applications de l'Internet des Objets (IoT), tout en présentant un taux de contention et d'interférence élevé. Pour cela, nous utilisons le FIT-IoT Lab, un banc d'essai ouvert dédié à l'IoT, et nous mettons l'ensemble du code à disposition de manière ouverte. De plus, nous avons développé un outil permettant de générer de manière automatisée et reproductible des traces de l'IoT. Nous exploitons ces jeux de données pour entraîner des algorithmes d'apprentissage automatique basés sur des techniques de régression afin de les évaluer dans leur capacité à prédire le débit des applications de l'IoT. Dans une démarche similaire, nous avons également entraîné et analysé un réseau neuronal de type transformateur temporel pour prédire plusieurs métriques de la Qualité de Service (QoS). Afin de tenir compte de la mobilité des ressources, nous générons des traces de l'IoT intégrant des points d'accès mobiles embarqués sur des robots TurtleBot. Ces traces, qui intègrent la mobilité, sont utilisées pour valider et tester un framework d'apprentissage fédéré reposant sur des transformateurs temporels parcimonieux. Enfin, nous proposons un algorithme décentralisé de prédiction de la densité de la population humaine par régions, basé sur l'utilisation d'un filtre à particules. Nous testons et validons cet algorithme à l'aide du simulateur Webots dans un contexte de serveurs embarqués sur des robots, et du simulateur ns-3 pour la partie réseaux
Multi-access Edge computing is an emerging paradigm within the Internet of Things (IoT) that complements Cloud computing. This paradigm proposes the implementation of computing servers located close to users, reducing the pressure and costs of local network infrastructure. This proximity to users is giving rise to new use cases, such as the deployment of mobile servers mounted on drones or robots, offering a cheaper, more energy-efficient and flexible alternative to fixed infrastructures for one-off or exceptional events. However, this approach also raises new challenges for the deployment and allocation of resources in terms of time and space, which are often battery-dependent.In this thesis, we propose predictive tools and algorithms for making decisions about the allocation of fixed and mobile resources, in terms of both time and space, within dynamic environments. We provide rich and reproducible datasets that reflect the heterogeneity inherent in Internet of Things (IoT) applications, while exhibiting a high rate of contention and interference. To achieve this, we are using the FIT-IoT Lab, an open testbed dedicated to the IoT, and we are making all the code available in an open manner. In addition, we have developed a tool for generating IoT traces in an automated and reproducible way. We use these datasets to train machine learning algorithms based on regression techniques to evaluate their ability to predict the throughput of IoT applications. In a similar approach, we have also trained and analysed a neural network of the temporal transformer type to predict several Quality of Service (QoS) metrics. In order to take into account the mobility of resources, we are generating IoT traces integrating mobile access points embedded in TurtleBot robots. These traces, which incorporate mobility, are used to validate and test a federated learning framework based on parsimonious temporal transformers. Finally, we propose a decentralised algorithm for predicting human population density by region, based on the use of a particle filter. We test and validate this algorithm using the Webots simulator in the context of servers embedded in robots, and the ns-3 simulator for the network part
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Galtier, Virginie. „Éléments de gestion des ressources de calcul dans les réseaux actifs hétérogènes“. Nancy 1, 2002. http://docnum.univ-lorraine.fr/public/SCD_T_2002_0017_GALTIER.pdf.

Der volle Inhalt der Quelle
Annotation:
Fruit des progrès réalisés dans plusieurs domaines de la science informatique ces dernières années, le concept de réseau actif est actuellement à l'étude pour permettre l'introduction de nouveaux services réseau de façon plus dynamique que dans les réseaux actuels. Il donne aux applications la possibilité de définir la pile de protocoles qu'elles souhaitent voir employée pour le traitement de leurs paquets aux nœuds du réseau. Dans ce nouveau contexte très variable, pour qu'un nœud puisse gérer intelligemment ses ressources en calcul il faut que les applications actives lui déclarent leurs besoins. Malheureusement, s'il existe des unités bien établies pour exprimer les besoins en mémoire (octet) ou en bande passante (bit/seconde) d'un programme, il n'existe pas d'unité pour exprimer les besoins en calcul (temps processeur) qui puisse se traduire sur les machines aux performances parfois très différentes composant un réseau actif. Dans l'hypothèse où les différents comportements possibles d'une application sont identifiés et peuvent être répétés dans une phase initiale de traçage, nous proposons de modéliser une application par une série de scénarios, où un scénario a une certaine probabilité d'occurrence et est caractérisé par une suite de services que les paquets de l'application demandent aux nœuds sur lesquels ils s'exécutent. Les performances des nœuds actifs sont évaluées par des benchmarks dédiés. La combinaison de ces deux informations permet à un nœud de prévoir a priori combien de temps CPU l'exécution d'une application active est susceptible de demander. Nous montrons que le nœud peut alors utiliser cette information pour réaliser une "gestion renseignée", plus efficace que la "gestion arbitraire" classique. Nous proposons également de faire évoluer les modèles afin que notre approche reste satisfaisante avec des hypothèses moins restrictives.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Choutri, Amira. „Gestion des ressources et de la consommation énergétique dans les réseaux mobiles hétérogènes“. Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV043/document.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est de développer les méthodes nécessaires à une gestion ciblée et efficace de la mobilité des utilisateurs dans un réseau mobile hétérogène. Ces réseaux sont caractérisés par le déploiement de différents types de cellules (macro, micro, pico et/ou femto). Le déploiement massif des petites cellules (pico et femto) a permis d'offrir une capacité et une qualité de couverture accrue au réseau, notamment dans les zones à forte densité. Cependant, les contraintes temps réel engendrées limitent la QoS offerte aux utilisateurs. De plus, pour des raisons commerciales et/ou environnementales, la nécessité de réduire la consommation énergétique des réseaux mobiles est devenue une réalité. Ainsi, les opérateurs mobiles doivent trouver le bon compromis entre d'une part, la garantie de la QoS offerte aux utilisateurs et la vitesse de mobilité de ces derniers, et d'une autre part, le coût énergétique engendré pour le déploiement du réseau. Pour cela, dans le cadre de la gestion de la mobilité des utilisateurs, nous proposons des modèles pour la gestion des ressources des stations de base ainsi que pour la gestion de leur consommation énergétique. Le premier modèle proposé vise à gérer le partage des ressources entre les clients de l'opérateur mobile. Basé sur la prédiction de la mobilité des utilisateurs, ce modèle permet d'anticiper la gestion des ressources d'une station de base. Le deuxième modèle gère la consommation énergétique du réseau en se basant sur un contrôle d'affectation des utilisateurs mobiles. Cela permet de contrôler en continu la consommation énergétique des stations de base et la QoS qu'elles offrent aux utilisateurs mobiles. Par simulation, en utilisant une topologie réelle d'un réseau mobile, les performances des méthodes proposées sont évaluées en considérant différents scénarios possibles. Leurs performances sont comparées à celles de l'approche adoptée par des opérateurs mobiles actuels, ainsi qu'à celles de certaines approches proposées dans la littérature
The objective of this thesis is to develop methods for a targeted and efficient management of users mobility in heterogeneous mobile networks. This network is characterized by the deployment of different types of cells (macro, micro, pico and/or femto). The massive deployment of small cells (pico and femto) provides a supplementary coverage and capacity to mobile networks, specially in dense areas. However, the resulting real-time constraints limit the offered QoS. Furthermore, for commercial and/or environmental reasons, the needs to reduce the energy consumed by mobile networks became reality. Thus, mobile operators have to find a good compromise between, on the one hand, the users velocity and the guaranteed QoS, and on the other hand, the cost of deployment of such networks. For that, in the context of users mobility management, we propose models for resource and energy consumption management of base stations. The first model aims at controlling resource sharing between clients of the mobile operators. Based on a mobility prediction of users, this model anticipates the resource management of a base station. The second model aims at reducing energy consumption of the network by managing mobile users assignment to detected cells. This allows a continuous control of consumed energy of base stations while offered QoS is guaranteed. Based on simulation of a real mobile network topology, the performances of proposed models are evaluated while considering different possible scenarios. They are compared to the performances of different strategies as the ones proposed in literature or adopted by current mobile operators
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Miegemolle, Bernard. „Prédiction de comportement d'applications parallèles et placement à l'aide de modèles économiques sur une grille de calcul“. Phd thesis, INSA de Toulouse, 2008. http://tel.archives-ouvertes.fr/tel-00420473.

Der volle Inhalt der Quelle
Annotation:
Une des solutions les plus prometteuses actuellement à la course à la puissance de traitement consiste à créer des grilles. Néanmoins, leur utilisation optimale n'est pas encore atteinte dû notamment à la complexité que ce support d'exécution amène pour les administrateurs et utilisateurs. Cette thèse se concentre sur la gestion des ressources composant une grille de calcul. Nous montrons comment traiter ce problème à l'aide de paradigmes économiques. Nous définissons un modèle économique permettant de gérer les ressources d'une grille. Ce modèle propose d'associer un coût à chacune des machines de la grille. Le placement d'une application est assimilé à un problème d'optimisation non-linéaire sous contraintes et à variables entières, pour lequel le choix des machines à utiliser doit minimiser un compromis entre le temps d'exécution de l'application et son coût. Une implémentation de ce modèle à l'aide d'un algorithme génétique est proposée, de même que son intégration au sein de l'ordonnanceur OAR utilisé sur Grid'5000. Dans une seconde partie de la thèse, des travaux ont été effectués dans le domaine de la prédiction du temps d'exécution d'une application. Nous définissons une méthode hybride de prédiction basée à la fois sur le profil des applications ainsi que sur un historique d'exécutions passées, combinant une analyse de la structure du programme à une méthode d'apprentissage basé sur des instances. Nous montrons notamment que la prise en compte du profil des applications améliore les prédictions réalisées au moyen de méthodes classiques basées seulement sur des historiques d'exécutions passées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Dufour, Luc. „Contribution à la mise au point d'un pilotage énergétique décentralisé par prédiction“. Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2017. http://www.theses.fr/2017EMAC0004/document.

Der volle Inhalt der Quelle
Annotation:
Comment satisfaire les besoins en énergie d’une population de 9 milliards d’êtres humains en 2050, de façon économiquement viable tout en minimisant l’impact sur l’environnement. Une des réponses est l’insertion de production d’énergie propre d’origine éolienne et photovoltaïque mais leurs totales dépendances aux variations climatiques accentuent une pression sur le réseau. Les modèles prédictifs historiques centralisés et paramétriques ont du mal à appréhender les variations brutales de productions et de consommations. La révolution internet permet aujourd’hui une convergence entre le numérique et l’énergie. En Europe et depuis cinq ans, l’axe d’étude est celui de la maîtrise locale de l’électricité. Ainsi plusieurs quartiers intelligents ont été créés et les modèles utilisés de pilotage et de prédiction restent souvent la propriété des partenaires des projets. Dans cette thèse, Il s’agit de réaliser un bilan énergétique chaque heure pour prédire l’ensemble des vecteurs énergétiques d’un système. Le besoin en énergie d’un système comme une maison est décomposée en un besoin en chauffage, en un besoin en eau chaude sanitaire, en un besoin en luminaires, en besoin de ventilation et en usages spécifiques électriques utiles. Le système peut posséder une production décentralisée et un système de stockage ce qui augmentera sa capacité d’effacement. Pour le centre de pilotage, l’objectif est d’avoir une possibilité de scénarios de surproductions ou surconsommations sur un quartier donnée à court terme. Nous considérerons dans cette thèse un horizon à l’heure pour notre bilan énergétique. Cela implique une prédiction fine des différents flux énergétiques d’un système en particulier le chauffage et l’eau chaude qui représente le plus gros potentiel de flexibilité dans les bâtiments. Pour réaliser un bilan, nous devons calculer les différents flux énergétiques à l’intérieur de notre système : les déperditions par l’enveloppe et la ventilation, les gains internes solaires, des personnes et des appareils, le stockage, la production d’eau chaude sanitaire, les usages spécifiques électriques utiles. Sur certains de ces points, nous pouvons évaluer assez précisément et en fonction du temps les quantités d’énergie échangées. Pour les autres (ECS, USE, gains internes, stockage), la bibliographie nous donne que des méthodes globales et indépendantes du temps. Il n’est donc pas possible d’envisager une méthode correspondant au pas de temps souhaité. Ceci impose la mise au point d’une méthode prédictive et apprenante dont nos modèles de simulation énergétique seront le point de référence. Il n’en reste pas moins que ces modèles permettent la compréhension du comportement énergétique du système. L’outil se devra non intrusif, personnalisé, robuste et simple. Pour limiter le caractère intrusif de l’outil, il s’agit à la fois d’ajouter de l’intelligence comme par exemple l’identification des appareils utiles à partir d’un seul point de mesure mais aussi la collection et l’analyse d’informations localement. Les données privées ne sont pas transmises vers l’extérieur. Seules les informations de prédictions énergétiques sont envoyées à un niveau supérieur pour agrégation des données des quartiers. L’intelligence est également au niveau des prédictions réalisées issues de méthodes d’apprentissage comme l’utilisation des réseaux de neurones ou des arbres de décision. La robustesse est étudiée d’un point de vue technologie (plusieurs protocoles de communication ont été testés), techniques (plusieurs méthodes de collecte) et d’un point de vue du stockage de données (limiter la fréquence de collecte). La simplicité d’usage engendre une simplicité d’installation minimiser le nombre de données d’entrée tout en gardant une précision souhaitable sera notre principal axe d’optimisation
This work presents a data-intensive solution to manage energy flux after a low transformer voltage named microgrid concept. A microgrid is an aggregation of building with a decentralized energy production and or not a storage system. These microgrid can be aggregate to create an intelligent virtual power plant. However, many problems must be resolved to increase the part of these microgrid and the renewable resource in a energy mix. The physic model can not integrate and resolve in a short time the quickly variations. The intelligent district can be integrate a part of flexibility in their production with a storage system. This storage can be electrical with a battery or thermal with the heating and the hot water. For a virtual power plant, the system can be autonomous when the price electricity prediction is low and increase the production provided on the market when the price electricity is high. For a energy supplier and with a decentralized production building distant of a low transformer voltage, a regulation with a storage capacity enable a tension regulation. Finally, the auto-consumption becomes more and more interesting combined with a low electrical storage price and the result of the COP 21 in Paris engage the different country towards the energy transition. In these cases, a flexibility is crucial at the building level but this flexibility is possible if, and only if, the locally prediction are correct to manage the energy. The main novelties of our approach is to provide an easy implemented and flexible solution to predict the consumption and the production at the building level based on the machine learning technique and tested on the real use cases in a residential and tertiary sector. A new evaluation of the consumption is realized: the point of view is energy and not only electrical. The energy consumption is decomposed between the heating consumption, the hot water consumption and the electrical devices consumption. A prediction every hour is provided for the heating and the hot water consumption to estimate the thermal storage capacity. A characterization of Electrical devices consumption is realized by a non-intrusive disaggregation from the global load curve. The heating and the hot water are identify to provide a non intrusive methodology of prediction. Every day, the heating, the hot water, the household appliances, the cooling and the stand by are identified. Every 15 minutes, our software provide a hot water prediction, a heating prediction, a decentralized prediction and a characterization of the electrical consumption. A comparison with the different physic model simulated enable an error evaluation the error of our different implemented model
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Leroy, Boris. „Utilisation des bases de données biodiversité pour la conservation des taxons d’invertébrés : indices de rareté des assemblages d’espèces et modèles de prédiction de répartition d’espèces“. Paris, Muséum national d'histoire naturelle, 2012. http://www.theses.fr/2012MNHN0033.

Der volle Inhalt der Quelle
Annotation:
Les invertébrés sont sous-représentés en biologie de la conservation. Pour améliorer leur prise en compte, nous avons cherché à proposer des principes et outils pour leur conservation. Nous avons analysé des bases de données biodiversité — définies comme compilant les occurrences des espèces dans l’espace et dans le temps — qui sont les seules sources de données existantes pour la plupart des taxa invertébrés. Nous avons appliqué les principes d’amélioration de la qualité des données et avons exploité une méthode permettant de quantifier la complétude des bases de données. Nous avons tout d’abord développé un nouvel outil à l’échelle des assemblages d’espèces, en utilisant des bases de données araignées et invertébrés marins : l’Indice de Rareté Relative. Cet indice intègre un paramètre flexible (le seuil de rareté) permettant un ajustement de l’indice quels que soient les taxons, les zones géographiques ou les échelles spatiales considérés. Nous l’avons ensuite amélioré en proposant d’intégrer plusieurs échelles spatiales ou plusieurs phylums pour évaluer la rareté des assemblages. Nous avons ensuite développé des outils à l’échelle spécifique, les modèles de prédiction de répartition. Sur l’exemple des araignées, nous avons proposé une application adaptée à la conservation, en permettant de définir (1) quelles priorités de conservation pour les espèces et (2) où mettre en place les mesures de protection les plus susceptibles de réussir. Les principes et méthodes que nous avons développés permettent une utilisation appropriée des bases de données biodiversité disponibles, peuvent s’appliquer à d’autres taxons d’invertébrés et constituent des outils novateurs pour les programmes de conservation à différentes échelles
Invertebrate taxa are underrepresented in conservation biology. To improve their inclusion, we aimed at providing principles and tools for their conservation. We analysed biodiversity database —defined as databases compiling species occurrences in space and time— which are the only sources of data for most invertebrate taxa. We applied important principles of data quality, and used a metric to quantify the completeness of biodiversity databases. We first developed a new tool at the assemblage level on the basis of databases of spiders and marine invertebrates: the Index of Relative Rarity. This index integrates a flexible parameter (the rarity cutoff) which allows fitting the index with respect to the considered taxon, geographic area and spatial scale. We then improved this index by including multiple scales or multiple phyla to assess the rarity of assemblages. We then developed tools at the species level: species distribution models. Using spiders as an example, we proposed an appropriate application for conservation purposes, to (1) define conservation priorities for species and (2) identify where conservation actions are most likely to succeed. The principles and methods that we developed allow an appropriate use of available biodiversity databases for conservation, are transferable to other invertebrate taxa and are innovative tools for conservation programs across multiple spatial scales
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Bassard, David. „Méthodologie de prédiction et d’optimisation du potentiel méthane de mélanges complexes en co-digestion“. Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2175/document.

Der volle Inhalt der Quelle
Annotation:
La co-digestion anaérobie (CoDA) des substrats agro-industriels s’inscrit pleinement dans les objectifs sociétaux d’une gestion optimisée des agroressources, d’une réduction des impacts anthropogéniques, ainsi que d’un développement des énergies renouvelables. Toutefois, en considérant les verrous industriels et scientifiques, il est apparu que la problématique méthodologique, relative à l’étude et à l’optimisation, était primordiale dans l’amélioration des performances méthanogènes en CoDA. En cela, il s’est avéré que le principal actionneur pour l’optimisation de la CoDA soit la formulation du mélange en substrats et co-substrats constituant l’intrant du digesteur. Ainsi, les travaux de thèse étaient inscrits dans un double objectif, industriel et scientifique, dont les résultats ont permis de (i) mettre en œuvre des méthodes simples, peu chronophages et surtout peu coûteuses, pour la caractérisation des intrants et le suivi de la CoDA, (ii) déterminer la relation fondamentale entre la formulation du mélange de substrats et son potentiel biométhanogène, (iii) développer des outils de prédiction du potentiel biométhanogène des mélanges de substrats, ainsi que des biodégradabilités globales et spécifiques de ces derniers, (iv) améliorer la compréhension des interactions entre les substrats codigérés et le consortium microbien de digestion, ainsi que la capacité de ce dernier à s’adapter aux diverses charges organiques qui lui sont appliquées (capacité homéostasique)
The co-digestion of agro-industrial substrates in anaerobic conditions falls within the objectives of an optimized management of agricultural resources along with reduction of anthropogenic impacts and development of renewable energies. Considering scientific and industrial bottlenecks from literature review, it could be identified that a methodological approach was the key to an enhanced understanding of anaerobic co-digestion. Ultimately, formulation of the substrate and co-substrates (digestor’s inputs) appeared to be the main actuator to optimize anaerobic co-digestion. Conciliating both scientific and industrial issues, this thesis led to the following findings : (i) an implementation of simple and cost-saving methods to characterize the inputs of digestor and biogas production, (ii) a determination of fundamental relationship between substrate blend and his biomethane potential, (iii) a development of predictive tools for biomethane potential of substrate blends as well as global and specific biodegradability of substrates, (iv) an enhanced comprehension of first, interactions between codigested substrates and the microbial consortium and second, the adaptation capacity of the microbial consortium to various organic loading (homeostatic capacity)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Monteil, Thierry. „Du cluster à la grille sous l'angle de la performance“. Habilitation à diriger des recherches, Institut National Polytechnique de Toulouse - INPT, 2010. http://tel.archives-ouvertes.fr/tel-00547021.

Der volle Inhalt der Quelle
Annotation:
Ce mémoire aborde différents travaux sur les couches logicielles nécessaires à l'utilisation d'une plate-forme distribuée pour mettre en place de nouveaux usages. Il sagit danalyser la performance au sens large que ce soit la performance d'exécution d'applications parallèles, de programmation parallèle, de consommation énergétique ou de coût financier. Les contributions concernent les outils et les algorithmes d'ordonnancement (qualité de service, impact du réseau, coût économique), la simulation fine des ressources informatiques ainsi que la gestion du cSur de réseau sous des contraintes de qualité de service et de consommation énergétique. Les environnements de programmation parallèle, la gestion de performance dans un environnement autonomique tout comme la gridification et l'analyse de codes applicatifs ont également été abordés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Gbaguidi, Fréjus A. Roméo. „Approche prédictive de l'efficacité énergétique dans les Clouds Datacenters“. Electronic Thesis or Diss., Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1163.

Der volle Inhalt der Quelle
Annotation:
Avec la démocratisation des technologies du numérique, la construction d'un cyberespace globalisé s'est faite insidieusement, transformant littéralement notre mode de vie et notre vécu quotidien. Faire communiquer plus de 4 milliards d'individus à une vitesse devenue incontrôlable, nécessite l'invention de nouveaux concepts pour la production des services informatiques capable de s'adapter à ce défis. Le Cloud Computing, dans cette optique permet de fournir à travers des Datacenters, une partie ou la totalité des composants nécessaires aux entreprises pour la délivrance de leurs services dans les délais et avec des performances conformes aux exigences de leurs clients. Dès lors, la prolifération conséquente des Datacenters aux quatre coins du monde a mis au jour la préoccupante question de la quantité d'énergie nécessaire pour leur fonctionnement et la difficulté qui en résulte pour l'humanité dont les réserves actuelles ne sont pas extensibles à l'infini. Ainsi, il est apparu nécessaire de développer des techniques permettant de réduire la consommation électrique des Datacenters en minimisant les pertes d'énergie orchestrées sur les serveurs dont le moindre watt gaspillé entraine par effet de cascade une augmentation substantielle de la facture globale des Datacenters. Notre travail a consisté à faire dans un premier temps une revue de la littérature sur le sujet, puis de tester la capacité de quelques outils de prédiction à améliorer l'anticipation des risques de pertes d'énergie engendrer par la mauvaise allocation des machines virtuelles sur les serveurs. Cette étude s'est focalisée notamment sur les outil ARMA et les réseaux de neurones qui dans la littérature ont produit des résultats intéressants dans des domaines proches. Après cette étape, il nous est apparu que les outils ARMA bien qu'ayant des performances inférieures aux réseaux de neurones dans notre contexte, s'exécute dans plus rapidement et sont les plus adaptés pour être implémenter dans les environnements de Cloud Computing. Ainsi, nous avons utilisé les résultats de cette méthode pour améliorer le processus de prise de décision, notamment pour la re-allocation proactive des machines virtuelles avant qu'il n'entraine des sous-consommations des ressources sur les serveurs physiques ou des surconsommation pouvant induire des violations des accords de niveaux de service. Cette démarche a permis sur la base de nos simulations de réduire de plus de 5Kwh la consommation d'énergie dans une ferme de 800 serveurs et sur une durée d'une journée. Ce gain pourrait se révéler important lorsque l'on considère la taille énorme des datacenters modernes et que l'on se projette dans une durée relativement longue. Il serait encore plus intéressant d'approfondir cette recherche afin de généraliser l'intégration de cette approche prédictive dans les techniques existantes afin d'optimiser de façon significative les consommations d'énergie au sein des Datacenters tout en préservant les performances et la qualité de service indispensable dans le concept de Cloud Computing
With the democratization of digital technologies, the construction of a globalized cyberspace insidiously transforms our lifestyle. Connect more than 4 billion people at high speed, requires the invention of new concept of service provision and trafic management that are capable to face the challenges. For that purpose, Cloud Computing have been set up to enable Datacenters to provide part or total IT components needed by companies for timely services delivering with performance that meets the requirements of their clients. Consequently, the proliferation of Datacenters around the world has brought to light the worrying question about the amount of energy needed for their function and the resulting difficulty for the humanity, whose current reserves are not extensible indefinitely. It was therefore necessary to develop techniques that reduce the power consumption of Datacenters by minimizing the energy losses orchestrated on servers where each wasted watt results in a chain effect on a substantial increase in the overall bill of Datacenters. Our work consisted first in making a review of the literature on the subject and then testing the ability of some prediction tools to improve the anticipation of the risks of energy loss caused by the misallocation of virtual equipment on servers. This study focused particularly on the ARMA tools and neural networks which in the literature have produced interesting results in related fields. After this step, it appeared to us that ARMA tools, although having less performance than neural networks in our context, runs faster and are best suited to be implemented in cloud computing environments. Thus, we used the results of this method to improve the decision-making process, notably for the proactive re-allocation of virtual equipment before it leads to under-consumption of resources on physical servers or over-consumption inducing breaches of SLAs. Based on our simulations, this approach enabled us to reduce energy consumption on a firm of 800 servers over a period of one day by more than 5Kwh. This gain could be significant when considering the enormous size of modern data centers and projected over a relatively long period of time. It would be even more interesting to deepen this research in order to generalize the integration of this predictive approach into existing techniques in order to significantly optimize the energy consumption within Datacenters while preserving performance and quality of service which are key requirements in the concept of Cloud Computing
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Gaudin, Théophile. „Développement de modèles QSPR pour la prédiction et la compréhension des propriétés amphiphiles des tensioactifs dérivés de sucre“. Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2318/document.

Der volle Inhalt der Quelle
Annotation:
Les tensioactifs dérivés de sucres représentent la principale famille de tensioactifs bio-sourcés et constituent de bons candidats pour substituer les tensioactifs dérivés du pétrole puisqu'ils sont issus de ressources renouvelables et peuvent être autant, voire plus performants dans diverses applications, comme la formulation (détergents, cosmétiques,…), la récupération assistée du pétrole ou des minéraux, etc. Différentes propriétés amphiphiles permettent de caractériser la performance des tensioactifs dans de telles applications, comme la concentration micellaire critique, la tension de surface à la concentration micellaire critique, l'efficience et le point de Krafft. Prédire ces propriétés serait bénéfique pour identifier plus rapidement les tensioactifs possédant les propriétés désirées. Les modèles QSPR sont des outils permettant de prédire de telles propriétés, mais aucun modèle QSPR fiable dédié à ces propriétés n'a été identifié pour les tensioactifs bio-sourcés, et en particulier les tensioactifs dérivés de sucres. Au cours de cette thèse, de tels modèles QSPR ont été développés. Une base de données fiables est nécessaire pour développer tout modèle QSPR. Concernant les tensioactifs dérivés de sucres, aucune base de données existante n'a été identifiée pour les propriétés ciblées. Cela a donné suite à la construction de la première base de données de propriétés amphiphiles de tensioactifs dérivés de sucres, qui est en cours de valorisation. L'analyse de cette base de données a mis en évidence différentes relations empiriques entre la structure de ces molécules et leurs propriétés amphiphiles, et permis d'isoler des jeux de données les plus fiables et au protocole le plus homogène possibles en vue du développement de modèles QSPR. Après établissement d'une stratégie robuste pour calculer les descripteurs moléculaires constituant les modèles QSPR, qui s'appuie notamment sur des analyses conformationnelles des tensioactifs dérivés de sucres et des descripteurs des têtes polaires et chaînes alkyles, différents modèles QSPR ont été développés, validés, et leur domaine d'applicabilité spécifié, pour la concentration micellaire critique, la tension de surface à la concentration micellaire critique, l'efficience et le point de Krafft. Pour les trois premières propriétés, des modèles quantitatifs performants ont pu être obtenus. Si les descripteurs quantiques ont apporté un gain prédictif important pour la tension de surface à la concentration micellaire critique, et un léger gain pour la concentration micellaire critique, aucun gain n'a été observé pour l'efficience. Pour ces trois propriétés, des modèles simples basés sur des descripteurs constitutionnels des parties hydrophile et hydrophobe de la molécule (comme des décomptes d'atomes) ont aussi été obtenus. Pour le point de Krafft, deux arbres de décision qualitatifs, classant la molécule comme soluble ou insoluble dans l'eau à température ambiante, ont été proposés. Les descripteurs quantiques ont ici aussi apporté un gain en prédictivité, même si un modèle relativement fiable basé sur des descripteurs constitutionnels des parties hydrophile et hydrophobe de la molécule a aussi été obtenu. Enfin, nous avons montré comment ces modèles QSPR peuvent être utilisés, pour prédire les propriétés de nouvelles molécules avant toute synthèse dans un contexte de screening, ou les propriétés manquantes de molécules existantes, et pour le design in silico de nouvelles molécules par combinaison de fragments
Sugar-based surfactants are the main family of bio-based surfactants and are good candidates as substitutes for petroleum-based surfactants, since they originate from renewable resources and can show as good as, or even better, performances in various applications, such as detergent and cosmetic formulation, enhanced oil or mineral recovery, etc. Different amphiphilic properties can characterize surfactant performance in such applications, like critical micelle concentration, surface tension at critical micelle concentration, efficiency and Kraft point. Predicting such properties would be beneficial to quickly identify surfactants that exhibit desired properties. QSPR models are tools to predict such properties, but no reliable QSPR model was identified for bio-based surfactants, and in particular sugar-based surfactants. During this thesis, such QSPR models were developed. A reliable database is required to develop any QSPR model. Regarding sugar-based surfactants, no database was identified for the targeted properties. This motivated the elaboration of the first database of amphiphilic properties of sugar-based surfactants. The analysis of this database highlighted various empirical relationships between the chemical structure of these molecules and their amphiphilic properties, and enabled to isolate the most reliable datasets with the most homogeneous possible protocol, to be used for the development of the QSPR models. After the development of a robust strategy to calculate molecular descriptors that constitute QSPR models, notably relying upon conformational analysis of sugar-based surfactants and descriptors calculated only for the polar heads and for the alkyl chains, different QSPR models were developed, validated, and their applicability domain defined, for the critical micelle concentration, the surface tension at critical micelle concentration, the efficiency and the Kraft point. For the three first properties, good quantitative models were obtained. If the quantum chemical descriptors brought a significant additional predictive power for the surface tension at critical micelle concentration, and a slight improvement for the critical micelle concentration, no gain was observed for efficiency. For these three properties, simple models based on constitutional descriptors of polar heads and alkyl chains of the molecule (like atomic counts) were also obtained. For the Krafft point, two qualitative decision trees, classifying the molecule as water soluble or insoluble at room temperature, were proposed. The use of quantum chemical descriptors brought an increase in predictive power for these decision trees, even if a quite reliable model only based on constitutional descriptors of polar heads and alkyl chains was also obtained. At last, we showed how these QSPR models can be used, to predict properties of new surfactants before synthesis in a context of computational screening, or missing properties of existing surfactants, and for the in silico design of new surfactants by combining different polar heads with different alkyl chain
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Gbaguidi, Fréjus A. Roméo. „Approche prédictive de l'efficacité énergétique dans les Clouds Datacenters“. Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1163/document.

Der volle Inhalt der Quelle
Annotation:
Avec la démocratisation des technologies du numérique, la construction d'un cyberespace globalisé s'est faite insidieusement, transformant littéralement notre mode de vie et notre vécu quotidien. Faire communiquer plus de 4 milliards d'individus à une vitesse devenue incontrôlable, nécessite l'invention de nouveaux concepts pour la production des services informatiques capable de s'adapter à ce défis. Le Cloud Computing, dans cette optique permet de fournir à travers des Datacenters, une partie ou la totalité des composants nécessaires aux entreprises pour la délivrance de leurs services dans les délais et avec des performances conformes aux exigences de leurs clients. Dès lors, la prolifération conséquente des Datacenters aux quatre coins du monde a mis au jour la préoccupante question de la quantité d'énergie nécessaire pour leur fonctionnement et la difficulté qui en résulte pour l'humanité dont les réserves actuelles ne sont pas extensibles à l'infini. Ainsi, il est apparu nécessaire de développer des techniques permettant de réduire la consommation électrique des Datacenters en minimisant les pertes d'énergie orchestrées sur les serveurs dont le moindre watt gaspillé entraine par effet de cascade une augmentation substantielle de la facture globale des Datacenters. Notre travail a consisté à faire dans un premier temps une revue de la littérature sur le sujet, puis de tester la capacité de quelques outils de prédiction à améliorer l'anticipation des risques de pertes d'énergie engendrer par la mauvaise allocation des machines virtuelles sur les serveurs. Cette étude s'est focalisée notamment sur les outil ARMA et les réseaux de neurones qui dans la littérature ont produit des résultats intéressants dans des domaines proches. Après cette étape, il nous est apparu que les outils ARMA bien qu'ayant des performances inférieures aux réseaux de neurones dans notre contexte, s'exécute dans plus rapidement et sont les plus adaptés pour être implémenter dans les environnements de Cloud Computing. Ainsi, nous avons utilisé les résultats de cette méthode pour améliorer le processus de prise de décision, notamment pour la re-allocation proactive des machines virtuelles avant qu'il n'entraine des sous-consommations des ressources sur les serveurs physiques ou des surconsommation pouvant induire des violations des accords de niveaux de service. Cette démarche a permis sur la base de nos simulations de réduire de plus de 5Kwh la consommation d'énergie dans une ferme de 800 serveurs et sur une durée d'une journée. Ce gain pourrait se révéler important lorsque l'on considère la taille énorme des datacenters modernes et que l'on se projette dans une durée relativement longue. Il serait encore plus intéressant d'approfondir cette recherche afin de généraliser l'intégration de cette approche prédictive dans les techniques existantes afin d'optimiser de façon significative les consommations d'énergie au sein des Datacenters tout en préservant les performances et la qualité de service indispensable dans le concept de Cloud Computing
With the democratization of digital technologies, the construction of a globalized cyberspace insidiously transforms our lifestyle. Connect more than 4 billion people at high speed, requires the invention of new concept of service provision and trafic management that are capable to face the challenges. For that purpose, Cloud Computing have been set up to enable Datacenters to provide part or total IT components needed by companies for timely services delivering with performance that meets the requirements of their clients. Consequently, the proliferation of Datacenters around the world has brought to light the worrying question about the amount of energy needed for their function and the resulting difficulty for the humanity, whose current reserves are not extensible indefinitely. It was therefore necessary to develop techniques that reduce the power consumption of Datacenters by minimizing the energy losses orchestrated on servers where each wasted watt results in a chain effect on a substantial increase in the overall bill of Datacenters. Our work consisted first in making a review of the literature on the subject and then testing the ability of some prediction tools to improve the anticipation of the risks of energy loss caused by the misallocation of virtual equipment on servers. This study focused particularly on the ARMA tools and neural networks which in the literature have produced interesting results in related fields. After this step, it appeared to us that ARMA tools, although having less performance than neural networks in our context, runs faster and are best suited to be implemented in cloud computing environments. Thus, we used the results of this method to improve the decision-making process, notably for the proactive re-allocation of virtual equipment before it leads to under-consumption of resources on physical servers or over-consumption inducing breaches of SLAs. Based on our simulations, this approach enabled us to reduce energy consumption on a firm of 800 servers over a period of one day by more than 5Kwh. This gain could be significant when considering the enormous size of modern data centers and projected over a relatively long period of time. It would be even more interesting to deepen this research in order to generalize the integration of this predictive approach into existing techniques in order to significantly optimize the energy consumption within Datacenters while preserving performance and quality of service which are key requirements in the concept of Cloud Computing
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Boumerdassi, Selma. „Mécanismes prédictifs d'allocation de ressources dans les réseaux cellulaires“. Versailles-St Quentin en Yvelines, 1998. http://www.theses.fr/1998VERS0020.

Der volle Inhalt der Quelle
Annotation:
De nombreux algorithmes de réservation de ressources ont été proposés pour les réseaux cellulaires. Cependant, ils ne tiennent pas compte des caractéristiques urbaines : dissymétrie du trafic, cellules de petite taille, présence de routes, de carrefours. Nos travaux portent sur des mécanismes permettant d'inclure ces critères pour améliorer les modèles classiques d'une part et proposer de nouvelles solutions d'autre part. Le modèle le plus simple (new algorithm for channel réservation), consiste -en fonction des taux d'arrivée des nouveaux appels et des probabilités de routage inter-cellulaires- à trouver un nombre optimal de canaux à réserver dans chacune des cellules. Un modèle dynamique est ensuite proposé (politique de réservation prédictive). Les réservations dans ce cas s'adaptent instantanément au nombre de mobiles dans les différentes cellules en fonction de la topologie locale. Ce mécanisme est également adapté aux réseaux cellulaires hiérarchiques. L'évaluation des différentes propositions est effectuée au travers de simulations à évènements discrets et de modèles analytiques approchés permettant un dimensionnement rapide et peu coûteux en temps de calcul. Notre souci est de proposer des solutions efficaces, stables et peu coûteuses en terme de signalisation. Les résultats montrent que les propositions énoncées sont très prometteuses et s'adapteraient facilement aux réseaux actuels et futurs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Ben, Hassine Nesrine. „Machine Learning for Network Resource Management“. Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV061.

Der volle Inhalt der Quelle
Annotation:
Une exploitation intelligente des données qui circulent sur les réseaux pourrait entraîner une amélioration de la qualité d'expérience (QoE) des utilisateurs. Les techniques d'apprentissage automatique offrent des fonctionnalités multiples, ce qui permet d’optimiser l'utilisation des ressources réseau.Dans cette thèse, deux contextes d’application sont étudiés : les réseaux de capteurs sans fil (WSNs) et les réseaux de contenus (CDNs). Dans les WSNs, il s’agit de prédire la qualité des liens sans fil afin d’améliorer la qualité des routes et donc d’augmenter le taux de remise des paquets ce qui améliore la qualité de service offerte à l’utilisateur. Dans les CDNs, il s’agit de prédire la popularité des contenus vidéo afin de mettre en cache les contenus les plus populaires, au plus près des utilisateurs qui les demandent. Ceci contribue à réduire la latence pour satisfaire les requêtes des utilisateurs.Dans ce travail, nous avons orchestré des techniques d’apprentissage issues de deux domaines différents, à savoir les statistiques et le Machine Learning. Chaque technique est représentée par un expert dont les paramètres sont réglés suite à une analyse hors-ligne. Chaque expert est chargé de prédire la prochaine valeur de la métrique. Vu la variété des experts retenus et comme aucun d’entre eux ne domine toujours tous les autres, un deuxième niveau d’expertise est nécessaire pour fournir la meilleure prédiction. Ce deuxième niveau est représenté par un expert particulier, appelé forecaster. Le forecaster est chargé de fournir des prédictions à partir des prédictions fournies par un sous ensemble des meilleurs experts.Plusieurs méthodes d’identification de ce sous ensemble sont étudiées. Elles dépendent de la fonction de perte utilisée pour évaluer les prédictions des experts et du nombre k, représentant les k meilleurs experts. Les tâches d’apprentissage et de prédiction sont effectuées en-ligne sur des data sets réels issus d’un WSN déployé à Stanford et de YouTube pour le CDN. La méthodologie adoptée dans cette thèse s’applique à la prédiction de la prochaine valeur d’une série temporelle.Plus précisément, nous montrons comment dans le contexte WSN, la qualité des liens peut être évaluée par le Link Quality Indicator (LQI) et comment les experts Single Exponential Smoothing (SES) et Average Moving Window (AMW) peuvent prédire la prochaine valeur de LQI. Ces experts réagissent rapidement aux changements des valeurs LQI que ce soit lors d’une brusque baisse de la qualité du lien ou au contraire lors d’une forte augmentation de la qualité. Nous proposons deux forecasters, Exponential Weighted Average (EWA) et Best Expert (BE), et fournissons la combinaison Expert-Forecaster permettant de fournir la meilleure prédiction.Dans le contexte des CDNs, nous évaluons la popularité de chaque contenu vidéo par le nombre journalier de requêtes. Nous utilisons à la fois des experts statistiques (ARMA) et des experts issus du Machine Learning (DES, régression polynômiale). Nous introduisons également des forecasters qui diffèrent par rapport à l’horizon des observations utilisées pour la prédiction, la fonction de perte et le nombre d’experts utilisés. Ces prédictions permettent de décider quels contenus seront placés dans les caches proches des utilisateurs. L’efficacité de la technique de caching basée sur la prédiction de la popularité est évaluée en termes de hit ratio et d’update ratio. Nous mettons en évidence les apports de cette technique de caching par rapport à un algorithme de caching classique, Least Frequently Used (LFU).Cette thèse se termine par des recommandations concernant l’utilisation des techniques d’apprentissage en ligne et hors-ligne pour les réseaux (WSN, CDN). Au niveau des perspectives, nous proposons différentes applications où l’utilisation de ces techniques permettrait d’améliorer la qualité d’expérience des utilisateurs mobiles ou des utilisateurs des réseaux IoT
An intelligent exploitation of data carried on telecom networks could lead to a very significant improvement in the quality of experience (QoE) for the users. Machine Learning techniques offer multiple operating, which can help optimize the utilization of network resources.In this thesis, two contexts of application of the learning techniques are studied: Wireless Sensor Networks (WSNs) and Content Delivery Networks (CDNs). In WSNs, the question is how to predict the quality of the wireless links in order to improve the quality of the routes and thus increase the packet delivery rate, which enhances the quality of service offered to the user. In CDNs, it is a matter of predicting the popularity of videos in order to cache the most popular ones as close as possible to the users who request them, thereby reducing latency to fulfill user requests.In this work, we have drawn upon learning techniques from two different domains, namely statistics and Machine Learning. Each learning technique is represented by an expert whose parameters are tuned after an off-line analysis. Each expert is responsible for predicting the next metric value (i.e. popularity for videos in CDNs, quality of the wireless link for WSNs). The accuracy of the prediction is evaluated by a loss function, which must be minimized. Given the variety of experts selected, and since none of them always takes precedence over all the others, a second level of expertise is needed to provide the best prediction (the one that is the closest to the real value and thus minimizes a loss function). This second level is represented by a special expert, called a forecaster. The forecaster provides predictions based on values predicted by a subset of the best experts.Several methods are studied to identify this subset of best experts. They are based on the loss functions used to evaluate the experts' predictions and the value k, representing the k best experts. The learning and prediction tasks are performed on-line on real data sets from a real WSN deployed at Stanford, and from YouTube for the CDN. The methodology adopted in this thesis is applied to predicting the next value in a series of values.More precisely, we show how the quality of the links can be evaluated by the Link Quality Indicator (LQI) in the WSN context and how the Single Exponential Smoothing (SES) and Average Moving Window (AMW) experts can predict the next LQI value. These experts react quickly to changes in LQI values, whether it be a sudden drop in the quality of the link or a sharp increase in quality. We propose two forecasters, Exponential Weighted Average (EWA) and Best Expert (BE), as well as the Expert-Forecaster combination to provide better predictions.In the context of CDNs, we evaluate the popularity of each video by the number of requests for this video per day. We use both statistical experts (ARMA) and experts from the Machine Learning domain (e.g. DES, polynomial regression). These experts are evaluated according to different loss functions. We also introduce forecasters that differ in terms of the observation horizon used for prediction, loss function and number of experts selected for predictions. These predictions help decide which videos will be placed in the caches close to the users. The efficiency of the caching technique based on popularity prediction is evaluated in terms of hit rate and update rate. We highlight the contributions of this caching technique compared to a classical caching algorithm, Least Frequently Used (LFU).This thesis ends with recommendations for the use of online and offline learning techniques for networks (WSN, CDN). As perspectives, we propose different applications where the use of these techniques would improve the quality of experience for mobile users (cellular networks) or users of IoT (Internet of Things) networks, based, for instance, on Time Slotted Channel Hopping (TSCH)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Chaabane, Sondes. „Gestion prédictive des Blocs Opératoires“. Lyon, INSA, 2004. http://theses.insa-lyon.fr/publication/2004ISAL0038/these.pdf.

Der volle Inhalt der Quelle
Annotation:
La gestion des blocs opératoires est actuellement l'objet de multiples questionnements, aussi bien sur le court terme que sur le long terme. Elle se heurte en effets aux problèmes aigus d'emploi des ressources aussi bien humaines que matérielles, qui sont aujourd'hui toutes deux disponibles en capacité finie. Dans l'investigation de cette problématique, nos travaux de recherche ont été effectués selon trois axes principaux. En premier lieu, dans une perspective initiale descriptive, nous avons analysé les différentes activités, ressources et flux du processus opératoire. Cette analyse nous a permis d'identifier les forces et faiblesses d'un existant et de modéliser ses différentes entités de gestion. Ensuite, nous avons proposé les différentes étapes d'une organisation de gestion d'un processus opératoire. Nous nous sommes limités dans notre étude aux périodes pré- (avant l'intervention) et per-opératoire (pendant l'intervention). Enfin, nous avons proposé des outils de résolution et expérimenté la capacité de ceux-ci à répondre aux différents problèmes de gestion. Quatre problèmes de gestion ont été identifiés : la programmation des interventions, la définition des plages horaires d'ouverture des salles d'opérations, la planification du bloc opératoire et enfin l'ordonnancement des salles d'opérations. Nous avons conçu une extension de la méthode Hongroise pour la résolution des problèmes de programmation et de planification opératoire. La définition des plages horaires d'ouverture des salles d'opérations a été définie comme un problème linéaire. L'ordonnancement des salles d'opérations a été identifié comme un problème de type Flow-Shop Hybride à trois étages sans temps d'attente avec contraintes de précédences. Il a été résolu à l'aide des règles connues d'ordonnancement et d'affectation. Ces travaux nous ont permis de démontrer que des méthodes d'analyse et outils de résolution issus du manufacturier peuvent être appliqués au domaine hospitalier
Due to the shortage of the human and financial resources, the Operating Theatre Management is nowadays a major concern, on the short term as well as on the medium term. Indeed, all these structures in the eastern countries share the major problem of limited human and financial support. In this respect, our study was carried out along three steps. First, we analysed the process activities of the operating room, its resources and flows. This analysis allowed us to identify the forces and weaknesses of the actual process and to define the major management issues. Second, we studied the organisational levels of the operating process. We limited our study to the pre-operative (before surgery) and the per-operative (during surgery) steps of the operating procedure. Finally, we presented the tools to solve the identified management questions and we specified their effectiveness. Four problems were actually identified : intervention programming adjusted operating theatre staffing, operating theatre planning and operating theatre schedule. We have developed an heuristic method based on the extended Hungarian method to solve the intervention programming as well as the operating theatre planning. The operating staffing was solved modelling to a linear program. The operating theatre scheduling was identified as a three-stage hybrid flow-shop organisation with no-wait and precedence constraints. This problem was solved by well known scheduling and assignment methods. These works lead us to conclude that analysis methods and management tools from manufacturing systems can be used to hospitals systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Awal, Mohammad Abdul, und Mohammad Abdul Awal. „Efficient cqi feedback resource utilisation for multi-user multi-carrier wireless systems“. Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00636659.

Der volle Inhalt der Quelle
Annotation:
La technologie OFDMA (Orthogonal frequency division multiple access) a été adoptée par les systèmes de télécommunications de 4ème génération (4G) comme technique de transmission et d'accès multiple pour ses performances supérieures en termes d'efficacité spectrale. Dans ce type de systèmes, l'adaptation dynamique du débit en fonction de la qualité du canal CQI (Channel Quality Indicator) constitue une problématique de recherche d'actualité qui attire l'attention de plusieurs acteurs académiques et industriels. Ce problème d'adaptation dynamique est encore plus complexe à gérer dans des environnements multi-utilisateurs hétérogènes et à ressources limitées tels que les systèmes OFDMA comme WiMAX Mobile et Long-term Evolution (LTE). Dans cette thèse, nous nous intéressons au problème d'allocation de ressources de l'information de feedback relative au CQI dans le cadre de systèmes OFDMA multi-porteuses multi-utilisateurs. Dans le but de réduire la charge (overhead) du feedback, nous proposons une méthode de prédiction du CQI basée sur l'exploitation de la corrélation temporelle de ce dernier et d'une solution inter-couches. L'objectif est de trouver des schémas d'allocation de ressources adaptatifs respectant les contraintes de qualité de service (QoS) applicatives.Nous proposons en premier lieu un algorithme de réduction de feedback PBF (Prediction Based Feedack) qui permet à la station de base (BS) à prédire certaines occurrences du CQI en se basant sur l'algorithme des moindres carrés récursif RLS (Recursive least-square). Les résultats de simulation montrent que l'outil de prédiction du CQI réduit sensiblement l'overhead du feedback et améliore par conséquent le débit de la liaison montante. Nous proposons, par la suite, une version opportuniste de PBF pour atténuer les éventuels effets de sur et sous estimations liées à l'algorithme de prédiction. Dans ce mécanisme, nous exploitons les informations inter-couches pour améliorer les performances des mécanismes de feedbacks périodiques dont PBF fait partie. L'approche opportuniste améliore sensiblement les performances du système pour les cas de mobilité élevée comparés aux cas de faible mobilité.Dans un second temps, nous proposons une plateforme (FEREP : feedback resource allocation and prediction) basée sur une approche inter-couches. Implémentée au niveau de la station BS, FEREP intègre les fonctionnalités de prédiction, d'adaptation dynamique du CQI et d'ordonnancement des demandes de feedback. Elle comporte trois modules. Le module FWA (feedback window adaptation) gère dynamiquement la fenêtre de feedbacks de chaque station mobile (MS) en se basant sur les messages ARQ (Automatic Repeat Request) reçus qui reflètent l'état actuel des canaux respectifs. Le module PBFS (priority-based feedback scheduling) effectue ensuite l'ordonnancement des feedbacks en tenant compte de la taille de la fenêtre de feedback, du profil de l'utilisateur sous la contrainte de la limitation des ressources globales du systèmes réservées au feedback. Afin de choisir les paramètres de transmission MCS (modulation and coding schemes), le module PBF (prediction based feedback) est utilisé pour les utilisateurs dont le feedabck n'a pas pu être ordonnancé dans la trame courante. Les résultats de simulation ont montré un gain significatif des performances de FREREP en comparaison à un mécanisme de référence, en particulier, sous de fortes contraintes de limitation des ressources du feedback.Le protocole ARQ génère un accusé de réception uniquement si l'utilisateur est sélectionné par l'ordonnanceur pour envoyer des données sur la liaison descendante. Dans le cas où la fréquence d'ordonnancement des utilisateurs sur le lien descendant est réduite, les messages ARQ s'en trouvent également réduits, dégradant par conséquent les performances de la plateforme FEREP proposée ci-dessus. En effet, dans ce cas la signalisation ARQ devient insuffisante pour adapter efficacement la fenêtre de feedback de chaque utilisateur. Pour pallier à ce problème, nous proposons l'algorithme DCRA (dynamic CQI resource allocation) qui utilise deux modes d'estimation de la fenêtre de feedback. Le premier est un mode hors-ligne basé sur des études empiriques permettant d'estimer la fenêtre moyenne optimale de feedback en utilisant les profils applicatif et de mobilité de l'utilisateur. Notre analyse de performance par simulation montre que la fenêtre de feedback peut être estimée en fonction de la classe de service des utilisateurs et de leurs profils de mobilité pour un environnement cellulaire donné. Le second mode de fonctionnement de DCRA effectue une adaptation dynamique de la fenêtre en temps réel dans le cas où la signalisation ARQ est suffisante. Une étude comparative avec les mécanismes DFS (deterministic feedback scheduling) et OFS (opportunistic feedback scheduling), a montré que DCRA arrive à réaliser un meilleur gain en ressources montantes grâce à la réduction de l'overhead des feedbacks, sans pour autant trop dégrader le débit descendant des utilisateurs. Du point de vue des utilisateurs, DCRA améliore les contraintes de QoS tels que le taux de perte de paquets et réduit la consommation énergétique des terminaux grâce à la réduction de feedback.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Ak, Ronay. „Neural Network Modeling for Prediction under Uncertainty in Energy System Applications“. Thesis, Supélec, 2014. http://www.theses.fr/2014SUPL0015/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s’intéresse à la problématique de la prédiction dans le cadre du design de systèmes énergétiques et des problèmes d’opération, et en particulier, à l’évaluation de l’adéquation de systèmes de production d’énergie renouvelables. L’objectif général est de développer une approche empirique pour générer des prédictions avec les incertitudes associées. En ce qui concerne cette direction de la recherche, une approche non paramétrique et empirique pour estimer les intervalles de prédiction (PIs) basés sur les réseaux de neurones (NNs) a été développée, quantifiant l’incertitude dans les prédictions due à la variabilité des données d’entrée et du comportement du système (i.e. due au comportement stochastique des sources renouvelables et de la demande d'énergie électrique), et des erreurs liées aux approximations faites pour établir le modèle de prédiction. Une nouvelle méthode basée sur l'optimisation multi-objectif pour estimer les PIs basée sur les réseaux de neurones et optimale à la fois en termes de précision (probabilité de couverture) et d’information (largeur d’intervalle) est proposée. L’ensemble de NN individuels par deux nouvelles approches est enfin présenté comme un moyen d’augmenter la performance des modèles. Des applications sur des études de cas réels démontrent la puissance de la méthode développée
This Ph.D. work addresses the problem of prediction within energy systems design and operation problems, and particularly the adequacy assessment of renewable power generation systems. The general aim is to develop an empirical modeling framework for providing predictions with the associated uncertainties. Along this research direction, a non-parametric, empirical approach to estimate neural network (NN)-based prediction intervals (PIs) has been developed, accounting for the uncertainty in the predictions due to the variability in the input data and the system behavior (e.g. due to the stochastic behavior of the renewable sources and of the energy demand by the loads), and to model approximation errors. A novel multi-objective framework for estimating NN-based PIs, optimal in terms of both accuracy (coverage probability) and informativeness (interval width) is proposed. Ensembling of individual NNs via two novel approaches is proposed as a way to increase the performance of the models. Applications on real case studies demonstrate the power of the proposed framework
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Claveau, Frédéric. „Commande non linéaire prédictive pour manoeuvres grand-angles de satellitesh[ressource électronique]“. Mémoire, Université de Sherbrooke, 2007. http://savoirs.usherbrooke.ca/handle/11143/1374.

Der volle Inhalt der Quelle
Annotation:
Vu la popularité grandissante des satellites agiles, la commande de satellites effectuant des manoeuvres grand-angles est un domaine de recherche très important. Comme la dynamique d'un satellite effectuant rapidement des manoeuvres grand-angles est hautement non linéaire, les techniques de commande linéaire sont mal adaptées. Les techniques de commande non linéaire sont de mise pour ce type de problème pour lequel le temps de stabilisation du satellite est très important. De plus, il faut tenir compte des perturbations extérieures, car celles-ci peuvent dégrader les performances du système. La commande non linéaire prédictive est une technique de plus en plus étudiée en aérospatiale et a été appliquée au mouvement grand-angle de satellite. Toutefois, les algorithmes développés n'offrent pas une bonne robustesse par rapport aux perturbations extérieures. De plus, l'utilisation de ces algorithmes ne donne aucun contrôle sur la trajectoire emprunté par le satellite, car ils sont optimaux au sens mathématique seulement. Un algorithme de commande non linéaire prédictive est donc proposé pour pallier à ces désavantages. La différence fondamentale entre l'algorithme de ce mémoire et les algorithmes prédictifs existants est que celui-ci est conçu pour être optimal prédictif au sens physique et non seulement au sens mathématique. Un observateur de perturbation exponentiellement stable est développé pour estimer les perturbations extérieures et compenser celles-ci en les soustrayant du vecteur de commande. Une loi de guidage innovatrice est ensuite développée afin de tenir compte de la limite des actionneurs et des capteurs. Il est ensuite démontré que la combinaison de l'observateur de perturbation et de la loi de guidage permet au satellite d'être très robuste par rapport aux perturbations extérieures et aux incertitudes de la matrice d'inertie.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Hammami, Seif Eddine. „Dynamic network resources optimization based on machine learning and cellular data mining“. Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0015.

Der volle Inhalt der Quelle
Annotation:
Les traces réelles de réseaux cellulaires représentent une mine d’information utile pour améliorer les performances des réseaux. Des traces comme les CDRs (Call detail records) contiennent des informations horodatées sur toutes les interactions des utilisateurs avec le réseau sont exploitées dans cette thèse. Nous avons proposé des nouvelles approches dans l’étude et l’analyse des problématiques des réseaux de télécommunications, qui sont basé sur les traces réelles et des algorithmes d’apprentissage automatique. En effet, un outil global d’analyse de données, pour la classification automatique des stations de base, la prédiction de la charge de réseau et la gestion de la bande passante est proposé ainsi qu’un outil pour la détection automatique des anomalies de réseau. Ces outils ont été validés par des applications directes, et en utilisant différentes topologies de réseaux comme les réseaux WMN et les réseaux basés sur les drone-cells. Nous avons montré ainsi, qu’en utilisant des outils d’analyse de données avancés, il est possible d’optimiser dynamiquement les réseaux mobiles et améliorer la gestion de la bande passante
Real datasets of mobile network traces contain valuable information about the network resources usage. These traces may be used to enhance and optimize the network performances. A real dataset of CDR (Call Detail Records) traces, that include spatio-temporal information about mobile users’ activities, are analyzed and exploited in this thesis. Given their large size and the fact that these are real-world datasets, information extracted from these datasets have intensively been used in our work to develop new algorithms that aim to revolutionize the infrastructure management mechanisms and optimize the usage of resource. We propose, in this thesis, a framework for network profiles classification, load prediction and dynamic network planning based on machine learning tools. We also propose a framework for network anomaly detection. These frameworks are validated using different network topologies such as wireless mesh networks (WMN) and drone-cell based networks. We show that using advanced data mining techniques, our frameworks are able to help network operators to manage and optimize dynamically their networks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Simard, Marie-Claude. „La réunification familiale des adolescents placés en ressource de réadaptation : étude des facteurs prédictifs“. Thesis, McGill University, 2007. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=102845.

Der volle Inhalt der Quelle
Annotation:
L'identification des facteurs predictifs de la reunification familiale des adolescents places represente un prealable a une pratique plus efficace. Cette etude exploratoire consiste en une analyse des dossiers de 102 adolescents places dans une ressource de readaptation du CJM-IU. L'echantillon est compose de deux groupes: un groupe d'adolescents reunifies (n=51) et un groupe d'adolescents non reunifies (n=51). Elle poursuit trois objectifs: definir le portrait des adolescents; explorer et identifier les facteurs associes a la reunification familiale; elaborer un modele de facteurs qui predit la reunification familiale d'un adolescent. En concordance avec la litterature et le cadre ecosystemique de l'etude, cinq categories de facteurs sont analysees: les facteurs lies a l'adolescent, aux parents, a la famille et a l'environnement, a l'intervention et a l'histoire et aux conditions de placement.
Les resultats demontrent que c'est davantage au plan des facteurs lies a l'intervention, a l'histoire et aux conditions de placement que des differences entre les adolescents reunifies et les adolescents non reunifies s'observent. Les analyses de regression logistique ont conduit a l'elaboration de deux modeles de prediction de la reunification familiale. Le premier modele revele une combinaison de cinq facteurs: la duree du placement, la possibilite de sortie dans le milieu familial, le nombre d'episodes de placement, l'origine ethnoculturelle et la presence d'un suivi concurrent ou consecutif en LPJ et LJC. Ce modele comporte une limite puisqu'il considere seulement les facteurs sans donnee manquante. Le second modele, elabore a partir de tous les facteurs, revele une configuration de trois facteurs: l'implication parentale, l'origine ethnoculturelle et l'ambivalence de la mere. Au plan de la recherche, ces resultats demontrent la necessite de poursuivre les travaux, en conduisant des etudes longitudinales, employant l'analyse de survie; en interrogeant directement les acteurs impliques; et en explorant la relation d'association entre l'origine ethnoculturelle et la reunification familiale. Au plan de l'intervention, ces resultats soutiennent la necessite de systematiser la pratique de la reunification familiale; consolider le reseau familial du jeune; developper des programmes de reunification familiale; revoir les modalites d'organisation des ressources d'hebergement; et diversifier l'offre de services.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Boyer, Baptiste. „Optimisation des ressources dans un système énergétique complexe au moyen de modèles fonctionnels“. Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG033.

Der volle Inhalt der Quelle
Annotation:
Pour faire face à la complexité croissante des systèmes développés, cette thèse propose une approche méthodologique multi-vues permettant d'accompagner les étapes du cycle de développement de systèmes complexes, dont notamment les systèmes multi-énergies, depuis leur conception jusqu'à leur pilotage en temps réel. Un niveau d'arbitrage entre les différentes missions du système est également intégré et permet d'évaluer plusieurs stratégies. Ce niveau est appliqué au cas du véhicule électrique entre les missions d'autonomie, de confort et de vitesse. La méthodologie développée dans cette thèse est centrée autour de la modélisation fonctionnelle, sur laquelle ces travaux se concentrent. Celle-ci décrit de manière modulaire et au moyen de modèles mathématiques juste nécessaires et de liens énergétiques le comportement des éléments du système et leurs interactions. Afin de prendre en compte au mieux la réponse dynamique des éléments, leurs contraintes et les éventuelles perturbations, des algorithmes de commande prédictive ``PFC'' sont développés puis implémentés au sein des éléments fonctionnels. Ces algorithmes servent également de support pour l'introduction d'un problème d'optimisation pour gérer le processus d'allocation des ressources dans un système multi-sources. Ces concepts sont appliqués au pilotage d'un parc éolien couplé à une unité de stockage, avec la prise en compte de contraintes de congestion sur le réseau. Enfin, l'extension de cette méthodologie à l'optimisation des systèmes multi-énergies soulève de nouvelles problématiques, notamment le couplage entre plusieurs domaines énergétiques, la prise en compte de variables manipulables discrètes et un conflit entre la nécessité d'avoir à la fois un horizon de prédiction long et une résolution temporelle fine. Pour répondre à cette problématique, le modèle fonctionnel est couplé à deux niveaux d'optimisation supérieurs qui permettent de déterminer respectivement l'architecture optimale du système et les plannings de démarrages, d'arrêts et de charge des moyens de production. Cette approche est validée avec la conception et le pilotage d'un réseau urbain multi-énergies dans la commune de Bolbec
In order to face the increasing complexity of the developed systems, this thesis proposes a multi-view methodological approach allowing to accompany the stages of the development cycle of complex systems, including multi-energy systems, from their design to their real time control. A level of arbitration between the different missions of the system is also introduced and enables to test several strategies. This level is illustrated in the case of the electric vehicle with arbitrations between autonomy, vehicle speed and passenger comfort. Functional modeling, on which this work focuses, is the cornerstone of the methodology. This describes in a modular way and through the use of just necessary mathematical models and energy links the behavior of the elements of the system and their interactions. In order to take into account the dynamic response of the elements, their constraints and disturbances, some predictive control algorithms ``PFC'' are developed and implemented within the functional elements. These algorithms are also used to introduce an optimization problem to manage the resources allocation process in a multiple source system. These concepts are applied to the control of a wind farm coupled with a storage unit, taking into account congestion constraints on the electric grid. Finally, the adaptation of this methodology to the optimization of multi-energy systems raises new issues, including the coupling between several energy fields, the consideration of discrete manipulable variables and a conflict between the need for both a high prediction horizon and a fine temporal resolution. To address this issue, the functional model is coupled to two higher levels of optimization that allow to determine respectively the optimal system architecture and the source commitment schedule. This approach is validated on the design and the control of a multi-energy urban network in the town of Bolbec
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Goelzer, Anne. „Emergence de structures modulaires dans les régulations des systèmes biologiques : théorie et applications à Bacillus subtilis“. Phd thesis, Ecole Centrale de Lyon, 2010. http://tel.archives-ouvertes.fr/tel-00597796.

Der volle Inhalt der Quelle
Annotation:
Cette thèse consiste à étudier l'organisation du système de contrôle des voies métaboliques des bactéries afin de dégager des propriétés systémiques révélant son fonctionnement. Dans un premier temps, nous montrons que le contrôle des voies métaboliques est hautement structuré et peut se décomposer en modules fortement découplés en régime stationnaire. Ces modules possèdent des propriétés mathématiques remarquables ayant des conséquences importantes en biologie. Cette décomposition, basée intrinsèquement sur la vision système de l'Automatique, offre un cadre théorique formel général d'analyse du contrôle des voies métaboliques qui s'est révélé effectif pour analyser des données expérimentales. dans un deuxième temps, nous nous intéressons aux raisons possibles de l'émergence de cette structure de contrôle similaire. Nous identifions un ensemble de contraintes structurelles agissant au niveau de la répartition d'une ressource commune, les protéines, entre les processus cellulaires. Respecter ces contraintes pour un taux de croissance donné conduit à formaliser et résoudre un problème d'optimisation convexe non différentiable, que nous appelons Resource balance Analysis. Ce problème d'optimisation se résout numériquement à l'échelle de la bactérie grâce à un problème de Programmation Linéaire équivalent. plusieurs propriétés sont déduites de l'analyse théorique du critère obtenu. Tout d'abord, le taux de croissance est structurellement limité par la répartition d'une quantité finie de protéines entre les voies métaboliques et les ribosomes. Ensuite, l'émergence des modules dans les voies métaboliques provient d'une politique générale d'économie en protéines chez la bactérie pour gagner du taux de croissance. Certaines stratégies de transport bien connues comme la répression catabolique ou la substitution de transporteurs haute/basse affinités sont prédites par notre méthode et peuvent alors être interprétées comme le moyen de maximiser la croissance tout en minimisant l'investissement en protéines.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Hammami, Seif Eddine. „Dynamic network resources optimization based on machine learning and cellular data mining“. Thesis, Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0015/document.

Der volle Inhalt der Quelle
Annotation:
Les traces réelles de réseaux cellulaires représentent une mine d’information utile pour améliorer les performances des réseaux. Des traces comme les CDRs (Call detail records) contiennent des informations horodatées sur toutes les interactions des utilisateurs avec le réseau sont exploitées dans cette thèse. Nous avons proposé des nouvelles approches dans l’étude et l’analyse des problématiques des réseaux de télécommunications, qui sont basé sur les traces réelles et des algorithmes d’apprentissage automatique. En effet, un outil global d’analyse de données, pour la classification automatique des stations de base, la prédiction de la charge de réseau et la gestion de la bande passante est proposé ainsi qu’un outil pour la détection automatique des anomalies de réseau. Ces outils ont été validés par des applications directes, et en utilisant différentes topologies de réseaux comme les réseaux WMN et les réseaux basés sur les drone-cells. Nous avons montré ainsi, qu’en utilisant des outils d’analyse de données avancés, il est possible d’optimiser dynamiquement les réseaux mobiles et améliorer la gestion de la bande passante
Real datasets of mobile network traces contain valuable information about the network resources usage. These traces may be used to enhance and optimize the network performances. A real dataset of CDR (Call Detail Records) traces, that include spatio-temporal information about mobile users’ activities, are analyzed and exploited in this thesis. Given their large size and the fact that these are real-world datasets, information extracted from these datasets have intensively been used in our work to develop new algorithms that aim to revolutionize the infrastructure management mechanisms and optimize the usage of resource. We propose, in this thesis, a framework for network profiles classification, load prediction and dynamic network planning based on machine learning tools. We also propose a framework for network anomaly detection. These frameworks are validated using different network topologies such as wireless mesh networks (WMN) and drone-cell based networks. We show that using advanced data mining techniques, our frameworks are able to help network operators to manage and optimize dynamically their networks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Ghamri, Doudane Mohamed Yacine. „Support et gestion de la qualité de service dans les réseaux sans fil“. Paris 6, 2003. http://www.theses.fr/2003PA066435.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Drezet, Laure-Emmanuelle. „Résolution d'un problème de gestion de projets sous contraintes de ressources humaines : de l'approche prédictive à l'approche réactive“. Tours, 2005. http://www.theses.fr/2005TOUR4010.

Der volle Inhalt der Quelle
Annotation:
Les problèmes d'ordonnancement de projets ont fait l'objet de nombreuses études ces cinquante dernières années. Cependant, la majorité des approches considèrent un environnement totalement déterministe et des ressources matérielles. Nous avons adopté dans cette thèse une approche différente, pour traiter dans sa globalité un problème réel. Nous nous intéressons à un problème de gestion de projets, sous contraintes de ressources humaines, avec des profils de consommation d'activités variables. Nous étudions ce problème dans les phases prédictives, proactive et réactive. Les phases prévisionnelles (proactive et prédictive) diffèrent par la prise en compte d'informations sur des aléas potentiels lors de la mise en oeuvre de l'ordonnancement. La phase réactive cherche à modifier un ordonnancement pour l'adapter à la survenue d'aléas. Au sein de ces trois phases, des algorithmes de listes, des méta-heuristiques (méthode Tabou) et des programme linéaires en nombres entiers sont proposés. La mise en oeuvre de cette thèse (sous convention CIFRE) a été réalisée au sein de l'entreprise ESKAPE au sein de deux applications (gestion du temps et gestion de projets)
Project scheduling probelms have been extensively studied for the last fifty years. However, the main studies consider a fully deterministic environmnent and material resources. We propose to study a new problem, based on a real one. This problem deals with specific cnstraints dictated by the use of human resources and by the time-varying activities requirements. This problem is studied during the predictive, the proactive and the reactive phases. The proactive phase differs from the predictive one due to the fact that information on euexpected events is taken into account. During the reactive phase, a forecasted schedule is updated dynamically due to the occurrent of unexpected events. For these three phases, we have developed priority-rule based algorithms, metaheuristic algorithm and Integer Linear Programming models. The integration of our research work is conduced in the company Eskape within two applications (project scheduling and time management)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Nouaouri, Issam. „Gestion hospitalière en situation d'exception : optimisation des ressources critiques“. Thesis, Artois, 2010. http://www.theses.fr/2010ARTO0202/document.

Der volle Inhalt der Quelle
Annotation:
Selon le rapport annuel de la croix rouge et du croissant rouge pour l’année 2006, le nombre de catastrophes, d’origine naturelle et humaine, a augmenté ces dernières décennies dans des proportions importantes. Ces catastrophes engendrent souvent un nombre de victimes important nécessitant des interventions urgentes. Face à une telle situation, les moyens sanitaires classiques et de routines se trouvent souvent dépassés, et par conséquent inefficaces pour absorber cet afflux massif de victimes. Ainsi, la mise en œuvre d’un système de gestion hospitalier conditionné par une optimisation des différentes ressources médicales est indispensable pour sauver le maximum de vies humaines. Dans ce contexte, nous proposons dans cette thèse, d’étudier le problème d’optimisation des ressources humaines et matérielles critiques à savoir, les chirurgiens et les salles opératoires en situation de crise. L’objectif est de traiter le maximum de victimes, autrement dit sauver le maximum de vies humaines. Notre étude comprend deux niveaux : (1) un niveau préparatoire qui consiste à dimensionner les ressources dans le cadre des exercices de simulation du plan blanc, et (2) un niveau opérationnel permettant d’optimiser l’ordonnancement des interventions dans les salles opératoires. Aussi, nous étudions l’impact de la mutualisation des ressources sur le nombre de victimes traitées. L’un des défis posés à la programmation opératoire en situation d’exception est l’aptitude à faire face aux perturbations. Dans ce cadre, nous abordons le problème réactif d’optimisation de l’ordonnancement des interventions dans les salles opératoires. Nous considérons diverses perturbations possibles telles : une durée opératoire qui dépasse la durée estimée, l’insertion d’une nouvelle victime dans le programme opératoire, et l’évolution du degré d’urgence d’une victime. Cette thèse est menée avec la collaboration de plusieurs structures sanitaires publiques en France et en Tunisie. Les résultats expérimentaux mettent en exergue l’apport de ces approches pour l’aide à la décision
Disaster like terrorist attack, earthquake, and hurricane, often cause a high degree of damage. Thousands of people might be affected. The 2006’s annual report of the International Federation of Red Cross and Red Crescent Societies proves that the number of disasters increased during these last decades. In such situations, hospitals must be able to receive injured persons for medical and surgical treatments. For these reasons medical resources optimization of different is fundamental in human life save.In this context, we propose in this thesis, to study the optimization of human and material resources in relation with hospital management. We focus more precisely on critical resources: operating rooms and surgeons. The goal is to handle the maximum of victims and then to save the maximum of human lives. Our research consists of two phases: (1) Sizing critical resources during the preparedness phase of disaster management plan so called white plan. (2) Operational phase that provides the optimization of surgical acts scheduling in the operating rooms. Also, we study the impact of sharing resources on the number of treated victims. A disaster situation is characterized by different disruptions. In this setting, we approach a reactive problem for optimization of surgical acts scheduling in the operating rooms. We consider various possible disruptions: the overflow of assessed surgical care duration, the insertion of a new victim in the scheduling program, and the evolution of victim’s emergency level.This work is achieved with the collaboration of several public health institutions (hospitals, ministry, etc.) both in France and Tunisia. Empirical study shows that a substantial aid is proposed by using the proposed approaches
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Uppoor, Sandesh. „Understanding and Exploiting Mobility in Wireless Networks“. Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00912521.

Der volle Inhalt der Quelle
Annotation:
Le degré de pénétration du marché des appareils intelligents tels que les smartphones et les tablettes avec les technologies de communication embarquées comme le WiFi, 3G et LTE a explosé en moins d'une décennie. En complément de cette tendance technologique, les appli- cations des réseaux sociaux ont virtuellement connecté une grande partie de la population, en génèrant une demande de trafic de données croissant vers et depuis l'infrastructure de com- munication. Les communications pervasive ont aussi acquis une importance dans l'industrie automobile. L'émergence d' une gamme impressionnante d' appareils intelligents dans les véhicules permettant services tels que assistance au conducteur, infotainment, suivi à dis- tance du vehicule, et connectivité àux réseaux sociaux même en déplacement. La demande exponentielle de connectivité a encore défié les fournisseurs de services de télécommunications pour répondre aux attentes des utilisateurs du réseau à grande vitesse. L'objectif de cette thèse est de modéliser et comprendre la mobilité dynamique des utilisateurs à grande vitesse et leurs effets sur les architectures de réseau sans fil. Compte tenu de l' importance du développement de notre étude sur une représentation réal- iste de la mobilité des véhicules, nous étudions tout d'abord les approches les plus populaires pour la génération de trafic routier synthétique et discutons les caractéristiques des ensem- bles de données accessibles au public qui decrivent des mobilités véhiculaires. En utilisant l'information des déplacements de la population dans une région métropolitaine, les données du réseau routier détaillées et des modèles réalistes de conduite microscopiques, nous pro- posons un jeux de données de mobilité véhiculaire original qui redéfinit l'état de l'art et qui replie la circulation routière de facon realiste dans le temps et dans l'espace. Nous étudions ensuite l'impact des dynamiques de mobilité du point de vue de la couverture cellulaire en présence d'un déploiement réel des stations de base. En outre, en examinant les effets de la mobilité des véhicules sur les réseaux autonomes, nous voyons des possibilités pour les futurs paradigmes de réseaux hétérogènes. Motivés par l'évolution dynamique dans le temps de la mobilité des véhicules observée dans notre jeux de données, nous proposons également une approche en ligne pour prédire les flux de trafic macroscopiques. Nous analysons les paramètres affectant la prédiction de la mobilité en milieu urbain. Nous dévoilons quand et où la gestion des ressources réseau est plus crucial pour accueillir le trafic généré par les utilisateurs à bord. Ces études dévoilent des multiples opportunités de gestion intelligente des transports, soit pour construire de nouvelles routes, soit pour l'installation de bornes de recharge électriques, ou pour la conception de systèmes de feux de circulation intelligents, contribuant ainsi à la planification urbaine.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Awal, Mohammad abdul. „Efficient cqi feedback resource utilisation for multi-user multi-carrier wireless systems“. Thesis, Paris 11, 2011. http://www.theses.fr/2011PA112223/document.

Der volle Inhalt der Quelle
Annotation:
La technologie OFDMA (Orthogonal frequency division multiple access) a été adoptée par les systèmes de télécommunications de 4ème génération (4G) comme technique de transmission et d'accès multiple pour ses performances supérieures en termes d'efficacité spectrale. Dans ce type de systèmes, l'adaptation dynamique du débit en fonction de la qualité du canal CQI (Channel Quality Indicator) constitue une problématique de recherche d'actualité qui attire l'attention de plusieurs acteurs académiques et industriels. Ce problème d'adaptation dynamique est encore plus complexe à gérer dans des environnements multi-utilisateurs hétérogènes et à ressources limitées tels que les systèmes OFDMA comme WiMAX Mobile et Long-term Evolution (LTE). Dans cette thèse, nous nous intéressons au problème d'allocation de ressources de l'information de feedback relative au CQI dans le cadre de systèmes OFDMA multi-porteuses multi-utilisateurs. Dans le but de réduire la charge (overhead) du feedback, nous proposons une méthode de prédiction du CQI basée sur l'exploitation de la corrélation temporelle de ce dernier et d'une solution inter-couches. L'objectif est de trouver des schémas d'allocation de ressources adaptatifs respectant les contraintes de qualité de service (QoS) applicatives.Nous proposons en premier lieu un algorithme de réduction de feedback PBF (Prediction Based Feedack) qui permet à la station de base (BS) à prédire certaines occurrences du CQI en se basant sur l'algorithme des moindres carrés récursif RLS (Recursive least-square). Les résultats de simulation montrent que l'outil de prédiction du CQI réduit sensiblement l'overhead du feedback et améliore par conséquent le débit de la liaison montante. Nous proposons, par la suite, une version opportuniste de PBF pour atténuer les éventuels effets de sur et sous estimations liées à l'algorithme de prédiction. Dans ce mécanisme, nous exploitons les informations inter-couches pour améliorer les performances des mécanismes de feedbacks périodiques dont PBF fait partie. L'approche opportuniste améliore sensiblement les performances du système pour les cas de mobilité élevée comparés aux cas de faible mobilité.Dans un second temps, nous proposons une plateforme (FEREP : feedback resource allocation and prediction) basée sur une approche inter-couches. Implémentée au niveau de la station BS, FEREP intègre les fonctionnalités de prédiction, d'adaptation dynamique du CQI et d'ordonnancement des demandes de feedback. Elle comporte trois modules. Le module FWA (feedback window adaptation) gère dynamiquement la fenêtre de feedbacks de chaque station mobile (MS) en se basant sur les messages ARQ (Automatic Repeat Request) reçus qui reflètent l'état actuel des canaux respectifs. Le module PBFS (priority-based feedback scheduling) effectue ensuite l'ordonnancement des feedbacks en tenant compte de la taille de la fenêtre de feedback, du profil de l'utilisateur sous la contrainte de la limitation des ressources globales du systèmes réservées au feedback. Afin de choisir les paramètres de transmission MCS (modulation and coding schemes), le module PBF (prediction based feedback) est utilisé pour les utilisateurs dont le feedabck n'a pas pu être ordonnancé dans la trame courante. Les résultats de simulation ont montré un gain significatif des performances de FREREP en comparaison à un mécanisme de référence, en particulier, sous de fortes contraintes de limitation des ressources du feedback.Le protocole ARQ génère un accusé de réception uniquement si l'utilisateur est sélectionné par l'ordonnanceur pour envoyer des données sur la liaison descendante. Dans le cas où la fréquence d'ordonnancement des utilisateurs sur le lien descendant est réduite, les messages ARQ s'en trouvent également réduits, dégradant par conséquent les performances de la plateforme FEREP proposée ci-dessus. En effet, dans ce cas la signalisation ARQ devient insuffisante pour adapter efficacement la fenêtre de feedback de chaque utilisateur. Pour pallier à ce problème, nous proposons l'algorithme DCRA (dynamic CQI resource allocation) qui utilise deux modes d'estimation de la fenêtre de feedback. Le premier est un mode hors-ligne basé sur des études empiriques permettant d'estimer la fenêtre moyenne optimale de feedback en utilisant les profils applicatif et de mobilité de l'utilisateur. Notre analyse de performance par simulation montre que la fenêtre de feedback peut être estimée en fonction de la classe de service des utilisateurs et de leurs profils de mobilité pour un environnement cellulaire donné. Le second mode de fonctionnement de DCRA effectue une adaptation dynamique de la fenêtre en temps réel dans le cas où la signalisation ARQ est suffisante. Une étude comparative avec les mécanismes DFS (deterministic feedback scheduling) et OFS (opportunistic feedback scheduling), a montré que DCRA arrive à réaliser un meilleur gain en ressources montantes grâce à la réduction de l'overhead des feedbacks, sans pour autant trop dégrader le débit descendant des utilisateurs. Du point de vue des utilisateurs, DCRA améliore les contraintes de QoS tels que le taux de perte de paquets et réduit la consommation énergétique des terminaux grâce à la réduction de feedback
Orthogonal frequency division multiple access (OFDMA) technology has been adopted by 4th generation (a.k.a. 4G) telecommunication systems to achieve high system spectral efficiency. A crucial research issue is how to design adaptive channel quality indicator (CQI) feedback mechanisms so that the base station can use adaptive modulation and coding (AMC) techniques to adjust its data rate based on the channel condition. This problem is even more challenging in resource-limited and heterogeneous multiuser environments such as Mobile WiMAX, Long-term Evolution (LTE) networks. In this thesis, we consider CQI feedback resource allocation issue for multiuser multicarrier OFDMA systems. We exploit time-domain correlation for CQI prediction and cross-layer information to reduce feedback overhead for OFDMA systems. Our aim is find resource allocation schemes respecting the users QoS constraints.Our study begins with proposing prediction based feedback (PBF) which allows the base station to predict the CQI feedbacks based on recursive least-square (RLS) algorithm. We showed that it is useful to use channel prediction as a tool to reduce the feedback overhead and improve the uplink throughput. Then, we propose an opportunistic periodic feedback mechanism to mitigate the possible under and over estimation effects of CQI prediction. In this mechanism, we exploited the cross-layer information to enhance the performance of periodic feedback mechanisms. The opportunistic mechanism improves the system performance for high mobility cases compared to low mobility cases.For OFDMA systems with limited feedback resource, we propose an integrated cross-layer framework of feedback resource allocation and prediction (FEREP). The proposed framework, implemented at the BS side, is composed of three modules. The feedback window adaptation (FWA) module dynamically tunes the feedback window size for each mobile station based on the received ARQ (Automatic Repeat Request) messages that reflect the current channel condition. The priority-based feedback scheduling (PBFS) module then performs feedback allocation by taking into account the feedback window size, the user profile and the total system feedback budget. To choose adapted modulation and coding schemes (MCS), the prediction based feedback (PBF) module performs channel prediction by using recursive least square (RLS) algorithm for the user whose channel feedback has not been granted for schedule in current frame. Through extensive simulations, the proposed framework shows significant performance gain especially under stringent feedback budget constraint.ARQ protocol receives users acknowledgement only if the user is scheduled in the downlink. The reduction in users scheduling frequency also reduces the rate of ARQ hints and degrades the performance of above contributions. In this case, it is difficult to exploit the ARQ signal to adapt the feedback window for that user. To address this issue, we propose a cross-layer dynamic CQI resource allocation (DCRA) algorithm for multiuser multicarrier OFDMA systems. DCRA uses two modes for feedback window estimation. The first one is an off-line mode based on empirical studies to derive optimal average feedback window based on user application and mobility profile. Our experimental analysis shows that the feedback window can be averaged according to users service class and their mobility profile for a given cell environment. DCRA performs a realtime dynamic window adaptation if sufficient cross-layer hints are available from ARQ signaling. DCRA increases uplink resource by reducing feedback overhead without degrading downlink throughout significantly compared to deterministic feedback scheduling (DFS) and opportunistic feedback scheduling (OFS). From the users perspective, DCRA improves QoS constraints like packet loss rate and saves users power due to feedback reduction
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Tsafack, Chetsa Ghislain Landry. „Profilage système et leviers verts pour les infrastructures distribuées à grande échelle“. Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2013. http://tel.archives-ouvertes.fr/tel-00925320.

Der volle Inhalt der Quelle
Annotation:
De nos jours, réduire la consommation énergétique des infrastructures de calcul à grande échelle est devenu un véritable challenge aussi bien dans le monde académique qu'industriel. Ceci est justifié par les nombreux efforts visant à réduire la consommation énergétique de ceux-ci. Ces efforts peuvent sans nuire à la généralité être divisés en deux groupes : les approches matérielles et les approches logicielles. Contrairement aux approches matérielles, les approches logicielles connaissent très peu de succès à cause de leurs complexités. En effet, elles se focalisent sur les applications et requièrent souvent une très bonne compréhension des solutions proposées et/ou de l'application considérée. Ce fait restreint leur utilisation à un nombre limité d'experts puisqu'en général les utilisateurs n'ont pas les compétences nécessaires à leurs implémentation. Aussi, les solutions actuelles en plus de leurs complexités de déploiement ne prennent en compte que le processeur alors que les composants tel que la mémoire, le stockage et le réseau sont eux aussi de gros consommateurs d'énergie. Cette thèse propose une méthodologie de réduction de la consommation énergétique des infrastructures de calcul à grande échelle. Elaborée en trois étapes à savoir : (i) détection de phases, (ii) caractérisation de phases détectées et (iii) identification de phases et reconfiguration du système ; elle s'abstrait de toute application en se focalisant sur l'infrastructure dont elle analyse le comportement au cours de son fonctionnement afin de prendre des décisions de reconfiguration. La méthodologie proposée est implémentée et évaluée sur des grappes de calcul à haute performance de tailles variées par le biais de MREEF (Multi-Resource Energy Efficient Framework). MREEF implémente la méthodologie de réduction énergétique de manière à permettre aux utilisateurs d'implémenter leurs propres mécanismes de reconfiguration du système en fonction des besoins. Les résultats expérimentaux montrent que la méthodologie proposée réduit la consommation énergétique de 24% pour seulement une perte de performance de moins de 7%. Ils montrent aussi que pour réduire la consommation énergétique des systèmes, on peut s'appuyer sur les sous-systèmes tels que les sous-systèmes de stockage et de communication. Nos validations montrent que notre méthodologie s'étend facilement à un grand nombre de grappes de calcul sensibles à l'énergie (energy aware). L'extension de MREEF dans les environnements virtualisés tel que le cloud montre que la méthodologie proposée peut être utilisée dans beaucoup d'autres environnements de calcul.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Desquesnes, Guillaume Louis Florent. „Distribution de Processus Décisionnels Markoviens pour une gestion prédictive d’une ressource partagée : application aux voies navigables des Hauts-de-France dans le contexte incertain du changement climatique“. Thesis, Ecole nationale supérieure Mines-Télécom Lille Douai, 2018. http://www.theses.fr/2018MTLD0001/document.

Der volle Inhalt der Quelle
Annotation:
Les travaux de cette thèse visent à mettre en place une gestion prédictive sous incertitudes de la ressource en eau pour les réseaux de voies navigables. L'objectif est de proposer un plan de gestion de l'eau pour optimiser les conditions de navigation de l'ensemble du réseau supervisé sur un horizon spécifié. La solution attendue doit rendre le réseau résilient aux effets probables du changement climatique et aux évolutions du trafic fluvial. Dans un premier temps, une modélisation générique d'une ressource distribuée sur un réseau est proposée. Celle-ci, basée sur les processus décisionnels markoviens, prend en compte les nombreuses incertitudes affectant les réseaux considérés. L'objectif de cette modélisation est de couvrir l'ensemble des cas possibles, prévus ou non, afin d'avoir une gestion résiliente de ces réseaux. La seconde contribution consiste en une distribution du modèle sur plusieurs agents afin de permettre son passage à l'échelle. Ceci consiste en une répartition des capacités de contrôle du réseau entre les agents. Chaque agent ne possède ainsi qu'une connaissance locale du réseau supervisé. De ce fait, les agents ont besoin de se cordonner pour proposer une gestion efficace du réseau. Une résolution itérative avec échanges de plans temporaires de chaque agent est utilisée pour l'obtention de politiques de gestion locales à chaque agent. Finalement, des expérimentations ont été réalisées sur des réseaux réels de voies navigables françaises pour observer la qualité des solutions produites. Plusieurs scénarios climatiques différents ont été simulés pour tester la résilience des politiques produites
The work of this thesis aims to introduce and implement a predictive management under uncertainties of the water resource for inland waterway networks. The objective is to provide a water management plan to optimize the navigation conditions of the entire supervised network over a specified horizon. The expected solution must render the network resilient to probable effects of the climate change and changes in waterway traffic. Firstly, a generic modeling of a resource distributed on a network is proposed. This modeling, based on Markovian Decision Processes, takes into account the numerous uncertainties affecting considered networks. The objective of this modeling is to cover all possible cases, foreseen or not, in order to have a resilient management of those networks. The second contribution consists in a distribution of the model over several agents to facilitate the scaling. This consists of a repartition of the network's control capacities among the agents. Thus, each agent has only local knowledge of the supervised network. As a result, agents require coordination to provide an efficient management of the network. An iterative resolution, with exchanges of temporary plans from each agent, is used to obtain local management policies for each agent. Finally, experiments were carried out on realistic and real networks of the French waterways to observe the quality of the solutions produced. Several different climatic scenarios have been simulated to test the resilience of the produced policies
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Mihart, Ioana. „L’optimisation de l’effort marketing à travers la segmentation probabiliste prédictive de la clientèle et la modélisation de la persistance des impacts promotionnels : étude dans le contexte des biens de consommation courante“. Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL12020/document.

Der volle Inhalt der Quelle
Annotation:
Dans un contexte marketing régi aujourd’hui par le paradigme relationnel, les enjeux se regroupent autour de trois aspects stratégiques : une bonne connaissance des clients, une allocation optimale des ressources limitées et une mesure fiable de la performance. Deux courants de recherche concernant le Capital Client peuvent être distingués : d’une part, celui dédié à son estimation à travers l’étude et l’estimation du comportement client, d’autre part, celui dédié à sa maximisation à travers l’identification des stratégies marketing optimales. Cette recherche se situe à la confluence de ces courants, son but étant d’analyser dans quelle mesure l’association de la segmentation probabiliste prédictive de la clientèle et de la modélisation de la persistance des impacts des actions marketing, peut constituer un dispositif pertinent pour l’optimisation de l’effort marketing. Des hypothèses concernant le rôle modérateur de l’hétérogénéité des clients en termes de Lifetime Value prédite, dans l’impact des actions promotionnelles initiées par une enseigne sur les processus formateurs de son Capital Client – l’acquisition et la rétention, sont formulées et testées. La discussion des résultats obtenus permet la réalisation d’une typologie des trajectoires possibles des ventes et du Capital Client sous l’influence des actions promotionnelles de différentes intensités. Elle permet également d’envisager la maximisation du Capital Client par l’optimisation de l’intensité promotionnelle au niveau des segments issus de la modélisation probabiliste. Les implications académiques et managériales sont examinées et plusieurs voies de recherche sont proposées
In a marketing context governed today by the relational paradigm, three strategic issues become increasingly important: a good knowledge of customers, the optimal allocation of limited resources and reliable measures of performance. Two streams of research on Customer Equity can be distinguished: the first one is dedicated to its estimation through the study and prediction of customer behaviour, the other one, to its maximization through the identification of optimal marketing strategies. This research can be situated at the confluence of these currents, its purpose being to analyse whether the combination of probabilistic customer base segmentation and persistence modelling of the impact of marketing actions, can constitute a appropriate device for the optimisation of the marketing effort. Hypotheses are formulated and tested regarding the moderating role of the heterogeneity of customers' predicted Lifetime Value in the impact of promotional activities initiated by a company on the formative processes of its Customer Equity - acquisition and retention. The discussion of the results leads to a typology of possible trajectories for sales and Customer Equity under the influence of promotional activities of different intensities. It also allows considering the maximization of Customer Capital by optimising the intensity of promotional actions targeting the segments issued from the probabilistic modelling. Academic and managerial implications are discussed and several research directions are suggested
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Uznanski, Przemyslaw. „Large scale platform : Instantiable models and algorithmic design of communication schemes“. Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00878837.

Der volle Inhalt der Quelle
Annotation:
The increasing popularity of Internet bandwidth-intensive applications prompts us to consider followingproblem: How to compute efficient collective communication schemes on large-scale platform?The issue of designing a collective communication in the context of a large scale distributed networkis a difficult and a multi-level problem. A lot of solutions have been extensively studied andproposed. But a new, comprehensive and systematic approach is required, that combines networkmodels and algorithmic design of solutions.In this work we advocate the use of models that are able to capture real-life network behavior,but also are simple enough that a mathematical analysis of their properties and the design of optimalalgorithms is achievable.First, we consider the problem of the measuring available bandwidth for a given point-topointconnection. We discuss how to obtain reliable datasets of bandwidth measurements usingPlanetLab platform, and we provide our own datasets together with the distributed software usedto obtain it. While those datasets are not a part of our model per se, they are necessary whenevaluating the performance of various network algorithms. Such datasets are common for latencyrelatedproblems, but very rare when dealing with bandwidth-related ones.Then, we advocate for a model that tries to accurately capture the capabilities of a network,named LastMile model. This model assumes that essentially the congestion happens at the edgesconnecting machines to the wide Internet. It has a natural consequence in a bandwidth predictionalgorithm based on this model. Using datasets described earlier, we prove that this algorithm is ableto predict with an accuracy comparable to best known network prediction algorithm (DistributedMatrix Factorization) available bandwidth between two given nodes. While we were unable toimprove upon DMF algorithm in the field of point-to-point prediction, we show that our algorithmhas a clear advantage coming from its simplicity, i.e. it naturally extends to the network predictionsunder congestion scenario (multiple connections sharing a bandwidth over a single link). We areactually able to show, using PlanetLab datasets, that LastMile prediction is better in such scenarios.In the third chapter, we propose new algorithms for solving the large scale broadcast problem.We assume that the network is modeled by the LastMile model. We show that under thisassumption, we are able to provide algorithms with provable, strong approximation ratios. Takingadvantage of the simplicity and elasticity of the model, we can even extend it, so that it captures theidea of connectivity artifacts, in our case firewalls preventing some nodes to communicate directlybetween each other. In the extended case we are also able to provide approximation algorithmswith provable performance.The chapters 1 to 3 form three successful steps of our program to develop from scratch amathematical network communication model, prove it experimentally, and show that it can beapplied to develop algorithms solving hard problems related to design of communication schemesin networks.In the chapter 4 we show how under different network cost models, using some simplifyingassumptions on the structure of network and queries, one can design very efficient communicationschemes using simple combinatorial techniques. This work is complementary to the previous chapter in the sense that previously when designing communication schemes, we assumed atomicityof connections, i.e. that we have no control over routing of simple connections. In chapter 4 weshow how to solve the problem of an efficient routing of network request, given that we know thetopology of the network. It shows the importance of instantiating the parameters and the structureof the network in the context of designing efficient communication schemes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Tsafack, Chetsa Ghislain Landry. „System Profiling and Green Capabilities for Large Scale and Distributed Infrastructures“. Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2013. http://tel.archives-ouvertes.fr/tel-00946583.

Der volle Inhalt der Quelle
Annotation:
Nowadays, reducing the energy consumption of large scale and distributed infrastructures has truly become a challenge for both industry and academia. This is corroborated by the many efforts aiming to reduce the energy consumption of those systems. Initiatives for reducing the energy consumption of large scale and distributed infrastructures can without loss of generality be broken into hardware and software initiatives.Unlike their hardware counterpart, software solutions to the energy reduction problem in large scale and distributed infrastructures hardly result in real deployments. At the one hand, this can be justified by the fact that they are application oriented. At the other hand, their failure can be attributed to their complex nature which often requires vast technical knowledge behind proposed solutions and/or thorough understanding of applications at hand. This restricts their use to a limited number of experts, because users usually lack adequate skills. In addition, although subsystems including the memory are becoming more and more power hungry, current software energy reduction techniques fail to take them into account. This thesis proposes a methodology for reducing the energy consumption of large scale and distributed infrastructures. Broken into three steps known as (i) phase identification, (ii) phase characterization, and (iii) phase identification and system reconfiguration; our methodology abstracts away from any individual applications as it focuses on the infrastructure, which it analyses the runtime behaviour and takes reconfiguration decisions accordingly.The proposed methodology is implemented and evaluated in high performance computing (HPC) clusters of varied sizes through a Multi-Resource Energy Efficient Framework (MREEF). MREEF implements the proposed energy reduction methodology so as to leave users with the choice of implementing their own system reconfiguration decisions depending on their needs. Experimental results show that our methodology reduces the energy consumption of the overall infrastructure of up to 24% with less than 7% performance degradation. By taking into account all subsystems, our experiments demonstrate that the energy reduction problem in large scale and distributed infrastructures can benefit from more than "the traditional" processor frequency scaling. Experiments in clusters of varied sizes demonstrate that MREEF and therefore our methodology can easily be extended to a large number of energy aware clusters. The extension of MREEF to virtualized environments like cloud shows that the proposed methodology goes beyond HPC systems and can be used in many other computing environments.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Jeantet, Alexis. „Durabilité du drainage agricole français sous contrainte de changement climatique“. Electronic Thesis or Diss., Sorbonne université, 2022. https://theses.hal.science/tel-03935433.

Der volle Inhalt der Quelle
Annotation:
Le drainage agricole est une technique hydraulique employée sur des sols présentant des problèmes temporaires ou permanents d’infiltration des eaux, limitant le ressuyage des sols et induisant des phénomènes de crues dommageables pour les cultures. Cette technique permet de stabiliser les conditions hydriques des parcelles en contrôlant la teneur en eau d’un sol et en l’aérant, le rendant plus exploitable. En France, les parcelles drainées cumulent une surface de plus de 2.7 millions d’hectares, soit pratiquement 10% de la Surface Agricole Utile (SAU). Dès lors, évaluer l’hydrologie future du drainage agricole est un enjeu majeur, particulièrement dans un contexte de changement climatique où la gestion de la ressource en eau devient un enjeu environnemental et sociétal important. A notre connaissance, ce genre d’étude n’a pas été réalisé à ce jour. L’objectif de la thèse a été de dresser un bilan détaillé de l’hydrologie future du drainage agricole français d’ici à l’horizon 2100, sur 22 parcelles décrivant les principales caractéristiques pédoclimatiques des milieux drainés de la métropole. Pour cela, une chaîne de modélisation hydro-climatique a été utilisée pour simuler un ensemble de projections hydrologiques, allant des scénarios climatiques jusqu’à un panel de 17 indicateurs hydrologiques (HIs) spécifiques au drainage agricole. Un ensemble de 30 projections climatiques a été utilisé, réparties selon : (1) trois scénarios climatiques du type Radiative Concentration Pathways (RCPs) ; (2) six modèles de circulation générale (« General Circulation Models » en anglais, GCMs) ; (3) neuf modèles climatiques régionaux (« Regional Climate Models » en anglais, RCMs). Tout d’abord, les travaux ont porté sur l’analyse du modèle hydrologique de drainage SIDRA-RU (SImulation du DRAinage – Réserve Utile), développé pour s’adapter aux conditions pédoclimatiques françaises. Sur le site de La Jaillière jugé caractéristique du drainage français, le modèle SIDRA-RU a montré de très bonnes performances numériques et graphiques. L’analyse de la robustesse temporelle du modèle sur les 22 parcelles a montré que le modèle SIDRA-RU est temporellement robuste, bien qu’avec des performances légèrement plus faibles sur les sols argileux. Par conséquent, SIDRA-RU a été considéré comme fiable pour simuler les projections hydrologiques futures drainage agricole sur la métropole française. Ensuite, nous avons évalué l’impact de l’utilisation de projections climatiques sur la simulation des 17 HIs étudiés dans cette thèse, sur le site de La Jaillière. Les résultats ont montré que l’utilisation des projections climatiques pour forcer le modèle SIDRA-RU sur le temps futur ne généraient pas de biais significatifs sur les indicateurs hydrologiques. L’analyse de la propagation d’incertitude inhérente à la chaîne de modélisation hydro-climatique a révélé que les composantes climatiques (GCMs et RCMs) sont les deux principales sources d’incertitude
Artificially drained soils are soils showing temporary or permanent waterlogging issues generating a fast soil saturation during the wet season. This phenomenon limits natural soil drainage, i.e. the soil's ability to dry out, and often leads to flood events harmful to current crops. Agricultural drainage is a solution partially addressing the problem. This hydraulic technic stabilizes hydric conditions into the soil depth managing the soil water content and increasing its aeration to ensure better crop yields. In France, all artificially drained soils comprise more than 2.7 million ha of arable soils, i.e. close to 10% of all arable land. Consequently, the need for evaluating the evolution French drained soils is crucial, especially in an unstable future context affected by climate change where water resource management will become (has already become) a major environmental and societal issue. To our knowledge, such a study has not yet been carried out. The main purpose of the thesis was to assess as precisely as possible the future French drainage hydrology by 2100 on 22 drained plots reflecting the main pedoclimatic characteristics of the main drained areas of mainland France. A hydro-climatic modelling chain based on a multi-model ensemble approach was used to simulate a set of future hydrological projections from greenhouse gas emission scenarios to a group of 17 hydrological indicators describing the main characteristics of the drainage hydrology. The future climatic conditions were provided by 30 climate projections spread over: (1) three future climate scenarios based on Radiative Concentration Pathways (RCPs); (2) six General Circulation Models (GCMs); (3) nine Regional Climate Models (RCMs). First, the study focused on the analysis of the hydrological drainage model SIDRA-RU (“SImulation du DRAinage – Réserve Utile” in French), model developed to adapt to French pedoclimatic conditions. The SIDRA-RU model showed very good numerical and graphical performances of the La Jaillière site, which was deemed representative of the majority of French drained soils. Then, an analysis of the temporal robustness of the SIDRA-RU model on the 22 drained plots showed the model was temporally robust despite weaker performances on clayey soils. Consequently, the SIDRA-RU was deemed reliable to simulate future hydrological projections over mainland France. Second, we assessed the impact of using climate projections in the SIDRA-RU model on the simulation of the 17 hydrological indicators on the La Jaillière site. Results showed that using climate projections to force the SIDRA-RU model does not significantly bias the hydrological indicators. The uncertainty propagation analysis resulting from the hydro-climatic modelling chain revealed that the climate components, i.e. the GCMs and the RCMs, are the two main sources of uncertainty. Third, the 17 hydrological indicators were simulated on the 22 drained plots from the database to spatially assess the main effects of climate change on French drainage hydrology. Results showed that the expected changes become more important as time goes to 2100 and the future climate scenario is severe. Among the principal changes, there are: (1) intensification of the dry period exposing current crops to an increasing irrigation need; (2) intensification of flood events raising the question of the sustainability of the design of current drainage networks to protect current crops during the wet season. This regime change is common to all the 22 drained plots regardless of soil type or location. Agricultural water quality and agricultural practices in drained areas are also impacted, potentially prompting farmers and decision-makers to adapt their practices to farm productivity and protect the environment. Further analysis is required to detail these latter elements
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Nadembéga, Apollinaire. „Gestion des ressources dans les réseaux cellulaires sans fil“. Thèse, 2013. http://hdl.handle.net/1866/10520.

Der volle Inhalt der Quelle
Annotation:
L’émergence de nouvelles applications et de nouveaux services (tels que les applications multimédias, la voix-sur-IP, la télévision-sur-IP, la vidéo-sur-demande, etc.) et le besoin croissant de mobilité des utilisateurs entrainent une demande de bande passante de plus en plus croissante et une difficulté dans sa gestion dans les réseaux cellulaires sans fil (WCNs), causant une dégradation de la qualité de service. Ainsi, dans cette thèse, nous nous intéressons à la gestion des ressources, plus précisément à la bande passante, dans les WCNs. Dans une première partie de la thèse, nous nous concentrons sur la prédiction de la mobilité des utilisateurs des WCNs. Dans ce contexte, nous proposons un modèle de prédiction de la mobilité, relativement précis qui permet de prédire la destination finale ou intermédiaire et, par la suite, les chemins des utilisateurs mobiles vers leur destination prédite. Ce modèle se base sur : (a) les habitudes de l’utilisateur en terme de déplacements (filtrées selon le type de jour et le moment de la journée) ; (b) le déplacement courant de l’utilisateur ; (c) la connaissance de l’utilisateur ; (d) la direction vers une destination estimée ; et (e) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que ce modèle donne une précision largement meilleure aux approches existantes. Dans la deuxième partie de cette thèse, nous nous intéressons au contrôle d’admission et à la gestion de la bande passante dans les WCNs. En effet, nous proposons une approche de gestion de la bande passante comprenant : (1) une approche d’estimation du temps de transfert intercellulaire prenant en compte la densité de la zone de déplacement en terme d’utilisateurs, les caractéristiques de mobilité des utilisateurs et les feux tricolores ; (2) une approche d’estimation de la bande passante disponible à l’avance dans les cellules prenant en compte les exigences en bande passante et la durée de vie des sessions en cours ; et (3) une approche de réservation passive de bande passante dans les cellules qui seront visitées pour les sessions en cours et de contrôle d’admission des demandes de nouvelles sessions prenant en compte la mobilité des utilisateurs et le comportement des cellules. Les résultats de simulation indiquent que cette approche réduit largement les ruptures abruptes de sessions en cours, offre un taux de refus de nouvelles demandes de connexion acceptable et un taux élevé d’utilisation de la bande passante. Dans la troisième partie de la thèse, nous nous penchons sur la principale limite de la première et deuxième parties de la thèse, à savoir l’évolutivité (selon le nombre d’utilisateurs) et proposons une plateforme qui intègre des modèles de prédiction de mobilité avec des modèles de prédiction de la bande passante disponible. En effet, dans les deux parties précédentes de la thèse, les prédictions de la mobilité sont effectuées pour chaque utilisateur. Ainsi, pour rendre notre proposition de plateforme évolutive, nous proposons des modèles de prédiction de mobilité par groupe d’utilisateurs en nous basant sur : (a) les profils des utilisateurs (c’est-à-dire leur préférence en termes de caractéristiques de route) ; (b) l’état du trafic routier et le comportement des utilisateurs ; et (c) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que la plateforme proposée améliore la performance du réseau comparée aux plateformes existantes qui proposent des modèles de prédiction de la mobilité par groupe d’utilisateurs pour la réservation de bande passante.
The emergence of new applications and services (e.g., multimedia applications, voice over IP and IPTV) and the growing need for mobility of users cause more and more growth of bandwidth demand and a difficulty of its management in Wireless Cellular Networks (WCNs). In this thesis, we are interested in resources management, specifically the bandwidth, in WCNs. In the first part of the thesis, we study the user mobility prediction that is one of key to guarantee efficient management of available bandwidth. In this context, we propose a relatively accurate mobility prediction model that allows predicting final or intermediate destinations and subsequently mobility paths of mobile users to reach these predicted destinations. This model takes into account (a) user’s habits in terms of movements (filtered according to the type of day and the time of the day); (b) user's current movement; (c) user’s contextual knowledge; (d) direction from current location to estimated destination; and (e) spatial conceptual maps. Simulation results show that the proposed model provides good accuracy compared to existing models in the literature. In the second part of the thesis, we focus on call admission control and bandwidth management in WCNs. Indeed, we propose an efficient bandwidth utilization scheme that consists of three schemes: (1) handoff time estimation scheme that considers navigation zone density in term of users, users’ mobility characteristics and traffic light scheduling; (2) available bandwidth estimation scheme that estimates bandwidth available in the cells that considers required bandwidth and lifetime of ongoing sessions; and (3) passive bandwidth reservation scheme that passively reserves bandwidth in cells expected to be visited by ongoing sessions and call admission control scheme for new call requests that considers the behavior of an individual user and the behavior of cells. Simulation results show that the proposed scheme reduces considerably the handoff call dropping rate while maintaining acceptable new call blocking rate and provides high bandwidth utilization rate. In the third part of the thesis, we focus on the main limitation of the first and second part of the thesis which is the scalability (with the number of users) and propose a framework, together with schemes, that integrates mobility prediction models with bandwidth availability prediction models. Indeed, in the two first contributions of the thesis, mobility prediction schemes process individual user requests. Thus, to make the proposed framework scalable, we propose group-based mobility prediction schemes that predict mobility for a group of users (not only for a single user) based on users’ profiles (i.e., their preference in terms of road characteristics), state of road traffic and users behaviors on roads and spatial conceptual maps. Simulation results show that the proposed framework improves the network performance compared to existing schemes which propose aggregate mobility prediction bandwidth reservation models.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Loi, Zedda Maude. „Résistance au changement des directeurs d'établissement d'enseignement : relations avec leur sentiment d'efficacité personnelle lié au travail et leur leadership transformatif“. Thèse, 2020. http://depot-e.uqtr.ca/id/eprint/9309/1/eprint9309.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Janvier, Annie. „The moral difference between premature infants and neonates compared to older patients“. Thèse, 2007. http://hdl.handle.net/1866/6503.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie