Dissertationen zum Thema „Centre de données virtualisé“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Centre de données virtualisé.

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Centre de données virtualisé" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Tayachi, Zeineb. „Sûreté de fonctionnement et provisionnement éco-énergétique dans les centres de données virtualisés IaaS“. Electronic Thesis or Diss., Paris, CNAM, 2021. http://www.theses.fr/2021CNAM1292.

Der volle Inhalt der Quelle
Annotation:
Le Cloud computing offre aux utilisateurs l’opportunité d’exploiter des services qui peuvent être des infrastructures, des plateformes, des applications,... Ceci représente un gain de temps et d’argent considérable puisque l’utilisateur n’a besoin ni d’investir dans une infrastructure onéreuse, ni de gérer sa maintenance, de plus il paye juste les ressources utilisées. Afin de prendre en charge des applications à grande échelle et stocker de gros volumes de données, les centres de données ont été largement déployés par des fournisseurs cloud. Cependant, les études ont montré une mauvaise utilisation des ressources qui ne sont pas exploitées pleinement. Les technologies de virtualisation ont permis d’améliorer la situation en déployant des centres de données virtualisés. Ces derniers sont des centres de données où tout ou une partie du matériel (par exemple, serveurs, routeurs, commutateurs et liens) est virtualisé à l’aide d’un logiciel appelé hyperviseur qui divise l’équipement en plusieurs instances virtuelles isolées et indépendantes (comme des machines virtuelles). Toutefois les performances des équipements peuvent être atténuées à cause de plusieurs phénomènes tels que le vieillissement logiciel. L’objectif de cette thèse est d’évaluer les performances de deux composants clés dans les centres de données qui sont le serveur virtualisé et le commutateur virtuel. Puisque, l’architecture de ces systèmes est complexe, on a opté pour utiliser les formalismes de modélisation avant de mettre en place des solutions pratiques. Notre première contribution concerne la modélisation et l’évaluation de la performabilité d’un serveur virtualisé qui implémente une politique de gestion de l’énergie et utilise le rajeunissement logiciel comme une technique proactive afin de prévenir les aléas de vieillissement logiciel. Cette modélisation est basée sur une approche modulaire utilisant le SRN (Stochastic Reward Nets) qui décrit les différents états du SVS ainsi que les transitions régissant le passage d’un état à l’autre. L’analyse numérique permet de capturer l’impact de la variation de la charge de travail et le trafic en rafale sur les métriques de performabilité, ce qui permet de bien définir les paramètres du système. La seconde contribution porte sur l’évaluation des performances d’un commutateur virtuel qui détermine les performances du réseau puisqu’il établit la communication entre des VMs. Le modèle analytique proposé représente l’architecture interne de cenoeud critique avec plusieurs cartes d’interface réseau (représentant des ports) et plusieurs cœurs de processeur (CPU). Chaque CPU sert un ensemble de ports. Le modèle est basé sur les files d’attente avec serveur en vacance et des arrivées groupées. Les résultats numériques montrent l’impact de la taille du groupe et la politique d’acceptation sur les performances du commutateur. Ces résultats peuvent être intéressants lors du dimensionnement des ressources d’un commutateur virtuel
Cloud computing allows users to exploit services such as infrastructures, platforms, applications, ...This allows a considerable cost and time saving since users do not need buying and managing of equipment. Moreover, they just pay the resources used (pay-as-you go). With the increasing large-scale applications and the need to store huge quantities of data, data centers have been widely deployed. However, studies have shown the under utilization of resources. Therefore, Cloud providers resort to virtualization technologies that are adopted by data center architectures and virtualized data centres have been deployed. A Virtualized Data Center is a data center where some or all of the hardware (e.g, servers, routers, switches, and links) are virtualized by using software called hypervisor that divides the equipment into multiple isolated and independent virtual instances (e.g virtual machines (VMs)). However, equipment performance can be mitigated due to several phenomena such as software aging. In this thesis, we focus on performance evaluation of two components in the data centers which are the virtualized server and the virtual switch, by usingmodeling formalisms. The first contribution concerns performability modeling and analysis of server virtualized systems subject to software aging, software rejuvenation and implements an energy management policy. A modular approach based on SRNs is proposed to investigate dependencies between several server virtualized modules. Numerical analysis shows how workload with bursty nature impacts performability metrics. This can handle decision making related to rejuvenation scheduling algorithms and to select the suitable rejuvenation mechanism. The second contribution concerns virtual switch (VS) which is considered as key element in data center networks since it achieves the communication between virtual machines. An analytical queueing model with batch arrivals and server vacations is proposed to evaluate VS performance with several network interface cards and several CPU cores. Performance metrics are obtained as a function of two proposed batch acceptance strategies and mean batch size. Numerical results aremeaningful when sizing virtual switch resources
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Dumont, Frédéric. „Analyses et préconisations pour les centres de données virtualisés“. Thesis, Nantes, Ecole des Mines, 2016. http://www.theses.fr/2016EMNA0249/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente deux contributions. La première contribution consiste en l’étude des métriques de performance permettant de superviser l’activité des serveurs physiques et des machines virtuelles s’exécutant sur les hyperviseurs VMware et KVM. Cette étude met en avant les compteurs clés et propose des analyses avancées dans l’objectif de détecter ou prévenir d’anomalies liées aux quatreres sources principales d’un centre de données : le processeur, la mémoire, le disque et le réseau. La seconde contribution porte sur un outil pour la détection de machines virtuelles à comportements pré-déterminés et/ou atypiques. La détection de ces machines virtuelles à plusieurs objectifs. Le premier, permettre d’optimiser l’utilisation des ressources matérielles en libérant des ressources par la suppression de machines virtuelles inutiles ou en les redimensionnant. Le second, optimiser le fonctionnement de l’infrastructure en détectant les machines sous-dimensionnées, surchargées ou ayant une activité différente des autres machines virtuelles de l’infrastructure
This thesis presents two contributions. The first contribution is the study of key performance indicators to monitor physical and virtual machines activity running on VMware and KVM hypervisors. This study highlights performance metrics and provides advanced analysis with the aim to prevent or detect abnormalities related to the four main resources of a datacenter: CPU, memory, disk and network. Thesecond contribution relates to a tool for virtual machines with pre-determined and / or atypical behaviors detection. The detection of these virtual machines has several objectives. First, optimize the use of hardware resources by freeing up resources by removing unnecessary virtual machines or by resizing those oversized. Second, optimize infrastructure performance by detecting undersized or overworked virtual machines and those having an atypical activity
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Gogunska, Karyna. „Étude du coût de mesure des réseaux virtualisés“. Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4077.

Der volle Inhalt der Quelle
Annotation:
La tendance actuelle dans le développement et le déploiement d’applications consiste à les embarquer dans des machines virtuelles ou des conteneurs. Il en résulte une combinaison de configurations de réseaux physiques et virtuels combinant des commutateurs virtuels et physiques avec des protocoles spécifiques pour créer des réseaux virtuels s'étendant sur plusieurs serveurs. Ce nouvel environnement constitue un défi lorsqu'il s'agit de mesurer et de debuguer les problèmes liés aux performances. Dans cette thèse, nous examinons le problème de la mesure du trafic dans un environnement virtuel et nous nous concentrons sur un scénario typique : des machines virtuelles interconnectées par un commutateur virtuel. Nous avons étudié le coût de la mesure en continu du trafic réseau des machines. Plus précisément, nous avons évalué le cout du partage du substrat physique entre la tâche de mesure et l’application. Nous avons dans un premier confirmé l'existence d'une corrélation négative entre la mesure et le trafic applicatif. Dans une seconde partie de la thèse, nous avons orienté notre travail vers une minimisation de l'impact des mesures en utilisant des techniques d'apprentissage automatiques en temps réel. Nous avons proposé une solution basée sur les données, capable de fournir des paramètres de surveillance optimaux pour les mesures de réseau virtuel avec un minimum d'interférence pour le trafic applicatif
The current trend in application development and deployment is to package applications within containers or virtual machines. This results in a blend of virtual and physical resources with complex network setups mixing virtual and physical switches along with specific protocols to build virtual networks spanning over several servers. While this complexity is hidden by cloud management solutions, this new environment constitutes a challenge when it comes to monitor and debug performance related issues. In this thesis, we consider the problem of measuring traffic in a virtualized environment and focus on one typical scenario, virtual machines interconnected with a virtual switch. We assess the cost of continuously measuring the network traffic of the machines. Specifically, we seek to estimate the competition that exists to access the resources (e.g., CPU) of the physical substrate between the measurement task and the application. We confirm the negative correlation of measurement within such setup and propose actions towards its minimization. Concluding on the measurement interference with virtual network, we then turn our work towards minimizing its presence in the network. We assess the capability of machine learning techniques to predict the measurement impact on the ongoing traffic between virtual machines. We propose a data-driven solution that is able to provide optimal monitoring parameters for virtual network measurements with minimum traffic interference
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Le, Louët Guillaume. „Maîtrise énergétique des centres de données virtualisés : D'un scénario de charge à l'optimisation du placement des calculs“. Phd thesis, Ecole des Mines de Nantes, 2014. http://tel.archives-ouvertes.fr/tel-01044650.

Der volle Inhalt der Quelle
Annotation:
Cette thèse se place dans le contexte de l'hébergement de services informatiques virtualisés et apporte deux contributions. Elle propose premièrement un système d'aide à la gestion modulaire, déplaçant les machines virtuelles du centre pour le maintenir dans un état satisfaisant. Ce système permet en particulier d'intégrer la notion de consommation électrique des serveurs ainsi que des règles propres à cette consommation. Sa modularité permet de plus l'adaptation de ses composants à des problèmes de grande taille. Cette thèse propose de plus un outil pour comparer différents gestionnaires de centres virtualisés. Cet outil injecte un scénario de montée en charge reproductible dans une infrastructure virtualisée. L'injection d'un tel scénario permet d'évaluer les performances du système de gestion du centre grâce à des sondes spécifiques. Le langage utilisé pour cette injection est extensible et permet l'utilisation de scénarios paramétrés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Cerović, Danilo. „Architecture réseau résiliente et hautement performante pour les datacenters virtualisés“. Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS478.

Der volle Inhalt der Quelle
Annotation:
Le volume de trafic échangé dans les centres de données croît de façon exponentielle et tout nous porte à croire que cette tendance devrait continuer dans un avenir proche. Afin de suivre cette augmentation, de nombreux progrès dans le domaine des réseaux ont été effectués : les débits des interfaces réseau modernes atteignent aujourd’hui des vitesses supérieures à 40Gbps. Néanmoins, l’exploitation de ces interfaces à haut débit est limitée par l'architecture des piles réseau génériques qui sont incapables de traiter les paquets reçus à une vitesse suffisamment rapide. De nombreuses solutions matérielles et logicielles sont donc récemment apparues afin d'augmenter la vitesse de traitement des paquets. Dans cette thèse, nous étudierons différentes approches, reposant sur l’utilisation de logiciel, de matériel ou d’une combinaison des deux, afin d’améliorer les performances de la partie traitement de paquets réseau sur des hôtes de type serveur. Certaines solutions étudiées sont basées sur le routeur modulaire Click qui utilise, pour exécuter ses fonctions réseau, différents types de matériel (GPU, les FPGA, exécution en parallèle sur de multiples cœurs). Nous explorerons également des solutions logicielles alternatives à Click. Nous comparerons les solutions logicielles et matérielles de traitement de paquets en fonction de différents critères et discuterons de leurs contraintes et de leurs exigences ainsi que de leurs possibilités d'intégration dans des environnements virtualisés. Comme première contribution, nous proposons une architecture de réseau « fabric » résiliente et hautement performante. Notre objectif est de construire un réseau maillé de niveau 2 utilisant uniquement des cartes d'accélération matérielle qui effectuent le traitement des paquets en place des routeurs et des commutateurs. Nous avons décidé d'utiliser, pour la communication entre ces cartes réseau intelligentes, le protocole TRILL qui permet d’avoir une meilleure utilisation des liens réseau tout en assurant un transfert de données au moindre coût entre les hôtes. Le traitement des paquets du plan de données est déchargé sur une carte réseau programmable qui effectue le traitement en parallèle. De plus, nous proposons d'utiliser l'API ODP afin que le code de l'application de traitement de paquets puisse être réutilisé par toute autre solution prenant en charge ladite l'API. Notre deuxième contribution consiste à l’implémentation d’un plan de données du protocole TRILL sur la carte réseau intelligente MPPA (Massively Parallel Processor Array) prenant en charge l’API ODP. Nos résultats expérimentaux montrent que nous pouvons traiter les trames TRILL à un débit de ligne en full-duplex (jusqu'à 40Gbps) pour différentes tailles de paquets tout en réduisant le temps de latence. Comme troisième contribution, nous proposons une analyse mathématique de l'impact des différentes topologies de réseau sur la charge du plan de contrôle. Nous avons examiné diverses topologies de réseau et comparé leurs charges induites par le trafic de contrôle. Nous avons également montré que la topologie hypercube était celle qui convenait le mieux à notre cas d'utilisation de centre de données PoP, car elle n'avait pas une charge de plan de contrôle élevée et avait une meilleure résilience que la topologie fat-tree tout en ayant une distance moyenne plus courte entre les nœuds
The amount of traffic in data centers is growing exponentially and it is not expected to stop growing any time soon. This brings about a vast amount of advancements in the networking field. Network interface throughputs supported today are in the range of 40Gbps and higher. On the other hand, such high interface throughputs do not guarantee higher packet processing speeds which are limited due to the overheads imposed by the architecture of the network stack. Nevertheless, there is a great need for a speedup in the forwarding engine, which is the most important part of a high-speed router. For this reason, many software-based and hardware-based solutions have emerged recently with a goal of increasing packet processing speeds. The networking stack of an operating system is not conceived for high-speed networking applications but rather for general purpose communications. In this thesis, we investigate various approaches that strive to improve packet processing performance on server-class network hosts, either by using software, hardware, or the combination of the two. Some of the solutions are based on the Click modular router which offloads its functions on different types of hardware like GPUs, FPGAs or different cores among different servers with parallel execution. Furthermore, we explore other software solutions which are not based on the Click modular router. We compare software and hardware packet processing solutions based on different criteria and we discuss their integration possibilities in virtualized environments, their constraints and their requirements. As our first contribution, we propose a resilient and highly performant fabric network architecture. Our goal is to build a layer 2 mesh network that only uses directly connected hardware acceleration cards that perform packet processing instead of routers and switches. We have decided to use the TRILL protocol for the communication between these smart NICs as it provides a better utilization of network links while also providing least-cost pair-wise data forwarding. The data plane packet processing is offloaded on a programmable hardware with parallel processing capability. Additionally, we propose to use the ODP API so that packet processing application code can be reused by any other packet processing solution that supports the ODP API. As our second contribution, we designed a data plane of the TRILL protocol on theMPPA (Massively Parallel Processor Array) smart NIC which supports the ODP API. Our experimental results show that we can process TRILL frames at full-duplex line-rate (up to 40Gbps) for different packet sizes while reducing latency. As our third contribution, we provide a mathematical analysis of the impact of different network topologies on the control plane’s load. The data plane packet processing is performed on the MPPA smart NICs. Our goal is to build a layer 2 mesh network that only uses directly connected smart NIC cards instead of routers and switches. We have considered various network topologies and we compared their loads induced by the control plane traffic. We have also shown that hypercube topology is the most suitable for our PoP data center use case because it does not have a high control plane load and it has a better resilience than fat-tree while having a shorter average distance between the nodes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Moussa, Hadjer. „Traitement automatique de données océanographiques pour l'interpolation de la ∫CO₂ de surface dans l'océan Atlantique tropical, en utilisant les données satellitaires“. Thesis, Perpignan, 2016. http://www.theses.fr/2016PERP0025/document.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse consiste à utiliser les données satellitaires de SST (température de surface), SSS (salinité de surface), et Chl-a (chlorophylle-a), pour l’interpolation de la fugacité du CO2 (fCO2) dans la couche de surface de l’océan Atlantique tropical, pour les saisons de la période 2002-2013. Trois types de données ont été utilisés : in situ (BD (base de données) SOCAT V.3) ; satellitaires (capteurs : MODIS-A, Sea-WIFS, et SMOS) ; et assimilées (BD SODA V.2.2.4). La première étape était la classification des données en se basant sur la SST. La deuxième étape était l’interpolation de la fCO2 (pour chaque classe de chaque saison), en utilisant des RNs (réseaux de neurones artificiels) de type feedforward, avec un apprentissage de type backpropagation. Les résultats obtenus (RMSEs (root mean square error) variant de 8,8 à 15,7 µatm) permettent de confirmer l’importance de : traiter les saisons séparément, classifier les données, et choisir le meilleur RN en fonction des résultats de la généralisation. Ceci a permis l’élaboration de 138 fichiers CSV (Comma-separated values) de fCO2 mensuelle, avec une résolution de 4 km x 4 km, pour la période allant de juillet 2002 à décembre 2013
This thesis work consists of using satellite data of SST (sea surface temperature), SSS (sea surface salinity), and Chl-a (chlorophyll-a), in order to interpolate the CO2 fugacity (fCO2) in the surface of the tropical Atlantic ocean, for seasons of the period 2002-2013. Three data types were used: in situ (SOCAT V.3 DB (database)); satellite (MODIS-A, Sea-WIFS, and SMOS sensors); and assimilated (SODA V.2.2.4 DB). The first step was the data classification based on SST. The second step was the fCO2 interpolation (for each class of each season), using feedforward NNs (artificial neural networks) with a backpropagation learning method. Obtained results (RMSEs (root mean square error) between 8,8 and 15,7 µatm) confirm the importance of: process each season separately, pass through data classification step, and choose the best NN on the basis of generalization step results. This allowed the development of 138 monthly fCO2 CSV (Comma-separated values) file, with 4 km x 4 km spatial resolution, for the period from July 2002 to December 2013
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Hamadache, Clarisse. „Recherche d'effets de microlentille gravitationnelle vers le centre galactique avec les données d'EROS-II“. Phd thesis, Université Louis Pasteur - Strasbourg I, 2004. http://tel.archives-ouvertes.fr/tel-00008874.

Der volle Inhalt der Quelle
Annotation:
La recherche systématique d'effets de microlentille gravitationnelle vers le centre galactique permet de sonder la structure galactique. Le travail de thèse présenté ici concerne l'analyse des données collectées vers le centre galactique par l'expérience Eros2 pendant toute sa durée (1996-2003) : 66 degrés carrés du ciel situés de part et d'autre du plan galactique étaient surveillés. Les courbes de lumière d'environ 50 millions d'étoiles ont pu être construites dans deux filtres. Les effets de microlentille gravitationnelle d'une durée comprise entre 4 jours et 500 jours et dont l'amplification maximum est supérieure à 2,18 ont été recherchés ; ceci permet de sélectionner des candidats convaincants et constitue une originalité par rapport aux analyses précédentes (Eros2 et concurrents) où l'on considérait une amplification maximum supérieure à 1,34. L'analyse a révélé 139 candidats de microlentille gravitationnelle. Pour calculer la profondeur optique, l'échantillon d'étoiles sources a été restreint aux étoiles situées autour de l'amas des étoiles géantes rouges dans le diagramme couleur magnitude. Ce sous-échantillon constitué de 5,57.10e6 étoiles présente 91 candidats parmi les 139 avec une efficacité moyenne de détection de 56%. La profondeur optique correspondante est de (1,79+/-0,20).10e-6, elle est compatible avec les valeurs attendues par les modèles galactiques. Ce résultat est en accord avec le dernier résultat du groupe Macho mais est plus bas que celui des expériences concurrentes Ogle et Moa qui donnent une profondeur optique 2 à 3 fois plus grande que celle prédite par les modèles. Par ailleurs, la grande statistique des données Eros2 collectées vers le centre galactique a permis de calculer la profondeur optique pour différentes latitudes galactiques, mettant ainsi en évidence le gradient de profondeur optique attendu du fait de la diminution de la densité d'objets compacts avec la distance au plan galactique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Dumas, feris Barbara Pilar. „Réseaux optiques en mode paquet pour les connexions internes à un centre de données“. Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0057/document.

Der volle Inhalt der Quelle
Annotation:
La consommation d'énergie des centres de données est un enjeu majeur. Leurs communications internes représentent près du quart de cette consommation. Les technologies de commutation optique ont en principe une meilleure efficacité énergétique que les solutions actuelles. Ce travail porte sur les réseaux optiques en mode paquet pour des centres de données de petite et moyenne taille. Il s'est déroulé dans le cadre du projet EPOC (Energy Proportional and Opportunistic Computing) qui s'intéresse à la réduction de la consommation d'énergie d'un centre de données alimenté partiellement par des sources renouvelables. Une hypothèse clé est l'absence d'un réseau de stockage dédié réduisant ainsi la consommation des interconnexions. Par contre, afin de pouvoir éteindre certains serveurs selon la charge de travail et l'énergie disponible, le débit doit être de l'ordre de 100 Gbit/s. Après un état de l'art des réseaux optiques pour centre de données nous choisissons une solution reposant sur une infrastructure entièrement passive et des émetteurs rapidement accordables en longueur d'onde, proposée récemment dans la littérature (POPI).Nous étudions les limitations dues aux composants (pertes d'insertion, plage d'accord et espacement des canaux). Nous proposons une extension (E-POPI) qui permet d'augmenter le nombre de serveurs connectés en utilisant plusieurs plages de longueurs d'onde. Pour les centres de données de plus grande taille nous proposons un réseau à deux étages (intra- et inter-racks) opérant respectivement dans les bandes C et L, POPI+. La connexion entre étages se fait via une passerelle transparente dans un sens et opaque dans l'autre. Différentes solutions de contrôle des deux étages sont détaillées.Un des éléments essentiels de faisabilité de ces architectures est de concilier la montée en débit avec les pertes du réseau passif d'interconnexion. Les techniques cohérentes des transmissions longue distance ne sont pas actuellement envisageables pour un centre de données. Nous avons donc étudié les formats PAM 4 et 8, par simulation avec différents débits (jusqu'à 112 Gbit/s et récepteurs (PIN, APD et SOA-PIN) et aussi, expérimentalement, à 12 et 18 Gbit/s. Nous avons développé une méthode de compensation des distorsions générées par les différents composants qui procure un compromis entre précision de correction et temps de calcul.Ces résultats nous permettent de déterminer les pertes d'insertion tolérables. Nous les combinons avec les limitations liées à la plage d'accord des émetteurs et à l'encombrement spectral des canaux occupant des fenêtres multiples de 12,5 GHz pour dimensionner les différentes architectures. Les réseaux POPI, E-POPI et POPI+ permettent respectivement la connexion de 48, 99 et 2352 entités à 112 Gbit/s. Nos évaluations tiennent compte d'une possible dispersion des caractéristiques des principaux composants
Data-center energy consumption is nowadays a major issue. Intra-data-center networking accounts almost for a quarter of the data-center total power consumption. Optical switching technologies could provide higher power efficiency than current solutions based on electrical-packet switching. This work focuses on optical-packet-switched networks for small- and medium-size data centers. It takes part of the EPOC (Energy-Proportional and Opportunistic Computing) project, which main interest consists on reducing the overall power consumption of a data center partially powered by renewable sources. A key assumption is that our data center does not rely on a dedicated storage network, in order to reduce the consumption of those interconnections. In addition, with the aim of being able to turn off some servers according to the workload and the available energy, the bit rate must be close to 100 Gbit/s. We have chosen, after studying the state of the art of data-center interconnects, a purely passive network architecture based on fast-wavelength-tunable transmitters under the name of POPI.We study POPI's limitations due to its components (insertion loss, tuning range and channel spacing). We then propose an extension called E-POPI that allows to increase the number of connected servers by using several transmission bands. For larger data centers, we propose POPI+, a two-stage infrastructure for intra- and inter-rack communications operating in the C and L bands, respectively. The connection between both stages is done via a transparent gateway in one direction and an opaque one in the other. We discuss different control solutions for both stages.The feasibility of these architectures depends on, among other factors, dealing with bit-rate increasing and power losses of a passive interconnect. Coherent long-distance-transmission techniques are not currently suited to data centers. We therefore studied PAM 4 and 8 modulation formats with direct detection. On one hand, by simulation, with different bit rates (up to 112 Gbit/s) and receivers (PIN, APD and SOA-PIN) and, on the other hand, experimentally, at 12 and 18 Gbit/s. We have developed a method for compensating the distortions generated by the different network components. Our method takes into account a good tradeoff between correction accuracy and computation time.Simulation results allow us to determine the amount of insertion loss that may be supported. We then combine these results with the limitations of transmitters-tuning range and channel spacing using multiple of 12.5 GHz slots for dimensioning the proposed architectures. POPI, E-POPI and POPI+ interconnects allow the connection of 48, 99 and 2352 entities, respectively, at 112 Gbit/s. Our assessments take into account a potential dispersion of the characteristics of the main architecture components
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Hamadache, Clarisse. „Recherches d'effets de microlentille gravitationnelle vers le centre galactique avec les données d'Eros II“. Université Louis Pasteur (Strasbourg) (1971-2008), 2004. https://publication-theses.unistra.fr/public/theses_doctorat/2004/HAMADACHE_Clarisse_2004.pdf.

Der volle Inhalt der Quelle
Annotation:
La recherche systématique d'effets de microlentille gravitationnelle vers le centre galactique permet de sonder la structure galactique. Le travail de thèse présenté ici concerne l'analyse des données collectées vers le centre galactique par l'expérience Eros2 pendant toute sa durée (1996-2003) : 66 degrés carrés du ciel situés de part et d'autre du plan galactique étaient surveillés. Les courbes de lumière d'environ 50 millions d'étoiles ont pu être construites dans deux filtres. Les effets de microlentille gravitationnelle d'une durée comprise entre 4 jours et 500 jours et dont l'amplification maximum est supérieure à 2,18 ont été recherchés ; ceci permet de sélectionner des candidats convaincants et constitue une originalité par rapport aux analyses précédentes (Eros2 et concurrents) où l'on considérait une amplification maximum supérieure à 1,34. L'analyse a révélé 139 candidats de microlentille gravitationnelle. Pour calculer la profondeur optique, l'échantillon d'étoiles sources a été restreint aux étoiles situées autour de l'amas des étoiles géantes rouges dans le diagramme couleur magnitude. Ce sous-échantillon constitué de 5,57. 10e6 étoiles présente 91 candidats parmi les 139 avec une efficacité moyenne de détection de 56%. La profondeur optique correspondante est de (1,79 +/- 0,20). 10e-6, elle est compatible avec les valeurs attendues par les modèles galactiques. Ce résultat est en accord avec le dernier résultat du groupe Macho mais est plus bas que celui des expériences concurrentes Ogle et Moa qui donnent une profondeur optique 2 à 3 fois plus grande que celle prédite par les modèles. Par ailleurs, la grande statistique des données Eros2 collectées vers le centre galactique a permis de calculer la profondeur optique pour différentes latitudes galactiques, mettant ainsi en évidence le gradient de profondeur optique attendu du fait de la diminution de la densité d'objets compacts avec la distance au plan galactique
The systematic search for gravitational microlensing effect towards the galactic center makes it possible to probe the galactic structure. The thesis work presented here concerns the analysis of all galactic center data collected by the Eros2 experiment during 7 years (1996-2003) : the survey of 66 square degrees located on both sides of the galactic plane has allowed to build the lightcurves of approximately 50 million stars in two filters. Gravitational microlensing events with a duration ranging between 4 days and 500 days and whose maximum magnification is higher than 2. 18 were required ; this makes it possible to select convincing candidates and constitutes an originality compared to the previous analyses (Eros2 and other experiment) where maximum magnification was required to be higher than 1. 34. The analysis revealed 139 microlensing candidates. This sample contains 91 candidates whose source is a clump red giant star with an associated detection efficiency of 56%. The optical depth obtained for the clump red giant sources is (1,79 +/- 0,20). 10e-6. This value is in good agreement with predicted values as well as with the latest result of the Macho group but it is lower than the Ogle and Moa group results which are 2 to 3 times higher than the predicted one. In addition, the large statistics of galactic center data collected by Eros2 made it possible to calculate the optical depth for various galactic latitudes, and to detect the gradient of optical depth expected in galactic models
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Kaced, Yazid. „Études du refroidissement par free cooling indirect d’un bâtiment exothermique : application au centre de données“. Thesis, Lorient, 2018. http://www.theses.fr/2018LORIS499/document.

Der volle Inhalt der Quelle
Annotation:
Un centre de données est un site comportant des salles hébergeant un grand nombre d’équipements informatiques. Le fonctionnement de ces équipements informatiques induit des apports de chaleur très conséquents qui doivent être compensés par des systèmes de refroidissement. En effet, les normes imposent des plages restreintes de température et d’humidité dans les salles qui induisent de fortes consommations d’énergie. Il est donc nécessaire de développer et d’optimiser des solutions moins énergivores. Le refroidissement par free cooling consiste à refroidir les équipements en exploitant les conditions climatiques favorables. Les travaux réalisés durant cette thèse s’appuient sur une expérimentation menée dans des conditions climatiques réelles au sein d’un bâtiment. Il s’agit d’étudier le refroidissement de baies informatiques. Pour mettre en place un refroidissement par « free cooling » indirect, la configuration du bâtiment a été modifiée au cours de la thèse et une instrumentation conséquente mise en place. Les objectifs sont de déterminer à partir de séquences de mesures des coefficients de performance, de développer et de valider un modèle numérique destiné à la prédiction du comportement thermo-aéraulique en usage de ce type de solution. Dans un premier temps, des expériences sont menées avec une puissance dissipée à l’intérieur du bâtiment et un refroidissement assuré uniquement par une circulation de l’air extérieur au sein de trois parois. Des modifications ont ensuite été apportées au sein du bâtiment. Une circulation d’air en circuit fermé a été créée à l’intérieure afin de refroidir les baies par un flux d’air traversant. Afin de disposer d’une base de données probante, de nombreuses séquences de mesures avec une ou plusieurs baies sont réalisées dans différentes conditions. La variation des paramètres opératoires permet de bien appréhender le fonctionnement de l’installation et définir les paramètres d’optimisation énergétique. Les modèles numériques sont développés par le biais de TRNSYS / TRNFLOW. La confrontation des simulations à des mesures montre la pertinence de la démarche mise en œuvre
A data center is a warehouse that contains telecommunication equipment, network infrastructure, servers, and computers. This equipment leads to a very high heat dissipation which must be compensated by the use of cooling systems. Telecommunication standards impose restricted climatic ranges (temperatures and humidity) leading to a very high energy consumption devote to air conditioning. The reduction of this energy consumption constitutes a real challenge which should be raised and solved. Many cooling solutions are proposed as the free cooling solution, which consists in cooling equipment by using external air in propitious climatic conditions. The work carried out during this thesis is based on experiments conducted within a building in real climatic conditions in order to study the cooling of telecom cabinets. During this study, the building configuration was modified, an indirect "free cooling" system was set up and a significant instrumentation was implemented. The objectives are to establish performance factors issued from measurements, to develop and to validate a numerical model in order to predict the thermoaeraulic behavior for this type of solution. Initially, experiments are carried out with a power dissipated inside the building and a cooling provided only by an outside air circulation. Then, significant modifications were made into the building to introduce an internal air circulation in a closed loop in order to evacuate the heat dissipated inside cabinets by a crossing airflow. In order to get a convincing database, measurements were conducted by using one and then several cabinets in different conditions. Modifications are made to operating parameters in order to better understand the installation operation and to define the energy optimization parameters. Numerical models are developed through TRNSYS / TRNFLOW. The confrontation of simulations with measurements shows the implemented approach relevance
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Ali, Muhammad. „Stockage de données codées et allocation de tâches pour les centres de données à faible consommation d'énergie“. Electronic Thesis or Diss., CY Cergy Paris Université, 2023. http://www.theses.fr/2023CYUN1243.

Der volle Inhalt der Quelle
Annotation:
Les centres de données sont responsables d'une part importante de la consommation mondiale d'énergie. Cette consommation devrait augmenter dans les années à venir, en raison de la demande croissante de services pour les centres de données. Par conséquent, le besoin d'opérations de centres de données efficaces sur le plan énergétique et à faible émission de carbone augmente rapidement.Cette recherche se concentre sur la conception et la mise en œuvre d'un centre de données à faible émission de carbone et à haut rendement énergétique, alimenté par l'énergie solaire et l'hydrogène, ce qui lui confère une indépendance par rapport au réseau électrique. En conséquence, le centre de données est limité par la limite supérieure de la consommation d'énergie, qui est de 10KWh. La contrainte d'utilisation maximale de l'énergie impose plusieurs défis à la conception, à l'utilisation de l'énergie et à la durabilité du centre de données.Ce travail contribue tout d'abord à la conception d'un centre de données à faible consommation d'énergie tout en respectant la contrainte énergétique globale. Nous avons essayé d'économiser l'énergie du centre de données par un choix judicieux du matériel tout en conservant les performances du centre de données. La deuxième contribution de notre travail fournit des protocoles précieux tels que la réparation paresseuse dans le stockage distribué des données, le placement des tâches et les techniques de gestion de l'énergie pour réduire davantage la consommation d'énergie du centre de données. Grâce aux efforts combinés du bon choix de matériel, de protocoles et de techniques, nous avons réduit de manière significative la consommation d'énergie globale du centre de données
Data centers are responsible for a significant portion of global energy consumption. This consumption is expected to grow in the coming years, driven by the increasing demand for data center services. Therefore, the need for energy-efficient, low-carbon data center operations is growing rapidly.This research focuses on designing and implementing a low-carbon, energy-efficient data center powered by solar and hydrogen, granting it independence from the power grid. As a result, the data center is limited by the upper bound on the energy consumption, which is 10KWh. The maximum usage of energy-constraint imposes several challenges to the design, energy usage, and sustainability of the data center.The work first contributes to designing a low-power budget data center while respecting the overall energy constraint. We tried to save the energy usage of the data center through the right choice of hardware while keeping the performance of the data center intact. The second contribution of our work provides valuable protocols like lazy repair in distributed data storage, job placement, and power management techniques to further reduce the data center's energy usage. With the combined efforts of the right choice of hardware, protocols, and techniques, we significantly reduced the overall energy consumption of the data center
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Marchadier, Elodie Sylviane Germaine. „Etude fonctionnelle d'un centre d'interactions protéiques chez Bacillus subtilis par une approche intégrée“. Paris 11, 2009. http://www.theses.fr/2009PA112047.

Der volle Inhalt der Quelle
Annotation:
Le protéome qui est l’ensemble des protéines exprimées par un génome, est organisé en réseaux structurés d’interactions protéiques : l’interactome. Dans ces réseaux d’interactions, la plupart des protéines ont un petit nombre d’interactions alors que quelques protéines, appelées centres d’interactions ou hubs, ont un grand nombre de connexions. Cette thèse s’est concentrée sur une question biologique importante : comprendre la fonction biologique d’un cluster de hubs (CoH), découvert chez Bacillus subtilis, et qui se situe à l’interface de plusieurs processus cellulaires essentiels : la réplication de l’ADN, la division cellulaire, la ségrégation des chromosomes, la réponse au stress et la biogenèse de la paroi bactérienne. Les partenaires des protéines du cluster de hub ont tout d’abord été identifiés par la technique du double-hybride en levure, ce qui a permis de le définir de façon rigoureuse au sein d’un réseau composé de 287 protéines connectées par 787 interactions spécifiques. Ce réseau place de nombreuses protéines dans un contexte nouveau, facilitant ainsi l’analyse fonctionnelle des protéines individuelles et des liens entre les grands processus cellulaires. Après avoir réalisé une analyse du contexte génomique des gènes codant pour les protéines du CoH, une démarche de biologie intégrative a été amorcée en analysant des données transcriptomiques hétérogènes disponibles dans des bases de données publiques. L'analyse statistique de ces données a permis d’identifier des groupes de gènes co-régulés avec les gènes du CoH. En première approche, l’analyse des corrélations entre l’expression des gènes à travers diverses conditions a été menée sur la base de l’utilisation classique de la statistique telle que la classification non supervisée. Cette première analyse, nous a permis d'associer certains gènes du hub à des groupes fonctionnels, de valider et d'identifier des régulons. Elle nous a aussi permis de mettre en évidence les limites d’une telle approche et la nécessité de recourir à des méthodes permettant d’identifier les conditions dans lesquelles les gènes sont co-régulés. A cette fin, nous avons (i) généré des données transcriptomiques visant à favoriser l’expression différentielle des gènes codant pour les protéines du CoH et (ii) utilisé des méthodes de bi-clustering, qui permettent d’identifier des groupes de gènes co-exprimés dans un ensemble significatif de conditions. Ceci nous a conduit à identifier des associations d’expression spécifiques de certaines conditions parmi les gènes du CoH. Il nous a donc été possible de combiner deux approches : l'étude du transcriptome et celle de l'interactome, l'une comme l'autre ont été menées de façon systématique à l'échelle du génome complet. L'intégration de ces deux types de données nous permet d'éclairer le contexte fonctionnel de certains gènes de notre étude et d'émettre des hypothèses quant à la nature des interactions entre protéines du cluster de hub. Celui-ci apparaît finalement composé de quelques groupes de protéines co-exprimées (party hubs) capables d’interagir entre eux et avec les autres protéines du CoH exprimées de façon non corrélée (date hubs). Le CoH pourrait donc former un vaste groupe de date hubs dont la fonction pourrait être d’assurer la connexion entre processus cellulaires essentiels quelque soient les conditions environnementales auxquelles B. Subtilis pourrait être exposé. La génération et le traitement d'un tel jeu de données répond à des enjeux scientifiques majeurs, nécessitant la mobilisation des compétences, des connaissances, et des outils pour accéder à une compréhension plus globale du fonctionnement des organismes vivants. Le jeu de données constitué peut être utilisé pour mettre en œuvre d’autres méthodes statistiques ou informatiques. Tout cela nous permettra de disposer de méthodes permettant in fine d’extraire des informations de grands jeux de données en cours de production, ce qui constitue un enjeu majeur de la biologie intégrative
The entire complement of proteins expressed by a genome forms the proteome. The proteome is organized in structured networks of protein interactions: the interactome. In these networks, most of the proteins have few interactions whereas a few proteins have many connections: these proteins are called centres of interactions or hubs. This thesis focused on an important biological question: understanding the biological function of a cluster of hubs (CoH), discovered in Bacillus subtilis, and which is located at the interface of several essential cellular processes: DNA replication, cell division, chromosome segregation, stress response and biogenesis of the bacterial cell wall. The partners of the protein of the cluster of hubs were first identified by the technique of two-hybrid in yeast, which helped us to define it rigorously in a network composed of 287 proteins connected by 787 interactions. This network shows many proteins in a new context, thereby facilitate functional analysis of individual proteins and links between the major cellular processes. After conducting a study of the genomic context of genes of the CoH, an integrative biology approach has been initiated by analyzing heterogeneous transcriptome data available in public databases. Statistical analysis of these data identified groups of genes co-regulated with the genes of the cluster of hubs. At first, the analysis of correlations between the expression of genes across various conditions has been performed on the basis of classical statistics such as the unsupervised classification. This first analysis allowed us to associate genes in the CoH to functional groups, to validate and to identify regulons. It also enabled us to highlight the limitations of this approach and the need to resort to methods allowing identification of the conditions in which genes are co-regulated. To this end, we have (i) generated transcriptome data to promote the differential expression of genes coding for proteins CoH and (ii) used bi-clustering methods, to identify groups of genes co -expressed in a wide range of conditions. This led us to identify associations of expression in specific conditions among the genes of the CoH. Therefore, it has been possible to combine two approaches: the study of the transcriptome and the interactome, both of them were conducted in a systematic manner in the whole genome. The integration of these two kinds of data allowed us to clarify the functional context of genes of interest and to make assumptions about the nature of interactions between proteins cluster hub. It appears finally composed of a few groups of co-expressed proteins (party hubs) which can interact together and other proteins expressed in an uncorrelated manner (date hubs). The CoH could form a large group of date hubs whose function could be to ensure the connection between basic cellular processes, whatever the environmental conditions B. Subtilis could be exposed. Generation and processing of such a data set is a major scientific challenge, it require the mobilization of skills, knowledge, and tools to access to a better understanding of living organisms. The constituted data set may be used to implement other statistical methods. All of this will provide methods to ultimately extract information from large data sets which are currently produced. This is the major issue of integrative biology
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Jagueneau, Liliane. „Structuration de l'espace linguistique entre Loire et Gironde : analyse dialectométrique des données phonétiques de l'"Atlas linguistique et ethnographique de l'Ouest"“. Toulouse 2, 1987. http://www.theses.fr/1987TOU20082.

Der volle Inhalt der Quelle
Annotation:
Cette etude porte sur la structuration geolinguistique des traits phonetiques entre loire et gironde, dans le "centre-ouest" (vendee, deux-sevres, vienne, charente-maritime, charente, et points limitrophes), zone-limite entre les langues du nord et du sud de la france ("oil" et "oc"). Elle presente d'abord la description phonetique de cette zone, a partir de l'atlas linguistique et ethnographique de l'ouest (b. Horiot-g. Massignon). C'est ensuite la repartition dans l'espace de ces traits phonetiques qui est analysee: ils ne sont en effet ni disperses au hasard ni ordonnes selon des limites dialectales rigides. Apres l'analyse automatique de ces donnees, une nouvelle structuration de l'espace linguistique est proposee: d'une part, la structuration de l'espace qui resulte de la classification ascendante hierarchique des parlers (82 points) se rapproche beaucoup du schema geologique de cette region, et correspond en partie aux aires historiques, culturelles ou economiques, mais elle differe toujours des subdivisions administratives. D'autre part, la classification ascendante hierarchique des traits phonetiques met en evidence un nouveau schema geolinguistique: les traits phonetiques se repartissent en un "noyau", entoure d'une "aire d'influence" ou ils rayonnent de maniere diffuse (theorie des noyaux geolinguistiques). Enfin l'analyse des correspondances attire l'attention sur les rapports entre les points (parlers), et sur les rapports entre les points et les modalites phonetiques
This study deals with the geolinguistic structuration of phonetic features between loire and gironde, in the "centre-ouest" (vendee, deux-sevres, vienne, charente-maritime, charente, and some surrounding points) - a boundary area between northern and southern languages of france ("oil" and "oc"). It first presents the phonetic description of this area, derived from the maps of the atlas linguistique et ethnographique de l'ouest (b. Horiot-g. Massignon). And then, the space distribution of these phonetic features is analysed: actually they are neither spread about nor ordered according to strict dialect limits. After the automatic analysis of these data, a new structuration of linguistic space is put forward: on the one hand, the space structuration which results from the cluster analysis of the languages (eighty-two points) is quite similar to the geological one, and partly corresponds to historical, cultural or economic areas; but it always differs from administrative divisions. On the other hand, the cluster analysis of phonetic features reveals a new geolinguistic scheme: these phonetic features are distributed in a "nucleus", and then diffuse into an "area of influence". (theory of geolinguistic nuclei) finally, through the multivariate analysis, attention is drawn to the relations between the points themselves, and to the relations between the points and the phonetic modalities
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Dumas, Stéphane. „Développement d'un système de veille stratégique dans un centre technique“. Aix-Marseille 3, 1994. http://www.theses.fr/1994AIX30063.

Der volle Inhalt der Quelle
Annotation:
Le centre technique des industries mecaniques (cetim) a pour role d'apporter aux entreprises mecaniciennes francaises des moyens et des competences pour les aider a accroitre leur competivite. Rester a l'ecoute de ses ressortissants et leur faciliter l'acces aux informations scientifiques et techniques sont deux taches essentielles de son travail. Ce memoire expose la demarche de veille strategique du cetim qui, a travers l'analyse des besoins des pmi et la surveillance des domaines techniques en permanente evolution, fournit a ses entreprises des prestations de veille technologique adaptees et determine des sujets de r & d interessant les mecaniciens. La methodologie employee ainsi que les outils utilises sont presentes et accompagnes d'exemples concrets qui illustrent l'ensemble de la demarche. L'analyse des besoins, qui constitue la phase de veille marche du centre, consiste a realiser une enquete aupres d'un echantillon representatif d'entreprises et a analyser les donnees recueillies afin de determiner les attentes de la profession. La veille technologique apporte un complement indispensable a ces analyses grace au regard porte sur les developpements en cours a travers le monde. Les deux composantes permettent de cibler la demande du marche et l'etat de l'offre technologique. Elles situent le cetim dans son environnement et lui permettent de developper les competences necessaires pour promouvoir le progres technique au sein de son secteur
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Duranthon, Sophie. „Intoxications par les produits agricoles : bilan sur 5 années de données recueillies au centre anti-poison de Bordeaux (1990-1994)“. Bordeaux 2, 1996. http://www.theses.fr/1996BOR2P007.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Paradis, René. „Implantation d'un système de cueillette et d'analyse de données générées par la plate-forme de protéomique du centre de recherche du CHUL“. Thesis, Université Laval, 2004. http://www.theses.ulaval.ca/2004/21917/21917.pdf.

Der volle Inhalt der Quelle
Annotation:
Un système informatique a été développé pour centraliser la cueillette et le traitement des données provenant de la plate-forme protéomique du CHUL (Centre Hospitalier de l'Université Laval). Les informations sont saisies à l'aide d'interfaces web générées en PL/SQL, ou cueillies par des scripts Perl et des macros en VB (Visual Basic). Toutes ces données sont sauvegardées dans une base de données Oracle installée sur un serveur Unix. L'engin de recherche Mascot (Matrix Science), utilisé pour l'identification des protéines, est intégré au système. Ce dernier a grandement réduit le temps dédié à la manipulation des données et à leur analyse, augmentant ainsi la productivité de la plate-forme. La versatilité du système permet l'intégration de nouveaux algorithmes d'analyse de données provenant de divers instruments, ainsi que l'intégration des résultats d'autres plate-formes telles les micropuces, le SAGE, l'hybridation in situ et le QRT-PCR.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Parent, Daniel. „Données épidémiologiques, pronostiques et thérapeutiques : à propos de 167 cas de pneumopathies dans le service de réanimation du Centre hospitalier de Tourcoing“. Lille 2, 1989. http://www.theses.fr/1989LIL2M181.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Ondo, Assoumou Emmanuel. „Dynamique des paysages végétaux du littoral centre-ouest du Gabon autour de Port-Gentil : approche spatiale et analyse des données de terrain“. Montpellier 3, 2006. http://www.theses.fr/2006MON30044.

Der volle Inhalt der Quelle
Annotation:
Ce travail, centré sur les variations spatio-temporelles des paysages végétaux et morphodynamiques du trait de côte de la région de Port-Gentil, est une contribution à la réflexion sur les problématiques liées aux zones côtières face aux fluctuations futures (changements climatiques, élévation du niveau de la mer). L’objet de cette étude est de tenter, à partir des outils conceptuels (les concepts de paysage et de dynamique) et méthodologiques (relevés de terrain : transects et placettes, des cartes topographiques et de la télédétection : photographies aériennes et images satellitaires), d’une part, d’inventorier et de caractériser les paysages végétaux. D’autre part, nous envisageons comprendre et suivre l’évolution des formations végétales côtières et la vitesse de l’évolution du trait de côte, en localisant les secteurs en accrétion et les secteurs en érosion de la région de Port-Gentil. L’étude de la structure végétale a également permis de mettre en évidence les différentes stratégies de conquête spatiale et les modèles d’occupation de l’espace utilisés par les mangroves et le Melaleuca leucadendron)
This work, centered on the space-time of the vegetable landscapes and morphodynamic variations of the feature of coast of the area of Port-Gentil, is a contribution to the reflexion on the problems related to the coastal zones vis-a-vis on the future fluctuations (climatic changes, rise in the sea level). The object of this study is to try, starting from the conceptual tools (concepts of landscape and dynamics) and methodological (statements of ground: transects and small squares, of the topographic charts and the teledetection: air photographs and satellite images), on the one hand, to inventory and characterize the vegetable landscapes. In addition, we plan to include/understand and follow the evolution of the coastal vegetable formations and the speed of the evolution of the feature of coast, by locating the accretion sectors and the sectors in erosion of the area of Port-Gentil. The study of the vegetable structure also made it possible to highlight the various strategies of space conquest and the models of occupation of space used by the mangroves and Melaleuca leucadendron)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Jung, François. „L'hospitalisation des vieillards déments en Centre hospitalier spécialisé : données comparatives avec une population de référence de malades déments hospitalisés en long séjour“. Université Louis Pasteur (Strasbourg) (1971-2008), 1986. http://www.theses.fr/1986STR1M060.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Toillon, Michel. „L'hospitalisation des vieillards déments en long séjour : données comparatives avec une population de référence de malades déments hospitalisés en centre hospitalier spécialisé“. Université Louis Pasteur (Strasbourg) (1971-2008), 1986. http://www.theses.fr/1986STR1M061.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Blanc, Beyne Thibault. „Estimation de posture 3D à partir de données imprécises et incomplètes : application à l'analyse d'activité d'opérateurs humains dans un centre de tri“. Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0106.

Der volle Inhalt der Quelle
Annotation:
Dans un contexte d’étude de la pénibilité et de l’ergonomie au travail pour la prévention des troubles musculo-squelettiques, la société Ebhys cherche à développer un outil d’analyse de l’activité des opérateurs humains dans un centre de tri, par l’évaluation d’indicateurs ergonomiques. Pour faire face à l’environnement non contrôlé du centre de tri et pour faciliter l’acceptabilité du dispositif, ces indicateurs sont mesurés à partir d’images de profondeur. Une étude ergonomique nous permet de définir les indicateurs à mesurer. Ces indicateurs sont les zones d’évolution des mains de l’opérateur et d’angulations de certaines articulations du haut du corps. Ce sont donc des indicateurs obtenables à partir d’une analyse de la posture 3D de l’opérateur. Le dispositif de calcul des indicateurs sera donc composé de trois parties : une première partie sépare l’opérateur du reste de la scène pour faciliter l’estimation de posture 3D, une seconde partie calcule la posture 3D de l’opérateur, et la troisième utilise la posture 3D de l’opérateur pour calculer les indicateurs ergonomiques. Tout d’abord, nous proposons un algorithme qui permet d’extraire l’opérateur du reste de l’image de profondeur. Pour ce faire, nous utilisons une première segmentation automatique basée sur la suppression du fond statique et la sélection d’un objet dynamique à l’aide de sa position et de sa taille. Cette première segmentation sert à entraîner un algorithme d’apprentissage qui améliore les résultats obtenus. Cet algorithme d’apprentissage est entraîné à l’aide des segmentations calculées précédemment, dont on sélectionne automatiquement les échantillons de meilleure qualité au cours de l’entraînement. Ensuite, nous construisons un modèle de réseau de neurones pour l’estimation de la posture 3D de l’opérateur. Nous proposons une étude qui permet de trouver un modèle léger et optimal pour l’estimation de posture 3D sur des images de profondeur de synthèse, que nous générons numériquement. Finalement, comme ce modèle n’est pas directement applicable sur les images de profondeur acquises dans les centres de tri, nous construisons un module qui permet de transformer les images de profondeur de synthèse en images de profondeur plus réalistes. Ces images de profondeur plus réalistes sont utilisées pour réentrainer l’algorithme d’estimation de posture 3D, pour finalement obtenir une estimation de posture 3D convaincante sur les images de profondeur acquises en conditions réelles, permettant ainsi de calculer les indicateurs ergonomiques
In a context of study of stress and ergonomics at work for the prevention of musculoskeletal disorders, the company Ebhys wants to develop a tool for analyzing the activity of human operators in a waste sorting center, by measuring ergonomic indicators. To cope with the uncontrolled environment of the sorting center, these indicators are measured from depth images. An ergonomic study allows us to define the indicators to be measured. These indicators are zones of movement of the operator’s hands and zones of angulations of certain joints of the upper body. They are therefore indicators that can be obtained from an analysis of the operator’s 3D pose. The software for calculating the indicators will thus be composed of three steps : a first part segments the operator from the rest of the scene to ease the 3D pose estimation, a second part estimates the operator’s 3D pose, and the third part uses the operator’s 3D pose to compute the ergonomic indicators. First of all, we propose an algorithm that extracts the operator from the rest of the depth image. To do this, we use a first automatic segmentation based on static background removal and selection of a moving element given its position and size. This first segmentation allows us to train a neural network that improves the results. This neural network is trained using the segmentations obtained from the first automatic segmentation, from which the best quality samples are automatically selected during training. Next, we build a neural network model to estimate the operator’s 3D pose. We propose a study that allows us to find a light and optimal model for 3D pose estimation on synthetic depth images, which we generate numerically. However, if this network gives outstanding performances on synthetic depth images, it is not directly applicable to real depth images that we acquired in an industrial context. To overcome this issue, we finally build a module that allows us to transform the synthetic depth images into more realistic depth images. This image-to-image translation model modifies the style of the depth image without changing its content, keeping the 3D pose of the operator from the synthetic source image unchanged on the translated realistic depth frames. These more realistic depth images are then used to re-train the 3D pose estimation neural network, to finally obtain a convincing 3D pose estimation on the depth images acquired in real conditions, to compute de ergonomic indicators
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Deshayes, Perrine. „Tomographie en vitesse et en atténuation de la zone de subduction au Chili central - ouest de l'Argentine (29°S-34°S) à partir de données sismologiques locales: apport à l'étude de la composition minéralogique“. Phd thesis, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00360063.

Der volle Inhalt der Quelle
Annotation:
Dans la région du Chili-central-ouest de l'Argentine (29°S-34°S), la plaque océanique Nazca subducte
sous la plaque continentale sud-Américaine. Cette région est une zone de transition entre une
subduction plate et une subduction pentue. Au nord de 33°S, où le slab devient plat vers 100 km de
profondeur, la ride de Juan Fernandez subducte le long de la plaque océanique Nazca. Alors que dans
cette région, le volcanisme quaternaire s'arrête vers 5-7 Ma, au sud de 33°S, où la plaque océanique
plonge avec un angle de 30°,la majorité des édifices volcaniques sont actifs. A partir de l'enregistrement
de séismes locaux au travers de deux campagnes sismologiques, nous avons réalisé une tomographie des
écarts des temps d'arrivée et du paramètre d'atténuation t* = t/Q, afin de déterminer des modèles
tridimensionnels d'une part de vitesse et d'autre part d'atténuation des ondes P et S. La plaque subduite,
plus froide que le manteau dans lequel elle plonge, est un milieu où les ondes P et S se propagent
rapidement et sont faiblement atténuées. L'un des blocs tectoniques constituant la croûte continental
(bloc Cuyania) se caractérise par des vitesses rapides des ondes sismiques et une forte atténuation de
l'onde S. Sous les édifices volcaniques actifs, la vitesse de ses ondes est plus faible due probablement à la
présence de fusion partielle. Les modèles de vitesse des ondes P et S, combinés à un modèle thermique
bidimensionnel à 31.5°S déterminé dans cette étude, ont permis d'obtenir un modèle minéralogique de
la lithosphère continentale et de la croûte océanique de la plaque Nazca. Cette croûte est composée
de Blueschists jusqu'à 80 km de profondeur et d'Eclogite plus profond. De la serpentine est observée
dans le coin mantellique considéré comme "froid". Le manteau continental est constitué par un mélange
d'Harzburgites et de Lherzolites plus ou moins hydratées. Un faciès éclogite est observé à la base de
la croûte continentale. Les modèles d'atténuation ont une résolution spatiale trop faible pour pouvoir
améliorer les modèles thermiques et par conséquent les modèles minéralogiques de la zone de subduction
plate.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Avoine, Marie-Pierre. „La signification de pratiques déshumanisantes telles que vécues par des patients hospitalisés ou ayant été hospitalisés en centre de réadaptation“. Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6264.

Der volle Inhalt der Quelle
Annotation:
Plusieurs auteurs s'entendent pour dire que la relation entre l'infirmière et la personne soignée s'appuie sur des valeurs humanistes, lesquelles s'avèrent fondamentales en contexte de réadaptation pour le mieux-être des patients et de leur famille. À l'issue de l'étude de O'Reilly et Cara (O'Reilly et al., 2010a), les participants décrivent l'infirmière qui "est avec" eux comme une professionnelle ayant des pratiques humanistes empreintes de respect et de chaleur humaine. Malgré cela, lors des entrevues, les participants ont souvent fait allusion à des pratiques qui peuvent être déshumanisantes, notamment le sentiment d'être perçu comme un objet, le manque d'écoute ou de compréhension. À notre connaissance, les pratiques déshumanisantes n'ont pas fait l'objet d’études scientifiques dans le domaine des soins de santé. Notre étude visait à explorer et comprendre la signification de pratiques déshumanisantes selon la perspective de patients hospitalisés ou ayant été hospitalisés en réadaptation. Méthode: Deux approches ont été utilisées. D'abord, une analyse secondaire de données qualitatives (n=11) a été réalisée suivi d'une étude d'inspiration phénoménologique (n=6) utilisant la discussion de groupe comme méthode de collecte de données. Le Relational Caring Inquiry (RCI) (Cara, 1997), un devis phénoménologique, a guidé tout le processus de recherche. Les résultats découlent d'une analyse combinée de toutes ces données. Résultats: Les pratiques déshumanisantes sont des pratiques qui vont à l'encontre de l'idéal moral de la profession infirmière. Elles représentent des pratiques non éthiques et désengagées caractérisées par sa nature insidieuse et infectieuse ainsi que par ses conséquences néfastes. Conclusion : Ces résultats probants et inquiétants doivent être discutés afin de contrer ces pratiques déshumanisantes et d'améliorer la qualité des soins offerts. De plus, la présente étude représente un premier pas afin de briser la culture de silence qui existe dans les milieux de soins et qui contribue à l'apparition de pratiques déshumanisantes. Il s'avère primordial de contrer les pratiques déshumanisantes en favorisant, notamment, l'utilisation de la pratique réflexive dans les milieux de soins. Finalement, les valeurs humanistes devraient occuper une place plus importante dans les soins, mais aussi dans la formation des infirmières ainsi que dans la gestion des soins de santé.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Peoples, Bruce E. „Méthodologie d'analyse du centre de gravité de normes internationales publiées : une démarche innovante de recommandation“. Thesis, Paris 8, 2016. http://www.theses.fr/2016PA080023.

Der volle Inhalt der Quelle
Annotation:
.../
“Standards make a positive contribution to the world we live in. They facilitate trade, spreadknowledge, disseminate innovative advances in technology, and share good management andconformity assessment practices”7. There are a multitude of standard and standard consortiaorganizations producing market relevant standards, specifications, and technical reports in thedomain of Information Communication Technology (ICT). With the number of ICT relatedstandards and specifications numbering in the thousands, it is not readily apparent to users howthese standards inter-relate to form the basis of technical interoperability. There is a need todevelop and document a process to identify how standards inter-relate to form a basis ofinteroperability in multiple contexts; at a general horizontal technology level that covers alldomains, and within specific vertical technology domains and sub-domains. By analyzing whichstandards inter-relate through normative referencing, key standards can be identified as technicalcenters of gravity, allowing identification of specific standards that are required for thesuccessful implementation of standards that normatively reference them, and form a basis forinteroperability across horizontal and vertical technology domains. This Thesis focuses on defining a methodology to analyze ICT standards to identifynormatively referenced standards that form technical centers of gravity utilizing Data Mining(DM) and Social Network Analysis (SNA) graph technologies as a basis of analysis. As a proofof concept, the methodology focuses on the published International Standards (IS) published bythe International Organization of Standards/International Electrotechnical Committee; JointTechnical Committee 1, Sub-committee 36 Learning Education, and Training (ISO/IEC JTC1 SC36). The process is designed to be scalable for larger document sets within ISO/IEC JTC1 that covers all JTC1 Sub-Committees, and possibly other Standard Development Organizations(SDOs).Chapter 1 provides a review of literature of previous standard analysis projects and analysisof components used in this Thesis, such as data mining and graph theory. Identification of adataset for testing the developed methodology containing published International Standardsneeded for analysis and form specific technology domains and sub-domains is the focus ofChapter 2. Chapter 3 describes the specific methodology developed to analyze publishedInternational Standards documents, and to create and analyze the graphs to identify technicalcenters of gravity. Chapter 4 presents analysis of data which identifies technical center of gravitystandards for ICT learning, education, and training standards produced in ISO/IEC JTC1 SC 36.Conclusions of the analysis are contained in Chapter 5. Recommendations for further researchusing the output of the developed methodology are contained in Chapter 6
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Tudoran, Radu-Marius. „High-Performance Big Data Management Across Cloud Data Centers“. Electronic Thesis or Diss., Rennes, École normale supérieure, 2014. http://www.theses.fr/2014ENSR0004.

Der volle Inhalt der Quelle
Annotation:
La puissance de calcul facilement accessible offerte par les infrastructures clouds, couplés à la révolution du "Big Data", augmentent l'échelle et la vitesse auxquelles l'analyse des données est effectuée. Les ressources de cloud computing pour le calcul et le stockage sont répartis entre plusieurs centres de données de par le monde. Permettre des transferts de données rapides devient particulièrement important dans le cadre d'applications scientifiques pour lesquels déplacer le traitement proche de données est coûteux voire impossible. Les principaux objectifs de cette thèse consistent à analyser comment les clouds peuvent devenir "Big Data - friendly", et quelles sont les meilleures options pour fournir des services de gestion de données aptes à répondre aux besoins des applications. Dans cette thèse, nous présentons nos contributions pour améliorer la performance de la gestion de données pour les applications exécutées sur plusieurs centres de données géographiquement distribués. Nous commençons avec les aspects concernant l'échelle du traitement de données sur un site, et poursuivons avec le développements de solutions de type MapReduce permettant la distribution des calculs entre plusieurs centres. Ensuite, nous présentons une architecture de service de transfert qui permet d'optimiser le rapport coût-performance des transferts. Ce service est exploité dans le contexte de la diffusion de données en temps-réel entre des centres de données de clouds. Enfin, nous étudions la viabilité, pour une fournisseur de cloud, de la solution consistant à intégrer cette architecture comme un service basé sur un paradigme de tarification flexible, qualifiée de "Transfert-as-a-Service"
The easily accessible computing power offered by cloud infrastructures, coupled with the "Big Data" revolution, are increasing the scale and speed at which data analysis is performed. Cloud computing resources for compute and storage are spread across multiple data centers around the world. Enabling fast data transfers becomes especially important in scientific applications where moving the processing close to data is expensive or even impossible. The main objectives of this thesis are to analyze how clouds can become "Big Data - friendly", and what are the best options to provide data management services able to meet the needs of applications. In this thesis, we present our contributions to improve the performance of data management for applications running on several geographically distributed data centers. We start with aspects concerning the scale of data processing on a site, and continue with the development of MapReduce type solutions allowing the distribution of calculations between several centers. Then, we present a transfer service architecture that optimizes the cost-performance ratio of transfers. This service is operated in the context of real-time data streaming between cloud data centers. Finally, we study the viability, for a cloud provider, of the solution consisting in integrating this architecture as a service based on a flexible pricing paradigm, qualified as "Transfer-as-a-Service"
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Vegeto, Nathalie. „Le prélèvement micro-chirurgical de spermatozoi͏̈des épididymaires et la fécondation in vitro : Expérience du Centre hospitalier universitaire de Montpellier-Nîmes et données de la littérature“. Montpellier 1, 1991. http://www.theses.fr/1991MON11181.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Moualla, Ghada. „Virtualisation résiliente des fonctions réseau pour les centres de données et les environnements décentralisés“. Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4061.

Der volle Inhalt der Quelle
Annotation:
Les réseaux traditionnels reposent sur un grand nombre de fonctions réseaux très hétérogènes qui s'exécutent sur du matériel propriétaire déployé dans des boîtiers dédiés. Concevoir ces dispositifs spécifiques et les déployer est complexe, long et coûteux. De plus, comme les besoins des clients sont de plus en plus importants et hétérogènes, les fournisseurs de services sont contraints d'étendre ou de moderniser leur infrastructure régulièrement, ce qui augmente fortement les coûts d'investissement (CAPEX) et de maintenance (OPEX) de l'infrastructure. Ce paradigme traditionnel provoque une ossification du réseau et rend aussi plus complexe la gestion et la fourniture des fonctions réseau pour traiter les nouveaux cas d'utilisation. La virtualisation des fonctions réseau (NFV) est une solution prometteuse pour relever de tels défis en dissociant les fonctions réseau du matériel sous-jacent et en les implémentant en logiciel avec des fonctions réseau virtuelles (VNFs) capables de fonctionner avec du matériel non spécifique peu coûteux. Ces VNFs peuvent être organisés et chaînés dans un ordre prédéfini, formant des chaînes de Services (SFC) afin de fournir des services de bout-en-bout aux clients. Cependant, même si l'approche NFV comporte de nombreux avantages, il reste à résoudre des problèmes difficiles comme le placement des fonctions réseau demandées par les utilisateurs sur le réseau physique de manière à offrir le même niveau de résilience que si une infrastructure dédiée était utilisée, les machines standards étant moins fiables que les dispositifs réseau spécifiques. Ce problème devient encore plus difficile lorsque les demandes de service nécessitent des décisions de placement à la volée. Face à ces nouveaux défis, nous proposons de nouvelles solutions pour résoudre le problème du placement à la volée des VNFs tout en assurant la résilience des services instanciés face aux pannes physiques pouvant se produire dans différentes topologies de centres de données (DC). Bien qu'il existe des solutions de récupération, celles-ci nécessitent du temps pendant lequel les services affectés restent indisponibles. D'un autre côté, les décisions de placement intelligentes peuvent épargner le besoin de réagir aux pannes pouvant se produire dans les centres de données. Pour pallier ce problème, nous proposons tout d'abord une étude approfondie de la manière dont les choix de placement peuvent affecter la robustesse globale des services placés dans un centre de données. Sur la base de cette étude, nous proposons une solution déterministe applicable lorsque le fournisseur de services a une connaissance et un contrôle complets de l'infrastructure. Puis, nous passons de cette solution déterministe à une approche stochastique dans le cas où les SFCs sont demandées par des clients indépendamment du réseau physique du DC, où les utilisateurs n'ont qu'à fournir les SFC qu'ils veulent placer et le niveau de robustesse requis (e.g., les 5 neufs). Nous avons développé plusieurs algorithmes et les avons évaluées. Les résultats de nos simulations montrent l'efficacité de nos algorithmes et la faisabilité de nos propositions dans des topologies de centres de données à très grande échelle, ce qui rend leur utilisation possible dans un environnement de production. Toutes ces solutions proposées fonctionnent de manière efficace dans un environnement de confiance, comme les centres de données, avec la présence d’une autorité centrale qui contrôle toute l'infrastructure. Cependant, elles ne s'appliquent pas à des scénarios décentralisés comme c'est le cas lorsque différentes entreprises ont besoin de collaborer pour exécuter les applications de leurs clients. Nous étudions cette problématique dans le cadre des applications MapReduce exécutées en présence de nœuds byzantins et de nœuds rationnels et en l’absence de tiers de confiance
Traditional networks are based on an ever-growing variety of network functions that run on proprietary hardware devices called middleboxes. Designing these vendor-specific appliances and deploying them is very complex, costly and time-consuming. Moreover, with the ever-increasing and heterogeneous short-term services requirements, service providers have to scale up their physical infrastructure periodically, which results in high CAPEX and OPEX. This traditional paradigm leads to network ossification and high complexity in network management and services provisioning to address emerging use cases. Network Function Virtualization (NFV) has attracted notable attention as a promising paradigm to tackle such challenges by decoupling network functions from the underlying proprietary hardware and implementing them as software, named Virtual Network Functions (VNFs), able to work on inexpensive commodity hardware. These VNFs can be arranged and chained together in a predefined order, the so-called Service Function chaining (SFC), to provide end-to-end services. Despite all the benefits associated with the new paradigm, NFV comes with the challenge of how to place the functions of the users' requested services within the physical network while providing the same resiliency as if a dedicated infrastructure were used, given that commodity hardware is less reliable than the dedicated one. This problem becomes particularly challenging when service requests have to be fulfilled as soon as they arise (i.e., in an online manner). In light of these new challenges, we propose new solutions to tackle the problem of online SFC placement while ensuring the robustness of the placed services against physical failures in data-center (DC) topologies. Although recovery solutions exist, they still require time in which the impacted services will be unavailable while taking smart placement decisions can help in avoiding the need for reacting against simple network failures. First, we provide a comprehensive study on how the placement choices can affect the overall robustness of the placed services. Based on this study we propose a deterministic solution applicable when the service provider has full knowledge and control on the infrastructure. Thereafter, we move from this deterministic solution to a stochastic approach for the case where SFCs are requested by tenants oblivious to the physical DC network, where users only have to provide the SFC they want to place and the required availability level (e.g., 5 nines). We simulated several solutions and the evaluation results show the effectiveness of our algorithms and the feasibility of our propositions in very large scale data center topologies, which make it possible to use them in a productive environment. All these solutions work well in trusted environments with a central authority that controls the infrastructure. However, in some cases, many enterprises need to collaborate together in order to run tenants' application, e.g., MapReduce applications. In such a scenario, we move to a completely untrusted decentralized environment with no trust guarantees in the presence of not only byzantine nodes but also rational nodes. We considered the case of MapReduce applications in such an environment and present an adapted MapReduce framework called MARS, which is able to work correctly in such a context without the need of any trusted third party. Our simulations show that MARS grants the execution integrity in MapReduce linearly with the number of byzantine nodes in the system
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Minsart, Anne-Frédérique. „Impact de la mise en place d'un Centre d'Epidémiologie Périnatale en Wallonie et à Bruxelles sur les données en santé périnatale et analyse des nouvelles données sur la santé périnatale des immigrants et sur l'impact de l'indice de masse corporelle maternel“. Doctoral thesis, Universite Libre de Bruxelles, 2013. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209481.

Der volle Inhalt der Quelle
Annotation:
La Communauté française décide en concertation avec la Région bruxelloise et la Région wallonne, de financer un Centre d’Epidémiologie Périnatale (CEpiP). Les Communautés et Régions chargent le CEpiP de les assister dans la vérification, le remplissage et la correction des certificats concernant les naissances à partir du 1er janvier 2008. Le CEpiP est également chargé d’encoder les certificats bruxellois, les certificats wallons étant toujours encodés par un sous-traitant.

Un problème souvent rencontré dans l’analyse des certificats de naissance est la présence de données manquantes. Des informations manquaient sur 64.0% des certificats bruxellois de janvier 2008 (situation de base). Le renforcement de l’enregistrement par le CEpiP durant l’année 2008 est lié à une diminution des informations manquantes sur les certificats initiaux (à la sortie des maternités et services d’état civil) après la première et la deuxième année d’enregistrement :20,8% et 19,5% des naissances en décembre 2008 et 2009 respectivement. Le taux résiduel de données manquantes après correction grâce aux listes envoyées aux maternités et services d’Etat civil est faible. En particulier, la nationalité d’origine des parents était souvent manquante, jusqu’à 35% à Bruxelles (données non publiées), et ce taux est passé à 2.6% en 2008 et 0.1% en 2009. Certaines données manquantes ne sont pas distribuées de façon équivalente selon la nationalité de la mère, même après correction. Les mères d’origine sub-saharienne ont les taux de remplissage les moins élevés. Enfin, le taux de mort-nés a augmenté par rapport aux données de 2007, au profit des mort-nés avant l’âge de 28 semaines, et suggère une amélioration de l’enregistrement suite au renforcement de l’information.

Les données concernant l’indice de masse corporelle des patientes sont donc relevées depuis 2009 pour l’ensemble des mères qui accouchent en Belgique. L’obésité maternelle et l’immigration sont en augmentation en Belgique, et ont été rarement étudiées au travers d’études de population sur les certificats de naissance. Des études ont pourtant montré que ces mères étaient à risque de complications périnatales, comme la césarienne ou la mortalité périnatale. L’obésité et l’immigration ont en commun le fait qu’elles recouvrent des réalités médicales, sociales et relationnelles face au personnel soignant, qui les mettent à risque de complications périnatales.

Des différences en termes de complications obstétricales et néonatales entre populations immigrantes et autochtones ont été observées en Belgique et dans d’autres pays, mais elles sont encore mal comprises.

Dans un premier travail d’analyse, nous avons évalué les taux de mortalité périnatale chez les mères immigrantes, en fonction du fait qu’elles étaient naturalisées ou non.

Le taux de mortalité périnatale est globalement plus élevé chez les mères immigrantes (8.6‰) que non-immigrantes (6.4‰).

Le taux de mortalité périnatale est globalement plus élevé chez les mères non naturalisées (10.3‰) que chez les mères naturalisées (6.1‰).

Le taux de mortalité périnatale varie selon l’origine des mères, mais dans chaque sous-groupe étudié, les mères non naturalisées ont un taux plus élevé de mortalité périnatale.

Des études ont successivement montré davantage, ou moins de césariennes chez les mères immigrantes. Peu de facteurs confondants étaient généralement pris en compte. Dans un second travail d’analyse, nous avons comparé les taux de césarienne dans plusieurs sous-groupes de nationalités.

Les taux de césarienne varient selon les sous-groupes de nationalités. Les mères originaires d’Afrique sub-saharienne ont un odds ratio ajusté pour la césarienne de 2.06 (1.62-2.63) en comparaison aux mères belges. L’odds ratio ajusté n’est plus statistiquement significatif après introduction des variables anthropométriques dans le modèle multivariable pour les mères d’Europe de l’Est, et après introduction des interventions médicales pour les mères du Maghreb.

Peu d’études ont analysé la relation entre l’obésité maternelle et les complications néonatales, et la plupart de ces études n’ont pas ajusté leurs résultats pour plusieurs variables confondantes. Nous avons eu pour but dans un troisième travail d’analyse d’étudier la relation entre l’obésité maternelle et les paramètres néonatals, en tenant compte du type de travail (induit ou spontané) et du type d’accouchement (césarienne ou voie basse). Les enfants de mères obèses ont un excès de 38% d’admission en centre néonatal après ajustement pour toutes les caractéristiques du modèle multivariable (intervalle de confiance à 95% :1.22-1.56) ;les enfants de mères obèses en travail spontané et induit ont également un excès de risque de 45% (1.21-1.73) et 34% (1.10-1.63) respectivement, alors qu’après une césarienne programmée l’excès de risque est de 18% (0.86-1.63) et non statistiquement significatif.

Les enfants de mères obèses ont un excès de 31% de taux d’Apgar à 1 minute inférieur à 7, après ajustement pour toutes les caractéristiques du modèle mutivariable (1.15-1.49) ;les enfants de mères obèses en travail spontané et induit ont également un excès de risque de 26% (1.04-1.52) et 38% (1.12-1.69) respectivement, alors qu’après une césarienne programmée l’excès de risque est de 50% (0.96-2.36) et non statistiquement significatif.

In 2008, a Centre for Perinatal Epidemiology was created inter alia to assist the Health Departments of Brussels-Capital City Region and the French Community to check birth certificates. A problem repeatedly reported in birth certificate data is the presence of missing data. The purpose of this study is to assess the changes brought by the Centre in terms of completeness of data registration for the entire population and according to immigration status. Reinforcement of data collection was associated with a decrease of missing information. The residual missing data rate was very low. Education level and employment status were missing more often in immigrant mothers compared to Belgian natives both in 2008 and 2009. Mothers from Sub-Saharan Africa had the highest missing rate of socio-economic data. The stillbirth rate increased from 4.6‰ in 2007 to 8.2‰ in 2009. All twin pairs were identified, but early loss of a co-twin before 22 weeks was rarely reported.

Differences in neonatal mortality among immigrants have been documented in Belgium and elsewhere, and these disparities are poorly understood. Our objective was to compare perinatal mortality rates in immigrant mothers according to citizenship status. Perinatal mortality rate varied according to the origin of the mother and her naturalization status: among immigrants, non-naturalized immigrants had a higher incidence of perinatal mortality (10.3‰) than their naturalized counterparts (6.1‰). In a country with a high frequency of naturalization, and universal access to health care, naturalized immigrant mothers experience less perinatal mortality than their not naturalized counterparts.

Our second objective was to provide insight into the differential effect of immigration on cesarean section rates, using Robson classification. Cesarean section rates currently vary between Robson categories in immigrant subgroups. Immigrant mothers from Sub-Saharan Africa with a term, singleton infant in cephalic position, without previous cesarean section, appear to carry the highest burden.

If it is well known that obesity increases morbidity for both mother and fetus and is associated with a variety of adverse reproductive outcomes, few studies have assessed the relation between obesity and neonatal outcomes. This is the aim of the last study, after taking into account type of labor and delivery, as well as social, medical and hospital characteristics in a population-based analysis. Neonatal admission to intensive care and low Apgar scores were more likely to occur in infants from obese mothers, both after spontaneous and


Doctorat en Sciences médicales
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Haubois, Xavier. „Imagerie interférométrique infrarouge et perspectives pour l'observation interférométrique du Centre Galactique : le projet GRAVITY“. Phd thesis, Observatoire de Paris, 2009. http://tel.archives-ouvertes.fr/tel-00424467.

Der volle Inhalt der Quelle
Annotation:
Le centre de la Galaxie abrite un trou noir supermassif nommé Sgr A*. Grâce à l'instrument GRAVITY, les capacités de haute résolution angulaire du VLTI permettront pour la première fois l'observation directe de l'environnement immédiat d'un tel trou noir. Pour atteindre ce but astrophysique, il est nécessaire d'obtenir des observables interférométriques de grande précision et d'appliquer des techniques de reconstruction d'images. Dans ce contexte, j'ai pu dans une première partie de ma thèse, employer différentes méthodes d'imagerie interférométrique en infrarouge suite à l'observation de la supergéante rouge Alpha Orionis (Bételgeuse) avec l'interféromètre à trois télescopes IOTA. Ces travaux ont pu notamment conduire à la mise en évidence de structures asymétriques brillantes à la surface de l'étoile qui sont très probablement de nature convective.

La précision des observables interférométriques conditionne la qualité de la reconstruction d'image. Dans une deuxième partie, j'ai pu pratiquer une étude des performances interférométriques simulées de GRAVITY afin d'estimer la précision sur les phases et visibilités qu'il délivrera. Afin d'optimiser les futures observations de GRAVITY, il est essentiel d'avoir une idée des caractéristiques spatiales et temporelles de son objectif scientifique majeur qu'est Sgr A*. Pour cela, j'ai pu finalement participer à une campagne d'observation multi-longueurs d'onde de l'environnement de ce trou noir. A cette occasion, j'ai utilisé le mode BURST du spectro-imageur VISIR pour obtenir une haute résolution angulaire et une grande sensibilité au rayonnement de Sgr A*. Ceci m'a conduit à obtenir une limite supérieure la plus basse jamais enregistrée à 8,6 microns. Autre fait marquant, ces observations ont révélé la présence d'un sursaut d'intensité lumineuse en proche infrarouge. Si le processus de rayonnement n'est pas encore parfaitement modélisé, ces observations tendent à confirmer que les sursauts tirent leur origine d'un mouvement orbital de matière à quelques rayons de Schwarzschild de Sgr A*.

Grâce à sa précision astrométrique de 10 micro-secondes d'angle, correspondant à un rayon de Schwarzschild à la distance du Centre Galactique, GRAVITY sera en mesure de résoudre le mouvement orbital de ces spots de matière et de comprendre la nature d'un tel rayonnement. De plus, il permettra la mesure directe de la métrique d'espace-temps et l'étude de la relativité générale en champ fort.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Carrère, Christophe. „Profil épidémiologique et protection vaccinale des voyageurs en zone tropicale : analyse et comparaison des données statistiques de 1987 et 1988 du centre de vaccinations internationales de Bordeaux“. Bordeaux 2, 1990. http://www.theses.fr/1990BOR2M122.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Hernandez, Fabrice. „Comparaison et combinaison de données altimétriques et lagrangiennes. Application à la campagne SEMAPHORE-93“. Toulouse 3, 1995. http://www.theses.fr/1995TOU30295.

Der volle Inhalt der Quelle
Annotation:
Cette these porte sur l'etude de l'ocean a travers des mesures satellitales et lagrangiennes. Les satellites altimetriques fournissent une mesure de la topographie de la surface des oceans, donc des courants geostrophiques. On suit aussi les courants marins a travers les trajectoires argos des bouees derivantes. On compare puis combine les donnees altimetriques et lagrangiennes, qui decrivent chacune en partie la circulation oceanique. Deux zones sont distinctes sont etudiees. Le pacifique tropical, avec les donnees altimetriques de geosat et les bouees derivantes du programme toga durant la periode 1987-1989, pour comparer leurs composantes oceaniques a grande echelle. Puis l'atlantique nord-est, dans le bassin acores-canaries, pour etudier la circulation mesoechelle associee au courant des acores, a l'aide des mesures de semaphore-93. Une etude de strategie de lacher des flotteurs a ete effectuee lors de la preparation de cette campagne, par une optimisation de la distribution des bouees a l'aide d'un algorithme genetique. On montre que le deploiement des bouees doit etre decale vers l'ouest de la zone, avec une distance optimale de 90-100 km entre chacune des bouees. Les donnees oceaniques de la campagne sont comparees aux mesures altimetriques des missions topex/poseidon et ers-1. Le lacher de plus de 100 bouees derivantes de trois types differents ainsi que les mesures hydrologiques de juillet a novembre 1993 nous permettent de 1) verifier la precision des donnees altimetriques, meilleure que 5 cm ; 2) mettre en evidence l'apport de l'altimetrie pour la cartographie de la circulation oceanique ; 3) quantifier la dynamique de cette zone de l'ocean, en termes de circulation moyenne, de dispersion lagrangienne et de turbulence mesoechelle (tenseur de reynolds). Enfin, on etudie la composante ageostrophique du courant en surface en comparant les trajectoires de differents types de bouees et le vent
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Dessureault, Danny. „Évaluation de critères prédicteurs de l'adaptation sociale ultérieure au séjour d'un groupe d'ex-détenus du Centre résidentiel Radisson à partir des données disponibles à la fin du séjour“. Thèse, Université du Québec à Trois-Rivières, 1986. http://depot-e.uqtr.ca/5814/1/000560764.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Bruandet, Amelie. „Facteurs pronostiques de patients atteints de démence suivis en centre mémoire de ressource et de recherche : exemple d'utilisation de bases de données médicales à des fins de recherche clinique“. Phd thesis, Université du Droit et de la Santé - Lille II, 2008. http://tel.archives-ouvertes.fr/tel-00336252.

Der volle Inhalt der Quelle
Annotation:
Les démences constituent une préoccupation majeure de santé publique. Les facteurs pronostiques des démences vont conditionner la rapidité du déclin des fonctions cognitives et exécutives et la survie des patients. Quand ces facteurs sont modifiables, l'amélioration de leur connaissance peut permettre de mettre en place des actions visant à limiter le déclin cognitif et à prolonger l'autonomie. Les études permettant leur analyse sont réalisées sur des populations de sujets malades et s'inscrivent dans le cadre de la recherche clinique. Les bases de données médicales, qui ne sont pas toujours constituées à des fins de recherche, sont néanmoins de plus en plus utilisées à ces fins.
L'objectif de mon travail est l'étude des facteurs pronostiques de patients, pris en charge au centre de mémoire de ressource et de recherche (CMRR) du Centre Hospitalier Régional et Universitaire (CHRU) de Lille et du centre médical des monts de Flandres de Bailleul. Pour cela, nous avons utilisé la base de données médicales informatisées des patients consultant au CMRR de Lille-Bailleul. Ce travail s'est en particulier intéressé aux avantages et aux limites de l'utilisation de bases de données médicales à des fins de recherche clinique dans l'étude des facteurs pronostiques des démences.
Dans une population de 670 patients ayant une maladie d'Alzheimer, nous avons confirmé que le déclin des fonctions cognitives (évaluées par le MMSE) était significativement plus élevé chez les sujets ayant un niveau d'éducation intermédiaire ou élevé par rapport aux sujets ayant un bas niveau d'éducation. Cependant, la mortalité ne différaient pas de façon significative entre ces trois groupes. Nous avons décrit une mortalité similaire entre patients ayant une maladie d'Alzheimer, une démence mixte ou une démence vasculaire. Les patients ayant une démence mixte avaient un déclin du MMSE plus important que les patients ayant une démence vasculaire mais moins important que les patients ayant une maladie d'Alzheimer. Enfin, nous avons montré que le risque de développer une démence vasculaire ou mixte augmentait de manière significative avec le nombre d'hypersignaux sous corticaux chez des patients ayant un mild cognitive impairment.
Ces travaux soulignent la difficulté de l'établissement du diagnostic des démences mixtes, la complexité de l'analyse du déclin des fonctions cognitives (prise en compte du stade de progression des démences, absence d'instrument de suivi des fonctions cognitives à la fois simple d'utilisation et sensible aux faibles variations au cours du temps ou non linéarité du déclin des fonctions cognitives), les avantages en terme de coût et de temps de l'utilisation de bases de données médicales, et les problème de sélection de la population issue d'une structure de soins.
Malgré les problèmes de représentativité des populations, ce travail montre l'intérêt de l'utilisation à des fins de recherche clinique de données médicales concernant des patients pris en charge en structure de soins.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Bruandet, Amélie. „Facteurs pronostiques de patients atteints de démence suivis en Centre mémoire de ressources et de recherche : exemple d'utilisation de bases de données médicales à des fins de recherche clinique“. Lille 2, 2008. http://tel.archives-ouvertes.fr/tel-00336252/fr/.

Der volle Inhalt der Quelle
Annotation:
Les démences constituent une préoccupation majeure de santé publique. Les facteurs pronostiques des démences vont conditionner la rapidité du déclin des fonctions cognitives et exécutives et la survie des patients. Quand ces facteurs sont modifiables, l'amélioration de leur connaissance peut permettre de mettre en place des actions visant à limiter le déclin cognitif et à prolonger l'autonomie. Les études permettant leur analyse sont réalisées sur des populations de sujets malades et s'inscrivent dans le cadre de la recherche clinique. Les bases de données médicales, qui ne sont pas toujours constituées à des fins de recherche, sont néanmoins de plus en plus utilisées à ces fins. L'objectif de mon travail est l'étude des facteurs pronostiques de patients, pris en charge au centre de mémoire de ressource et de recherche (CMRR) du Centre Hospitalier Régional et Universitaire (CHRU) de Lille et du centre médical des monts de Flandres de Bailleul. Pour cela, nous avons utilisé la base de données médicales informatisées des patients consultant au CMRR de Lille-Bailleul. Ce travail s'est en particulier intéressé aux avantages et aux limites de l'utilisation de bases de données médicales à des fins de recherche clinique dans l'étude des facteurs pronostiques des démences. Dans une population de 670 patients ayant une maladie d'Alzheimer, nous avons confirmé que le déclin des fonctions cognitives (évaluées par le MMSE) était significativement plus élevé chez les sujets ayant un niveau d'éducation intermédiaire ou élevé par rapport aux sujets ayant un bas niveau d'éducation. Cependant, la mortalité ne différaient pas de façon significative entre ces trois groupes. Nous avons décrit une mortalité similaire entre patients ayant une maladie d'Alzheimer, une démence mixte ou une démence vasculaire. Les patients ayant une démence mixte avaient un déclin du MMSE plus important que les patients ayant une démence vasculaire mais moins important que les patients ayant une maladie d'Alzheimer. Enfin, nous avons montré que le risque de développer une démence vasculaire ou mixte augmentait de manière significative avec le nombre d'hypersignaux sous corticaux chez des patients ayant un mild cognitive impairment. Ces travaux soulignent la difficulté de l'établissement du diagnostic des démences mixtes, la complexité de l'analyse du déclin des fonctions cognitives (prise en compte du stade de progression des démences, absence d'instrument de suivi des fonctions cognitives à la fois simple d'utilisation et sensible aux faibles variations au cours du temps ou non linéarité du déclin des fonctions cognitives), les avantages en terme de coût et de temps de l'utilisation de bases de données médicales, et les problème de sélection de la population issue d'une structure de soins. Malgré les problèmes de représentativité des populations, ce travail montre l'intérêt de l'utilisation à des fins de recherche clinique de données médicales concernant des patients pris en charge en structure de soins
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Palermiti, Rosalba. „Les anaphores dans le dialogue homme-machine en langue naturelle écrite : données recueillies par le Magicien d'Oz dans une situation de recherche documentaire“. Université Pierre Mendès France (Grenoble ; 1990-2015), 1992. http://www.theses.fr/1992GRE21032.

Der volle Inhalt der Quelle
Annotation:
Dans le dialogue homme-machine, les anaphores traitees traditionnellement sont les anaphores pronominales. Or, dans ce travail, il s'agit d'etudier l'ensemble des phenomenes anaphoriques dans un corpus de dialogues homme-machine recueillis par une technique de simulation dite du magicien d'oz, dont on relate le protocole experimental et ou l'on precise le contexte d'application : la recherche documentaire par le grand public ; sont passes en revue les modes de consultation des bases de donnees bibliographiques. Puis, en exploitant ce corpus d'un point de vue documentaire (typologie des requetes, strategies de recherches. . . . ) et d'un point de vue linguistique (structure de surface des enonces, anaphores, coherences, reference,. . . ), on remet en cause l'usage de la langue naturelle pour certaines situations et l'on emet l'hypothese d'une nouvelle phraselogie de la communication propre au dialogue homme-machine. Du point de vue traitement automatique, sont explicitees les differentes connaissances necessaires a la conduite du dialogue et a la resolution automatique des anaphores (modele de dialogue, modele de la tache, deroulement du dialogue,. . . Etc. ), en s'appuyant d'une part sur les differentes approches linguistiques des phenomenes anaphoriques, et d'autre part sur des travaux effectues en t. A. L. En se placant dans le cadre de l'analyse automatique de langue telle qu'elle est envisagee au centre de recherche en informatique appliquee aux sciences sociales de grenoble (criss), sont degagees des regles de reconnaissance des unites anaphoriques
The anaphora traditionally handled in man-machine dialogues are pronominal anaphora. In this thesis, however, the aim is to study the entires set of anaphorical phenomena that can be found in man-machine dialogues. For this, we use a corpus collected using the so-called "wizard of oz" simulation technique. We explain the experimental protocol used and detail the application context : an information retrieval system for everyman's use in a library. We also survey different existing retrieval modes for bibliographical data bases. Next, having exploited the corpus on the retrieval level (query typology, search strategies,. . . ) and on the linguistic level (suraces structures), anaphora, reference and coherence,. . . ), we express our doubts about the usability of natural language in certain situations and we also state the hypothesis of the need for a new "phraseology" for man-machine communication. Concerning natural language processing (nlp, we explain the different types of knowledge necessary for dialogue management and anaphora resolution (dialogue modeling, task modeling, dialogue dynamics,. . . ), on the basis of different linguistic approaches of anaphorical phenomena and existing work in nlp. Within the framework of the nlp work done at criss (centre for research in informatics applied to the social sciences), we then derive some rules for identifying anaphoric units
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Rostirolla, Gustavo. „Ordonnancement dans un centre de calculs alimenté par des sources d'énergie renouvelables sans connexion au réseau avec une charge de travail mixte basée sur des phases“. Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30160.

Der volle Inhalt der Quelle
Annotation:
Les centres de données sont reconnus pour être l'un des principaux acteurs en matière de consommation d'énergie du fait de l'augmentation de l'utilisation du cloud, des services web et des applications de calcul haute performance dans le monde entier. En 2006, les centres de données ont consommé 61,4 milliards de kWh aux états-Unis. Au niveau mondial, les centres de données consomment actuellement plus d'énergie que l'ensemble du Royaume-Uni, c'est-à-dire environ 1,3% de la consommation électrique mondiale, et ils sont de fait appelés les usines de l'ère numérique. Un des moyens d'atténuer le changement climatique est d'alimenter les centres de données en énergie renouvelable (énergie propre). La grande majorité des fournisseurs de cloud computing qui prétendent alimenter leurs centres de données en énergie verte sont en fait connectés au réseau classique et déploient des panneaux solaires et des éoliennes ailleurs puis vendent l'électricité produite aux compagnies d'électricité. Cette approche entraîne des pertes d'énergie lorsque l'électricité traverse le réseau. Même si différents efforts ont été réalisés au niveau informatique dans les centres de données partiellement alimentés par des énergies renouvelables, des améliorations sont encore possibles notamment concernant l'ordonnancement prenant en compte les sources d'énergie renouvelables sur site sans connexion au réseau et leur intermittence. C'est le but du projet ANR DataZERO, dans le cadre duquel cette thèse a été réalisée. L'efficacité énergétique dans les centres de données étant directement liée à la consommation de ressources d'un nœud de calcul, l'optimisation des performances et un ordonnancement efficace des calculs sont essentiels pour économiser l'énergie. La spécificité principale de notre approche est de placer le centre de données sous une contrainte de puissance, provenant entièrement d'énergies renouvelables : la puissance disponible peut ainsi varier au cours du temps. L'ordonnancement de tâches sous ce genre de contrainte rend le problème plus difficile, puisqu'on doit notamment s'assurer qu'une tâche qui commence aura assez d'énergie pour aller jusqu'à son terme. Dans cette thèse, nous commençons par proposer une planification de tâches de type "batch" qui se caractérisent par leur instant d'arrivée, leur date d'échéance et leurs demandes de ressources tout en respectant une contrainte de puissance. Les données utilisées pour les tâches de type batch viennent de traces de centres de données et contiennent des mesures de consommation CPU, mémoire et réseau. Quant aux enveloppes de puissance considérées, elles représentent ce que pourrait fournir un module de décision électrique, c'est-à-dire la production d'énergie prévue (énergie renouvelable seulement) basée sur les prévisions météorologiques. L'objectif est de maximiser la Qualité de Service avec une contrainte sur la puissance électrique. Par la suite, nous examinons une charge de travail composée de tâches de type "batch" et de services, où la consommation des ressources varie au cours du temps. Les tracecs utilisées pour les services proviennent d'une centre de données à "business critique". Dans ce cadre, nous envisageons le concpet de phases, dans lequel les changements significatifs de consommation de resources à l'intérieur d'une même tâche marquent le début d'une nouvelle phase. Nous considérons également un modèle de tâches pouvant recevoir moins de ressources que demandées. Nous étudions l'impact de ce modèle sur le profit du centre de données pour chaque type de tâche. Nous intégrons aussi le concept de "corrélation croisée" pour évaluer où placer une tâche selon une courbe de puissance afin de trouver le meilleur nœud pour placer plusieurs tâches (c.-à-d. Partager les ressources)
Due to the increase of cloud, web-services and high performance computing demands all over the world, datacenters are now known to be one of the biggest actors when talking about energy consumption. In 2006 alone, datacenters were responsible for consuming 61.4 billion kWh in the United States. When looking at the global scenario, datacenters are currently consuming more energy than the entire United Kingdom, representing about 1.3\% of world's electricity consumption, and being even called the factories of the digital age. Supplying datacenters with clean-to-use renewable energy is therefore essential to help mitigate climate change. The vast majority of cloud provider companies that claim to use green energy supply on their datacenters consider the classical grid, and deploy the solar panels/wind turbines somewhere else and sell the energy to electricity companies, which incurs in energy losses when the electricity travels throughout the grid. Even though several efforts have been conducted at the computing level in datacenters partially powered by renewable energy sources, the scheduling considering on site renewable energy sources and its variations, without connection to the grid can still be widely explored. Since energy efficiency in datacenters is directly related to the resource consumption of the computing nodes, performance optimization and an efficient load scheduling are essential for energy saving. Today, we observe the use of cloud computing as the basis of datacenters, either in a public or private fashion. The main particularity of our approach is that we consider a power envelope composed only by renewable energy as a constraint, hence with a variable amount of power available at each moment. The scheduling under this kind of constraint becomes more complex: without further checks, we are not ensured that a running task will run until completion. We start by addressing the IT load scheduling of batch tasks, which are characterized by their release time, due date and resource demand, in a cloud datacenter while respecting the aforementioned power envelope. The data utilized for the batch tasks comes from datacenter traces, containing CPU, memory and network values. The power envelopes considered, represent an estimation which would be provided by a power decision module and is the expected power production based on weather forecasts. The aim is to maximize the Quality of Service with a variable constraint on electrical power. Furthermore, we explore a workload composed by batch and services, where the resources consumption varies over time. The traces utilized for the service tasks originate from business critical datacenter. In this case we rely on the concept of phases, where each significant resource change in the resources consumption constitutes a new phase of the given task. In this task model phases could also receive less resources than requested. The reduction of resources can impact the QoS and consequently the datacenter profit. In this approach we also include the concept of cross-correlation to evaluate where to place a task under a power curve, and what is the best node to place tasks together (i.e. sharing resources). Finally, considering the previous workload of batch tasks and services, we present an approach towards handling unexpected events in the datacenter. More specifically we focus on IT related events such as tasks arriving at any given time, demanding more or less resources than expected, or having a different finish time than what was initially expected. We adapt the proposed algorithms to take actions depending on which event occurs, e.g. task degradation to reduce the impact on the datacenter profit
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Vazquez, Llana Jordan Diego. „Environnement big data et prise de décision intuitive : le cas du Centre d'Information et de Commandement (CIC) de la Police nationale des Bouches du Rhône (DDSP 13)“. Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE3063.

Der volle Inhalt der Quelle
Annotation:
La thèse de ce travail de recherche se pose la question de la place de l’intuition dans le processus décisionnel en environnement big data. Il s’appuie sur une étude de cas exploratoire développée près des décideurs du Centre d’Information et de Commandement (CIC) de la Police Nationale (PN) des Bouches du Rhône. Ces derniers évoluent en environnement big data et doivent régulièrement gérer des situations imprévues. Le corpus des données de terrain a été construit par triangulation de 28 entretiens individuels et collectifs, d’observations non participantes ainsi que d’archives et de rapports officiels. Ces nouvelles informations sont autant d’indices qui permettent aux décideurs de mieux anticiper les imprévus, les conduisant à reconfigurer leurs attentes, leurs objectifs et leurs actions. Ces aspects positifs sont cependant à évaluer au regard du risque induit par le volume conséquent d’informations dorénavant à disposition des décideurs. Ils doivent maîtriser les nouveaux systèmes et les applications qui permettent d’exploiter l’environnement big data. Les résultats suggèrent que lorsque les décideurs ne maîtrisent pas ces systèmes, l’environnement big data peut conduire un décideur expert métier à redevenir un novice
Godé and Vazquez have previously demonstrated that French Police team operate in extreme contexts (Godé & Vazquez, 2017), simultaneously marked by high levels of change, uncertainty and mainly vital, material and legal risks (Godé, 2016), but also technological. In this context, the notion of big data environment, can affect the police decision-making process. The problematic of this thesis is : "What is the status of intuition in decision-making process in a big data environment?". We explain how the growth of available information volumes, the great diversity of their sources (social networks, websites, connected objects), their speed of diffusion (in real time or near real time) and their unstructured nature (Davenport & Soulard, 2014) introduces new decision-making challenges for National Police forces
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Tarrieu, Leïla. „Nouvelles données minéralogiques, géochimiques et géochronologiques sur le gisement polymétallique de Tighza (Maroc-Central). : Contribution à la métallogénie des gisements de métaux de base filoniens en contexte post-collisionnel“. Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENA017/document.

Der volle Inhalt der Quelle
Annotation:
Au Maroc, de nombreux filons à Pb-Zn-Ag sont encaissés dans des séries paléozoïques recoupées par des granitoïdes tardi-varisques. L'association spatiale de ces filons avec ces intrusions magmatiques a souvent été interprétée comme la preuve d'un lien génétique entre la mise en place des granitoïdes et l'hydrothermalisme minéralisateur. Toutefois, des observations récentes permettraient d'envisager que ces minéralisations puissent être post-hercyniennes, remettant en cause les modèles génétiques, et donc les stratégies d'exploration de ces métaux. Le district polymétallique de Tighza-Jbel Aouam (Maroc central) où des minéralisations à Pb-Zn-Ag sont concentrées autour de petits stocks granitiques est un site privilégié pour étudier les relations spatio-temporelles entre les granitoïdes et les minéralisations associées. Les objectifs de la thèse ont donc été : (i) d'approfondir la minéralogie des minéralisations, (ii) d'utiliser les méthodes géochronologiques les plus pertinentes pour dater les minéralisations, (iii) d'étudier les transferts magmas-fluides-métaux depuis les zones profondes (manteau, croûte inf.) vers les zones les plus superficielles de la lithosphère, à l'aide de traceurs géochimiques. Les stocks et dykes granitiques de Tighza ont été analysés et datés par U/Pb sur zircons. Ces roches appartiennent à une lignée calco-alcaline potassique et les datations mettent en évidence trois évènements magmatiques et hydrothermaux associés: (i) entre 320 et 300 Ma, mise en place de quelques dykes et des stocks granitiques ; (ii) entre 300 et 280 Ma, mise en place d'un pluton, actuellement non affleurant, accompagné par un hydrothermalisme responsable de la formation d'une auréole de métamorphisme hydrothermal, et du développement de minéralisations à W-Au ; (iii) entre 280 et 240 Ma, mise en place d'un réseau important de dykes NE-SW, accompagné par un hydrothermalisme minéralisateur en Pb-Zn-Ag caractérisé par une altération à chlorite-muscovite-calcite des métasédiments encaissants. L'étude détaillée des paragenèses des filons à Pb-Zn-Ag a permis d'établir le caractère pulsatoire de la précipitation des minéralisations. Quatre paragenèses successives ont été identifiées : (P1) stérile à sidérite ± quartz ; (P2) à calcite ± ankérite + sphalérite + galène ± sidérite ± quartz ± calcédoine ; (P3) à sidérite + sphalérite + galène ± quartz ; (P4) stérile à quartz + calcite + pyrite. Ces assemblages minéralogiques synchrones s'accompagnent de minéraux accessoires à éléments des terres rares (monazite, xénotime, synchisite), responsables des hautes teneurs en REE des carbonates de gangue (≃ 700 ppm). Des monazites d'un filon à Pb-Zn-Ag ont pu être datées par Th/Pb à 255 ± 15. L'étude des sources des métaux (isotopes Pb) indique que le plomb des minéralisations Pb-Zn-Ag provient du lessivage de la croûte supérieure. L'étude des sources des fluides minéralisateurs en Pb-Zn-Ag indique une origine crustale (isotopes He, Ar), avec un fort effet tampon par les schistes encaissants les minéralisations (isotopes C, O). Les fluides minéralisateurs en W-Au, sont eux issus d'un mélange entre une source météorique et une source mantellique (isotopes He, Ar), et ont donc une origine distincte du système à Pb-Zn-Ag. Le gisement polymétallique de Tighza-Jbel Aouam est donc caractérisé par le télescopage de plusieurs épisodes magmatiques et hydrothermaux guidés par un accident d'échelle lithosphérique et conduisant à la formation : (i) de minéralisations W-Au mésothermales pouvant être assimilées à un type porphyre, suivies pas (ii) des minéralisations à Pb-Zn-Ag épithermales. Ces épisodes magmatiques et métallogéniques s'étalent sur une durée de près de 80 Ma à la fin de l'orogenèse varisque, et caractérisent parfaitement le contexte post-collisionnel de cet orogène, notamment les effets associés au réequilibrage thermique de la croûte pendant la période permo-triasique et le prérifting Atlantique
In Morocco, many Pb-Zn-Ag vein-type deposits are hosted in paleozoic series crosscut by variscan granitoids. The spatial association of these veins with the magmatic intrusions has often been interpreted as evidence of a genetic link between the granitoids emplacement and the mineralizing hydrothermal event. However, recent data allow to consider a late-variscan emplacement of these mineralizations. Genetical models must thus be reviewed, as well as the exploration of these base metals strategy. The polymetallic district of Tighza-Jbel Aouam (Central Morocco), were Pb-Zn-Ag vein-type deposits are located around small granitic stocks, has been selected to study the spatial and temporal relationships between granitoids and associated mineralizations. The aims of this work have been: (i) to go further into the mineralizations mineralogy, (ii) to use appropriate geochronological methods to date the mineralizations, (iii) to study the magma-fluids-metals transfers from the deeper areas (mantle, deep crust) to the upper lithosphere, using geochemical tracers. Granitic stocks and dykes of Tighza have been analyzed and dated using U/Pb method on zircons. These rocks belong to a high-K calc-alkaline association and datations show three magmatic and associated hydrothermal events: 320 to 300 Ma, stocks with few dykes emplacement; 300 to 280 Ma, pluton emplacement with associated hydrothermal event and responsible for a hydrothermal metamorphic halo, mineralizing the W-Au ore; (iii) 280 to 240 Ma, NE-SW dykes network emplacement, associated with a Pb-Zn-Ag mineralizing hydrothermal event, characterized by a chlorite-muscovite-calcite alteration of the hosting metasediments. The detailed study of Pb-Zn-Ag veins paragenesis showed the pulsated character of the mineralization precipitations. Four successive paragenesis have been identified: (P1) siderite ± quartz; (P2) calcite ± ankerite + sphalerite + galena ± siderite ± quartz ± chalcedony; (P3) siderite + sphalerite + galena ± quartz ; (P4) quartz + calcite + pyrite. These synchrone paragenese are associated with REE-minerals (monazite, xenotime, synchisite) responsible for the high amount of REE in the gangue carbonates (≃ 700 ppm). Some monazites from a Pb-Zn-Ag vein have been dated at 255 ± 15 Ma using the Th/Pb method. The metals source study (lead isotopes) shows that the Pb of Pb-Zn-Ag mineralizations come from the upper crust leaching. The fluid sources study of Pb-Zn-Ag veins indicates a crustal origin (He, Ar isotopes) strongly buffered by the hosting shales (C, O isotopes). W-Au mineralizing fluids are stemming from a mixing of meteoric and mantellic fluids (He, Ar isotopes). W-Au and Pb-Zn-Ag are thus distinguished mineralizations. The polymetallic district of Tighza-Jbel Aouam is thus characterized by the superposition of several magmatic and hydrothermal events controlled by lithospheric scale leap, leading to the formation of: (i) mesothermal W-Au deposit which can be considered as a porphyry-type mineralization; (ii) epithermal Pb-Zn-Ag mineralization. These magmatic and metallogenic events last over 80 Ma after the end of the varican orogenesis, and characterize the post-collisional context of this orogen, in particular the effects of the thermal balance of the crust during the permo-triassic period and the Atlantic pre-rifting
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Ibrahim, Mahmoud. „Conception et optimisation d'Alimentations Sans Interruption“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT053/document.

Der volle Inhalt der Quelle
Annotation:
La conception des Alimentations Sans Interruption (ASI) a fait l’objet d’améliorations successives ces dernières années afin d’atteindre des niveaux de rendement avoisinant les 95% tout en minimisant leur encombrement. L’utilisation massive de l’électronique de puissance pour ces systèmes conduit à y concentrer tous les efforts de conception pour augmenter à la fois le rendement et la densité de puissance. Les développements constants en électronique de puissance offrent au concepteur des multitudes d’options, parmi elles, les topologies de puissance multi-niveaux et/ou entrelacées pour réduire le volume des composants passifs, les nouvelles technologies des matériaux semi-conducteurs avec l’introduction des composants grand gap, ainsi que l’avancée technologique sur les matériaux utilisés dans les composants passifs. Le choix entre ces options est un compromis pour atteindre les objectifs prédéfinis, particulièrement lorsque d’autres contraintes apparaissent pour limiter l’espace des solutions possibles, notamment l’aspect thermique, les limites technologiques ou les contraintes CEM. Ces travaux proposent la mise en œuvre de dimensionnements par optimisation multi-objectifs de l’ensemble du convertisseur avec toutes ses contraintes. Ceci offre un outil rapide pour comparer les différentes possibilités de conception optimale capable de quantifier le gain apporté au convertisseur par les différentes solutions. Pour ce faire, les différents choix topologiques et technologiques ont été traités par le développement de modèles multi-physiques acceptant des paramètres d’entrée discrets. Ainsi, les convertisseurs optimisés répondent naturellement aux contraintes industrielles cadrées par des catalogues de fournisseurs spécifiques. Pour ce faire, nous avons commencé par dresser les différentes contraintes énergétiques imposées sur l’ASI dans son environnement. L’identification des solutions adaptées à sa conception est réalisée à travers un état de l’art des recherches dans le domaine de l’électronique de puissance. Des modèles génériques des structures de puissance, ainsi que des modèles multi-physiques discrets des composants sont ensuite développés à la base des approches analytiques assurant le bon compromis entre précision et rapidité de calcul. Finalement, une méthodologie d’optimisation multi-objectif et multi contraintes est réalisé sur l’ensemble des solutions pour quantifier les performances atteintes par chacune d’elles. Des travaux expérimentaux nous ont été indispensables pour valider les modèles et les solutions optimales. Sur la base des résultats d’optimisation un convertisseur PFC de 4.2kW/L a été construit est ses performances ont été validées
The design of Uninterruptible Power Supplies (UPS) has been successively improved in recent years to achieve efficiency levels of around 95% while minimizing their footprint. The massive use of power electronics for these systems is led to focus all design efforts to increase both efficiency and power density. The constant developments in power electronics provide the designer many options, among them the multi-level and/or interleaved power topologies in order to reduce passive components size, the new technologies of semiconductor materials with the introduction of grand gap components and advanced technology on passive components materials. The choice between these options is a compromise to achieve the predefined objectives, particularly when other constraints appear to limit the space of possible solutions, including thermal aspect, technological limitations or EMI constraints. This work proposes the implementation of multi-objective optimization methodology for the design of power converters with all its constraints. This offers a quick tool to compare the different possibilities of design and to quantify the improvement provided to the converter. To do this, different topological and technological choices were studied with the development of multi-physics models. These models can take discrete variables as input. So, optimized converters could meet industrial requirements covered by real components and their datasheets. To do this, we first establish the different constraints imposed on the UPS within its environment. Identifying solutions to design is carried through a state of the art research in the field of power electronics. Generic models of power structures and discrete multi-physical models of the components are then developed based on analytical approaches by ensuring a good compromise between accuracy and speed of calculation. Finally, multi-objective and multi constraints optimization methodology is performed on the set of design choices to quantify the performances achieved by each of them. Experimental work has been essential for us to validate the models and optimal solutions. Based on the optimization results PFC converter of 4.2kW/L was built is its performance has been validated
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Grange, Léo. „Datacenter management for on-site intermittent and uncertain renewable energy sources“. Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30176.

Der volle Inhalt der Quelle
Annotation:
Les technologies de l'information et de la communication sont devenues, au cours des dernières années, un pôle majeur de consommation énergétique avec les conséquences environnementales associées. Dans le même temps, l'émergence du Cloud computing et des grandes plateformes en ligne a causé une augmentation en taille et en nombre des centres de données. Pour réduire leur impact écologique, alimenter ces centres avec des sources d'énergies renouvelables (EnR) apparaît comme une piste de solution. Cependant, certaines EnR telles que les énergies solaires et éoliennes sont liées aux conditions météorologiques, et sont par conséquent intermittentes et incertaines. L'utilisation de batteries ou d'autres dispositifs de stockage est souvent envisagée pour compenser ces variabilités de production. De par leur coût important, économique comme écologique, ainsi que les pertes énergétiques engendrées, l'utilisation de ces dispositifs sans intégration supplémentaire est insuffisante. La consommation électrique d'un centre de données dépend principalement de l'utilisation des ressources de calcul et de communication, qui est déterminée par la charge de travail et les algorithmes d'ordonnancement utilisés. Pour utiliser les EnR efficacement tout en préservant la qualité de service du centre, une gestion coordonnée des ressources informatiques, des sources électriques et du stockage est nécessaire. Il existe une grande diversité de centres de données, ayant différents types de matériel, de charge de travail et d'utilisation. De la même manière, suivant les EnR, les technologies de stockage et les objectifs en termes économiques ou environnementaux, chaque infrastructure électrique est modélisée et gérée différemment des autres. Des travaux existants proposent des méthodes de gestion d'EnR pour des couples bien spécifiques de modèles électriques et informatiques. Cependant, les multiples combinaisons de ces deux parties rendent difficile l'extrapolation de ces approches et de leurs résultats à des infrastructures différentes. Cette thèse explore de nouvelles méthodes pour résoudre ce problème de coordination. Une première contribution reprend un problème d'ordonnancement de tâches en introduisant une abstraction des sources électriques. Un algorithme d'ordonnancement est proposé, prenant les préférences des sources en compte, tout en étant conçu pour être indépendant de leur nature et des objectifs de l'infrastructure électrique. Une seconde contribution étudie le problème de planification de l'énergie d'une manière totalement agnostique des infrastructures considérées. Les ressources informatiques et la gestion de la charge de travail sont encapsulées dans une boîte noire implémentant un ordonnancement sous contrainte de puissance. La même chose s'applique pour le système de gestion des EnR et du stockage, qui agit comme un algorithme d'optimisation d'engagement de sources pour répondre à une demande. Une optimisation coopérative et multiobjectif, basée sur un algorithme évolutionnaire, utilise ces deux boîtes noires afin de trouver les meilleurs compromis entre les objectifs électriques et informatiques. Enfin, une troisième contribution vise les incertitudes de production des EnR pour une infrastructure plus spécifique. En utilisant une formulation en processus de décision markovien (MDP), la structure du problème de décision sous-jacent est étudiée. Pour plusieurs variantes du problème, des méthodes sont proposées afin de trouver les politiques optimales ou des approximations de celles-ci avec une complexité raisonnable
In recent years, information and communication technologies (ICT) became a major energy consumer, with the associated harmful ecological consequences. Indeed, the emergence of Cloud computing and massive Internet companies increased the importance and number of datacenters around the world. In order to mitigate economical and ecological cost, powering datacenters with renewable energy sources (RES) began to appear as a sustainable solution. Some of the commonly used RES, such as solar and wind energies, directly depends on weather conditions. Hence they are both intermittent and partly uncertain. Batteries or other energy storage devices (ESD) are often considered to relieve these issues, but they result in additional energy losses and are too costly to be used alone without more integration. The power consumption of a datacenter is closely tied to the computing resource usage, which in turn depends on its workload and on the algorithms that schedule it. To use RES as efficiently as possible while preserving the quality of service of a datacenter, a coordinated management of computing resources, electrical sources and storage is required. A wide variety of datacenters exists, each with different hardware, workload and purpose. Similarly, each electrical infrastructure is modeled and managed uniquely, depending on the kind of RES used, ESD technologies and operating objectives (cost or environmental impact). Some existing works successfully address this problem by considering a specific couple of electrical and computing models. However, because of this combined diversity, the existing approaches cannot be extrapolated to other infrastructures. This thesis explores novel ways to deal with this coordination problem. A first contribution revisits batch tasks scheduling problem by introducing an abstraction of the power sources. A scheduling algorithm is proposed, taking preferences of electrical sources into account, though designed to be independent from the type of sources and from the goal of the electrical infrastructure (cost, environmental impact, or a mix of both). A second contribution addresses the joint power planning coordination problem in a totally infrastructure-agnostic way. The datacenter computing resources and workload management is considered as a black-box implementing a scheduling under variable power constraint algorithm. The same goes for the electrical sources and storage management system, which acts as a source commitment optimization algorithm. A cooperative multiobjective power planning optimization, based on a multi-objective evolutionary algorithm (MOEA), dialogues with the two black-boxes to find the best trade-offs between electrical and computing internal objectives. Finally, a third contribution focuses on RES production uncertainties in a more specific infrastructure. Based on a Markov Decision Process (MDP) formulation, the structure of the underlying decision problem is studied. For several variants of the problem, tractable methods are proposed to find optimal policies or a bounded approximation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Cordova, David. „Étude et réalisation d’une chaîne de conversion de données pour liaisons numériques à très haut débit“. Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0269.

Der volle Inhalt der Quelle
Annotation:
La demande croissante de débits de données plus élevés dans les centres de données a conduit à de nouveaux protocoles émergents (100 - 400G Ethernet et autres) dans les communications filaires.Ces protocoles favoriseront des encodages plus sophistiqués utilisant moins de bande passante de fréquence. Les exigences de vitesse devenant plus strictes, les architectures analogiques pures ne peuvent y répondre. Ainsi, un virage naturel vers des architectures à signaux mixtes est attendu.Cette thèse propose la conception d'une architecture de récepteur basée sur un Convertisseur Analogique-Numérique (CAN). Il utilise une méthodologie de conception pour définir et valider les exigences et les spécifications des récepteurs filaires à base de silicium qui sont conformes à un fonctionnement supérieur à >100Gb/s sur des canaux de transmission avec des pertes élevées (>20dB).Un prototype en technologie 22nm CMOS FDSOI est proposé comme preuve de concept
The increasing demand of higher data rates in datacenters has led tonew emerging standards (100 - 400G Ethernet and others) in wireline communications. These standards will favor more sophisticated encodings that use less frequency bandwidth. As speed requirements become more stringent, pure analog architectures can not meet them. So, a natural shift towards mixed-signal architectures is expected.This thesis proposes the design of an ADC-based receiver architecture. It uses a design methodology to define and validate the requirements and specifications for silicon-based wireline receivers that comply with >100Gb/s operation over transmission channels with high losses (>20dB). A prototype in 22nm CMOS FDSOI technology is proposed as proof of concept
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Dab, Boutheina. „Optimization of routing and wireless resource allocation in hybrid data center networks“. Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1068/document.

Der volle Inhalt der Quelle
Annotation:
L’arrivée de la prochaine technologie 5G va permettre la connectivité des billions de terminaux mobiles et donc une énorme augmentation du trafic de données. A cet égard, les fournisseurs des services Cloud doivent posséder les infrastructures physiques capables de supporter cette explosion de trafic. Malheureusement, les architectures filaires conventionnelles des centres de données deviennent staturées et la congestion des équipements d’interconnexion est souvent atteinte. Dans cette thèse, nous explorons une approche récente qui consiste à augmenter le réseau filaire du centre de données avec l’infrastructure sans fil. En effet, nous exploitons une nouvelle technologie émergente, la technologie 60 GHz, qui assure un débit de l’ordre de 7 Gbits/s afin d’améliorer la QoS. Nous concevons une architecture hybride (filaire/sans fil) du réseau de centre de données basée sur : i) le modèle "Cisco’s Massively Scalable Data Center" (MSDC), et ii) le standard IEEE 802.11ad. Dans une telle architecture, les serveurs sont regroupés dans des racks, et sont interconnectés à travers un switch Ethernet, appelé top-of-rack (ToR) switch. Chaque ToR switch possède plusieurs antennes utilisées en parallèle sur différents canaux sans fil. L’objectif final consiste à minimiser la congestion du réseau filaire, en acheminant le maximum du trafic sur les canaux sans fil. Pour ce faire, cette thèse se focalise sur l’optimisation du routage et de l’allocation des canaux sans fil pour les communications inter-rack, au sein d’un centre de données hybride (HDCN). Ce problème étant NP-difficile, nous allons procéder en trois étapes. En premier lieu, on considère le cas des communications à un saut, où les racks sont placés dans le même rayon de transmission. Nous proposons un nouvel algorithme d’allocation des canaux sans fil dans les HDCN, qui permet d’acheminer le maximum des communications en sans-fil, tout en améliorant les performances réseau en termes de débit et délai. En second lieu, nous nous adressons au cas des communications à plusieurs sauts, où les racks ne sont pas dans le même rayon de transmission. Nous allons proposer une nouvelle approche optimale traitant conjointement le problème du routage et de l’allocation de canaux sans fils dans le HDCN, pour chaque communication, dans un mode online. En troisième étape, nous proposons un nouvel algorithme qui calcule conjointement le routage et l’allocation des canaux pour un ensemble des communications arrivant en mode batch (i.e., par lot). En utilisant le simulateur réseau QualNet, considérant toute la pile TCP/IP, les résultats obtenus montrent que nos propositions améliorent les performances comparées aux méthodes de l’état de l’art
The high proliferation of smart devices and online services allows billions of users to connect with network while deploying a vast range of applications. Particularly, with the advent of the future 5G technology, it is expected that a tremendous mobile and data traffic will be crossing Internet network. In this regard, Cloud service providers are urged to rethink their data center architectures in order to cope with this unprecedented traffic explosion. Unfortunately, the conventional wired infrastructures struggle to resist to such a traffic growth and become prone to serious congestion problems. Therefore, new innovative techniques are required. In this thesis, we investigate a recent promising approach that augments the wired Data Center Network (DCN) with wireless communications. Indeed, motivated by the feasibility of the new emerging 60 GHz technology, offering an impressive data rate (≈ 7 Gbps), we envision, a Hybrid (wireless/wired) DCN (HDCN) architecture. Our HDCN is based on i) Cisco’s Massively Scalable Data Center (MSDC) model and ii) IEEE 802.11ad standard. Servers in the HDCN are regrouped into racks, where each rack is equipped with a: i) Ethernet top-of-rack (ToR) switch and ii) set of wireless antennas. Our research aims to optimize the routing and the allocation of wireless resources for inter-rack communications in HDCN while enhancing network performance and minimizing congestion. The problem of routing and resource allocation in HDCN is NP-hard. To deal with this difficulty, we will tackle the problem into three stages. In the first stage, we consider only one-hop inter-rack communications in HDCN, where all communicating racks are in the same transmission range. We will propound a new wireless channel allocation approach in HDCN to hardness both wireless and wired interfaces for incoming flows while enhancing network throughput. In the second stage, we deal with the multi-hop communications in HDCN where communicating racks can not communicate in one single-hop wireless path. We propose a new approach to jointly route and allocate channels for each single communication flow, in an online way. Finally, in the third stage, we address the batched arrival of inter-rack communications to the HDCN so as to further optimize the usage of wireless and wired resources. For that end, we propose: i) a heuristic-based and ii) an approximate, solutions, to solve the joint batch routing and channel assignment. Based on extensive simulations conducted in QualNet simulator while considering the full protocol stack, the obtained results for both real workload and uniform traces, show that our proposals outperform the prominent related strategies
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Chkirbene, Zina. „Network topologies for cost reduction and QoS improvement in massive data centers“. Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCK002/document.

Der volle Inhalt der Quelle
Annotation:
L'expansion des services en ligne, l'avènement du big data, favorisé par l'internet des objets et les terminaux mobiles, a entraîné une croissance exponentielle du nombre de centres de données qui fournissent des divers services de cloud computing. Par conséquent, la topologie du centre de données est considérée comme un facteur d'influence sur la performance du centre de données. En effet, les topologies des centres de données devraient offrir une latence faible, une longueur de chemin moyenne réduite avec une bande passante élevée. Ces exigences augmentent la consommation énergétique dans les centres de données. Dans cette dissertation, différentes solutions ont été proposées pour surmonter ces problèmes. Tout d'abord, nous proposons une nouvelle topologie appelée LCT (Linked Cluster Topology) qui augmente le nombre de nœuds, améliore la connexion réseau et optimise le routage des données pour avoir une faible latence réseau. Une nouvelle topologie appelée VacoNet (Variable connexion Network) a été également présentée. VacoNet offre un nouveau algorithme qui définit le exact nombre de port par commutateur pour connecter le nombre de serveurs requis tout en réduisant l'énergie consommée et les matériaux inutilisés (câbles, commutateurs). En outre, nous _étudions une nouvelle technique pour optimiser la consumation d'énergie aux centres de données. Cette technique peut périodiquement estimer la matrice de trafic et gérer l'_état des ports de serveurs tout en maintenant le centre de données entièrement connecté. La technique proposée prend en considération le trafic réseau dans la décision de gestion des ports
Data centers (DC) are being built around the world to provide various cloud computing services. One of the fundamental challenges of existing DC is to design a network that interconnects massive number of nodes (servers)1 while reducing DC' cost and energy consumption. Several solutions have been proposed (e.g. FatTree, DCell and BCube), but they either scale too fast (i.e., double exponentially) or too slow. Effcient DC topologies should incorporate high scalability, low latency, low Average Path Length (APL), high Aggregated Bottleneck Throughput (ABT) and low cost and energy consumption. Therefore, in this dissertation, different solutions have been proposed to overcome these problems. First, we propose a novel DC topology called LCT (Linked Cluster Topology) as a new solution for building scalable and cost effective DC networking infrastructures. The proposed topology reduces the number of redundant connections between clusters of nodes, while increasing the numbers of nodes without affecting the network bisection bandwidth. Furthermore, in order to reduce the DCs cost and energy consumption, we propose first a new static energy saving topology called VacoNet (Variable Connection Network) that connects the needed number of servers while reducing the unused materials (cables, switches). Also, we propose a new approach that exploits the correlation in time of internode communication and some topological features to maximize energy saving without too much impacting the average path length
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Petitdemange, Eva. „SAMUFLUX : une démarche outillée de diagnostic et d'amélioration à base de doubles numériques : application aux centres d'appels d'urgence de trois SAMU“. Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2020. http://www.theses.fr/2020EMAC0012.

Der volle Inhalt der Quelle
Annotation:
L’engorgement des structures d’urgence médicale est une réalité à laquelle les SAMU (Service d’Aide Médicale Urgente) n’échappent pas (5 à 15% d’augmentation des appels par an). De récents événements comme la pandémie de Covid-19 montrent les limites du système actuel pour faire face aux situations de crise. Le renfort en moyens humains ne peut être la seule solution face à ce constat et il devient incontournable de construire de nouveaux modèles organisationnels tout en visant une qualité de service permettant de répondre à 99% des appels entrants en moins de 60 secondes. Toutefois, ces modèles doivent prendre en compte la grande hétérogénéité des SAMU et de leur fonctionnement. A la lumière de ces constats, le travail de recherche présenté dans ce manuscrit a pour but d'évaluer l'efficacité organisationnelle et la résilience des SAMU dans la prise en charge des flux d'appels téléphoniques d'urgence pour faire face au quotidien et aux situations de crise. Cette évaluation nous permet de proposer et de tester de nouveaux schémas organisationnels afin de faire des préconisations adaptées aux particularités des centres d'appels d'urgence. Dans une première partie, nous proposons une méthodologie outillée pour le diagnostic et l'amélioration des centres d'appels d'urgence. Elle se décompose en deux grands volets : l'étude des données issues des centres d'appel d'urgence puis la conception et l'utilisation d'un double numérique. Pour chaque étape de cette méthodologie, nous proposons un outil associé. Dans une seconde partie, nous appliquons le premier volet de la méthodologie aux données de nos SAMU partenaires. Il s'agit d'être capable d'extraire de l'information et des connaissances des données de téléphonies ainsi que des processus métiers pour le traitement des appels d'urgence. La connaissance ainsi extraite permet de concevoir un double numérique qui soit proche du comportement réel des SAMU. Enfin dans une troisième partie, nous utilisons la matière produite précédemment pour modéliser et paramétrer un double numérique déployé sur un moteur de simulation à événements discret. Il nous permet de tester plusieurs scénarios en jouant sur différentes organisations de gestion de l'appel. Grâce à cela, nous faisons des préconisations sur les types d'organisations à adopter afin d'améliorer les performances des centres d'appel
The demand for emergency medical services has been significant and increasing over the last decade. In a constrained medico-economic context, the maintenance of operational capacities represents a strategic strake in front of the risk of congestion and insufficient accessibility for the population. Recent events such as the COVID-19 pandemic show the limits of the current system to face crisis situations. Reinforcement in human resources cannot be the only solution in front of this observation and it becomes unavoidable to build new organizational models while aiming at a quality of service allowing to answer 99% of the incoming calls in less than 60 seconds (90% in 15s and 99% in 30s MARCUS report and HAS recommendation October 2020). However, these models must take into account the great heterogeneity of EMS and their operation. In the light of these findings, the research work presented in this manuscript aims to evaluate the organizational effiectiveness and resilience of EMS in managing the flow of emergency telephone calls to deal with daily life and crisis situations. This evaluation allows us to propose and test new organizational schemes in order to make recommendations adpated to the particularities of emergency call centers. In a first part, we propose a methodology equipped for the diagnosis and improvement of emergency call centers. It can be broken down into two main parts: the study of data from emergency call centers, and then the design and use of a dual digital system. For each step of this methodology, we propose an associated tool. In a second part, we apply the first part of the methodology to our partner EMS data. The aim is to be able to extract information and knowledge from the telephony data as well as from the business processes for handling emergency calls. The knowledge thus extracted makes it possible to design a digital duplicate that is close to the real behavior of the EMS. Finally, in a third part, we use the material produced previously to model and parameterize a digital duplicate deployed on a discrete event simulation engine. It allows us to test several scenarios by playing on different call management organizations. Thanks to this, we make recommendations on the types of organizations to adopt in order to improve the performance of call centers
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Salazar, Javier. „Resource allocation optimization algorithms for infrastructure as a service in cloud computing“. Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB074.

Der volle Inhalt der Quelle
Annotation:
L’informatique, le stockage des données et les applications à la demande font partie des services offerts par l’architecture informatique en Nuage. Dans ce cadre, les fournisseurs de nuage (FN) agissent non seulement en tant qu’administrateurs des ressources d'infrastructure mais ils profitent aussi financièrement de la location de ces ressources. Dans cette thèse, nous proposons trois modèles d'optimisation du processus d'allocation des ressources dans le nuage dans le but de réduire les coûts générés et d’accroitre la qualité du service rendu. Cela peut être accompli en fournissant au FN les outils formels nécessaires pour réduire au minimum le prix des ressources dédiées à servir les requêtes des utilisateurs. Ainsi, la mise en œuvre des modèles proposés permettra non seulement l’augmentation des revenus du FN, mais aussi l’amélioration de la qualité des services offerts, ce qui enrichira l’ensemble des interactions qui se produisent dans le nuage. A cet effet, nous nous concentrons principalement sur les ressources de l’infrastructure en tant que service (IaaS), lesquels sont contenus dans des centres de données (DCs), et constituent l'infrastructure physique du nuage. Comme une alternative aux immenses DCs centralisés, la recherche dans ce domaine comprend l’installation de petits centres de données (Edge DCs) placés à proximité des utilisateurs finaux. Dans ce contexte nous adressons le problème d’allocation des ressources et pour ce faire nous utilisons la technique d'optimisation nommée génération de colonnes. Cette technique nous permet de traiter des modèles d'optimisation à grande échelle de manière efficace. La formulation proposée comprend à la fois, et dans une seule phase, les communications et les ressources informatiques à optimiser dans le but de servir les requêtes de service d'infrastructure. Sur la base de cette formulation, nous proposons également un deuxième modèle qui comprend des garanties de qualité de service toujours sous la même perspective d'allocation des ressources d’infrastructure en tant que service. Ceci nous permet de fournir plusieurs solutions applicables à divers aspects du même problème, tels que le coût et la réduction des délais, tout en offrant différents niveaux de service. En outre, nous introduisons le scénario informatique en nuage multimédia, qui, conjointement avec l'architecture des Edge DCs, résulte en l'architecture Multimédia Edge Cloud (MEC). Dans ce cadre, nous proposons une nouvelle approche pour l'allocation des ressources dans les architectures informatique en nuage multimédia lors du positionnement de ces DCs afin de réduire les problèmes liés à la communication, tels que la latence et la gigue. Dans cette formulation, nous proposons également de mettre en œuvre des technologies optiques de réseau de fibres pour améliorer les communications entre les DCs. Plusieurs travaux ont proposé de nouvelles méthodes pour améliorer la performance et la transmission de données. Dans nos travaux, nous avons décidé de mettre en œuvre le multiplexage en longueur d'onde (WDM) pour renforcer l'utilisation des liens et les chemins optiques dans le but de grouper différents signaux sur la même longueur d'onde. Un environnement de simulation réel est également présenté pour l’évaluation des performances et de l'efficacité des approches proposées. Pour ce faire, nous utilisons le scénario spécifié pour les DCs, et nous comparons par simulation nos modèles au moyen de différents critères de performances tel que l'impact de la formulation optique sur la performance du réseau. Les résultats numériques obtenus ont montré que, en utilisant nos modèles, le FN peut efficacement réduire les coûts d'allocation en maintenant toujours un niveau satisfaisant quant à l'acceptation de requêtes et la qualité du service
The cloud architecture offers on-demand computing, storage and applications. Within this structure, Cloud Providers (CPs) not only administer infrastructure resources but also directly benefit from leasing them. In this thesis, we propose three optimization models to assist CPs reduce the costs incurred in the resource allocation process when serving users’ demands. Implementing the proposed models will not only increase the CP’s revenue but will also enhance the quality of the services offered, benefiting all parties. We focus on Infrastructure as a Service (IaaS) resources which constitute the physical infrastructure of the cloud and are contained in datacenters (DCs). Following existing research in DC design and cloud computing applications, we propose the implementation of smaller DCs (Edge DCs) be located close to end users as an alternative to large centralized DCs. Lastly, we use the Column Generation optimization technique to handle large scale optimization models efficiently. The proposed formulation optimizes both the communications and information technology resources in a single phase to serve IaaS requests. Based on this formulation, we also propose a second model that includes QoS guarantees under the same Infrastructure as a Service resource allocation perspective, to provide different solutions to diverse aspects of the resource allocation problem such as cost and delay reduction while providing different levels of service. Additionally, we consider the multimedia cloud computing scenario. When Edge DCs architecture is applied to this scenario it results in the creation of the Multimedia Edge Cloud (MEC) architecture. In this context we propose a resource allocation approach to help with the placement of these DCs to reduce communication related problems such as jitter and latency. We also propose the implementation of optical fiber network technologies to enhance communication between DCs. Several studies can be found proposing new methods to improve data transmission and performance. For this study, we decided to implement Wavelength Division Multiplexing (WDM) to strengthen the link usage and light-paths and, by doing so, group different signals over the same wavelength. Using a realistic simulation environment, we evaluate the efficiency of the approaches proposed in this thesis using a scenario specifically designed for the DCs, comparing them with different benchmarks and also simulating the effect of the optical formulation on the network performance. The numerical results obtained show that by using the proposed models, a CP can efficiently reduce allocation costs while maintaining satisfactory request acceptance and QoS ratios
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Ait, el mahjoub Youssef. „Performance evaluation of green IT networks“. Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG011.

Der volle Inhalt der Quelle
Annotation:
L'économie d'énergie dans les réseaux de télécommunication est un objectif majeur pour réduire la consommation globale. La part du domaine IT est déjà très élevée et tend à augmenter. En effet, de nombreuses techniques pour réduire la consommation dans d'autres industries ou services se traduit par plus de traitements informatiques et de télécommunications (l'approche ”Green by IT”) et donc par une augmentation de la consommation dans les domaines IT. Il est donc important d'un point de vue économique d'arriver à réduire la consommation énergétique par bit transmis ou calculé (l'approche ”Green IT” qui est au centre de notre approche). Dans le domaine des réseaux, l'optimisation énergétique repose principalement sur une adaptation de l'architecture et des ressources employées en fonction des flux à transporter et de la qualité de service promise. On cherche donc à adapter les ressources à la demande, ce qui se traduit par un dimensionnement dynamique et adapté à la charge. Ceci est par nature différent d'un dimensionnement au pire cas que l'on utilise généralement. Sur le plan technologique, cela nécessite que les équipements de réseaux disposent de modes ”sleep”,”deep sleep” ou ”hibernate” (terminologie variant selon les fournisseurs)mais qui sont tous associés au même concept: mettre en sommeil l'équipement pour réduire sa consommation d'énergie. Pour que le compromis performance/énergie soit pertinent, il parait important d'utiliser des formules de consommation énergétiques obtenues à partir de l'utilisation des ressources du réseau. Les méthodes que nous proposons relèvent de la théorie des réseaux de files d'attente, l'analyse des chaines de Markov (analytiquement en proposant de nouvelles formes produitet numériquement en suggérant de nouveaux algorithmes de résolution) et la théorie de la comparaison stochastique. Au niveau applicatif nous avons traité différentes problématiques: les mécanismes de DVFS avec un changement de vitesse des processeurs, la migration de tâche entre serveurs physique dans un centre de données (équilibre de charge, consolidation), les réseaux optique avec un remplissage efficace des conteneurs optiques, la distribution d'énergie intermittente dans un réseau de capteurs (et réseau LORA) notamment en proposant un nouveau modèle des réseaux à paquet d'énergie (EPNs)
Energy saving in telecommunication networks is a major objective to reduce overall consumption. The IT sector already has a very high contribution to this increase. Indeed, many techniques to reduce consumption in other industries or services results in more IT and telecommunications (the "Green by IT" approach) and therefore in an increase of consumption in IT domains. It is therefore important from an economical point of view to reduce the energy consumption per transmitted or calculated bit (the "Green IT" concept). In the networks domain, energy optimization is mainly based on an adaptation of the architecture and the resources employed according to the traffic flows to be transported and the promised quality of service. We therefore seek to adapt resources to demand, which results in a dynamic dimensioning adapted to the load. This is by nature different from the worst-case dimensioning commonly used. In terms of technology, this requires network equipment to have "sleep", "deep sleep" or "hibernate" modes (terminology varies among suppliers), but all of these modes are associated with the same concept: putting the equipment to sleep to reduce its energy consumption. For the performance/energy trade-off to be relevant, it seems important to use energy consumption formulas obtained from the network resource utilization. The approaches we propose are based on the theory of queuing networks, Markov chain analysis (analytically by proposing new product forms and numerically by suggesting new resolution algorithms) and the theory of stochastic comparison.At the application level we have addressed various issues: DVFS mechanisms with a change of processors speed, task migration between physical servers in a data center (load balancing, consolidation), optical networks with efficient filling of optical containers, intermittent power distribution in a sensor network (and LoRa network) including a new model of Energy Packet Networks (EPNs)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Salazar, Javier. „Resource allocation optimization algorithms for infrastructure as a service in cloud computing“. Electronic Thesis or Diss., Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB074.

Der volle Inhalt der Quelle
Annotation:
L’informatique, le stockage des données et les applications à la demande font partie des services offerts par l’architecture informatique en Nuage. Dans ce cadre, les fournisseurs de nuage (FN) agissent non seulement en tant qu’administrateurs des ressources d'infrastructure mais ils profitent aussi financièrement de la location de ces ressources. Dans cette thèse, nous proposons trois modèles d'optimisation du processus d'allocation des ressources dans le nuage dans le but de réduire les coûts générés et d’accroitre la qualité du service rendu. Cela peut être accompli en fournissant au FN les outils formels nécessaires pour réduire au minimum le prix des ressources dédiées à servir les requêtes des utilisateurs. Ainsi, la mise en œuvre des modèles proposés permettra non seulement l’augmentation des revenus du FN, mais aussi l’amélioration de la qualité des services offerts, ce qui enrichira l’ensemble des interactions qui se produisent dans le nuage. A cet effet, nous nous concentrons principalement sur les ressources de l’infrastructure en tant que service (IaaS), lesquels sont contenus dans des centres de données (DCs), et constituent l'infrastructure physique du nuage. Comme une alternative aux immenses DCs centralisés, la recherche dans ce domaine comprend l’installation de petits centres de données (Edge DCs) placés à proximité des utilisateurs finaux. Dans ce contexte nous adressons le problème d’allocation des ressources et pour ce faire nous utilisons la technique d'optimisation nommée génération de colonnes. Cette technique nous permet de traiter des modèles d'optimisation à grande échelle de manière efficace. La formulation proposée comprend à la fois, et dans une seule phase, les communications et les ressources informatiques à optimiser dans le but de servir les requêtes de service d'infrastructure. Sur la base de cette formulation, nous proposons également un deuxième modèle qui comprend des garanties de qualité de service toujours sous la même perspective d'allocation des ressources d’infrastructure en tant que service. Ceci nous permet de fournir plusieurs solutions applicables à divers aspects du même problème, tels que le coût et la réduction des délais, tout en offrant différents niveaux de service. En outre, nous introduisons le scénario informatique en nuage multimédia, qui, conjointement avec l'architecture des Edge DCs, résulte en l'architecture Multimédia Edge Cloud (MEC). Dans ce cadre, nous proposons une nouvelle approche pour l'allocation des ressources dans les architectures informatique en nuage multimédia lors du positionnement de ces DCs afin de réduire les problèmes liés à la communication, tels que la latence et la gigue. Dans cette formulation, nous proposons également de mettre en œuvre des technologies optiques de réseau de fibres pour améliorer les communications entre les DCs. Plusieurs travaux ont proposé de nouvelles méthodes pour améliorer la performance et la transmission de données. Dans nos travaux, nous avons décidé de mettre en œuvre le multiplexage en longueur d'onde (WDM) pour renforcer l'utilisation des liens et les chemins optiques dans le but de grouper différents signaux sur la même longueur d'onde. Un environnement de simulation réel est également présenté pour l’évaluation des performances et de l'efficacité des approches proposées. Pour ce faire, nous utilisons le scénario spécifié pour les DCs, et nous comparons par simulation nos modèles au moyen de différents critères de performances tel que l'impact de la formulation optique sur la performance du réseau. Les résultats numériques obtenus ont montré que, en utilisant nos modèles, le FN peut efficacement réduire les coûts d'allocation en maintenant toujours un niveau satisfaisant quant à l'acceptation de requêtes et la qualité du service
The cloud architecture offers on-demand computing, storage and applications. Within this structure, Cloud Providers (CPs) not only administer infrastructure resources but also directly benefit from leasing them. In this thesis, we propose three optimization models to assist CPs reduce the costs incurred in the resource allocation process when serving users’ demands. Implementing the proposed models will not only increase the CP’s revenue but will also enhance the quality of the services offered, benefiting all parties. We focus on Infrastructure as a Service (IaaS) resources which constitute the physical infrastructure of the cloud and are contained in datacenters (DCs). Following existing research in DC design and cloud computing applications, we propose the implementation of smaller DCs (Edge DCs) be located close to end users as an alternative to large centralized DCs. Lastly, we use the Column Generation optimization technique to handle large scale optimization models efficiently. The proposed formulation optimizes both the communications and information technology resources in a single phase to serve IaaS requests. Based on this formulation, we also propose a second model that includes QoS guarantees under the same Infrastructure as a Service resource allocation perspective, to provide different solutions to diverse aspects of the resource allocation problem such as cost and delay reduction while providing different levels of service. Additionally, we consider the multimedia cloud computing scenario. When Edge DCs architecture is applied to this scenario it results in the creation of the Multimedia Edge Cloud (MEC) architecture. In this context we propose a resource allocation approach to help with the placement of these DCs to reduce communication related problems such as jitter and latency. We also propose the implementation of optical fiber network technologies to enhance communication between DCs. Several studies can be found proposing new methods to improve data transmission and performance. For this study, we decided to implement Wavelength Division Multiplexing (WDM) to strengthen the link usage and light-paths and, by doing so, group different signals over the same wavelength. Using a realistic simulation environment, we evaluate the efficiency of the approaches proposed in this thesis using a scenario specifically designed for the DCs, comparing them with different benchmarks and also simulating the effect of the optical formulation on the network performance. The numerical results obtained show that by using the proposed models, a CP can efficiently reduce allocation costs while maintaining satisfactory request acceptance and QoS ratios
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Segalini, Andrea. „Alternatives à la migration de machines virtuelles pour l'optimisation des ressources dans les centres informatiques hautement consolidés“. Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4085.

Der volle Inhalt der Quelle
Annotation:
La virtualisation est une technologie de première importance dans les centres informatiques (data centers). Elle fournit deux mécanismes clés, les machines virtuelles et la migration, qui permettent de maximiser l’utilisation des ressources pour réduire les dépenses d’investissement. Dans cette thèse, nous avons identifié et étudié deux contextes où la migration traditionnelle ne parvient pas à fournir les outils optimaux pour utiliser au mieux les ressources disponibles dans un cluster : les machines virtuelles inactives et les mises à jour à grande échelle des hyperviseurs.Les machines virtuelles inactives verrouillent en permanence les ressources qui leur sont attribuées uniquement dans l’attente des (rares) demandes des utilisateurs. Ainsi, alors qu’elles sont la plupart du temps inactifs, elles ne peuvent pas être arrêtées, ce qui libérerait des ressources pour des services plus demandeurs. Pour résoudre ce problème, nous proposons SEaMLESS, une solution qui exploite une nouvelle forme de migration de VM vers un conteneur, en transformant les machines virtuelles Linux inactives en proxys sans ressources. SEaMLESS intercepte les nouvelles demandes des utilisateurs lorsque les machines virtuelles sont désactivées, reprenant de manière transparente leur exécution dès que de nouveaux signes d’activité sont détectés. De plus, nous proposons une technique facile à adopter pour désactiver les machines virtuelles basée sur une mise en swap de la mémoire de la machine virtuelle. Grâce à notre nouveau système de suspension en swap, nous sommes en mesure de libérer la majorité de la mémoire et du processeur occupés par les instances inactives, tout en offrant une reprise rapide du service.Dans la deuxième partie de la thèse, nous abordons le problème des évolutions à grande échelle des hyperviseurs. Les mises à niveau de l’hyperviseur nécessitent souvent un redémarrage de la machine, forçant les administrateurs du centre informatique à évacuer les hôtes, en déplaçant ailleurs les machines virtuelles pour protéger leur exécution. Cette évacuation est coûteuse, à la fois en termes de transferts réseau et de ressources supplémentaires nécessaires dans le centre informatique. Pour répondre à ce défi, nous proposons Hy-FiX et Multi-FiX, deux solutions de mise à niveau sur place qui ne consomment pas de ressources externes à l’hôte. Les deux solutions tirent parti d’une migration sans copie des machines virtuelles au sein de l’hôte, préservant leur état d’exécution tout au long de la mise à niveau de l’hyperviseur. Hy-FiX et Multi-FiX réalisent des mises à niveau évolutives, avec un impact limité sur les instances en cours d’exécution
Server virtualization is a technology of prime importance in contemporary data centers. Virtualization provides two key mechanisms, virtual instances and migration, that enable the maximization of the resource utilization to decrease the capital expenses in a data center. In this thesis, we identified and studied two contexts where traditional virtual instance migration falls short in providing the optimal tools to utilize at best the resource available in a cluster: idle virtual machines and largescale hypervisor upgrades.Idle virtual machines permanently lock the resources they are assigned only to await incoming user requests. Indeed, while they are most of the time idle, they cannot be shut down, which would release resources for more demanding services. To address this issue, we propose SEaMLESS, a solution that leverages a novel VM-to-container migration that transforms idle Linux virtual machines into resource-less proxies. SEaMLESS intercepts new user requests while virtual machines are disabled, transparently resuming their execution upon new signs of activity. Furthermore, we propose an easy-to-adopt technique to disable virtual machines based on the traditional hypervisor memory swapping. With our novel suspend-to-swap, we are able to release the majority of the memory and CPU seized by the idle instances, yet providing a fast resume.In the second part of the thesis, we tackle the problem of large-scale upgrades of the hypervisor software. Hypervisor upgrades often require a machine reboot, forcing data center administrators to evacuate the hosts, relocating elsewhere the virtual machines to protect their execution. As this evacuation is costly, both in terms of network transfers and spare resources needed in the data center, hypervisor upgrades hardly scale. We propose Hy-FiX and Multi-FiX, two in-place upgrade that do not consume resource external to the host. Both solutions leverage a zero-copy migration of virtual machines within the host, preserving their execution state across the hypervisor upgrade. Hy-FiX and Multi-FiX achieve scalable upgrades, with only limited impact on the running instances
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Grundeler, Guillaume. „L'investissement : étude juridique“. Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM1059.

Der volle Inhalt der Quelle
Annotation:
L'investissement est une notion récente dans la sphère juridique. Voici quelques années, elle n'était encore employée que dans la règlementation relative au contrôle des investissements étrangers. C'est que, si le droit n'ignorait pas l'investissement, il le saisissait presque uniquement à travers d'autres notions, tels l'apport en société ou le mouvement de capital. Depuis lors, le mot a été très largement juridicisé. Pour s'en tenir à deux exemples, on peut ainsi relever que, dans notre ordre interne, l'existence d'un investissement permet une durée contractuelle longue et que, dans l'ordre international, la qualification d'investissement est aujourd'hui une condition de la compétence des tribunaux arbitraux statuant sous l'égide du Cirdi.Cet accès spontané de l'investissement à la juridicité s'est malheureusement accompagné de certaines incohérences. Ainsi, le mot est parfois employé de manière excessivement large, comme en droit des marchés financiers, où il désigne toute opération relative à un instrument financier. De même, en droit des régimes matrimoniaux, ce que la Cour de cassation nomme les « dépenses d'investissement » recouvre en réalité l'ensemble des dépenses immobilières. Parfois, à l'inverse, certaines opérations dont la qualification d'investissement ne fait aucun doute continuent d'être envisagées à travers des notions qui en sont le simple reflet. L'objet de la thèse est donc de rétablir une certaine cohérence dans l'emploi du mot investissement en proposant une définition juridique de la notion et en esquissant certains éléments du régime qui s'y attache
Investment is a relatively new legal concept. Some years ago, the term was only used within the foreign investment regulations. Back then, investment was mostly happrehended through other legal concepts, such as capital contribution or capital movement. Since then, however, the concept of investment has largely entered the legal vocabulary. For instance, it turns out that, in the French legal order, the existence of an investment makes the conclusion of a long duration contract possible. Besides, it may also be noted that, in the international order, the jurisdiction of an arbitral tribunal established under the aegis of the ICSID is limited to the disputes that arise out of an investment.Such a phenomenon has unfortunately brought on various inconsistencies. Thus, the term appears to be used in ways that sometimes make its meaning overly wide, as in securities law, in which investment refers to all kinds of operations related to financial instruments. Similarly, in matrimonial property regimes, what the French Cour de cassation calls "investment spending" includes all real estate spending. Sometimes, on the contrary, investment is still being apprehended through other concepts that are the simple reflection of that very concept. Therefore, the purpose of this dissertation is to establish some consistency in the use of the term investment by proposing a legal definition of the concept and outlining some elements of its regime
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Gendron, Marie-Pierre. „Utilisation de médicaments durant la grossesse et l’allaitement : données d’un centre d’information sur les tératogènes“. Thèse, 2010. http://hdl.handle.net/1866/5278.

Der volle Inhalt der Quelle
Annotation:
Les centres d’information sur les tératogènes (CIT) fournissent aux professionnels de la santé ainsi qu’au public de l’information sur les risques et bienfaits associés à l’utilisation des médicaments durant la grossesse et l’allaitement. Le Centre IMAGe (Info-Médicaments en Allaitement et Grossesse) du CHU Sainte-Justine (Centre Hospitalier Universitaire Sainte-Justine) au Québec, est un CIT qui offre depuis 1997 un service téléphonique d’information gratuit aux professionnels de la santé. Deux études ont été réalisées à partir des appels reçus au Centre IMAGe. La première étude a été réalisée sur l’ensemble des appels reçus entre janvier 2004 et avril 2007 au sujet de femmes qui prenaient ou envisageaient prendre un médicament durant la grossesse ou l’allaitement. Les objectifs de cette étude visaient à déterminer les classes de médicaments les plus fréquentes ainsi que les indications d’utilisation et les déterminants d’un appel à leur sujet (caractéristiques maternelles associées). Les antidépresseurs, les anti-inflammatoires, les antibiotiques, les benzodiazépines et les antipsychotiques sont les classes de médicaments qui correspondaient aux plus grands nombres d’appels. Cela porte à croire que pour ces classes de médicaments, il existe chez les professionnels de la santé un besoin d’information en ce qui concerne les risques et bienfaits de leur utilisation durant la grossesse et l’allaitement. La dépression représentait une des trois indications les plus prévalentes chez les femmes qui prenaient ou désiraient prendre des antidépresseurs, des benzodiazépines ou des anti-psychotiques durant la grossesse ou l’allaitement. Le tabagisme était associé à l’utilisation des antidépresseurs et des anti-psychotiques durant la grossesse, ainsi qu’à un appel au sujet des anti-inflammatoires durant l’allaitement. La deuxième étude a été réalisée sur l’ensemble des appels reçus entre janvier 2003 et mars 2008. Cette étude visait à déterminer l’impact des avis émis par Santé Canada concernant les risques de l’exposition aux antidépresseurs durant la grossesse et celui concernant le retrait du rofécoxib, sur le nombre d’appels reçus à IMAGe. L’analyse des séries temporelles du nombre hebdomadaire d’appels reçus a révélé que l’avis de Santé Canada sur les risques de malformations cardiaques associés à l’utilisation de la paroxétine lors du premier trimestre de la grossesse a généré une augmentation statistiquement significative, soudaine et permanente du nombre d’appels reçus à IMAGe au sujet des antidépresseurs. Ces études permettent de mieux comprendre le besoin d’information des professionnels de la santé sur les risques et bienfaits de l’utilisation des médicaments durant la grossesse et l’allaitement.
Teratogen Information Services (TIS) are giving information on the risks and benefits associated with medication use during pregnancy and lactation, to the health care providers and the public. IMAGe Center at the CHU Sainte-Justine in Quebec is a TIS which providing since 1997 a free telephone information service to the health care providers. Two studies were conducted using the calls received at IMAGe Center. The first study included all the calls received between January 2004, and April 2007, concerning women who used or expected to use medication during pregnancy or lactation. The objectives of this study aimed to identify the most frequent medication classes, the indications of use, and the predictors of a call concerning them (associated maternal characteristics). Antidepressants, anti-inflammatory drugs, antibiotics, benzodiazepines, and anti-psychotics represented the medication classes with the greater amount of calls. These results rise to the possibility that more information about the risks and benefits associated with the use of these medication classes during pregnancy and lactation is needed by the health care providers. Depression was in the top three of the most prevalent indications of use for the antidepressants, benzodiazepines, and anti-psychotics. Smoking was associated with the use of antidepressants and anti-psychotics during pregnancy, and with a call concerning the anti-inflammatory drugs during lactation. The second study included all the calls received between January 2003, and March 2008. This study aimed to identify the impact of the Health Canada (HC) warnings, concerning the risks of antidepressant use during pregnancy, and related to the rofecoxib market withdrawal, on the number of calls received to IMAGe. Time series of the weekly number of calls received demonstrated that the Health Canada warning on the risk of cardiac malformations associated with paroxetine use during the first trimester of pregnancy generated a statistically significant abrupt and permanent increase of the calls received at IMAGe about the antidepressants. These studies ensure to better understand the information need of the health care providers concerning the risks and benefits of medication use during pregnancy and lactation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie