To see the other types of publications on this topic, follow the link: Centres de traitement informatique – Environnement.

Dissertations / Theses on the topic 'Centres de traitement informatique – Environnement'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Centres de traitement informatique – Environnement.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Hnayno, Mohamad. "Optimisation des performances énergétiques des centres de données : du composant au bâtiment." Electronic Thesis or Diss., Reims, 2023. http://www.theses.fr/2023REIMS021.

Full text
Abstract:
Les centres de données consomment de grandes quantités d'énergie électrique pour alimenter leurs équipements informatiques, leurs systèmes de refroidissement et leur infrastructure. Cette forte consommation d'énergie contribue à la demande globale sur le réseau électrique et à l'émission de gaz à effet de serre. En optimisant les performances énergétiques, les centres de données peuvent réduire leurs factures d'électricité, leurs coûts d'exploitation globaux et leur impact sur l'environnement. L'adoption de nouvelles solutions de refroidissement, telles que le refroidissement par liquide et le refroidissement indirect par évaporation, offre une plus grande efficacité énergétique et peut réduire de manière significative la consommation d'énergie liée au refroidissement dans les centres de données.Dans ce travail, deux études expérimentales ont été menées sur de nouvelles topologies de refroidissement pour les baies informatiques. Dans la première topologie, le système de refroidissement des baies est basé sur une combinaison de refroidissement à couplage étroit et de refroidissement direct des puces. Cinq racks avec des serveurs opérationnels ont été testés. Deux différences de température (15 K et 20 K) ont été validées pour tous les racks informatiques. L'impact de ces profils de différence de température sur les performances du centre de données a été analysé en utilisant trois systèmes de rejet de chaleur dans quatre conditions climatiques pour un centre de données de 600 kW. L'impact du profil de température de l'eau sur l'efficacité de l'utilisation partielle de l'énergie et de l'eau du centre de données a été analysé pour optimiser le système de refroidissement indirect équipé d'un système de refroidissement par évaporation à travers deux approches : la différence de température des baies et l'augmentation de la température d'entrée de l'eau dans le centre de données. Dans la seconde topologie, une étude expérimentale menée sur une nouvelle technique de refroidissement liquide d'immersion monophasé a été développée. Le dispositif expérimental a testé l'impact de trois fluides diélectriques, l'effet de la configuration du circuit d'eau et la puissance/le profil du serveur. Les résultats suggèrent que la demande de refroidissement du système dépend de la viscosité du fluide. Lorsque la viscosité passe de 4,6 à 9,8 mPa.s, la performance de refroidissement diminue d'environ 6 %. En outre, tous les profils de serveurs informatiques ont été validés à différentes températures d'entrée d'eau jusqu'à 45°C et à différents débits. La performance énergétique de cette technique et de la technique précédente a été comparée. Cette technique a permis de réduire la consommation d'électricité en courant continu d'au moins 20,7 % par rapport au système de refroidissement par liquide. Les performances de refroidissement des systèmes à refroidissement par air et par liquide et de la solution proposée ont été comparées au niveau du serveur. En utilisant la solution proposée, l'énergie consommée par serveur a été réduite d'au moins 20 % par rapport au système de refroidissement par air et de 7 % par rapport au système de refroidissement par liquide.En outre, une nouvelle technologie de refroidissement par liquide a été mise au point pour les unités UPS de 600 kW. Cinq essais thermo hydrauliques ont été réalisés dans différentes conditions thermiques. Un profil de différence de température de 20 K a été validé avec un fonctionnement sûr pour tous les équipements électroniques de l'onduleur, résultant en une efficacité thermique de 82,27 %. L'impact de la diminution du débit d'eau et de l'augmentation des températures de l'eau et de l'air dans la pièce a également été analysé. Une diminution des températures d'entrée de l'eau et de l'air de 41°C à 32°C et de 47°C à 40°C respectivement augmente l'efficacité thermique de 8,64 %
Data centers consume vast amounts of electrical energy to power their IT equipment, cooling systems, and supporting infrastructure. This high energy consumption contributes to the overall demand on the electrical grid and release of greenhouse gas emissions. By optimizing energy performance, data centers can reduce their electricity bills, overall operating costs and their environmental impact. This includes implementing energy-efficient technologies, improving cooling systems, and adopting efficient power management practices. Adopting new cooling solutions, such as liquid cooling and indirect evaporative cooling, offer higher energy efficiency and can significantly reduce the cooling-related energy consumption in data centres.In this work, two experimental investigations on a new cooling topologies for information technology racks are conducted. In the first topology, the rack-cooling system is based on a combination of close-coupled cooling and direct-to-chip cooling. Five racks with operational servers were tested. Two temperature difference (15 K and 20 K) was validated for all the IT racks. The impact of these temperature difference profiles on the data-centre performance was analysed using three heat rejection systems under four climatic conditions for a data centre of 600 kW. The impact of the water temperature profile on the partial power usage effectiveness and water usage effectiveness of data centre was analysed to optimise the indirect free cooling system equipped with an evaporative cooling system through two approaches: rack temperature difference and by increasing the water inlet temperature of the data centre. In the second topology, an experimental investigation conducted on a new single-phase immersion/liquid-cooling technique is developed. The experimental setup tested the impact of three dielectric fluids, the effect of the water circuit configuration, and the server power/profile. Results suggest that the system cooling demand depends on the fluid’s viscosity. As the viscosity increased from 4.6 to 9.8 mPa.s, the cooling performance decreased by approximately 6 %. Moreover, all the IT server profiles were validated at various water inlet temperatures up to 45°C and flow rates. The energy performance of this technique and the previous technique was compared. This technique showed a reduction in the DC electrical power consumption by at least 20.7 % compared to the liquid-cooling system. The cooling performance of the air- and liquid-cooled systems and the proposed solution was compared computationally at the server level. When using the proposed solution, the energy consumed per server was reduced by at least 20 % compared with the air-cooling system and 7 % compared with liquid-cooling system.In addition, a new liquid cooling technology for 600 kW Uninterruptible Power Supply (UPS) units. This cooling architecture gives more opportunities to use free cooling as a main and unique cooling system for optimal data centres (DCs). Five thermal hydraulic tests are conducted with different thermal conditions. A 20 K temperature difference profile was validated with a safe operation for all UPS electronic equipment resulting with a thermal efficiency of 82.27 %. The impact of decreasing water flow rate and increasing water and air room temperatures was also analysed. A decrease in inlet water and air temperatures from 41°C to 32°C and from 47°C to 40°C respectively increases the thermal efficiency by 8.64 %. Furthermore, an energy performance analysis comparison is made between air cooled and water cooled UPS units on both UPS and infrastructure levels
APA, Harvard, Vancouver, ISO, and other styles
2

Moualla, Ghada. "Virtualisation résiliente des fonctions réseau pour les centres de données et les environnements décentralisés." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4061.

Full text
Abstract:
Les réseaux traditionnels reposent sur un grand nombre de fonctions réseaux très hétérogènes qui s'exécutent sur du matériel propriétaire déployé dans des boîtiers dédiés. Concevoir ces dispositifs spécifiques et les déployer est complexe, long et coûteux. De plus, comme les besoins des clients sont de plus en plus importants et hétérogènes, les fournisseurs de services sont contraints d'étendre ou de moderniser leur infrastructure régulièrement, ce qui augmente fortement les coûts d'investissement (CAPEX) et de maintenance (OPEX) de l'infrastructure. Ce paradigme traditionnel provoque une ossification du réseau et rend aussi plus complexe la gestion et la fourniture des fonctions réseau pour traiter les nouveaux cas d'utilisation. La virtualisation des fonctions réseau (NFV) est une solution prometteuse pour relever de tels défis en dissociant les fonctions réseau du matériel sous-jacent et en les implémentant en logiciel avec des fonctions réseau virtuelles (VNFs) capables de fonctionner avec du matériel non spécifique peu coûteux. Ces VNFs peuvent être organisés et chaînés dans un ordre prédéfini, formant des chaînes de Services (SFC) afin de fournir des services de bout-en-bout aux clients. Cependant, même si l'approche NFV comporte de nombreux avantages, il reste à résoudre des problèmes difficiles comme le placement des fonctions réseau demandées par les utilisateurs sur le réseau physique de manière à offrir le même niveau de résilience que si une infrastructure dédiée était utilisée, les machines standards étant moins fiables que les dispositifs réseau spécifiques. Ce problème devient encore plus difficile lorsque les demandes de service nécessitent des décisions de placement à la volée. Face à ces nouveaux défis, nous proposons de nouvelles solutions pour résoudre le problème du placement à la volée des VNFs tout en assurant la résilience des services instanciés face aux pannes physiques pouvant se produire dans différentes topologies de centres de données (DC). Bien qu'il existe des solutions de récupération, celles-ci nécessitent du temps pendant lequel les services affectés restent indisponibles. D'un autre côté, les décisions de placement intelligentes peuvent épargner le besoin de réagir aux pannes pouvant se produire dans les centres de données. Pour pallier ce problème, nous proposons tout d'abord une étude approfondie de la manière dont les choix de placement peuvent affecter la robustesse globale des services placés dans un centre de données. Sur la base de cette étude, nous proposons une solution déterministe applicable lorsque le fournisseur de services a une connaissance et un contrôle complets de l'infrastructure. Puis, nous passons de cette solution déterministe à une approche stochastique dans le cas où les SFCs sont demandées par des clients indépendamment du réseau physique du DC, où les utilisateurs n'ont qu'à fournir les SFC qu'ils veulent placer et le niveau de robustesse requis (e.g., les 5 neufs). Nous avons développé plusieurs algorithmes et les avons évaluées. Les résultats de nos simulations montrent l'efficacité de nos algorithmes et la faisabilité de nos propositions dans des topologies de centres de données à très grande échelle, ce qui rend leur utilisation possible dans un environnement de production. Toutes ces solutions proposées fonctionnent de manière efficace dans un environnement de confiance, comme les centres de données, avec la présence d’une autorité centrale qui contrôle toute l'infrastructure. Cependant, elles ne s'appliquent pas à des scénarios décentralisés comme c'est le cas lorsque différentes entreprises ont besoin de collaborer pour exécuter les applications de leurs clients. Nous étudions cette problématique dans le cadre des applications MapReduce exécutées en présence de nœuds byzantins et de nœuds rationnels et en l’absence de tiers de confiance
Traditional networks are based on an ever-growing variety of network functions that run on proprietary hardware devices called middleboxes. Designing these vendor-specific appliances and deploying them is very complex, costly and time-consuming. Moreover, with the ever-increasing and heterogeneous short-term services requirements, service providers have to scale up their physical infrastructure periodically, which results in high CAPEX and OPEX. This traditional paradigm leads to network ossification and high complexity in network management and services provisioning to address emerging use cases. Network Function Virtualization (NFV) has attracted notable attention as a promising paradigm to tackle such challenges by decoupling network functions from the underlying proprietary hardware and implementing them as software, named Virtual Network Functions (VNFs), able to work on inexpensive commodity hardware. These VNFs can be arranged and chained together in a predefined order, the so-called Service Function chaining (SFC), to provide end-to-end services. Despite all the benefits associated with the new paradigm, NFV comes with the challenge of how to place the functions of the users' requested services within the physical network while providing the same resiliency as if a dedicated infrastructure were used, given that commodity hardware is less reliable than the dedicated one. This problem becomes particularly challenging when service requests have to be fulfilled as soon as they arise (i.e., in an online manner). In light of these new challenges, we propose new solutions to tackle the problem of online SFC placement while ensuring the robustness of the placed services against physical failures in data-center (DC) topologies. Although recovery solutions exist, they still require time in which the impacted services will be unavailable while taking smart placement decisions can help in avoiding the need for reacting against simple network failures. First, we provide a comprehensive study on how the placement choices can affect the overall robustness of the placed services. Based on this study we propose a deterministic solution applicable when the service provider has full knowledge and control on the infrastructure. Thereafter, we move from this deterministic solution to a stochastic approach for the case where SFCs are requested by tenants oblivious to the physical DC network, where users only have to provide the SFC they want to place and the required availability level (e.g., 5 nines). We simulated several solutions and the evaluation results show the effectiveness of our algorithms and the feasibility of our propositions in very large scale data center topologies, which make it possible to use them in a productive environment. All these solutions work well in trusted environments with a central authority that controls the infrastructure. However, in some cases, many enterprises need to collaborate together in order to run tenants' application, e.g., MapReduce applications. In such a scenario, we move to a completely untrusted decentralized environment with no trust guarantees in the presence of not only byzantine nodes but also rational nodes. We considered the case of MapReduce applications in such an environment and present an adapted MapReduce framework called MARS, which is able to work correctly in such a context without the need of any trusted third party. Our simulations show that MARS grants the execution integrity in MapReduce linearly with the number of byzantine nodes in the system
APA, Harvard, Vancouver, ISO, and other styles
3

Rocha, barbosa Cassandra. "Coordination et ordonnancement de tâches à grains fins entre environnements d'exécution HPC." Electronic Thesis or Diss., Reims, 2023. http://www.theses.fr/2023REIMS016.

Full text
Abstract:
Les supercalculateurs deviennent de plus en plus complexes à utiliser. C’est pourquoi l’utilisation de modèle de programmation dit hybride, MPI + X, sont mis en place dans les applications. Ces nouveaux types de modèle permettent une utilisation plus efficace d’un supercalculateur, mais créent aussi de nouveaux problèmes lors de l’exécution des applications. Ces problèmes sont de différents types.Nous étudierons plus précisément trois problèmes liés aux programmations MPI + X. La progression des communications non bloquante de MPI au sein de l’environnement X. Puis deux types de déséquilibre possible dans les applications MPI+X. Le premier étant entre les processus MPI et le second au sein d’un processus MPI, c’est-à-dire le déséquilibre en sein de X.Une solution dans le cas d’un environnement X en tâches récursives sera tout d’abord présentée pour le problème de progression de communication MPI à l’aide d’insertion de tâche de progression dans l’environnement X. Lors du déséquilibre entre processus MPI, une solution de rééquilibrage de ressources au sein d’un nœud sera présentée. Enfin, pour le déséquilibre dans l’environnement X, une solution permettant d’utiliser le déséquilibre pour exécuter une seconde application sera également présentée
Supercomputers are becoming more and more complex to use. This is why the use of so-called hybrid programming models, MPI + X, are being implemented in applications. These new types of models allow a more efficient use of a supercomputer, but also create new problems during the execution of applications. These problems are of different types.More specifically, we will study three problems related to MPI + X programming. The progression of non-blocking MPI communications within the X environment. Then two types of possible imbalance in MPI+X applications. The first being between MPI processes and the second within an MPI process, i.e., imbalance within X.A solution in the case of an X environment in recursive tasks will first be presented for the MPI communication progress problem using progress task insertion in the X environment. For the imbalance between MPI processes, a solution for resource rebalancing within a node will be presented. Finally, for the imbalance in the X environment, a solution to use the imbalance to run a second application will also be presented
APA, Harvard, Vancouver, ISO, and other styles
4

Petitgirard, Jean-Yves. "Le traitement de l'anglais oral dans un environnement informatique interactif multimedia." Chambéry, 1999. http://www.theses.fr/1999CHAML001.

Full text
Abstract:
L'enseignement assiste par ordinateur, heritier de l'enseignement programme, a fortement marque la didactique des ces vingt dernieres annees. L'integration de l'informatique dans la pedagogie a permis de renouveler tant les reflexions que les pratiques liees a l'enseignement / apprentissage des langues en contexte educatif. Les problemes que posait l'utilisation de ce nouvel outil restent en partie vrais de nos jours. Cependant, les progres techniques ont sensiblement modifie la situation. Si au debut les possibilites etaient limitees a des applications essentiellement textuelles, l'evolution vers une informatique interactive multimedia, a travers l'uniformisation des formats pour chacun des medias, associee a l'utilisation de nouveaux supports comme le cederom, ouvre de nouvelles perspectives notamment vers le traitement de l'oral, tant en comprehension qu'en production. Les nouvelles applications doivent tenir compte egalement de certaines potentialites des environnements informatiques comme : l'acces direct, la simulation, l'interactivite. Une analyse croisee des possibilites de traitement automatique de la parole et des parametres saillants du phenomene de comprehension de l'oral permet de proposer un modele pedagogique de l'enseignement / apprentissage de la comprehension orale s'appuyant sur quatre axes : quantitatif, qualitatif, strategique et enfin, communicatif. Pour chacun de ces axes, l'informatique interactive multimedia dispose d'atouts evidents, et ce a deux niveaux : * au niveau + macro ;, lie a la gestion du parcours de l'apprenant, tels les acces, les options, les adaptations possibles de l'application ; * au niveau + micro ; s'appuyant sur les interactions specifiques de l'iim et proposant des activites innovantes d'apprentissage. Ce dernier niveau peut servir de base a la mise en oeuvre d'un champ d'activites totalement nouvelles, irrealisables sans le support de l'informatique interactive multimedia, et dont l'implication sur l'apprentissage de la competence orale reste, bien evidemment, a preciser
Computer based teaching which grew out of automated teaching has been one of the central issues of the past twenty years. The increasing use of computers in education has opened up a new series of possibilities for both the teacher and the learner of english. However, although many of the questions raised by the initial technological breakthrough are still pertinent, the rate of development has in many ways modified the situation. While at the beginning computer based learning applications were essentially text based, the development of multimedia allows us to incorporate sound and images into the learning process. Perhaps the most telling developments have been the standardisation of formats along with the increasing use of the cdrom. In order to provide the learner with original exercises any development of computer tools must take into account the latest possibilities offered by information technology such as direct access, simulation and interactivity. An analysis taking into account on the one hand the processing of speech by machine and on the other hand the salient features of aural comprehension will allow us to construct a structure for the teaching and the learning of the latter competence which will be based on quality, quantity, strategy and communication. For each of these categories interactive multimedia computer based teaching offers a number of advantages. In particular it allows a double approach, that is to say : * at the level of the application taking into account the learner's specific needs and the various options available * at the level of the specificity of the interactions the learners will have to deal with. It is particularly at this last level that a wider range of innovative activities most of which only possible using information technology can now be designed
APA, Harvard, Vancouver, ISO, and other styles
5

Milhaud, Gérard. "Un environnement pour la composition de phrases assistée." Aix-Marseille 2, 1994. http://www.theses.fr/1994AIX22079.

Full text
Abstract:
Nous presentons une approche originale dans le domaine de la conception des interfaces en langage naturel (iln), que nous avons illustree en developpant un systeme generateur d'iln. Premierement, dans un but de transparence, nous avons impose que les iln produites fonctionnent selon le principe de la composition assistee (ca). Sa caracteristique est d'utiliser le meme systeme en analyse et en synthese afin d'aider si necessaire l'utilisateur dans la formulation de sa phrase en proposant, a chaque etape de la composition, tous les mots du lexique susceptibles d'etre le mot suivant de la phrase. Deuxiemement, sur un plan plus interne, afin de maximiser la portabilite de nos iln, nous exigeons que les differentes connaissances necessaires a l'elaboration d'une interface soient definies au sein de modules distincts. Nous exposons les differents formalismes de representation des connaissances lexicales, syntaxiques, semantiques et conceptuelles que nous avons concus. La conjonction de nos deux exigences de ca et de modularite souleve des problemes specifiques: la ca necessite de detecter les erreurs au plus tot en prenant en compte simultanement toutes les connaissances tandis que la modularite impose l'eclatement de ces memes connaissances. Nous montrons comment ce probleme nous a amenes a concevoir un algorithme d'analyse/synthese original fonde sur le coroutinage des contraintes distinctes associees aux differents modules et assurant, selon leurs niveaux respectifs, le caractere bien forme des phrases. Nous exposons ensuite les solutions que nous apportons au probleme principal lie a la ca: comment eviter que le systeme conduise a la composition d'une phrase qu'il ne pourra terminer (situation d'impasse) ? en conclusion, nous presentons brievement quelques-unes des applications d'ores et deja realisees a partir de notre systeme
APA, Harvard, Vancouver, ISO, and other styles
6

Rémy, Didier. "Paradeis : un environnement de développement parallèle pour le traitement du creux." Evry-Val d'Essonne, 2000. http://www.theses.fr/2000EVRY0015.

Full text
Abstract:
Dans cet article nous presentons les principaux elements de paradeis (parallel data environment for irregular structures) qui etend les concepts de la bibliotheque stl (standard template library) pour le data-parallelisme dans le cadre du traitement des applications pour les matrices creuses. La programmation et la maintenance de code parallele pour les structures creuses est reputee difficile. Nous presentons une extension de la bibliotheque stl au travers de conteneurs et d'iterateurs afin de la simplifier. Nous considerons egalement des schemas inspecteurs-executeurs pour des communications adaptees aux cas des structures irregulieres. Nous presentons une etude theorique de la structure de donnees distribuee qui constitue la representation parallele des tableaux creux. Nous exposons enfin des resultats experimentaux validant notre approche.
APA, Harvard, Vancouver, ISO, and other styles
7

Namyst, Raymond. "Pm2 : un environnement pour une conception portable et une exécution efficace des applications parallèles irrégulières." Lille 1, 1997. http://www.theses.fr/1997LIL10028.

Full text
Abstract:
Ce travail s'inscrit dans le cadre du projet espace dont l'objectif est de définir un cadre méthodologique ainsi qu'un environnement de développement pour la conception d'applications parallèles irrégulières sur architectures distribuées. La parallélisation de ces applications, dont le comportement n'est pas. Prévisible à priori, pose problème aux niveaux de l'expression du découpage parallèle, de la prise en charge des différentes taches à l’exécution et de leur répartition sur les processus disponibles. La contribution de cette thèse se traduit par la définition et la réalisation d'un support exécutif distribué basé sur la notion de processus léger nommé PM#2 constituant la base de l'environnement espace. Dans l'optique d'une virtualisation totale de l'architecture, nous proposons un modèle de conception des applications s'articulant autour de trois axes principaux qui sont 1) un découpage des applications irrégulières à l'aide des mécanismes d'appel de procédure à distance léger et de clonage léger, 2) un ordonnancement préemptif des processus légers et 3) des mécanismes permettant la migration des processus légers (mobilité). La conjonction de ces concepts rend possible la conception d'applications indépendantes de l'architecture s’exécutant efficacement en contexte distribué, moyennant l'utilisation d'une couche logicielle définissant la stratégie d'ordonnancement des activités. La réalisation de cet environnement s'appuie principalement sur une bibliothèque de processus légers de niveau utilisateur, nommée Marcel, conçue dans le cadre de cette thèse. Notre démarche montre comment il est possible d’accéder à des fonctionnalités évoluées (telles que la migration) et à des performances élevées sans sacrifier la portabilité de l'environnement. Actuellement, MP#2 est opérationnel sur six architectures et utilisé dans plusieurs laboratoires de recherche français. Les premières conclusions issues de ces collaborations confirment la pertinence de notre approche
APA, Harvard, Vancouver, ISO, and other styles
8

Guessoum, Zahia. "Un environnement opérationnel de conception et de réalisation de systèmes multi-agents." Paris 6, 1996. http://www.theses.fr/1996PA066577.

Full text
Abstract:
La représentation de systèmes complexes en vue de leur contrôle ou de leur simulation nécessite de définir des agents hybrides dotés de capacités substantielles de raisonnement et de représentation du monde dans lequel ils évoluent et de capacités réactives, pour respecter des contraintes temporelles temps réel. Nous proposons un modèle d'agents opérationnel qui possède ces caractéristiques. Ces agents combinent des propriétés cognitives et réactives logées dans des modules asynchrones différents, ce qui repose le problème de la coordination à l'intérieur même de l'agent sans pour autant faire disparaître celui de la coordination entre agents. Pour apporter une solution à ce problème, nous proposons un modèle d'agents dont les capacités cognitives sont fondées sur l'emploi de bases de règles et de métarègles. Leurs facultés réactives sont assurées par des modules asynchrones de communication et de perception. Ce modèle repose sur l'utilisation d'un ATN pour adapter le comportement des modules cognitifs à celui des modules réactifs et pour gérer les interactions entre ces différents modules. Chaque agent gère des graphes de dépendances et d'interférences pour assurer une cohérence et éviter les conflits avec les autres agents. Ce modèle repose sur le concept d'acteurs et nous nous plaçons délibérement dans le cadre de la programmation orientée-objet (smalltalk-80). Cet environnement nous fournit de puissants outils de base sous la forme de divers frameworks. Nos agents sont implémentés à l'aide de la dernière version d'actalk, une plate-forme générique pour implémenter différents modèles d'acteurs. Les bases de règles des modules de raisonnement utilisent neopus, un moteur d'inférence d'ordre 1. La principale caractéristique de neopus est le contrôle déclaratif du raisonnement. Nous utilisons le framework de simulation à événements discrets pour représenter et gérer l'évolution temporelle de nos systèmes multi-agents. Nous utilisons également rpctalk qui implémente la technique RPC, pour distribuer nos systèmes multi-agents sur plusieurs machines. Nous avons étendu ces différentes composantes pour les adapter au modèle d'agents proposé et réaliser la plateforme multi-agents DIMA. Pour valider DIMA, nous avons réalisé trois applications dont deux sont relativement importantes 1) un système de monitorage de la ventilation artificielle des patients en soins intensifs et 2) une modélisation de l'évolution économique et du changement technologique.
APA, Harvard, Vancouver, ISO, and other styles
9

Mas-Bellissent, Christine. "La responsabilité contractuelle de droit commun du prestataire de service informatique : contribution à l'étude de la prestation de service." Pau, 1994. http://www.theses.fr/1994PAUU2034.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Amamou, Ahmed. "Isolation réseau dans un datacenter virtualisé." Paris 6, 2013. http://www.theses.fr/2013PA066343.

Full text
Abstract:
Cette thèse est destinée à répondre aux attentes de la communauté scientifique et aux besoins des opérateurs Cloud concernant l’insolation réseau dans un datacenter virtualisé. Elle met l’accent sur le passage à l’échelle de la couche L2 afin de mieux cerner les verrous ainsi que les ouvertures permettant de répondre aux nouvelles exigences d’un réseau du datacenter virtualisé moderne. D'abord, elle présente un nouvel algorithme d’allocation dynamique de la bande passante au niveau des nœuds physiques afin de palier aux problématiques d’attaques de dénis de service internes, tout en garantissant à l’ensemble des clients leurs contrats de service (SLA). Ensuite, elle met en œuvre une adaptation du commutateur Rbridge du protocole TRILL (RFC 6325) au niveau des noeuds physique dans un datacenter virtualisé. Ceci permet de remédier aux problèmes de montée en charge de la couche L2. Enfin, elle propose un nouveau mécanisme nommé VNT (Virtual Netwotk over TRILL) qui permet la création flexible de réseaux logiques. Ce mécanisme qui intègre un nouvel identifiant VNI (Virtual Network Identifier) permet la coexistence de plus de 16 millions de réseaux logiques au sein du même réseau physique
This thesis is intended to meet the expectations of the scientific community and the needs of Cloud operators on network insolation in a virtualized datacenter. It focuses on the layer 2 scaling in order to better identify the locks and the opportunities on the modern virtualized datacenter networks. First, it presents a new algorithm for dynamic bandwidth allocation at the physical nodes in order to overcome the problem of internal denial of service attacks while respecting all tenants SLA. Second, it uses an adaptation of TRILL (RFC 6325) switches, called RBridge on physical nodes within a virtualized data center, thus enabling to address the layer 2 scalability problems. Finally, it proposes a new mechanism called VNT (Virtual Netwotk over TRILL), allowing flexible logical networks creation. This mechanism, which includes a new identifier VNI (Virtual Network Identifier), allows the coexistence of more than 16 million logical networks within the same physical network
APA, Harvard, Vancouver, ISO, and other styles
11

EYNAUD, FRANCOISE. "Informatisation d'une base de donnees commune a trois centres de recherche sur le traitement du neuroblastome utilisant le reseau numeris." Aix-Marseille 2, 1993. http://www.theses.fr/1993AIX20098.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Dardailler, Pascale. "Hyperview : un éditeur graphique de réseaux dans un environnement hypertexte réparti." Nice, 1990. http://www.theses.fr/1990NICE4395.

Full text
Abstract:
Nous présentons et analysons dans cette thèse les solutions et les moyens que les systèmes hypertextes fournissent à un utilisateur désireux de regrouper et de retrouver une grande quantité d'information. Nous étendons ce concept à un environnement hyperinformation, environnement multifenêtres basé sur le système de fenêtres X (X Window system), dans lequel chaque application permet à ses données d'être des unités d'information. Pour illustrer ce concept, nous présentons le projet MEMEX. Nous présentons ensuite le problème de la désorientation de l'utilisateur devant cet amas de connaissances et nous proposons un outil graphique pour lui permettre de visualiser et de manipuler ses objets d'information. HYPERVIEW permet de visualiser les réseaux de connexions d'information sous la forme d'un graphe dont l'affichage est calculé à l'aide d'un algorithme original. Cet outil permet aussi à l'utilisateur de réduire son réseau d'information suivant certains critères grâce à des requêtes graphiques, utilisant les avantages des algorithmes issus de la théorie des graphes pour être résolues, comme la recherche de chemin, la fermeture transitive et en particulier la recherche de sous-graphes (reconnaissance de formes) à l'intérieur du réseau courant
APA, Harvard, Vancouver, ISO, and other styles
13

Hunel, Philippe. "Conception et réalisation d'un environnement intégré de génie logiciel pour le développement des protocoles." Clermont-Ferrand 2, 1994. http://www.theses.fr/1994CLF21624.

Full text
Abstract:
Le travail présenté dans cette thèse porte sur l'élaboration d'un environnement pour concevoir, spécifier et implanter des protocoles de communication en utilisant la Technique de Description Formelle (TDF) Estelle. Les différents outils courants d'aide au développement, basés sur Estelle, ne couvrent généralement pas l'ensemble des objectifs des différentes phases d'un développement de protocole. En outre, ils présentent souvent des interfaces utilisateur variés. Cette thèse propose une solution pour intégrer les outils Estelle existants ou à venir dans un environnement ouvert. La première partie présente la modélisation du processus de production du logiciel, puis le modèle de référence OSI, et enfin, selon un cycle de vie en V, les spécificités du processus de développement des logiciels pour les protocoles de communication. La seconde partie expose tout d'abord une synthèse sur l'intégration d'outils (par les données, par le contrôle, par la présentation et par le procédé), en insistant sur les interfaces publiques de structures d'accueil (ATIS, CAIS-A, PCTE), puis l'environnement support EAST, basé sur PCTE, retenu pour réaliser l'intégration d'outils Estelle. La troisième partie propose une modélisation PCTE d'une spécification en Estelle pour qu'elle soit partageable entre différents outils, une méthodologie d'intégration d'outils Estelle dans EAST (expérimenté par l'intégration des outils VEDA et Pet & Dingo), et un modèle d'aide au développement pour les étapes de spécification, validation et implémentation, indépendant des outils Estelle utilisés. Les résultats obtenus permettent d'envisager l'intégration d'outils associés à diverses TDF à partir d'une modélisation PCTE des concepts du modèle OSI.
APA, Harvard, Vancouver, ISO, and other styles
14

Ben, Atitallah Ahmed. "Etude et implantation d'algorithmes de compression d'images dans un environnement mixte matériel et logiciel." Bordeaux 1, 2007. http://www.theses.fr/2007BOR13409.

Full text
Abstract:
Le sujet de cette thèse est la contribution au développement et à la conception d'un système multimédia embarqué en utilisant la méthodologie de conception conjointe logicielle/matérielle (codesign). Il en a découlé la constitution d'une bibliothèque des modules IP (Intellectual Property) pour les applications vidéo. Dans ce contexte, une plateforme matérielle d'acquisition et de restitution vidéo a été réalisée servant de préalable à l'évaluation de la méthodologie de conception en codesign et à toute étude d'algorithme de traitement vidéo. On s'est intéressé en particulier à l'étude et à l'implantation de la norme de compression vidéo H. 263 de l'organisme UIT-T. La fréquence de fonctionnement de la plateforme est de 120 MHz. L'ensemble du développement est exécuté par le processus NIOS II sous le système d'exploitation (mu)Clinux. Le codeur H. 263 ainsi développé, grâce aux différents accélérateurs matériels pour le SAD, TCD/TCDI et Q/QI permet de coder des séquences vidéo QCIF@15Hz.
APA, Harvard, Vancouver, ISO, and other styles
15

Saqui-Sannes, Pierre de. "Prototypage d'un environnement de validation de protocoles : application à l'approche ESTELLE." Toulouse 3, 1990. http://www.theses.fr/1990TOU30109.

Full text
Abstract:
La detection au plus tot des erreurs de conception d'un systeme reparti repose en particulier sur la validation des protocoles qui regissent la communication et la synchronisation. Les travaux presentes dans ce memoire portent sur la technique de description formelle estelle normalisee a l'iso et sur le prototypage d'un environnement de validation de protocoles decrits au moyen de cette technique. Deux propositions d'extensions renforcent le pouvoir d'estelle tant du point de vue de l'expression des comportements paralleles que de la description des structures de donnees echangees par des processus d'application. Un mecanisme de rendez-vous est defini de maniere formelle en s'appuyant sur les recherches anterieures pour rapprocher estelle des reseaux petri, outil de modelisation pour lequel existent des techniques de validation eprouvees. L'extension de ces techniques a des descriptions estelle est l'objet du developpement de l'outil estim qui offre a la fois des fonctionnalites de simulation pour l'analyse interactive d'un protocole et des fonctionnalites de verification pour l'obtention automatique de l'automate quotient qui caracterise le service rendu par le protocole. Les experimentations ont montre que la methodologie proposee pour l'outil estim reduit le fosse entre l'etape de validation et l'implantation reelle d'un protocole. Developpe en ml sur la base d'une semantique formelle d'estelle, le prototype realise demeure un support d'evaluation d'estelle et de ses extensions
APA, Harvard, Vancouver, ISO, and other styles
16

Loison, Bertrand. "Les déterminants de l'exposition aux risques liés à l'externalisation des prestations de services informatiques : modèle explicatif et validation empirique." Paris 1, 2009. http://www.theses.fr/2009PA010007.

Full text
Abstract:
L’objectif de cette recherche consiste à modéliser l’exposition aux risques liés à l’externalisation de prestations de services informatiques dans le but d’identifier les dépendances stratégiques directes et induites qui en découlent. Dans un premier temps, un modèle théorique est, sur la base de la revue de la littérature et des principaux travaux empiriques sur le sujet, élaboré puis modélisé par le biais des équations structurelles. Dans un second temps, une démarche de triangulation alliant études qualitative et quantitative permet de valider statistiquement le modèle, avant finalement de confronter nos résultats avec les acteurs du terrain dans l’optique de donner du « sens » et de la « profondeur » aux résultats statistiques. Cette étude renforce l’idée selon laquelle c’est l’identification et la formalisation des liens entre le « coeur de métier » et la fonction informatique qui permet de limiter l’exposition aux risques liés à l’externalisation des PSI et en corollaire d’augmenter la performance et de diminuer la dépendance.
APA, Harvard, Vancouver, ISO, and other styles
17

Bouzid, Makram. "Contribution à la modélisation de l'interaction agent / environnement : modélisation stochastique et simulation parallèle." Nancy 1, 2001. http://www.theses.fr/2001NAN10271.

Full text
Abstract:
Ma thèse se situe à l'intersection des systèmes multi-agents (SMA) et du parallélisme, et concerne la simulation parallèle des SMA. Deux problèmes sont abordés : le premier est la modélisation des incertitudes et des erreurs qui peuvent se produire au niveau des capteurs et des effecteurs des agents au moment de leurs interactions avec l'environnement, en vue d'une simulation multi-agent qui soit plus fidèle à la réalité. Le second problème concerne l'exploitation du parallélisme inhérent des SMA, afin d'obtenir de bonnes performances parallèles et réduire le temps d'exécution et/ou traiter des problèmes de plus grandes tailles. Deux modèles sont ainsi proposés : un modèle formel de SMA, qui comprend un modèle stochastique d'interaction entre l'agent et l'environnement, et un modèle de simulation parallèle basé sur la répartition des conflits survenant entre les agents, et sur un équilibrage dynamique de charge entre les processeurs. Des résultats satisfaisants obtenus sont présentés
This thesis belongs at the same time to the multi-agent system (MAS) and parallelism domains, and more precisely to the parallel simulation of MAS. Two problems are tackled: First one concerns the modeling and simulation of situated agents, together with the unreliability of their sensors and effectors, in order to perform simulations which results will be more realistic. The second problem relates to the exploitation of the inherent parallelism of multi-agent systems, in order to obtain good parallel performances, by reducing the execution time and/or processing problems of bigger sizes. Two models are proposed: a formal model of multi-agent systems, including a stochastic model of the agent/environment interaction, and a parallel simulation model for multi-agent systems based on the distribution of the conflicts occurring between the agents, and on a dynamic load balancing mechanism between the processors. The satisfactory results we have obtained are presented
APA, Harvard, Vancouver, ISO, and other styles
18

Vilarem, Jean-François. "Contrôle de concurrence mixte en environnement distribué : une méthode fusionnant verrouillage et certification." Montpellier 2, 1989. http://www.theses.fr/1989MON20023.

Full text
Abstract:
Cette these se situe dans le cadre de controle de concurrence pour des systemes transactionnels repartis. Elle montre que les methodes pessimistes a base de verrouillage a deux phases et les methodes optimistes par certification peuvent coexister. Cette proposition, nouvelle en environnement distribue, peut se reveler avantageuse dans differentes situations ou l'heterogeneite est relative au type de controle exerce. Un modele de transaction distribuee, a base d'operations lire et ecrire, est propose. Differentes methodes de controle sont analysees a la lumiere d'un graphe de precedence engendre par les conflits entre operations de transactions concurrentes. Ce travail expose une methode par certification distribuee construisant un ordre de serialisation. Par la suite, celle-ci est adaptee de maniere a integrer le verrouillage a deux phases. Finalement cette solution mixte est mise en uvre en utilisant la technique des intervalles d'estampilles
APA, Harvard, Vancouver, ISO, and other styles
19

Christnacher, Frank. "Etude de l'adaptation d'un système optique de reconnaissance de formes à un environnement sévère." Mulhouse, 1992. http://www.theses.fr/1992MULH0242.

Full text
Abstract:
Ce travail a pour but d'étudier l'adaptation d'un système optique de reconnaissance de formes pour son application dans un environnement sévère. Cette étude a surtout été axée sur le développement d'une architecture optique rudimentaire mais adaptée è la détection d'un objet dans des conditions particulières. Après avoir étudié l'opération de corrélation optique et en particulier le problème des fausses alertes dues aux intercorrélations, un prétraitement optique par extraction des contours a été choisi pour réduire ces fausses alarmes. De nombreux types de filtres optiques d'extraction des contours utilisant la convolution ont été mis en oeuvre. Ainsi des filtres originaux ont été réalisés et une méthode simple de simulation de la réponse de ces filtres, à partir de leur description mathématique, a été développée. Un système optique a été réalisé dans lequel les deux opérations sont effectuées simultanément. Le système a en partie été intégré puisque nous avons pu réaliser les deux opérations en plaçant le filtre de corrélation dans le même plan que le filtre d'extraction de contours, ce qui réduit l'encombrement de moitié. Enfin, des méthodes ont été trouvées pour réduire le bruit optique (engendré par la superposition des filtres) dans le plan de sortie et par la même augmenter le rapport signal/fond du pic de corrélation
APA, Harvard, Vancouver, ISO, and other styles
20

Fatni, Abdelkrim. "Environnement de programmation parallèle adapté au traitement d'images et au calcul scientifique : le langage C// et son compilateur." Toulouse, INPT, 1998. http://www.theses.fr/1998INPT005H.

Full text
Abstract:
Les applications " Grand Challenge " nécessitent une puissance de calcul très importante. Malgré la haute performance des outils informatiques engendrée par la haute intégration des circuits électroniques, la puissance requise par ces applications, de l'ordre du tera-flops, reste non satisfaite. Le challenge pose a l'informaticien trouve sa solution dans la parallélisation de l'environnement de calcul. Celui-ci est constitué du calculateur, de l'algorithmique, du langage de programmation et de son compilateur. Mais l'environnement ne peut être efficace que s'il y a adéquation entre ces différentes composantes. Dans ce but, un environnement de programmation parallèle adapte au traitement d'images et au calcul scientifique est proposé dans cette thèse. Dans cette étude nous avons introduit le langage C// et son compilateur. Le langage C// est une extension parallèle du C basée sur le modèle de programmation a parallélisme de données. Le modèle d'exécution est de type SPMD à mémoire partagée et physiquement distribuée (DSM). Plusieurs processeurs de la machine exécutent le même programme et communiquent à travers des variables partagées. Des points de synchronisation sont utilisés par le programmeur pour coordonner les divers flots de la machine et maintenir la cohérence de données. L'atelier de compilation de C // se compose de deux phases consécutives. La première phase consiste en la traduction du code C // en code C après analyse syntaxique et sémantique des constructions parallèles relevant de notre paradigme de programmation. Ce code sera ensuite compilé par le compilateur Gcc de la FSF (Free Software Foundation) en code machine. L'utilité de Gcc provient de sa disponibilité, sa portabilité et sa configurabilité pour d'autres plates-formes. La machine symphonie nous a servi d'exemple pour la configuration de Gcc. Nous avons aussi implanté l'atelier de compilation sur la machine GFLOPS. Plusieurs applications relevant du domaine de traitement d'images ont été développées et simulées sur GFLOPS. Ceci nous a permis d'évaluer et de valider notre environnement de programmation C // sur cette machine. Les premiers résultats sont très encourageants.
APA, Harvard, Vancouver, ISO, and other styles
21

Laanaya, Hicham. "Classification en environnement incertain : application à la caractérisation de sédiments marins." Brest, 2007. http://www.theses.fr/2007BRES2041.

Full text
Abstract:
La classification des images sonar est d’une grande importance dans divers domaines. C’est le cas pour la navigation sous-marine ou pour la cartographie des fonds marins. La plupart des approches développées ou utilisées dans le cadre du présent travail pour la caractérisation des sédiments marins s’appuient sut l’utilisation des méthodes d’analyse de la texture. En effet, les images sonar présentent différentes zones homogènes de sédiments qu’on peut considérer comme des entités de texture. En général, les paramètres texturaux extraits sont nombreux et ne sont pas tous pertinents, une extraction-réduction de ces paramètres paraît nécessaire avant l’étape de la classification. La méthodologie proposée dans le cadre du présent travail est fondée sur le processus d’extraction de connaissance à partir de données pour l’élaboration d’une chaîne complète de classification des images sonar en essayant d’optimiser chaque étape de celle chaîne de traitement. L’environnement sous-marin a un caractère incertain, ce qui se reflète sur les images obtenues à partir des capteurs utilisés pour leur élaboration. Il est donc important de développer des méthodes robustes à ces imperfections. Nous résolvons ce problème de deux façons différentes dans un premier temps nous cherchons à rendre plus robustes à ces imperfections des méthodes classiques de classification comme les machines à vecteurs de support ou les k- plus proches voisins et dans un deuxième temps nous cherchons à modéliser ces imperfections pour en tenir compte dans des méthodes de classification floues ou crédibilistes. Nous analysons alors les résultats obtenus en utilisant différentes approches pour l’analyse de la texture, l’extraction-réduction de paramètres et pour la classification. Nous utilisons d’autres approches fondées sur les théories de l’incertain pour pallier au problème des imperfections présentes sur les images sonar
Sonar images classification is of great importance for various realistic applications such as underwater navigation or seabed mapping. Most approaches developed or used in the present work for seabed characterization are based on the use of texture analysis methods. Indeed, the sonar images have different homogeneous areas of sédiment that can be viewed as texture entities. Generally, texture features are of large numbers and are not all relevant, an extraction-reduction of these features seems necessary before the classification phase. We present in this manuscript a complete chain for sonar images classification while optimizing the chain steps. We use the Knowledge Discovery on Database (KDD) process for the chain development. The underwater environment is uncertain, which is reflected on the images obtained from the sensors used for their acquisition. Therefore, it is important to develop robust methods to these imperfections. We solve this problem in two different ways: a first solution is to make robust traditional classification methods, such as support vector machines or k-nearest neighbors, to these imperfections. A second solution is to model these imperfections to be taken into account by belief or fuzzy classification methods. We analyze the results obtained using different texture analysis approaches, feature extraction-reduction methods, and classification approaches. We use other approaches based on the uncertain theories to overcome sonar images imperfections problem
APA, Harvard, Vancouver, ISO, and other styles
22

Moreau, Valentine. "Méthodologie de représentation des impacts environnementaux locaux et planétaires, directs et indirects - Application aux technologies de l'information." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2012. http://tel.archives-ouvertes.fr/tel-00843151.

Full text
Abstract:
Les services basés sur les technologies de l'information dans les secteurs publics et privés sont en pleine croissance. Par conséquent, la demande énergétique est de plus en plus importante pour alimenter les équipements informatiques au sein des établissements utilisateurs et dans les data-centres. A cette phase de consommation, facilement identifiable par les utilisateurs, s'ajoute la phase de production des équipements dont les conséquences sur l'environnement sont difficilement perceptibles par les utilisateurs. Ainsi, les impacts environnementaux des TIC paraissent principalement " délocalisés " et " invisibles " par rapport à l'utilisateur final.Progressivement, l'enjeu environnemental prend sa place dans la logique du secteur des technologies de l'information, aboutissant au concept de " Green IT ". Concepteurs et utilisateurs cherchent désormais à évaluer les impacts environnementaux des technologies de l'information. Dans un contexte d'évaluation environnementale pour l'aide à la décision, l'objectif de cette thèse est d'évaluer les impacts environnementaux des équipements informatiques d'une organisation. Pour cela, nous envisageons une démarche qui vise à enrichir l'approche produit de type ACV par l'ajout de données spécifiques à l'organisation étudiée.Les recherches bibliographiques ont permis de dégager les spécificités et les besoins méthodologiques en termes d'évaluation des impacts. Ainsi, une méthodologie permettant l'expression des impacts environnementaux locaux et planétaires liés à la fabrication et à l'utilisation des technologies de l'information au sein d'une organisation est proposée. Appliquée lors d'un partenariat avec une entreprise multinationale de la grande distribution et validée par son application dans un centre de recherche, cette méthodologie centralise à la fois des données génériques disponibles dans des bases de données et des données spécifiques recueillies auprès des utilisateurs de l'organisation étudiée. Cette étape de terrain, point central de la méthodologie, permet dans un premier temps d'obtenir l'inventaire des équipements présents et dans un second temps de connaître et de comprendre le comportement réel des utilisateurs via une enquête et des mesures de puissances et de consommations électriques des équipements représentatifs du panel inventorié (utilisation de boitiers d'acquisition de valeurs dits " économètre ").L'approche d'évaluation environnementale des systèmes informatiques développée au cours de ce travail a pour objectif de mettre en exergue les répercussions sur l'environnement que peuvent avoir les technologies de l'information au sein d'une organisation. Un des résultats principaux montre que la majorité des impacts environnementaux sont plus liés à la phase de production qu'à la phase d'utilisation. De plus, cette méthode aide à l'identification des pistes d'améliorations : choix et gestion des équipements, comportement individuel, charte d'utilisation, choix d'une politique éco-responsable... Ainsi, par un calcul d'éco-efficience mettant en jeu les gains environnementaux et économiques, les solutions répondant à la stratégie de développement de l'organisation étudiée peuvent être sélectionnées.
APA, Harvard, Vancouver, ISO, and other styles
23

Simon, Gwendal. "Conception et réalisation d'un système pour environnement virtuel massivement partagé." Rennes 1, 2004. http://www.theses.fr/2004REN10158.

Full text
Abstract:
Cette thèse décrit Solipsis, un système permettant à un nombre illimité de participants de s'immerger dans un monde virtuel. Il est basé sur un réseau de pairs. Toutes les entités virtuelles sont des pairs qui collaborent pour le maintien de propriétés globales permettant à un monde virtuel unique d'exister. Dans une première partie, nous présentons les algorithmes distribués de Solipsis. Puis, la deuxième partie décrit l'étude de deux services fondamentaux pouvant enrichir le monde virtuel : un mécanisme de recherche et un service d'éditeur/abonné.
APA, Harvard, Vancouver, ISO, and other styles
24

Honeine, Paul. "Méthodes à noyau pour l'analyse et la décision en environnement non-stationnaire." Troyes, 2007. http://www.theses.fr/2007TROY0018.

Full text
Abstract:
Ce mémoire de thèse propose un nouveau cadre pour l’analyse et la décision en environnement non-stationnaire et en situation de pénurie d’information statistique, par une fertilisation croisée des domaines de l’analyse temps-fréquence, du traitement adaptatif du signal et de la reconnaissance des formes par méthodes à noyau. On introduit un cadre générale pour bénéficier des plus récents développements des méthodes à noyau dans le domaine temps-fréquence, grâce à un choix approprié de noyau reproduisant. On l’illustre par l’analyse en composantes principales dans ce domaine, avant d’étendre le spectre aux méthodes de classification de signaux telles que les Support Vector Machines. On montre que notre approche permet la sélection d’une représentation temps-fréquence adaptée à la résolution d’un problème de classification de signaux, grâce au critère d’alignement noyau-cible. Confronté à un environnement non-stationnaire et dynamique, un apprentissage en-ligne peut s’avérer incontournable. Les méthodes à noyau n’apportant hélas pas de réponse satisfaisante, on présente une méthode reposant sur un critère inspiré de la littérature relative à l’approximation parcimonieuse : la cohérence d’un dictionnaire de fonctions. Au-delà des nombreuses propriétés de cette grandeur que l’on étudie, cette approche permet un contrôle efficace de l’ordre du modèle avec un coût calculatoire extrêmement réduit. On l’applique dans un cadre général de méthodes adaptatives pour l’identification de systèmes non-linéaires et non-stationnaires
This PhD thesis offers a new framework for the analysis and decision-making in a non-stationary environment in the lack of statistical information, on a crossroad of three disciplines : Time-frequency analysis, adaptive signal processing and pattern recognition with kernel machines. We derive a broad framework to take advantage of recent developments in kernel machines for the time-frequency domain, by an appropriate choice of the reproducing kernel. We study the implementation of the principal component analysis on this domain, before extending its scope to signal classification methods such as Fisher discriminant analysis and Support Vector Machines. We carry out with the problem of selecting and turning a representation for a given classification task, which can take advantage of a new criterion initially developed for selecting the reproducing kernel : the kernel-target alignment. Online learning is essential in a non-stationary and dynamic environment. While kernel machines fail in treating such problems, we propose a new method leading to reduced order models based on a criterion inspired from the sparse functional approximation community : the coherence of a dictionary of functions. Beyond the properties of this parameter that we derive for kernel machines, this notion yields efficient models with extremely low computational complexity. We apply it for online kernel algorithms such as principal component analysis. We also consider a broader class of adaptive methods for nonlinear and non-stationary system identification
APA, Harvard, Vancouver, ISO, and other styles
25

Tadlaoui, Moustapha. "Un environnement de simulation paramétrable pour la validation de systèmes répartis." Toulouse, ENSAE, 1989. http://www.theses.fr/1989ESAE0016.

Full text
Abstract:
Les travaux présentés dans ce mémoire abordent le problème de la validation des applications distribuées. Ils traitent plus précisément de la conception et de la réalisation d'un simulateur interactif de systèmes répartis. Cet outil s'intègre dans la chaîne de production des logiciels temps réel au stade du maquettage et prototypage. Une première partie du mémoire présente les systèmes parallèles, les différentes approches et modèles de description, et introduit la simulation comme technique de validation. Une deuxième partie décrit l'outil de simulation réalisé, sa conception et puis ses originalités: paramétrisation du noyau de simulation, réalisation suivant une approche orientée objet.
APA, Harvard, Vancouver, ISO, and other styles
26

Berdjugin, Jean-François. "Un environnement de développement formel de systèmes distribués temps réel." Toulouse 3, 2002. http://www.theses.fr/2002TOU30056.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Jouault, Valentin. "Amélioration de la démarche de vérification et validation du nouveau code de neutronique APOLLO3." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0231/document.

Full text
Abstract:
Le code APOLLO3®, développé par le CEA avec le soutien d’EDF et AREVA, s’inscrit dans le programme de développement d’une plate-forme logicielle neutronique permettant de modéliser plus finement les phénomènes physiques des cœurs de réacteurs existant (jusqu’à Génération III) ainsi que la conception et la réalisation des concepts du futur (Génération IV). Malgré les avancées technologiques en matière d’informatique (augmentation du nombre d’opération par seconde et des volumes de stockage), des approximations sont toujours nécessaires dans les codes déterministes. Or, ces approximations apportent des erreurs plus ou moins importantes, que l’on appelle des biais de méthodes ou de calcul, qui se répercutent sur les résultats finaux.Lors des précédents travaux de validation, il s’agissait de comparer le résultat du schéma de calcul choisi avec un code étalon (stochastique ou déterministe). Cette comparaison permettait d’avoir un biais global associé au schéma de calcul. La validation plus en profondeur des fonctionnalités servait à optimiser le schéma de calcul. Cependant, l’impact des biais des fonctionnalités sur le biais global du schéma de calcul jusqu’au cœur n’était jamais quantifié. Le premier objectif de cette thèse est de quantifier les biais associés aux principales fonctionnalités du code APOLLO3®, et de mesurer leur impact sur le biais global.L’autre partie de cette thèse porte sur la définition du domaine de Validation du code APOLLO3®. Le domaine de Validation regroupe l’ensemble des applications dans lequel le code donne de bons résultats et a été validé
The APOLLO3® code, developed at CEA with the support of EDF and AREVA, is the result of a project aiming at developing a neutronic software platform with improved models of physical phenomena for existing reactor cores (until 3rd generation) but also for future reactor concepts (4th generation). Despite technological improvements in computer science (number of operations per second and storage volume increased), approximations are unavoidable in deterministic codes. Yet, those approximations bring more or less important discrepancies, named model biases, on different core characteristics (pointed out through reference calculations).During previous validation processes, the purpose was to compare a chosen calculation scheme against a reference calculation (Monte-Carlo or deterministic). This comparison allowed the users to get a global bias associated with a calculation scheme. Further validation of functionalities was used to optimize the calculation scheme, and as a decisive criteria for his options. However, the functionalities’ bias impact on the calculation scheme global bias until core calculation was not measured.The first objective of this thesis is to quantify biases associated with APOLLO3® code main functionalities, and to measure their impact on the global bias.The other part of this thesis relies on the definition of the APOLLO3® Validation domain. The Validation domain defines the set of applications in which the code is effective and has been validated
APA, Harvard, Vancouver, ISO, and other styles
28

Lallier, Martial. "Un environnement d'édition evolué, graphique et syntaxique, pour la conception des systemes repartis." Nancy 1, 1988. http://www.theses.fr/1988NAN10284.

Full text
Abstract:
Proposition d' un outil d' assistance à l' utilisateur dans les problèmes d' édition et de contrôle des différents niveaux de descriptions intervenant lors de la conception d' application informatiques réparties
APA, Harvard, Vancouver, ISO, and other styles
29

Steux, Bruno. "RT Maps, un environnement logiciel dédié à la conception d'applications embarquées temps-réel : utilisation pour la détection automatique de véhicules par fusion radar / vision." Paris, ENMP, 2001. http://www.theses.fr/2001ENMP1013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Ben, Henda Mokhtar. "Morphologie et architecture des interfaces de communication de l'information scientifique et technique dans un environnement multilingue : le contexte arabo-latin." Bordeaux 3, 1999. https://tel.archives-ouvertes.fr/tel-00006373.

Full text
Abstract:
Le multilinguisme arabe-latin que nous qualifions de multilinguisme lourd, presente deux particularites fondamentales qui le distinguent du multilinguisme souple (meme famille linguistique) : la representation et la bidirectionnalite graphiques ou textuelles. Le mecanisme de la representation et du traitement des caracteres et de leurs soubassements de codage et de normalisation constituent encore un point contraignant a la transparence linguistique des systemes et des interfaces homme-machines multilingues. Si le probleme est partiellement resolu sur les plates-formes monopostes et locales, les systemes d'information scientifique et technique ouverts et distribues (i. E. Internet) sont encore soumis a l'hegemonie linguistique latine et plus particulierement anglo-saxonne. L'introduction de la langue arabe (et autres non latines) y est certes en progression, mais elle reste encore interdite aux zones systemes (uris, protocoles, systemes operatoires. . . ). Notre contribution a l'il8n et la 11 on des systemes d'information multilingues en general et les interfaces homme-machine en particulier prend forme d'une proposition qui part du principe de correspondance entre un mecanisme numerique et un jeu de caracteres unifies (unicode, iso 10464). La bidirectionnalite est aussi un facteur de contrainte qui pese sur les interfaces multilingues homme-machine. Les algorithmes de tri, les methodes des traitements logiques et visuels des incises et des bris, les techniques de l'etiquetage et de la negociation linguistiques entre systemes distribues, l'opposition entre la rigueur gauche-droite des chiffres et leur traitement algorithmique de droite a gauche constituent les points les plus importants de notre etude du mecanisme bidi. Notre objectif essentiel est la revocation des systemes d'information et de communication multilingue herites pour ouvrir d'autres pistes de recherche dans les domaines de l'industrie de la langue et de la sociolinguistique
The arab-latin multilingualism that we identify as a hard multilingualism presents two major peculiarities that make it distinguishable from soft multilingualism (the same linguistic family) : graphic or textual representation and bidirectionnality. The mechanism of characters representation and processing on basis of coding and standards requirements constitute one of the prime constraints to linguistic transparency of multilingual systems and human-computer interfaces. Even tough the problem has been well addressed within the context of desktop and local platforms, open and distributed network systems (i. E. Internet) are still under control of latin oriented linguistic, and particularly anglo-saxon, hegemony. Other non latin languages are yet on their ways to integrate these systems but they are generally excluded from operating system areas (uris, protocols. . . ). Our contribution to i18n and li on of multilingual information systems and human-computer interfaces is proposed in terms of a combinatory mechanism between a numeric resources identification system and a unified coded character set (unicode or iso 10646). Bidirectionnality is also a constraining factor that weighs on human-computer multilingual interfaces. Sorting algorithms, logical and visual processing of text breaking and interpolation, linguistic labeling and negotiation between distributed systems, the opposition between left-to-right restrictive orientation of numeral and their internal right-to-left algorithmic way of processing constitute the major focal points of our analysis of the bidi mechanism. Our major concern in conducting this research is to revoke inherited and state-of-the-art multilingual scientific information and communication systems in order to dig deeper in specialized research areas like linguistic engineering and socilinguistics
APA, Harvard, Vancouver, ISO, and other styles
31

Ghazouani, Haythem. "Navigation visuelle de robots mobiles dans un environnement d'intérieur." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00932829.

Full text
Abstract:
Les travaux présentés dans cette thèse concernent le thème des fonctionnalités visuelles qu'il convient d'embarquer sur un robot mobile, afin qu'il puisse se déplacer dans son environnement. Plus précisément, ils ont trait aux méthodes de perception par vision stéréoscopique dense, de modélisation de l'environnement par grille d'occupation, et de suivi visuel d'objets, pour la navigation autonome d'un robot mobile dans un environnement d'intérieur. Il nous semble important que les méthodes de perception visuelle soient à la fois robustes et rapide. Alors que dans les travaux réalisés, on trouve les méthodes globales de mise en correspondance qui sont connues pour leur robustesse mais moins pour être employées dans les applications temps réel et les méthodes locales qui sont les plus adaptées au temps réel tout en manquant de précision. Pour cela, ce travail essaye de trouver un compromis entre robustesse et temps réel en présentant une méthode semi-locale, qui repose sur la définition des distributions de possibilités basées sur une formalisation floue des contraintes stéréoscopiques. Il nous semble aussi important qu'un robot puisse modéliser au mieux son environnement. Une modélisation fidèle à la réalité doit prendre en compte l'imprécision et l'incertitude. Ce travail présente une modélisation de l'environnement par grille d'occupation qui repose sur l'imprécision du capteur stéréoscopique. La mise à jour du modèle est basée aussi sur la définition de valeurs de crédibilité pour les mesures prises. Enfin, la perception et la modélisation de l'environnement ne sont pas des buts en soi mais des outils pour le robot pour assurer des tâches de haut niveau. Ce travail traite du suivi visuel d'un objet mobile comme tâche de haut niveau.
APA, Harvard, Vancouver, ISO, and other styles
32

Jarraya, Amina. "Raisonnement distribué dans un environnement ambiant." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL011.

Full text
Abstract:
L’informatique pervasive et l’intelligence ambiante visent à créer un environnement intelligent avec des dispositifs électroniques et informatiques mis en réseau tels que les capteurs, qui s’intègrent parfaitement dans la vie quotidienne et offrent aux utilisateurs un accès transparent aux services partout et à tout moment.Pour garantir ce fonctionnement, un système doit avoir une connaissance globale sur son environnement, et en particulier sur les personnes et les dispositifs, leurs intérêts et leurs capacités, ainsi que les tâches et les activités associées. Toutes ces informations relèvent de la notion de contexte. Cela passe par la collecte des données contextuelles de l’utilisateur pour déterminer sa situation/son activité courante ; on parle alors d’identification de situations/d’activités. Pour cela, le système doit être sensible aux variations de son environnement et de son contexte, afin de détecter les situations/les activités et de s’adapter ensuite dynamiquement. Reconnaître une situation/une activité nécessite alors la mise en place de tout un processus : perception des données contextuelles, analyse de ces données collectéeset raisonnement sur celles-ci pour l’identification de situations/d’activités.Nous nous intéressons plus particulièrement aux aspects liés à la modélisation distribuée de l’environnement ambiant et à ceux liés au raisonnement distribué en présence de données imparfaites pour l’identification de situations/d’activités. Ainsi, la première contribution de la thèse concerne la partie perception. Nous avons proposé un nouveau modèle de perception permettant la collecte des données brutes issues des capteurs déployés dans l’environnement et la génération des évènements. Ensuite, la deuxième contribution se focalise sur l’observation et l’analyse de ces évènements en les segmentant et extrayant les attributs lesplus significatifs et pertinents. Enfin, les deux dernières contributions présentent deux propositions concernant le raisonnement distribué pour l’identification de situations/d’activités; l’une représente la principale contribution et l’autre représente sa version améliorée palliant certaines limites. D'un point de vue technique, toutes ces propositions ont été développées, validées et évaluées avec plusieurs outils
Pervasive Computing and Ambient Intelligence aim to create a smart environment withnetworked electronic and computer devices such as sensors seamlessly integrating into everyday life and providing users with transparent access to services anywhere and anytime.To ensure this, a system needs to have a global knowledge of its environment, and inparticular about people and devices, their interests and their capabilities, and associated tasks and activities. All these information are related to the concept of context. This involves gathering the user contextual data to determine his/her current situation/activity; we also talk about situation/activity identification. Thus, the system must be sensitive to environment and context changes, in order to detect situations/activities and then to adapt dynamically.Recognizing a situation/an activity requires the definition of a whole process : perception of contextual data, analysis of these collected data and reasoning on them for the identification of situations/activities.We are particularly interested in aspects related to the distributed modeling of the ambient environment and to those related to distributed reasoning in the presence of imperfect data for the identification of situations/activities. Thus, the first contribution of the thesis concerns the perception part. We have proposed a new perception model that allows the gathering of raw data from sensors deployed in the environment and the generation of events.Next, the second contribution focuses on the observation and analysis of these events by segmenting them and extracting the most significant and relevant features. Finally, the last two contributions present two proposals concerning the distributed reasoning for the identification of situations/activities ; one represents the main contribution and the other represents its improved version overcoming certain limitations. From a technical point of view, all these proposals have been developed, validated and evaluated with several tools
APA, Harvard, Vancouver, ISO, and other styles
33

Al, King Raddad. "Localisation de sources de données et optimisation de requêtes réparties en environnement pair-à-pair." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/912/.

Full text
Abstract:
Malgré leur succès dans le domaine du partage de fichiers, les systèmes P2P sont capables d'évaluer uniquement des requêtes simples basées sur la recherche d'un fichier en utilisant son nom. Récemment, plusieurs travaux de recherche sont effectués afin d'étendre ces systèmes pour qu'ils permettent le partage de données avec une granularité fine (i. E. Un attribut atomique) et l'évaluation de requêtes complexes (i. E. Requêtes SQL). A cause des caractéristiques des systèmes P2P (e. G. Grande-échelle, instabilité et autonomie de nœuds), il n'est pas pratique d'avoir un catalogue global qui contient souvent des informations sur: les schémas, les données et les hôtes des sources de données. L'absence d'un catalogue global rend plus difficiles: (i) la localisation de sources de données en prenant en compte l'hétérogénéité de schémas et (ii) l'optimisation de requêtes. Dans notre thèse, nous proposons une approche pour l'évaluation des requêtes SQL en environnement P2P. Notre approche est fondée sur une ontologie de domaine et sur des formules de similarité pour résoudre l'hétérogénéité sémantique des schémas locaux. Quant à l'hétérogénéité structurelle de ces schémas, elle est résolue grâce à l'extension d'un algorithme de routage de requêtes (i. E. Le protocole Chord) par des Indexes de structure. Concernant l'optimisation de requêtes, nous proposons de profiter de la phase de localisation de sources de données pour obtenir toutes les méta-données nécessaires pour générer un plan d'exécution proche de l'optimal. Afin de montrer la faisabilité et la validité de nos propositions, nous effectuons une évaluation des performances et nous discutons les résultats obtenus
Despite of their great success in the file sharing domain, P2P systems support only simple queries usually based on looking up a file by using its name. Recently, several research works have made to extend P2P systems to be able to share data having a fine granularity (i. E. Atomic attribute) and to process queries written with a highly expressive language (i. E. SQL). The characteristics of P2P systems (e. G. Large-scale, node autonomy and instability) make impractical to have a global catalog that stores often information about data, schemas and data source hosts. Because of the absence of a global catalog, two problems become more difficult: (i) locating data sources with taking into account the schema heterogeneity and (ii) query optimization. In our thesis, we propose an approach for processing SQL queries in a P2P environment. To solve the semantic heterogeneity between local schemas, our approach is based on domain ontology and on similarity formulas. As for the structural heterogeneity of local schemas, it is solved by the extension of a query routing method (i. E. Chord protocol) with Structure Indexes. Concerning the query optimization problem, we propose to take advantage of the data source localization phase to obtain all metadata required for generating a close to optimal execution plan. Finally, in order to show the feasibility and the validity of our propositions, we carry out performance evaluations and we discuss the obtained results
APA, Harvard, Vancouver, ISO, and other styles
34

Jarma, Yesid. "Protection de ressources dans des centres de données d'entreprise : architectures et protocoles." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00666232.

Full text
Abstract:
Au cours des dernières années, l'apparition de l'Internet a changé la façon dont les affaires sont menées partout dans le monde. Pour rester compétitives, les entreprises ont déployé du support informatique pour les processus métiers au fil des années. Dans ce contexte, les architectures orientées service (SOA) ont émergé comme la solution principale pour l'intégration des systèmes patrimoniaux avec les nouvelles technologies au coeur des grandes organisations. Les centres de traitement de données d'entreprise qui implémentent les concepts et solutions des SOA sont normalement déployés en suivant une architecture à deux niveaux où, pour libérer les serveurs de services des tâches computationnelles intensives (e.g., l'analyse syntaxique de documents XML) et pour effectuer de la protection de ressources, ces fonctions sont déchargées dans un cluster d'appliances qui implémentent des fonctions des réseaux orientées service (SON). Dans les centres de traitement, l'accès aux services est gouverné par des contrats de garantie de services (SLA), dont le but est de protéger les ressources du centre de traitement. Actuellement, les appliances SON sont utilisées pour protéger les ressources du centre de traitement en limitant l'accès (e.g., en contrôlant le trafic) aux services. Le provisionnement et l'optimisation de ressources sont des problèmes classiques de la gestion de la QoS. En outre, le contrôle de trafic est un problème très connu de l'ingénierie de trafic. Cependant, dans les centres de traitement orientés service le problème est fondamentalement diffèrent. Dans les réseaux classiques, les ressources protégée par la fonction de mise en conformité sont normalement la bande passante et la taille des mémoires tampon, dont les unités de mesure sont clairement définies et mesurées avec précision. Dans un centre de traitement, les métriques des ressources sont comprises pour la plupart dans un des types suivants: puissance de calcul et mémoire des serveurs d'application (CPU et RAM), capacité de stockage des serveurs de stockage (espace en disque dur), et la bande passante du réseau interne du centre de traitement. Une autre différence fondamentale est que, dans les réseaux dits "classiques", le contrôle de trafic a une étendue locale, puisque le trafic prend la conformité d'une connexion simple. Dans un centre de traitement, les clients de service accèdent aux services à partir de multiples points d'entrée (p.ex., un cluster d'appliances SON). Ainsi, l'effet désiré est une mise en conformité "globale" du trafic. Le défi est donc faire respecter les contrats de service en agissant localement dans chaque point d'entrée. Cette thèse apporte trois contributions. D'abord nous proposons DoWSS, un algorithme dynamique basé sur des crédits pour la mise en conformité de trafic multipoint-à-point. À la différence des approches existantes basées sur des crédits, notre approche utilise une stratégie doublement pondérée pour l'affectation de crédits, en utilisant des poids basés sur la taille des requêtes de service. L'évaluation de DoWSS montre que ses performances sont optimales puisqu'il limite le nombre de requêtes au maximum permis par le contrat de service. Par la suite, nous affirmons que les appliances SON actuelles présentent des limitations architecturales qui les empêchent d'être utilisées efficacement pour la mise en conformité de trafic en présence d'hôtes de service multiples. Pour palier à ce problème, nous proposons MuST, une architecture interne pour les appliances SON appropriée pour la mise en conformité de trafic multi-service. L'évaluation des performances de notre approche montre qu'elle résout le problème de la mise en conformité de trafic multipoint-à-multipoint tout en poussant le système à être utilisé à sa capacité maximale. Finalement, actuellement les applications sont souvent déployées dans des centres de données géographiquement distribués. Les approches existantes pour la mise en conformité de trafic, lesquelles ont étés conçues spécifiquement pour des centres de données aménagés sur un même site, présentent des problèmes liés aux latences réseau quand ils sont utilisés dans des environnements géographiquement distribués. Pour palier à ce problème, nous proposons GeoDS, un approche pour la mise en conformité du trafic géographiquement distribué qui considère les délais de communication entre les entités qui forment le système. L'évaluation de ses performances montre qu'il est capable de résoudre efficacement le problème de la mise en conformité du trafic dans les environnements géographiquement distribués.
APA, Harvard, Vancouver, ISO, and other styles
35

Er-Rouane, Sadik. "Méthodologie d'acquisition et de traitement des données hydrogéologiques : application au cas de la plaine de la Bahira." Nancy 1, 1992. http://www.theses.fr/1992NAN10397.

Full text
Abstract:
L'objectif de ce travail est l'aménagement et la mise en valeur de la plaine de la Bahira grâce à l'exploitation rationnelle de ses ressources hydrogéologiques. La synthèse entreprise au niveau de toute la plaine sur la base des anciens travaux, a mis en évidence une masse de données très disparates dont le traitement a rendu indispensable le recours à l'outil informatique. Cela conduisit à l'élaboration d'une méthodologie précise et a la mise en place d'une base de données programmée sous dbase III plus et qui est composée de fichiers spécialises se rapportant aux quatre principales classes d'informations: géologie, caractéristiques hydrodynamiques, piézométries, prélèvements par pompages. La gestion de cette base de données se fait à deux niveaux, elle permet d'une part l'exécution des taches habituelles, telles que consultations, tris, mises à jour. . . , mais elle a été surtout orientée vers une exploitation entièrement informatisée, grâce à une édition de divers fichiers magnétiques spécifiques qui seront repris par des logiciels de géostatistique et de modélisation mathématique. Si la conception actuelle de cette base de données est bien adaptée au cas de la Bahira, elle reste tout à fait perfectible et généralisable en d'autres unîtes. En ce qui concerne la modélisation, les travaux sont très avances en Bahira occidentale, l'extension à l'ensemble de la plaine est en cours selon un modèle multicouche à aquifères non noyés
APA, Harvard, Vancouver, ISO, and other styles
36

Vaudable, Christophe. "Analyse et reconnaissance des émotions lors de conversations de centres d'appels." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00758650.

Full text
Abstract:
La reconnaissance automatique des émotions dans la parole est un sujet de recherche relativement récent dans le domaine du traitement de la parole, puisqu'il est abordé depuis une dizaine d'années environs. Ce sujet fait de nos jours l'objet d'une grande attention, non seulement dans le monde académique mais aussi dans l'industrie, grâce à l'augmentation des performances et de la fiabilité des systèmes. Les premiers travaux étaient fondés sur des donnés jouées par des acteurs, et donc non spontanées. Même aujourd'hui, la plupart des études exploitent des séquences pré-segmentées d'un locuteur unique et non une communication spontanée entre plusieurs locuteurs. Cette méthodologie rend les travaux effectués difficilement généralisables pour des informations collectées de manière naturelle.Les travaux entrepris dans cette thèse se basent sur des conversations de centre d'appels, enregistrés en grande quantité et mettant en jeu au minimum 2 locuteurs humains (un client et un agent commercial) lors de chaque dialogue. Notre but est la détection, via l'expression émotionnelle, de la satisfaction client. Dans une première partie nous présentons les scores pouvant être obtenus sur nos données à partir de modèles se basant uniquement sur des indices acoustiques ou lexicaux. Nous montrons que pour obtenir des résultats satisfaisants une approche ne prenant en compte qu'un seul de ces types d'indices ne suffit pas. Nous proposons pour palier ce problème une étude sur la fusion d'indices de types acoustiques, lexicaux et syntaxico-sémantiques. Nous montrons que l'emploi de cette combinaison d'indices nous permet d'obtenir des gains par rapport aux modèles acoustiques même dans les cas ou nous nous basons sur une approche sans pré-traitements manuels (segmentation automatique des conversations, utilisation de transcriptions fournies par un système de reconnaissance de la parole). Dans une seconde partie nous remarquons que même si les modèles hybrides acoustiques/linguistiques nous permettent d'obtenir des gains intéressants la quantité de données utilisées dans nos modèles de détection est un problème lorsque nous testons nos méthodes sur des données nouvelles et très variées (49h issus de la base de données de conversations). Pour remédier à ce problème nous proposons une méthode d'enrichissement de notre corpus d'apprentissage. Nous sélectionnons ainsi, de manière automatique, de nouvelles données qui seront intégrées dans notre corpus d'apprentissage. Ces ajouts nous permettent de doubler la taille de notre ensemble d'apprentissage et d'obtenir des gains par rapport aux modèles de départ. Enfin, dans une dernière partie nous choisissons d'évaluées nos méthodes non plus sur des portions de dialogues comme cela est le cas dans la plupart des études, mais sur des conversations complètes. Nous utilisons pour cela les modèles issus des études précédentes (modèles issus de la fusion d'indices, des méthodes d'enrichissement automatique) et ajoutons 2 groupes d'indices supplémentaires : i) Des indices " structurels " prenant en compte des informations comme la durée de la conversation, le temps de parole de chaque type de locuteurs. ii) des indices " dialogiques " comprenant des informations comme le thème de la conversation ainsi qu'un nouveau concept que nous nommons " implication affective ". Celui-ci a pour but de modéliser l'impact de la production émotionnelle du locuteur courant sur le ou les autres participants de la conversation. Nous montrons que lorsque nous combinons l'ensemble de ces informations nous arrivons à obtenir des résultats proches de ceux d'un humain lorsqu'il s'agit de déterminer le caractère positif ou négatif d'une conversation
APA, Harvard, Vancouver, ISO, and other styles
37

Ramisch, Carlos Eduardo. "Un environnement générique et ouvert pour le traitement des expressions polylexicales : de l'acquisition aux applications." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00741147.

Full text
Abstract:
Cette thèse présente un environnement ouvert et souple pour l'acquisition automatique d'expressions multimots (MWE) à partir de corpus textuels monolingues. Cette recherche est motivée par l'importance des MWE pour les applications du TALN. Après avoir brièvement présenté les modules de l'environnement, le mémoire présente des résultats d'évaluation intrinsèque en utilisant deux applications: la lexicographie assistée par ordinateur et la traduction automatique statistique. Ces deux applications peuvent bénéficier de l'acquisition automatique de MWE, et les expressions acquises automatiquement à partir de corpus peuvent à la fois les accélérer et améliorer leur qualité. Les résultats prometteurs de nos expériences nous encouragent à mener des recherches ultérieures sur la façon optimale d'intégrer le traitement des MWE dans ces applications et dans bien d'autres
APA, Harvard, Vancouver, ISO, and other styles
38

Belabed, Dallal. "Design and Evaluation of Cloud Network Optimization Algorithms." Electronic Thesis or Diss., Paris 6, 2015. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2015PA066149.pdf.

Full text
Abstract:
Le but de cette thèse est de tenté de donner une meilleure compréhension des nouveaux paradigmes de l'informatique en Nuage. En ce qui concerne l'Ingénierie du Trafic, l'économie d'énergie, de l'équité dans le partage du débit.Dans la première partie de note thèse, nous étudions l'impact de ces nouvelles techniques dans les réseaux de Data Center, nous avons formulé notre problème en un modèle d'optimisation, et nous le résolvons en utilisons un algorithme glouton. Nous avons étudié l'impact des ponts virtuels et du multi chemin sur différentes architectures de Data Centers. Nous avons en particulier étudié l’impact de la virtualisation des switches et l’utilisation du multi-chemin sur les différents objectifs d'optimisation tels que l'Ingénierie du Trafic, l'économie d'énergie.Dans notre seconde partie, nous avons essayé d’avoir une meilleure compréhension de l'impact des nouvelles architectures sur le contrôle de congestion, et vice versa. En effet, l'une des préoccupations majeures du contrôle de congestion est l'équité en terme de débit, l'impact apporté par le multi-chemin, les nouvelles architectures Data Center et les nouveaux protocoles, sur le débit des points terminaux et des points d'agrégations reste vague.Enfin, dans la troisième partie nous avons fait un travail préliminaire sur le nouveau paradigme introduit par la possibilité de virtualisé les Fonctions Réseaux. Dans cette partie, nous avons formulé le problème en un modèle linéaire, dans le but est de trouver le meilleur itinéraire à travers le réseau où les demandes des clients doivent passer par un certain nombre de NFV
This dissertation tries to give a deep understanding of the impact of the new Cloud paradigms regarding to the Traffic Engineering goal, to the Energy Efficiency goal, to the fairness in the endpoints offered throughput, and of the new opportunities given by virtualized network functions.In the first part of our dissertation we investigate the impact of these novel features in Data Center Network optimization, providing a formal comprehensive mathematical formulation on virtual machine placement and a metaheuristic for its resolution. We show in particular how virtual bridging and multipath forwarding impact common DCN optimization goals, Traffic Engineering and Energy Efficiency, assess their utility in the various cases in four different DCN topologies.In the second part of the dissertation our interest move into better understand the impact of novel attened and modular DCN architectures on congestion control protocols, and vice-versa. In fact, one of the major concerns in congestion control being the fairness in the offered throughput, the impact of the additional path diversity, brought by the novel DCN architectures and protocols, on the throughput of individual endpoints and aggregation points is unclear.Finally, in the third part we did a preliminary work on the new Network Function Virtualization paradigm. In this part we provide a linear programming formulation of the problem based on virtual network function chain routing problem in a carrier network. The goal of our formulation is to find the best route in a carrier network where customer demands have to pass through a number of NFV node, taking into consideration the unique constraints set by NFV
APA, Harvard, Vancouver, ISO, and other styles
39

Le, Mouël Frédéric. "Environnement adaptatif d'exécution distribuée d'applications dans un contexte mobile." Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00004161.

Full text
Abstract:
L'informatique mobile est un domaine en plein essor qui profite des percées technologiques dans le domaine des ordinateurs portables et dans le domaine des réseaux de communication sans-fil. Ces environnements mobiles présentent des particularités : (i) dû à des limitations de taille et de poids, un terminal portable offre peu de ressources et celles-ci sont susceptibles de varier, (ii) les réseaux sans fil offrent une bande passante plus faible, sujette à des variations importantes et de fréquentes déconnexions dues aux interférences avec l'environnement, et (iii) l'environnement d'un terminal portable change suite à ses déplacements, avec l'accès, ou la disparition de l'accès, à un certain nombre de stations (mobiles ou non) et de périphériques (imprimantes, scanner, etc). L'objectif de cette thèse est de proposer une méthode qui généralise l'utilisation des ressources extérieures à un terminal portable au moyen de techniques de distribution prenant en compte ces critères de la mobilité. Nous proposons donc un système adaptatif de distribution des applications en environnements mobiles. Pour cela, nous avons construit une architecture générique se décomposant en un cadre de conception et une boîte à outils. Le cadre de conception comporte des fonctionnalités couramment utilisées pour la gestion des environnements mobile. La boîte à outils comporte des implantations permettant aux concepteurs d'applications de spécialiser les fonctionnalités avec un comportement défini. Dans ce cadre, nous avons plus précisément développé deux fonctionnalités. La fonctionnalité d'adaptation et de réaction dynamique définit, en particulier, un modèle d'entité auto-adaptative, dans laquelle les concepteurs peuvent dynamiquement spécialiser (i) les adaptations possibles de l'entité et (ii) la stratégie d'adaptation, correspondant aux changements de comportement à adopter en cas de variations dans les conditions d'exécution. La fonctionnalité de gestion des ressources et de distribution des applications caractérise les particularités de l'environnement mobile et les besoins des applications au sein d'un modèle d'utilisation de type offres / demandes. Cinq services mettent en oeuvre cette fonctionnalité : (i) le service de gestion de l'environnement, (ii) le service de gestion de l'environnement local, (iii) le service de détection et notification, (iv) le service de distribution et (v) le service de contrôle de la propagation des adaptations. Ceux-ci comportent des politiques adaptatives, basées sur le modèle de l'entité, qui peuvent être dynamiquement spécialisées par les concepteurs. Un prototype, AeDEn, a été développé et plusieurs expériences ont confirmé que la distribution en environnement mobile permet d'économiser les ressources des terminaux portables et d'améliorer les performances des applications.
APA, Harvard, Vancouver, ISO, and other styles
40

Politaki, Dimitra. "Vers la modélisation de clusters de centres de données vertes." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4116.

Full text
Abstract:
La consommation énergétique des clusters de centres de données augmente rapidement, ce qui en fait les consommateurs d'électricité à la croissance la plus rapide au monde. Les sources d’électricité renouvelables et en particulier l’énergie solaire en tant qu’énergie propre et abondante peuvent être utilisées pour couvrir leurs besoins en électricité et les rendre «verts», c’est-à-dire alimentés par le photovoltaïque. Ce potentiel peut être exploré en prévoyant l'irradiance solaire et en évaluant la capacité fournie pour les clusters de centres de données. Dans cette thèse, nous développons des modèles stochastiques pour l'énergie solaire; un à la surface de la Terre et un second qui modélise le courant de sortie photovoltaïque. Nous d'abord validons nos modèles par des données réels, puis nous proposons une étude comparative avec d’autres systèmes, notamment les modèles dits on-off. Nous concluons que notre modèle d'irradiance solaire peut capturer les corrélations multi-échelles de façon plus optimale, et il se montre particulièrement convénient dans le cas d’une production à petite échelle. De plus, nous proposons une nouvelle analyse de cycle de vie pour un système de cluster réel, ainsi qu'un modèle de cluster prenant en charge la soumission de travaux par lots et prenant en compte le comportement client impatient et persistant. Enfin, pour comprendre les caractéristiques essentielles du cluster d’ordinateurs, nous analysons deux cas: le complexe Google publié et le Nef cluster de l’Inria. Nous avons également implémenté marmoteCore-Q, un outil de simulation d’une famille de modèles de file d’attente, basé sur nos modèles
Data center clusters energy consumption is rapidly increasing making them the fastest-growing consumers of electricity worldwide. Renewable electricity sources and especially solar energy as a clean and abundant energy can be used, in many locations, to cover their electricity needs and make them "green" namely fed by photovoltaics. This potential can be explored by predicting solar irradiance and assessing the capacity provision for data center clusters. In this thesis we develop stochastic models for solar energy; one at the surface of the Earth and a second one which models the photovoltaic output current. We then compare them to the state of the art on-off model and validate them against real data. We conclude that the solar irradiance model can better capture the multiscales correlations and is suitable for small scale cases. We then propose a new job life-cycle of a complex and real cluster system and a model for data center clusters that supports batch job submissions and cons iders both impatient and persistent customer behavior. To understand the essential computer cluster characteristics, we analyze in detail two different workload type traces; the first one is the published complex Google trace and the second, simpler one, which serves scientific purposes, is from the Nef cluster located at the research center Inria Sophia Antipolis. We then implement the marmoteCore-Q, a tool for the simulation of a family of queueing models based on our multi-server model for data center clusters with abandonments and resubmissions
APA, Harvard, Vancouver, ISO, and other styles
41

Khelil, Amar. "Elaboration d'un système de stockage et exploitation de données pluviométriques." Lyon, INSA, 1985. http://www.theses.fr/1985ISAL0034.

Full text
Abstract:
Du point de vue hydrologique, l'agglomération lyonnaise peut être caractérisée comme un bassin versant d'une surface de 600 km2 drainé par quelque deux mille kilomètres de canalisations. Pour assurer la gestion et l’ extension d'un tel réseau, des outils informatiques ont été conçus au Laboratoire Méthodes de l'INSA de Lyon en collaboration avec le Service Assainissement de la COURLY et la société d'informatique communale ICARE, notamment le logiciel SERAIL, qui permet une simulation généralisée du fonctionnement du réseau lyonnais. Or, un des points faibles du système consiste en une connaissance insuffisamment précise des phénomènes pluvieux d'origine convective lesquels sont le plus susceptibles de provoquer des dysfonctionnements du réseau. Il a ainsi été décidé d'implanter, dès 1983, un réseau de 30 pluviomètres enregistreurs sur le territoire communautaire, avec l'appui financier du Plan Urbain et de l'Agence Financière de Bassin Rhône-Méditerranée-Corse. Le mémoire présente le travail effectué sur cette expérimentation suivant trois étapes principales : 1) implantation du réseau et ses caractéristiques ; 2) élaboration d'un système de dépouillement et d'archivage des données ; 3) élaboration d'un système de traitement des données. L'aspect le plus original du travail concerne le traitement des données. Un ensemble de logiciels permet d'exhiber et d’étudier tout séquence pluvieuse reconnue intéressante par l'hydrologue urbain. Deux objectifs ont été poursuivis : 1) obtenir une meilleure perception (intuition) des phénomènes considérés (aspect représentation brute des mesures) ; 2) construire des outils de modélisation des phénomènes. Ce deuxième objectif a nécessité une réflexion pour déterminer notamment la pertinence des modèles proposés ou leur limite de validité, réflexion qui a débouché sur l'élaboration de logiciels supplémentaires de vérifications et comparaisons des modèles utilisés (numériques ou graphiques). Un exemple complet des traitements, pour une pluie choisie, est donné, ainsi que le type de conclusions auxquelles ils permettent de parvenir
The Lyon District Urban Area (CO. UR. LY. ) may be explained from an hydrological point of view as a 600 km2 area equipped with a sewerage system estimated by 2 000 km of pipes. Due to the complexity of the sewerage network of the area, it must therefore be controlled by an accurate and reliable system of calculation to avoid any negative consequences of its function. The capacity of the present computerising system SERAIL, allows an overall simulation of the functioning of drainage / sewerage system. This model requires an accurate information of the rainfall rate which was not previously available. Therefore a 30 rain gages network (with cassette in sit recording) was set up within the Urban District Area in 1983. This research however introduces the experiment of three steps: 1) to install the network; 2) to build up a data checking and storage system; 3) to analyse the data. The characteristic nature of this work deals with the data analysis system. It allows to extract easily and analyse any rainfall event important to the hydrologist. Two aims were defined: 1) to get a better understanding of the phenomena (punctual representations ); 2) to build up models. In order to achieve the second aim, it was necessary to think about the fitting of the propounded models and their limits which led to the setting up of several other programmes for checking and comparison. For example a complete analysis of a rainfall event is given with comments and conclusion
APA, Harvard, Vancouver, ISO, and other styles
42

Saulou, Jean-Yves. "Contribution du "processus" à l'efficacité d'une démarche qualité de type ISO 9001 : recherche-action dans les Centres de Production Informatique de service de l'Assurance Maladie." Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS017S.

Full text
Abstract:
Les démarches qualité de type ISO 9001 v 2008 posent le problème de la mesure de leur efficacité. Parmi les variables pouvant contribuer à l’efficacité de la démarche qualité, l’outil « Processus » constitue l’un des leviers d’action à la disposition du manager. Il est mené une recherche-action qualitative et constructiviste dans le terrain des centres informatiques de l’Assurance Maladie. Trente huit entretiens semi-directifs sont réalisés auprès des fonctions de directeur, de responsable qualité et de pilote de processus. Trois types d’organismes, tous ISO9001, sont concernés : les centres informatiques, cinq de leurs clients et deux de leurs fournisseurs. En s'appuyant sur la Théorie des Conventions et en particulier sur les conventions d'effort et d'évaluation (M. Boltanski & L Thévenot, 1987, 1991), la recherche met en évidence les modélisations entreprises pour réduire la complexité de l’entité à maîtriser, l’implication des acteurs dans la vie du processus et les enjeux de pouvoirs dans les transferts de connaissances engendrés par la formalisation des procédures. Il est mis en avant le rôle de pilote du processus pour impliquer les « sachants », accompagner le changement et maîtriser l’efficacité de son processus, base de l’efficacité du système de management de la qualité
Quality initiatives such as ISO 9001 v 2008 generate the problem of measuring their effectiveness. Among the variables that contribute to the effectiveness of the quality process, the tool "Process" is one of the levers available to the manager. It is conducted action research and qualitative constructivist in the field of computer centers health insurance. Thirty-eight semi-structured interviews were conducted with the functions of director, responsible for quality and process control. Three types of organizations, all ISO9001 are concerned: data centers, five customers and two of their suppliers. Based on the Theory of Conventions and in particular the conventions of effort and evaluation (M. Boltanski L & Thévenot, 1987, 1991), the research highlights the modeling undertaken to reduce the complexity of the entity to control, stakeholder involvement in the life of the processes and issues of power in the transfer of knowledge generated by the formalization of procedures. It is put forward as a pilot process to involve "knowledgeable parties' support change and control the effectiveness of the process, the basis of efficiency of management qualité
APA, Harvard, Vancouver, ISO, and other styles
43

Dinh, Ngoc Tu. "Walk-In : interfaces de virtualisation flexibles pour la performance et la sécurité dans les datacenters modernes." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES002.

Full text
Abstract:
La virtualisation est un outil puissant conférant de nombreuses avantages pour la sécurité, l'efficacité et la gestion des systèmes informatiques. Par conséquent, la virtualisation est largement utilisée dans les infrastructures informatiques modernes. Cependant, les couches matérielles et logicielles supplémentaires posent de nouveaux défis aux administrateurs systèmes. Dans cette thèse, nous présentons notre analyse des défis liés à la virtualisation. Nous constatons que les nombreux composants de virtualisation doivent être tenus à jour, ce qui complique fortement la maintenance logicielle. Deuxièmement, nous remarquons que la virtualisation masque les spécificités du matériel. Enfin, elle réduit les performances des systèmes du fait de la coordination entre les logiciels impliqués par la virtualisation. Nous étudions trois approches pour relever les défis présentés ci-dessus en augmentant la flexibilité de la pile de logiciels de virtualisation. - Notre première contribution concerne la maintenabilité et la sécurité des plateformes de machines virtuelles en tenant compte du besoin de les maintenir à jour. Nous présentons notre cadre "HyperTP" pour la mise à jour des hyperviseurs et l'atténuation des vulnérabilités pendant le délai entre leur découverte et leur correction. - Notre deuxième contribution concerne la perte de performance résultant du manque de visibilité des topologies NUMA dans les machines virtuelles. Nous étudions la performance des charges de travail d'E/S virtuelles afin de déterminer une politique d'allocation des ressources pour l'optimisation des E/S. - Notre troisième contribution concerne la virtualisation des systèmes de stockage à haute performance. Nous présentons la plateforme de stockage NVM-Router, qui permet la réalisation de fonctions de stockage performantes grâce à sa flexibilité et à sa facilité d'utilisation. En résumé, nos contributions montrent les compromis présents dans les configurations des machines virtuelles, ainsi que la réduction des coûts de virtualisation par la manipulation dynamique de ces configurations
Virtualization is a powerful tool that brings numerous benefits for the security, efficiency and management of computer systems. Modern infrastructure therefore makes heavy use of virtualization in almost every software component. However, the extra hardware and software layers present various challenges to the system operator. In this work, we analyze and identify the challenges relevant to virtualization. Firstly, we observe a complexification of maintenance from the numerous software layers that must be constantly updated. Secondly, we notice a lack of transparency on details of the underlying infrastructure from virtualization. Thirdly, virtualization has a damaging effect on system performance, stemming from how the layers of virtualization have to be navigated during operation. We explore three approaches of solving the challenges of virtualization through adding flexibility into the virtualization stack. - Our first contribution tackles the issue of maintainability and security of virtual machine platforms caused by the need to keep these platforms up-to-date. We introduce HyperTP, a framework based on the hypervisor transplant concept for updating hypervisors and mitigating vulnerabilities. - Our second contribution focuses on performance loss resulting from the lack of visibility of non-uniform memory access (NUMA) topologies on virtual machines. We thoroughly evaluate I/O workloads on virtual machines running on NUMA architectures, and implement a unified hypervisor-VM resource allocation strategy for optimizing virtual I/O on said architectures. - For our third work, we focus our attention on high-performance storage subsystems for virtualization purposes. We present NVM-Router, a flexible yet easy to use virtual storage platform that supports the implementation of fast yet efficient storage functions. Together, our solutions demonstrate the tradeoffs present in the configuration spaces of virtual machine deployments, as well as how to reduce virtualization overhead through dynamic adjustment of these configurations
APA, Harvard, Vancouver, ISO, and other styles
44

Nehme, Mohamad Jaafar. "Next generation state-machine replication protocols for data centers." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM077/document.

Full text
Abstract:
De nombreux protocoles Total Order Broadcast uniformes ont été conçus au cours des 30 dernières années. Ils peuvent être classés en deux catégories: ceux qui visent une faible latence, et ceux qui visent à haut débit. Latence mesure le temps nécessaire pour effectuer un seul message diffusé sans prétention, alors que le débit mesure le nombre d'émissions que les processus peuvent compléter par unité de temps quand il y a discorde. Tous les protocoles qui ont été conçus pour autant faire l'hypothèse que le réseau sous-jacent ne sont pas partagées par d'autres applications en cours d'exécution. Ceci est une préoccupation majeure à condition que dans les centres de données modernes (aka Clouds), l'infrastructure de mise en réseau est partagée par plusieurs applications. La conséquence est que, dans de tels environnements, le total des protocoles afin de diffusion uniformes présentent des comportements instables.Dans cette thèse, j'ai conçu et mis en œuvre un nouveau protocole pour la Total Order Broadcast uniforme qui optimise la performance lorsqu'il est exécuté dans des environnements multi-Data Centers et le comparer avec plusieurs algorithmes de l'état de l'art.Dans cette thèse, je présente deux contributions. La première contribution est MDC-Cast un nouveau protocole pour Total Order Broadcast dans lesquelles il optimise les performances des systèmes distribués lorsqu'ils sont exécutés dans des environnements multi-centres de données. MDC-Cast combine les avantages de la multidiffusion IP dans les environnements de cluster et unicast TCP/IP pour obtenir un algorithme hybride qui fonctionne parfaitement entre les centres de données.La deuxième contribution est un algorithme conçu pour déboguer les performances dans les systèmes distribués en boîte noire. L'algorithme n'est pas encore publié car il nécessite plus de tests pour une meilleure généralisation
Many uniform total order broadcast protocols have been designed in the last 30 years. They can be classified into two categories: those targeting low latency, and those targeting high throughput. Latency measures the time required to complete a single message broadcast without contention, whereas throughput measures the number of broadcasts that the processes can complete per time unit when there is contention. All the protocols that have been designed so far make the assumption that the underlying network is not shared by other applications running. This is a major concern provided that in modern data centers (aka Clouds), the networking infrastructure is shared by several applications. The consequence is that, in such environments, uniform total order broadcast protocols exhibit unstable behaviors.In this thesis, I provide two contributions. The first contribution is MDC-Cast a new protocol for total order broadcasts in which it optimizes the performance of distributed systems when executed in multi-data center environments. MDC-Cast combines the benefits of IP-multicast in cluster environments and TCP/IP unicast to get a hybrid algorithm that works perfectly in between datacenters.The second contribution is an algorithm designed for debugging performance in black-box distributed systems. The algorithm is not published yet due to the fact that it needs more tests for a better generalization
APA, Harvard, Vancouver, ISO, and other styles
45

Benblidia, Mohammed Anis. "Pour une meilleure efficacité énergétique dans un système Smart Grid - Cloud." Thesis, Troyes, 2021. http://www.theses.fr/2021TROY0019.

Full text
Abstract:
Dans cette thèse, nous étudions l’efficacité énergétique des infrastructures informatiques dans un système smart grid – cloud. Nous nous intéressons plus particulièrement aux réseaux de communication et aux data centers du cloud. Nous nous focalisons sur ces derniers à cause de leur grande consommation d’énergie et du rôle vital qu’ils jouent dans un monde connecté en pleine expansion, les positionnant, ainsi, comme des éléments importants dans un système smart grid - cloud. De ce fait, les travaux de cette thèse s’inscrivent dans le cadre d’un seul framework intégrant le smart grid, le microgrid, le cloud, les data centers et les utilisateurs. Nous avons, en effet, étudié l’interaction entre les data centers du cloud et le fournisseur d’énergie du smart grid et nous avons proposé des solutions d’allocation d’énergie et de minimisation du coût d’énergie en utilisant deux architectures : (1) une architecture smart grid-cloud et (2) une architecture microgrid-cloud. Par ailleurs, nous avons porté une attention particulière à l’exécution des requêtes des utilisateurs tout en leur garantissant un niveau de qualité de service satisfaisant dans une architecture fog -cloud. En comparaison avec les travaux de l’état de l’art, les résultats de nos contributions ont montré qu’ils répondent aux enjeux identifiés, notamment en réduisant les émissions de gaz à effet de serre et le coût d’énergie des data centers
This thesis considers the energy efficiency of information and communication infrastructures in a smart grid - cloud system. It especially deals with communication networks and cloud data centers due to their high energy consumption, which confers them an important role in the network. The contributions of this thesis are implemented on the same framework integrating the smart grid, microgrid, cloud, data centers and users. Indeed, we have studied the interaction between the cloud data centers and the smart grid provider and we have proposed energy efficient power allocation solutions and an energy cost minimization scheme using two architectures: a smart grid-cloud architecture and a microgrid-cloud architecture. In addition, we paid close attention to execute user requests while ensuring a good quality of service in a fog-cloud architecture. In comparison with state-of-the-art works, the results of our contributions have shown that they respond to the identified challenges, particularly in terms of reducing carbon emissions and energy costs of cloud data centers
APA, Harvard, Vancouver, ISO, and other styles
46

Wang, Yewan. "Évaluation et modélisation de l’impact énergétique des centres de donnée en fonction de l’architecture matérielle/ logicielle et de l’environnement associé." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2020. http://www.theses.fr/2020IMTA0175.

Full text
Abstract:
Depuis des années, la consommation énergétique du centre de donnée a pris une importance croissante suivant une explosion de demande dans cloud computing. Cette thèse aborde le défi scientifique de la modélisation énergétique d’un centre de données, en fonction des paramètres les plus importants. Disposant d’une telle modélisation, un opérateur pourrait mieux repenser / concevoir ses actuels / futurs centre de données. Pour bien identifier les impacts énergétiques des matériels et logiciels utilisés dans les systèmes informatiques. Dans la première partie de la thèse, nous avons réaliser un grand nombre évaluations expérimentales pour identifier et caractériser les incertitudes de la consommation d’énergie induite par les éléments externes : effets thermiques, différencesentre des processeurs identiques causées par un processus de fabrication imparfait, problèmes de précision issus d’outil de mesure de la puissance, etc. Nous avons terminé cette étude scientifique par le développement d’une modélisation global pour un cluster physique donné, ce cluster est composé par 48 serveurs identiques et équipé d’un système de refroidissement à expansion à direct, largement utilisé aujourd’hui pour les datacenters modernes. La modélisation permet d’estimer la consommation énergétique globale en fonction des configurations opérationnelles et des données relatives à l’activité informatique, telles que la température ambiante, les configurations du système de refroidissement et la charge des serveurs
For years, the energy consumption of the data center has dramatically increased followed by the explosion of demand in cloud computing. This thesis addresses the scientific challenge of energy modeling of a data center, based on the most important variables. With such modeling, an data center operator will be able to better reallocate / design the current / future data centers. In order to identify the energy impacts of hardware and software used in computer systems. In the first part of the thesis, to identify and characterize the uncertainties of energy consumption introduced by external elements: thermal effects, difference between identical processors caused by imperfect manufacturing process, precision problems resulting from power measurement tool, etc. We have completed this scientific study by developing a global power modeling for a given physical cluster, this cluster is composed by 48 identical servers and equipped with a direct expansion cooling system, conventionally used today for modern data centers. The modeling makes it possible to estimate the overall energy consumption of the cluster based on operational configurations and data relating to IT activity, such as ambient temperature, cooling system configurations and server load
APA, Harvard, Vancouver, ISO, and other styles
47

Bielski, Maciej. "Nouvelles techniques de virtualisation de la mémoire et des entrées-sorties vers les périphériques pour les prochaines générations de centres de traitement de données basés sur des équipements répartis déstructurés." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT022.

Full text
Abstract:
Cette thèse s'inscrit dans le contexte de la désagrégation des systèmes informatiques - une approche novatrice qui devrait gagner en popularité dans le secteur des centres de données. A la différence des systèmes traditionnels en grappes, où les ressources sont fournies par une ou plusieurs machines, dans les systèmes désagrégés les ressources sont fournies par des nœuds discrets, chaque nœud ne fournissant qu'un seul type de ressources (unités centrales de calcul, mémoire, périphériques). Au lieu du terme de machine, le terme de créneau (slot) est utilisé pour décrire une unité de déploiement de charge de travail. L'emplacement est assemblé dynamiquement avant un déploiement de charge de travail par l'orchestrateur système.Dans l'introduction nous abordons le sujet de la désagrégation et en présentons les avantages par rapport aux architectures en grappes. Nous ajoutons également au tableau une couche de virtualisation car il s'agit d'un élément crucial des centres de données. La virtualisation fournit une isolation entre les charges de travail déployées et un partitionnement flexible des ressources. Elle doit cependant être adaptée afin de tirer pleinement parti de la désagrégation. C'est pourquoi les principales contributions de ce travail se concentrent sur la prise en charge de la couche de virtualisation pour la mémoire désagrégée et la mise à disposition des périphériques.La première contribution principale présente les modifications de la pile logicielle liées au redimensionnement flexible de la mémoire d'une machine virtuelle (VM). Elles permettent d'ajuster la quantité de RAM hébergée (c'est à dire utilisée par la charge de travail en cours d'exécution dans une VM) pendant l'exécution avec une granularité d'une section mémoire. Du point de vue du logiciel il est transparent que la RAM proviennent de banques de mémoire locales ou distantes.La deuxième contribution discute des notions de partage de mémoire entre machines virtuelles et de migration des machines virtuelles dans le contexte de la désagrégation. Nous présentons d'abord comment des régions de mémoire désagrégées peuvent être partagées entre des machines virtuelles fonctionnant sur différents nœuds. De plus, nous discutons des différentes variantes de la méthode de sérialisation des accès simultanés. Nous expliquons ensuite que la notion de migration de VM a acquis une double signification avec la désagrégation. En raison de la désagrégation des ressources, une charge de travail est associée au minimum à un nœud de calcul et a un nœud mémoire. Il est donc possible qu'elle puisse être migrée vers des nœuds de calcul différents tout en continuant à utiliser la même mémoire, ou l'inverse. Nous discutons des deux cas et décrivons comment cela peut ouvrir de nouvelles opportunités pour la consolidation des serveurs.La dernière contribution de cette thèse est liée à la virtualisation des périphériques désagrégés. Partant de l'hypothèse que la désagrégation de l'architecture apporte de nombreux effets positifs en général, nous expliquons pourquoi elle n'est pas immédiatement compatible avec la technique d'attachement direct, est pourtant très populaire pour sa performance quasi native. Pour remédier à cette limitation, nous présentons une solution qui adapte le concept d'attachement direct à la désagrégation de l'architecture. Grâce à cette solution, les dispositifs désagrégés peuvent être directement attachés aux machines virtuelles, comme s'ils étaient branchés localement. De plus, l'OS hébergé, pour lequel la configuration de l'infrastructure sous-jacente n'est pas visible, n'est pas lui-même concerné par les modifications introduites
This dissertation is positioned in the context of the system disaggregation - a novel approach expected to gain popularity in the data center sector. In traditional clustered systems resources are provided by one or multiple machines. Differently to that, in disaggregated systems resources are provided by discrete nodes, each node providing only one type of resources (CPUs, memory and peripherals). Instead of a machine, the term of a slot is used to describe a workload deployment unit. The slot is dynamically assembled before a workload deployment by the unit called system orchestrator.In the introduction of this work, we discuss the subject of disaggregation and present its benefits, compared to clustered architectures. We also add a virtualization layer to the picture as it is a crucial part of data center systems. It provides an isolation between deployed workloads and a flexible resources partitioning. However, the virtualization layer needs to be adapted in order to take full advantage of disaggregation. Thus, the main contributions of this work are focused on the virtualization layer support for disaggregated memory and devices provisioning.The first main contribution presents the software stack modifications related to flexible resizing of a virtual machine (VM) memory. They allow to adjust the amount of guest (running in a VM) RAM at runtime on a memory section granularity. From the software perspective it is transparent whether they come from local or remote memory banks.As a second main contribution we discuss the notions of inter-VM memory sharing and VM migration in the disaggregation context. We first present how regions of disaggregated memory can be shared between VMs running on different nodes. This sharing is performed in a way that involved guests which are not aware of the fact that they are co-located on the same computing node or not. Additionally, we discuss different flavors of concurrent accesses serialization methods. We then explain how the VM migration term gained a twofold meaning. Because of resources disaggregation, a workload is associated to at least one computing node and one memory node. It is therefore possible that it is migrated to a different computing node and keeps using the same memory, or the opposite. We discuss both cases and describe how this can open new opportunities for server consolidation.The last main contribution of this dissertation is related to disaggregated peripherals virtualization. Starting from the assumption that the architecture disaggregation brings many positive effects in general, we explain why it breaks the passthrough peripheral attachment technique (also known as a direct attachment), which is very popular for its near-native performance. To address this limitation we present a design that adapts the passthrough attachment concept to the architecture disaggregation. By this novel design, disaggregated devices can be directly attached to VMs, as if they were plugged locally. Moreover, all modifications do not involve the guest OS itself, for which the setup of the underlying infrastructure is not visible
APA, Harvard, Vancouver, ISO, and other styles
48

Deddy, Bezeid. "Conception thermique d’une paroi complexe de datacentre pour une optimisation énergétique." Lorient, 2012. http://www.theses.fr/2012LORIS274.

Full text
Abstract:
La réduction de la consommation énergétique des bâtiments de télécommunications constitue un challenge international que les principaux opérateurs de télécommunications, et les acteurs majeurs de l'internet vont devoir relever. En effet, ces bâtiments possèdent une forte densité d'équipements électroniques et donc des apports thermiques très importants. Il est ainsi nécessaire de recourir à des systèmes de climatisation conséquents et énergivores pour maintenir les conditions ambiantes (température et humidité de l’air) dans des plages fixées par les normes. Une des approches possibles pour limiter les puissances installées des dispositifs de climatisation est d’écrêter les pics de température des ambiances intérieures en agissant sur la capacité de stockage de la chaleur des murs et en adoptant une gestion « jour-nuit » des systèmes. Ainsi, dans le cadre de cette thèse des études expérimentales et numériques ont été menées afin de disposer d’un outil de simulation dédié à la prédiction de la température ambiante dans une salle de datacentre. Dans une première étape, les réponses en température de deux maquettes de volume intérieur 1 m3 sont suivies et simulées dans différentes conditions de test. L’inertie thermique est augmentée par l’intégration de matériaux à changement de phase MCP (paraffine micro-encapsulée) dans du béton. A partir d’expériences et de mesures des propriétés thermophysiques, un modèle thermique représentatif de la conduction monodimensionnelle dans les parois est développé et validé. A partir de ces études, un composant spécifique, représentatif d’une paroi multicouche avec MCP, est développé et couplé au Type 56 de TRNSYS. Ces développements sur TRNSYS sont alors appliqués à l’étude d’un site réel « datacentre ». Après une confrontation à des données expérimentales, différentes configurations de parois destinées à améliorer l’inertie thermique sont évaluées par le biais de simulation
The reduction of energy consumption for telecommunication buildings is an international challenge for main telecommunication operators and principal actors of internet. Indeed, in these buildings there are electronics equipment with a strong power density and thus a very important thermal contribution. Therefore it is necessary to use large air-conditioning systems in order to maintain ambient conditions (temperature and relative humidity of the air) in fixed ranges. One possible approach for limit installed air conditioning systems is to clip the peaks of internal temperature by using a heat storage in the wall and by adopting a night cool storage directly in the masonry. In this thesis, the study describes a numerical and experimental study in order to define new conceptions of optimized telecommunication buildings. Walls are used in order to increased heat transfer and reduced cooling energy consumption. In the first step, the temperature response of the internal volume 1 m3 were followed and simulated under different test conditions. The thermal inertia is increased by incorporating phase change materials (PCM microencapsulated paraffin) in concrete. From experience and measurements of thermophysical properties, a one dimensional thermal model conduction that represents heat transfer in the walls were developed and validated. From these studies, a specific component, representative of a multilayer wall with PCM, is developed and coupled to TRNSYS Type 56. These TRNSYS developments are then applied to the study of a real "data center" site. After confrontation with experimental data, different configurations of walls have been studied in order to improve thermal inertia. New building architectures are proposed in order to reduce cooling energy consumption
APA, Harvard, Vancouver, ISO, and other styles
49

Kaced, Yazid. "Études du refroidissement par free cooling indirect d’un bâtiment exothermique : application au centre de données." Thesis, Lorient, 2018. http://www.theses.fr/2018LORIS499/document.

Full text
Abstract:
Un centre de données est un site comportant des salles hébergeant un grand nombre d’équipements informatiques. Le fonctionnement de ces équipements informatiques induit des apports de chaleur très conséquents qui doivent être compensés par des systèmes de refroidissement. En effet, les normes imposent des plages restreintes de température et d’humidité dans les salles qui induisent de fortes consommations d’énergie. Il est donc nécessaire de développer et d’optimiser des solutions moins énergivores. Le refroidissement par free cooling consiste à refroidir les équipements en exploitant les conditions climatiques favorables. Les travaux réalisés durant cette thèse s’appuient sur une expérimentation menée dans des conditions climatiques réelles au sein d’un bâtiment. Il s’agit d’étudier le refroidissement de baies informatiques. Pour mettre en place un refroidissement par « free cooling » indirect, la configuration du bâtiment a été modifiée au cours de la thèse et une instrumentation conséquente mise en place. Les objectifs sont de déterminer à partir de séquences de mesures des coefficients de performance, de développer et de valider un modèle numérique destiné à la prédiction du comportement thermo-aéraulique en usage de ce type de solution. Dans un premier temps, des expériences sont menées avec une puissance dissipée à l’intérieur du bâtiment et un refroidissement assuré uniquement par une circulation de l’air extérieur au sein de trois parois. Des modifications ont ensuite été apportées au sein du bâtiment. Une circulation d’air en circuit fermé a été créée à l’intérieure afin de refroidir les baies par un flux d’air traversant. Afin de disposer d’une base de données probante, de nombreuses séquences de mesures avec une ou plusieurs baies sont réalisées dans différentes conditions. La variation des paramètres opératoires permet de bien appréhender le fonctionnement de l’installation et définir les paramètres d’optimisation énergétique. Les modèles numériques sont développés par le biais de TRNSYS / TRNFLOW. La confrontation des simulations à des mesures montre la pertinence de la démarche mise en œuvre
A data center is a warehouse that contains telecommunication equipment, network infrastructure, servers, and computers. This equipment leads to a very high heat dissipation which must be compensated by the use of cooling systems. Telecommunication standards impose restricted climatic ranges (temperatures and humidity) leading to a very high energy consumption devote to air conditioning. The reduction of this energy consumption constitutes a real challenge which should be raised and solved. Many cooling solutions are proposed as the free cooling solution, which consists in cooling equipment by using external air in propitious climatic conditions. The work carried out during this thesis is based on experiments conducted within a building in real climatic conditions in order to study the cooling of telecom cabinets. During this study, the building configuration was modified, an indirect "free cooling" system was set up and a significant instrumentation was implemented. The objectives are to establish performance factors issued from measurements, to develop and to validate a numerical model in order to predict the thermoaeraulic behavior for this type of solution. Initially, experiments are carried out with a power dissipated inside the building and a cooling provided only by an outside air circulation. Then, significant modifications were made into the building to introduce an internal air circulation in a closed loop in order to evacuate the heat dissipated inside cabinets by a crossing airflow. In order to get a convincing database, measurements were conducted by using one and then several cabinets in different conditions. Modifications are made to operating parameters in order to better understand the installation operation and to define the energy optimization parameters. Numerical models are developed through TRNSYS / TRNFLOW. The confrontation of simulations with measurements shows the implemented approach relevance
APA, Harvard, Vancouver, ISO, and other styles
50

Bayati, Léa. "Data centers energy optimization." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC0063.

Full text
Abstract:
Pour garantir à la fois une bonne performance des services offerts par des centres de données, et une consommation énergétique raisonnable, une analyse détaillée du comportement de ces systèmes est essentielle pour la conception d'algorithmes d'optimisation efficaces permettant de réduire la consommation énergétique. Cette thèse, s'inscrit dans ce contexte, et notre travail principal consiste à concevoir des systèmes de gestion dynamique de l'énergie basés sur des modèles stochastiques de files d'attente contrôlées. Le but est de rechercher les politiques de contrôle optimales afin de les appliquer sur des centres de données, ce qui devrait répondre aux demandes croissantes de réduction de la consommation énergétique et de la pollution numérique tout en préservant la qualité de service. Nous nous sommes intéressés d’abord à la modélisation de la gestion dynamique de l’énergie par un modèle stochastique pour un centre de données homogène, principalement pour étudier certaines propriétés structurelles de la stratégie optimale, telle que la monotonie. Après, comme des centres de données présentent un niveau non négligeable d'hétérogénéité de serveurs en termes de consommation d'énergie et de taux de service, nous avons généralisé le modèle homogène à un modèle hétérogène. De plus, comme le réveil (resp. l'arrêt) d’un serveur de centre de données n’est pas instantané et nécessite un peu plus de temps pour passer du mode veille au mode prêt à fonctionner, nous avons étendu le modèle dans le but d'inclure cette latence temporelle des serveurs. Tout au long de cette optimisation exacte, les arrivées et les taux de service sont spécifiés avec des histogrammes pouvant être obtenus à partir de traces réelles, de données empiriques ou de mesures de trafic entrant. Nous avons montré que la taille du modèle MDP est très grande et conduit au problème de l’explosion d’espace d'états et à un temps de calcul important. Ainsi, nous avons montré que l'optimisation optimale nécessitant le passage par un MDP est souvent difficile, voire pratiquement impossible pour les grands centres de données. Surtout si nous prenons en compte des aspects réels tels que l'hétérogénéité ou la latence des serveurs. Alors, nous avons suggéré ce que nous appelons l’algorithme greedy-window qui permet de trouver une stratégie sous-optimale meilleure que celle produite lorsqu’on envisage un mécanisme spécial comme les approches à seuil. Et plus important encore, contrairement à l’approche MDP, cet algorithme n’exige pas la construction complète de la structure qui encode toutes les stratégies possibles. Ainsi, cette algorithme donne une stratégie très proche de la stratégie optimale avec des complexités spatio-temporelles très faibles. Cela rend cette solution pratique, évolutive, dynamique et peut être mise en ligne
To ensure both good data center service performance and reasonable power consumption, a detailed analysis of the behavior of these systems is essential for the design of efficient optimization algorithms to reduce energy consumption. This thesis fits into this context, and our main work is to design dynamic energy management systems based on stochastic models of controlled queues. The goal is to search for optimal control policies for data center management, which should meet the growing demands of reducing energy consumption and digital pollution while maintaining quality of service. We first focused on the modeling of dynamic energy management by a stochastic model for a homogeneous data center, mainly to study some structural properties of the optimal strategy, such as monotony. Afterwards, since data centers have a significant level of server heterogeneity in terms of energy consumption and service rates, we have generalized the homogeneous model to a heterogeneous model. In addition, since the data center server's wake-up and shutdown are not instantaneous and a server requires a little more time to go from sleep mode to ready-to-work mode, we have extended the model to the purpose of including this server time latency. Throughout this exact optimization, arrivals and service rates are specified with histograms that can be obtained from actual traces, empirical data, or traffic measurements. We have shown that the size of the MDP model is very large and leads to the problem of the explosion of state space and a large computation time. Thus, we have shown that optimal optimization requiring a MDP is often difficult or almost impossible to apply for large data centers. Especially if we take into account real aspects such as server heterogeneity or latency. So, we have suggested what we call the greedy-window algorithm that allows to find a sub-optimal strategy better than that produced when considering a special mechanism like threshold approaches. And more importantly, unlike the MDP approach, this algorithm does not require the complete construction of the structure that encodes all possible strategies. Thus, this algorithm gives a strategy very close to the optimal strategy with very low space-time complexities. This makes this solution practical, scalable, dynamic and can be put online
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography