Literatura académica sobre el tema "Centres de traitement informatique – Environnement"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Centres de traitement informatique – Environnement".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Centres de traitement informatique – Environnement"

1

Alarcon, W. "Santé Mentale en Afrique de l’Ouest (SMAO) : pour le développement de politiques de Santé Mentale en Afrique subsaharienne". European Psychiatry 28, S2 (noviembre de 2013): 73. http://dx.doi.org/10.1016/j.eurpsy.2013.09.194.

Texto completo
Resumen
L’association Santé Mentale en Afrique de l’Ouest a été créée par des soignants de l’hôpital psychiatrique du centre hospitalier Mas Careiron à Uzès dans le Gard. Son objectif est de nouer des partenariats avec des structures de soins psychiatriques en Afrique (ONG, Hôpitaux publics, Associations,…) et de sensibiliser la communauté psychiatrique à la nécessité de développer de véritables politiques de santé mentale à l’échelle du continent. La faiblesse des politiques publiques, le faible niveau d’équipement et de formation psychiatrique dans la majorité des pays d’Afrique subsaharienne obligent à penser des modèles d’organisation sanitaire adaptés à la réalité du terrain [3]. Nous prendrons pour exemple le partenariat passé entre SMAO et l’ONG Ivoiro-béninoise Saint-Camille de Lellis qui depuis trente ans, œuvre à la mise en place de soins et d’outils de réinsertion pour les malades psychiatriques dans ces deux pays. À ce jour, ce sont huit centres d’hospitalisation, autant de centres de consultation et sept centres de réhabilitation par le travail qui y ont vu le jour. Le modèle de soins proposé par l’ONG St-Camille repose essentiellement sur la compétence infirmière du fait d’une carence réelle sur le plan médical. L’idée des soins proposés par cette association est intéressante car elle rappelle par bien des points la naissance de la sectorisation psychiatrique en France : modicité et accessibilité des soins, maillage territorial, volonté de déstigmatisation de la pathologie psychiatrique dans un environnement culturel chargé de représentations négatives [2]. Il apparaît cependant nécessaire d’imaginer à court et moyen termes des aides plus importantes sur la question de l’aide à l’achat des traitements psychotropes, et ce d’autant que le coût moyen d’un traitement annuel par patient reste très modique au regard d’autres traitements (ex VIH) pour lesquels la communauté internationale a su se mobiliser [1].
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Centres de traitement informatique – Environnement"

1

Hnayno, Mohamad. "Optimisation des performances énergétiques des centres de données : du composant au bâtiment". Electronic Thesis or Diss., Reims, 2023. http://www.theses.fr/2023REIMS021.

Texto completo
Resumen
Les centres de données consomment de grandes quantités d'énergie électrique pour alimenter leurs équipements informatiques, leurs systèmes de refroidissement et leur infrastructure. Cette forte consommation d'énergie contribue à la demande globale sur le réseau électrique et à l'émission de gaz à effet de serre. En optimisant les performances énergétiques, les centres de données peuvent réduire leurs factures d'électricité, leurs coûts d'exploitation globaux et leur impact sur l'environnement. L'adoption de nouvelles solutions de refroidissement, telles que le refroidissement par liquide et le refroidissement indirect par évaporation, offre une plus grande efficacité énergétique et peut réduire de manière significative la consommation d'énergie liée au refroidissement dans les centres de données.Dans ce travail, deux études expérimentales ont été menées sur de nouvelles topologies de refroidissement pour les baies informatiques. Dans la première topologie, le système de refroidissement des baies est basé sur une combinaison de refroidissement à couplage étroit et de refroidissement direct des puces. Cinq racks avec des serveurs opérationnels ont été testés. Deux différences de température (15 K et 20 K) ont été validées pour tous les racks informatiques. L'impact de ces profils de différence de température sur les performances du centre de données a été analysé en utilisant trois systèmes de rejet de chaleur dans quatre conditions climatiques pour un centre de données de 600 kW. L'impact du profil de température de l'eau sur l'efficacité de l'utilisation partielle de l'énergie et de l'eau du centre de données a été analysé pour optimiser le système de refroidissement indirect équipé d'un système de refroidissement par évaporation à travers deux approches : la différence de température des baies et l'augmentation de la température d'entrée de l'eau dans le centre de données. Dans la seconde topologie, une étude expérimentale menée sur une nouvelle technique de refroidissement liquide d'immersion monophasé a été développée. Le dispositif expérimental a testé l'impact de trois fluides diélectriques, l'effet de la configuration du circuit d'eau et la puissance/le profil du serveur. Les résultats suggèrent que la demande de refroidissement du système dépend de la viscosité du fluide. Lorsque la viscosité passe de 4,6 à 9,8 mPa.s, la performance de refroidissement diminue d'environ 6 %. En outre, tous les profils de serveurs informatiques ont été validés à différentes températures d'entrée d'eau jusqu'à 45°C et à différents débits. La performance énergétique de cette technique et de la technique précédente a été comparée. Cette technique a permis de réduire la consommation d'électricité en courant continu d'au moins 20,7 % par rapport au système de refroidissement par liquide. Les performances de refroidissement des systèmes à refroidissement par air et par liquide et de la solution proposée ont été comparées au niveau du serveur. En utilisant la solution proposée, l'énergie consommée par serveur a été réduite d'au moins 20 % par rapport au système de refroidissement par air et de 7 % par rapport au système de refroidissement par liquide.En outre, une nouvelle technologie de refroidissement par liquide a été mise au point pour les unités UPS de 600 kW. Cinq essais thermo hydrauliques ont été réalisés dans différentes conditions thermiques. Un profil de différence de température de 20 K a été validé avec un fonctionnement sûr pour tous les équipements électroniques de l'onduleur, résultant en une efficacité thermique de 82,27 %. L'impact de la diminution du débit d'eau et de l'augmentation des températures de l'eau et de l'air dans la pièce a également été analysé. Une diminution des températures d'entrée de l'eau et de l'air de 41°C à 32°C et de 47°C à 40°C respectivement augmente l'efficacité thermique de 8,64 %
Data centers consume vast amounts of electrical energy to power their IT equipment, cooling systems, and supporting infrastructure. This high energy consumption contributes to the overall demand on the electrical grid and release of greenhouse gas emissions. By optimizing energy performance, data centers can reduce their electricity bills, overall operating costs and their environmental impact. This includes implementing energy-efficient technologies, improving cooling systems, and adopting efficient power management practices. Adopting new cooling solutions, such as liquid cooling and indirect evaporative cooling, offer higher energy efficiency and can significantly reduce the cooling-related energy consumption in data centres.In this work, two experimental investigations on a new cooling topologies for information technology racks are conducted. In the first topology, the rack-cooling system is based on a combination of close-coupled cooling and direct-to-chip cooling. Five racks with operational servers were tested. Two temperature difference (15 K and 20 K) was validated for all the IT racks. The impact of these temperature difference profiles on the data-centre performance was analysed using three heat rejection systems under four climatic conditions for a data centre of 600 kW. The impact of the water temperature profile on the partial power usage effectiveness and water usage effectiveness of data centre was analysed to optimise the indirect free cooling system equipped with an evaporative cooling system through two approaches: rack temperature difference and by increasing the water inlet temperature of the data centre. In the second topology, an experimental investigation conducted on a new single-phase immersion/liquid-cooling technique is developed. The experimental setup tested the impact of three dielectric fluids, the effect of the water circuit configuration, and the server power/profile. Results suggest that the system cooling demand depends on the fluid’s viscosity. As the viscosity increased from 4.6 to 9.8 mPa.s, the cooling performance decreased by approximately 6 %. Moreover, all the IT server profiles were validated at various water inlet temperatures up to 45°C and flow rates. The energy performance of this technique and the previous technique was compared. This technique showed a reduction in the DC electrical power consumption by at least 20.7 % compared to the liquid-cooling system. The cooling performance of the air- and liquid-cooled systems and the proposed solution was compared computationally at the server level. When using the proposed solution, the energy consumed per server was reduced by at least 20 % compared with the air-cooling system and 7 % compared with liquid-cooling system.In addition, a new liquid cooling technology for 600 kW Uninterruptible Power Supply (UPS) units. This cooling architecture gives more opportunities to use free cooling as a main and unique cooling system for optimal data centres (DCs). Five thermal hydraulic tests are conducted with different thermal conditions. A 20 K temperature difference profile was validated with a safe operation for all UPS electronic equipment resulting with a thermal efficiency of 82.27 %. The impact of decreasing water flow rate and increasing water and air room temperatures was also analysed. A decrease in inlet water and air temperatures from 41°C to 32°C and from 47°C to 40°C respectively increases the thermal efficiency by 8.64 %. Furthermore, an energy performance analysis comparison is made between air cooled and water cooled UPS units on both UPS and infrastructure levels
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Moualla, Ghada. "Virtualisation résiliente des fonctions réseau pour les centres de données et les environnements décentralisés". Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4061.

Texto completo
Resumen
Les réseaux traditionnels reposent sur un grand nombre de fonctions réseaux très hétérogènes qui s'exécutent sur du matériel propriétaire déployé dans des boîtiers dédiés. Concevoir ces dispositifs spécifiques et les déployer est complexe, long et coûteux. De plus, comme les besoins des clients sont de plus en plus importants et hétérogènes, les fournisseurs de services sont contraints d'étendre ou de moderniser leur infrastructure régulièrement, ce qui augmente fortement les coûts d'investissement (CAPEX) et de maintenance (OPEX) de l'infrastructure. Ce paradigme traditionnel provoque une ossification du réseau et rend aussi plus complexe la gestion et la fourniture des fonctions réseau pour traiter les nouveaux cas d'utilisation. La virtualisation des fonctions réseau (NFV) est une solution prometteuse pour relever de tels défis en dissociant les fonctions réseau du matériel sous-jacent et en les implémentant en logiciel avec des fonctions réseau virtuelles (VNFs) capables de fonctionner avec du matériel non spécifique peu coûteux. Ces VNFs peuvent être organisés et chaînés dans un ordre prédéfini, formant des chaînes de Services (SFC) afin de fournir des services de bout-en-bout aux clients. Cependant, même si l'approche NFV comporte de nombreux avantages, il reste à résoudre des problèmes difficiles comme le placement des fonctions réseau demandées par les utilisateurs sur le réseau physique de manière à offrir le même niveau de résilience que si une infrastructure dédiée était utilisée, les machines standards étant moins fiables que les dispositifs réseau spécifiques. Ce problème devient encore plus difficile lorsque les demandes de service nécessitent des décisions de placement à la volée. Face à ces nouveaux défis, nous proposons de nouvelles solutions pour résoudre le problème du placement à la volée des VNFs tout en assurant la résilience des services instanciés face aux pannes physiques pouvant se produire dans différentes topologies de centres de données (DC). Bien qu'il existe des solutions de récupération, celles-ci nécessitent du temps pendant lequel les services affectés restent indisponibles. D'un autre côté, les décisions de placement intelligentes peuvent épargner le besoin de réagir aux pannes pouvant se produire dans les centres de données. Pour pallier ce problème, nous proposons tout d'abord une étude approfondie de la manière dont les choix de placement peuvent affecter la robustesse globale des services placés dans un centre de données. Sur la base de cette étude, nous proposons une solution déterministe applicable lorsque le fournisseur de services a une connaissance et un contrôle complets de l'infrastructure. Puis, nous passons de cette solution déterministe à une approche stochastique dans le cas où les SFCs sont demandées par des clients indépendamment du réseau physique du DC, où les utilisateurs n'ont qu'à fournir les SFC qu'ils veulent placer et le niveau de robustesse requis (e.g., les 5 neufs). Nous avons développé plusieurs algorithmes et les avons évaluées. Les résultats de nos simulations montrent l'efficacité de nos algorithmes et la faisabilité de nos propositions dans des topologies de centres de données à très grande échelle, ce qui rend leur utilisation possible dans un environnement de production. Toutes ces solutions proposées fonctionnent de manière efficace dans un environnement de confiance, comme les centres de données, avec la présence d’une autorité centrale qui contrôle toute l'infrastructure. Cependant, elles ne s'appliquent pas à des scénarios décentralisés comme c'est le cas lorsque différentes entreprises ont besoin de collaborer pour exécuter les applications de leurs clients. Nous étudions cette problématique dans le cadre des applications MapReduce exécutées en présence de nœuds byzantins et de nœuds rationnels et en l’absence de tiers de confiance
Traditional networks are based on an ever-growing variety of network functions that run on proprietary hardware devices called middleboxes. Designing these vendor-specific appliances and deploying them is very complex, costly and time-consuming. Moreover, with the ever-increasing and heterogeneous short-term services requirements, service providers have to scale up their physical infrastructure periodically, which results in high CAPEX and OPEX. This traditional paradigm leads to network ossification and high complexity in network management and services provisioning to address emerging use cases. Network Function Virtualization (NFV) has attracted notable attention as a promising paradigm to tackle such challenges by decoupling network functions from the underlying proprietary hardware and implementing them as software, named Virtual Network Functions (VNFs), able to work on inexpensive commodity hardware. These VNFs can be arranged and chained together in a predefined order, the so-called Service Function chaining (SFC), to provide end-to-end services. Despite all the benefits associated with the new paradigm, NFV comes with the challenge of how to place the functions of the users' requested services within the physical network while providing the same resiliency as if a dedicated infrastructure were used, given that commodity hardware is less reliable than the dedicated one. This problem becomes particularly challenging when service requests have to be fulfilled as soon as they arise (i.e., in an online manner). In light of these new challenges, we propose new solutions to tackle the problem of online SFC placement while ensuring the robustness of the placed services against physical failures in data-center (DC) topologies. Although recovery solutions exist, they still require time in which the impacted services will be unavailable while taking smart placement decisions can help in avoiding the need for reacting against simple network failures. First, we provide a comprehensive study on how the placement choices can affect the overall robustness of the placed services. Based on this study we propose a deterministic solution applicable when the service provider has full knowledge and control on the infrastructure. Thereafter, we move from this deterministic solution to a stochastic approach for the case where SFCs are requested by tenants oblivious to the physical DC network, where users only have to provide the SFC they want to place and the required availability level (e.g., 5 nines). We simulated several solutions and the evaluation results show the effectiveness of our algorithms and the feasibility of our propositions in very large scale data center topologies, which make it possible to use them in a productive environment. All these solutions work well in trusted environments with a central authority that controls the infrastructure. However, in some cases, many enterprises need to collaborate together in order to run tenants' application, e.g., MapReduce applications. In such a scenario, we move to a completely untrusted decentralized environment with no trust guarantees in the presence of not only byzantine nodes but also rational nodes. We considered the case of MapReduce applications in such an environment and present an adapted MapReduce framework called MARS, which is able to work correctly in such a context without the need of any trusted third party. Our simulations show that MARS grants the execution integrity in MapReduce linearly with the number of byzantine nodes in the system
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Rocha, barbosa Cassandra. "Coordination et ordonnancement de tâches à grains fins entre environnements d'exécution HPC". Electronic Thesis or Diss., Reims, 2023. http://www.theses.fr/2023REIMS016.

Texto completo
Resumen
Les supercalculateurs deviennent de plus en plus complexes à utiliser. C’est pourquoi l’utilisation de modèle de programmation dit hybride, MPI + X, sont mis en place dans les applications. Ces nouveaux types de modèle permettent une utilisation plus efficace d’un supercalculateur, mais créent aussi de nouveaux problèmes lors de l’exécution des applications. Ces problèmes sont de différents types.Nous étudierons plus précisément trois problèmes liés aux programmations MPI + X. La progression des communications non bloquante de MPI au sein de l’environnement X. Puis deux types de déséquilibre possible dans les applications MPI+X. Le premier étant entre les processus MPI et le second au sein d’un processus MPI, c’est-à-dire le déséquilibre en sein de X.Une solution dans le cas d’un environnement X en tâches récursives sera tout d’abord présentée pour le problème de progression de communication MPI à l’aide d’insertion de tâche de progression dans l’environnement X. Lors du déséquilibre entre processus MPI, une solution de rééquilibrage de ressources au sein d’un nœud sera présentée. Enfin, pour le déséquilibre dans l’environnement X, une solution permettant d’utiliser le déséquilibre pour exécuter une seconde application sera également présentée
Supercomputers are becoming more and more complex to use. This is why the use of so-called hybrid programming models, MPI + X, are being implemented in applications. These new types of models allow a more efficient use of a supercomputer, but also create new problems during the execution of applications. These problems are of different types.More specifically, we will study three problems related to MPI + X programming. The progression of non-blocking MPI communications within the X environment. Then two types of possible imbalance in MPI+X applications. The first being between MPI processes and the second within an MPI process, i.e., imbalance within X.A solution in the case of an X environment in recursive tasks will first be presented for the MPI communication progress problem using progress task insertion in the X environment. For the imbalance between MPI processes, a solution for resource rebalancing within a node will be presented. Finally, for the imbalance in the X environment, a solution to use the imbalance to run a second application will also be presented
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Petitgirard, Jean-Yves. "Le traitement de l'anglais oral dans un environnement informatique interactif multimedia". Chambéry, 1999. http://www.theses.fr/1999CHAML001.

Texto completo
Resumen
L'enseignement assiste par ordinateur, heritier de l'enseignement programme, a fortement marque la didactique des ces vingt dernieres annees. L'integration de l'informatique dans la pedagogie a permis de renouveler tant les reflexions que les pratiques liees a l'enseignement / apprentissage des langues en contexte educatif. Les problemes que posait l'utilisation de ce nouvel outil restent en partie vrais de nos jours. Cependant, les progres techniques ont sensiblement modifie la situation. Si au debut les possibilites etaient limitees a des applications essentiellement textuelles, l'evolution vers une informatique interactive multimedia, a travers l'uniformisation des formats pour chacun des medias, associee a l'utilisation de nouveaux supports comme le cederom, ouvre de nouvelles perspectives notamment vers le traitement de l'oral, tant en comprehension qu'en production. Les nouvelles applications doivent tenir compte egalement de certaines potentialites des environnements informatiques comme : l'acces direct, la simulation, l'interactivite. Une analyse croisee des possibilites de traitement automatique de la parole et des parametres saillants du phenomene de comprehension de l'oral permet de proposer un modele pedagogique de l'enseignement / apprentissage de la comprehension orale s'appuyant sur quatre axes : quantitatif, qualitatif, strategique et enfin, communicatif. Pour chacun de ces axes, l'informatique interactive multimedia dispose d'atouts evidents, et ce a deux niveaux : * au niveau + macro ;, lie a la gestion du parcours de l'apprenant, tels les acces, les options, les adaptations possibles de l'application ; * au niveau + micro ; s'appuyant sur les interactions specifiques de l'iim et proposant des activites innovantes d'apprentissage. Ce dernier niveau peut servir de base a la mise en oeuvre d'un champ d'activites totalement nouvelles, irrealisables sans le support de l'informatique interactive multimedia, et dont l'implication sur l'apprentissage de la competence orale reste, bien evidemment, a preciser
Computer based teaching which grew out of automated teaching has been one of the central issues of the past twenty years. The increasing use of computers in education has opened up a new series of possibilities for both the teacher and the learner of english. However, although many of the questions raised by the initial technological breakthrough are still pertinent, the rate of development has in many ways modified the situation. While at the beginning computer based learning applications were essentially text based, the development of multimedia allows us to incorporate sound and images into the learning process. Perhaps the most telling developments have been the standardisation of formats along with the increasing use of the cdrom. In order to provide the learner with original exercises any development of computer tools must take into account the latest possibilities offered by information technology such as direct access, simulation and interactivity. An analysis taking into account on the one hand the processing of speech by machine and on the other hand the salient features of aural comprehension will allow us to construct a structure for the teaching and the learning of the latter competence which will be based on quality, quantity, strategy and communication. For each of these categories interactive multimedia computer based teaching offers a number of advantages. In particular it allows a double approach, that is to say : * at the level of the application taking into account the learner's specific needs and the various options available * at the level of the specificity of the interactions the learners will have to deal with. It is particularly at this last level that a wider range of innovative activities most of which only possible using information technology can now be designed
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Milhaud, Gérard. "Un environnement pour la composition de phrases assistée". Aix-Marseille 2, 1994. http://www.theses.fr/1994AIX22079.

Texto completo
Resumen
Nous presentons une approche originale dans le domaine de la conception des interfaces en langage naturel (iln), que nous avons illustree en developpant un systeme generateur d'iln. Premierement, dans un but de transparence, nous avons impose que les iln produites fonctionnent selon le principe de la composition assistee (ca). Sa caracteristique est d'utiliser le meme systeme en analyse et en synthese afin d'aider si necessaire l'utilisateur dans la formulation de sa phrase en proposant, a chaque etape de la composition, tous les mots du lexique susceptibles d'etre le mot suivant de la phrase. Deuxiemement, sur un plan plus interne, afin de maximiser la portabilite de nos iln, nous exigeons que les differentes connaissances necessaires a l'elaboration d'une interface soient definies au sein de modules distincts. Nous exposons les differents formalismes de representation des connaissances lexicales, syntaxiques, semantiques et conceptuelles que nous avons concus. La conjonction de nos deux exigences de ca et de modularite souleve des problemes specifiques: la ca necessite de detecter les erreurs au plus tot en prenant en compte simultanement toutes les connaissances tandis que la modularite impose l'eclatement de ces memes connaissances. Nous montrons comment ce probleme nous a amenes a concevoir un algorithme d'analyse/synthese original fonde sur le coroutinage des contraintes distinctes associees aux differents modules et assurant, selon leurs niveaux respectifs, le caractere bien forme des phrases. Nous exposons ensuite les solutions que nous apportons au probleme principal lie a la ca: comment eviter que le systeme conduise a la composition d'une phrase qu'il ne pourra terminer (situation d'impasse) ? en conclusion, nous presentons brievement quelques-unes des applications d'ores et deja realisees a partir de notre systeme
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Rémy, Didier. "Paradeis : un environnement de développement parallèle pour le traitement du creux". Evry-Val d'Essonne, 2000. http://www.theses.fr/2000EVRY0015.

Texto completo
Resumen
Dans cet article nous presentons les principaux elements de paradeis (parallel data environment for irregular structures) qui etend les concepts de la bibliotheque stl (standard template library) pour le data-parallelisme dans le cadre du traitement des applications pour les matrices creuses. La programmation et la maintenance de code parallele pour les structures creuses est reputee difficile. Nous presentons une extension de la bibliotheque stl au travers de conteneurs et d'iterateurs afin de la simplifier. Nous considerons egalement des schemas inspecteurs-executeurs pour des communications adaptees aux cas des structures irregulieres. Nous presentons une etude theorique de la structure de donnees distribuee qui constitue la representation parallele des tableaux creux. Nous exposons enfin des resultats experimentaux validant notre approche.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Namyst, Raymond. "Pm2 : un environnement pour une conception portable et une exécution efficace des applications parallèles irrégulières". Lille 1, 1997. http://www.theses.fr/1997LIL10028.

Texto completo
Resumen
Ce travail s'inscrit dans le cadre du projet espace dont l'objectif est de définir un cadre méthodologique ainsi qu'un environnement de développement pour la conception d'applications parallèles irrégulières sur architectures distribuées. La parallélisation de ces applications, dont le comportement n'est pas. Prévisible à priori, pose problème aux niveaux de l'expression du découpage parallèle, de la prise en charge des différentes taches à l’exécution et de leur répartition sur les processus disponibles. La contribution de cette thèse se traduit par la définition et la réalisation d'un support exécutif distribué basé sur la notion de processus léger nommé PM#2 constituant la base de l'environnement espace. Dans l'optique d'une virtualisation totale de l'architecture, nous proposons un modèle de conception des applications s'articulant autour de trois axes principaux qui sont 1) un découpage des applications irrégulières à l'aide des mécanismes d'appel de procédure à distance léger et de clonage léger, 2) un ordonnancement préemptif des processus légers et 3) des mécanismes permettant la migration des processus légers (mobilité). La conjonction de ces concepts rend possible la conception d'applications indépendantes de l'architecture s’exécutant efficacement en contexte distribué, moyennant l'utilisation d'une couche logicielle définissant la stratégie d'ordonnancement des activités. La réalisation de cet environnement s'appuie principalement sur une bibliothèque de processus légers de niveau utilisateur, nommée Marcel, conçue dans le cadre de cette thèse. Notre démarche montre comment il est possible d’accéder à des fonctionnalités évoluées (telles que la migration) et à des performances élevées sans sacrifier la portabilité de l'environnement. Actuellement, MP#2 est opérationnel sur six architectures et utilisé dans plusieurs laboratoires de recherche français. Les premières conclusions issues de ces collaborations confirment la pertinence de notre approche
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Guessoum, Zahia. "Un environnement opérationnel de conception et de réalisation de systèmes multi-agents". Paris 6, 1996. http://www.theses.fr/1996PA066577.

Texto completo
Resumen
La représentation de systèmes complexes en vue de leur contrôle ou de leur simulation nécessite de définir des agents hybrides dotés de capacités substantielles de raisonnement et de représentation du monde dans lequel ils évoluent et de capacités réactives, pour respecter des contraintes temporelles temps réel. Nous proposons un modèle d'agents opérationnel qui possède ces caractéristiques. Ces agents combinent des propriétés cognitives et réactives logées dans des modules asynchrones différents, ce qui repose le problème de la coordination à l'intérieur même de l'agent sans pour autant faire disparaître celui de la coordination entre agents. Pour apporter une solution à ce problème, nous proposons un modèle d'agents dont les capacités cognitives sont fondées sur l'emploi de bases de règles et de métarègles. Leurs facultés réactives sont assurées par des modules asynchrones de communication et de perception. Ce modèle repose sur l'utilisation d'un ATN pour adapter le comportement des modules cognitifs à celui des modules réactifs et pour gérer les interactions entre ces différents modules. Chaque agent gère des graphes de dépendances et d'interférences pour assurer une cohérence et éviter les conflits avec les autres agents. Ce modèle repose sur le concept d'acteurs et nous nous plaçons délibérement dans le cadre de la programmation orientée-objet (smalltalk-80). Cet environnement nous fournit de puissants outils de base sous la forme de divers frameworks. Nos agents sont implémentés à l'aide de la dernière version d'actalk, une plate-forme générique pour implémenter différents modèles d'acteurs. Les bases de règles des modules de raisonnement utilisent neopus, un moteur d'inférence d'ordre 1. La principale caractéristique de neopus est le contrôle déclaratif du raisonnement. Nous utilisons le framework de simulation à événements discrets pour représenter et gérer l'évolution temporelle de nos systèmes multi-agents. Nous utilisons également rpctalk qui implémente la technique RPC, pour distribuer nos systèmes multi-agents sur plusieurs machines. Nous avons étendu ces différentes composantes pour les adapter au modèle d'agents proposé et réaliser la plateforme multi-agents DIMA. Pour valider DIMA, nous avons réalisé trois applications dont deux sont relativement importantes 1) un système de monitorage de la ventilation artificielle des patients en soins intensifs et 2) une modélisation de l'évolution économique et du changement technologique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Mas-Bellissent, Christine. "La responsabilité contractuelle de droit commun du prestataire de service informatique : contribution à l'étude de la prestation de service". Pau, 1994. http://www.theses.fr/1994PAUU2034.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Amamou, Ahmed. "Isolation réseau dans un datacenter virtualisé". Paris 6, 2013. http://www.theses.fr/2013PA066343.

Texto completo
Resumen
Cette thèse est destinée à répondre aux attentes de la communauté scientifique et aux besoins des opérateurs Cloud concernant l’insolation réseau dans un datacenter virtualisé. Elle met l’accent sur le passage à l’échelle de la couche L2 afin de mieux cerner les verrous ainsi que les ouvertures permettant de répondre aux nouvelles exigences d’un réseau du datacenter virtualisé moderne. D'abord, elle présente un nouvel algorithme d’allocation dynamique de la bande passante au niveau des nœuds physiques afin de palier aux problématiques d’attaques de dénis de service internes, tout en garantissant à l’ensemble des clients leurs contrats de service (SLA). Ensuite, elle met en œuvre une adaptation du commutateur Rbridge du protocole TRILL (RFC 6325) au niveau des noeuds physique dans un datacenter virtualisé. Ceci permet de remédier aux problèmes de montée en charge de la couche L2. Enfin, elle propose un nouveau mécanisme nommé VNT (Virtual Netwotk over TRILL) qui permet la création flexible de réseaux logiques. Ce mécanisme qui intègre un nouvel identifiant VNI (Virtual Network Identifier) permet la coexistence de plus de 16 millions de réseaux logiques au sein du même réseau physique
This thesis is intended to meet the expectations of the scientific community and the needs of Cloud operators on network insolation in a virtualized datacenter. It focuses on the layer 2 scaling in order to better identify the locks and the opportunities on the modern virtualized datacenter networks. First, it presents a new algorithm for dynamic bandwidth allocation at the physical nodes in order to overcome the problem of internal denial of service attacks while respecting all tenants SLA. Second, it uses an adaptation of TRILL (RFC 6325) switches, called RBridge on physical nodes within a virtualized data center, thus enabling to address the layer 2 scalability problems. Finally, it proposes a new mechanism called VNT (Virtual Netwotk over TRILL), allowing flexible logical networks creation. This mechanism, which includes a new identifier VNI (Virtual Network Identifier), allows the coexistence of more than 16 million logical networks within the same physical network
Los estilos APA, Harvard, Vancouver, ISO, etc.

Libros sobre el tema "Centres de traitement informatique – Environnement"

1

Peltier, Thomas R. Policies & procedures for data security: A complete manual for computer systems and networks. San Francisco: Miller Freeman Inc., 1991.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

The art of managing software development people. New York: Wiley, 1985.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

IFIP TC11 International Conference on Information Security (11th 1995 Cape Town, South Africa). Information security-the next decade: Proceedings of the IFIP TC11 Eleventh International Conference on Information Security, IFIP/Sec '95. London: Chapman & Hall on behalf of the IFIP, 1995.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Minoli, Daniel. Analyzing outsourcing: Reengineering information and communication systems. New York: Mcgraw-Hill, 1995.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

F, Blanding Steven, ed. Enterprise operations management handbook. 2a ed. Boca Raton, Fla: Auerbach, 2000.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Early Edition Corporate Computer and Network Security. Prentice Hall, 2002.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Gentile, Michael, Ron Collette y Thomas D. August. CISO Handbook: A Practical Guide to Securing Your Company. Auerbach Publishers, Incorporated, 2016.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Gentile, Michael, Ron Collette y Thomas D. August. Ciso Handbook. Taylor & Francis Group, 2005.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

The Ciso Handbook: A Practical Guide to Securing Your Company. AUERBACH, 2005.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Choosing and Keeping Computer Staff: Recruitment, Selection and Development of Computer Personnel. Taylor & Francis Group, 2017.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Capítulos de libros sobre el tema "Centres de traitement informatique – Environnement"

1

FAGES, François y Franck MOLINA. "La cellule, un calculateur analogique chimique". En Approches symboliques de la modélisation et de l’analyse des systèmes biologiques, 255–74. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9029.ch7.

Texto completo
Resumen
La thèse de Church-Turing énonce qu’il n’y a qu’une seule notion universelle de calcul mécaniste, qui donc, d’une façon ou d’une autre, doit permettre de réconcilier le traitement de l’information en informatique et en biologie cellulaire. La preuve récente de Turing-complétude des réseaux de réactions chimiques continus sur un nombre fini d’espèces moléculaires, fournit les bases d’une telle réconciliation, sans construction artificielle, avec des capacités à la fois d’analyse des programmes chimiques naturels dans les cellules vivantes, et de synthèse de programmes chimiques artificiels dans des vésicules non vivantes. Ces résultats ouvrent un vaste champ de recherche fondamentale sur l’informatique analogique chimique de la cellule et des applications nouvelles en santé et environnement.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía