Siga este enlace para ver otros tipos de publicaciones sobre el tema: Stockage sécurisé.

Tesis sobre el tema "Stockage sécurisé"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 29 mejores tesis para su investigación sobre el tema "Stockage sécurisé".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Ton, That Dai Hai. "Gestion efficace et partage sécurisé des traces de mobilité". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV003/document.

Texto completo
Resumen
Aujourd'hui, les progrès dans le développement d'appareils mobiles et des capteurs embarqués ont permis un essor sans précédent de services à l'utilisateur. Dans le même temps, la plupart des appareils mobiles génèrent, enregistrent et de communiquent une grande quantité de données personnelles de manière continue. La gestion sécurisée des données personnelles dans les appareils mobiles reste un défi aujourd’hui, que ce soit vis-à-vis des contraintes inhérentes à ces appareils, ou par rapport à l’accès et au partage sûrs et sécurisés de ces informations. Cette thèse adresse ces défis et se focalise sur les traces de localisation. En particulier, s’appuyant sur un serveur de données relationnel embarqué dans des appareils mobiles sécurisés, cette thèse offre une extension de ce serveur à la gestion des données spatio-temporelles (types et operateurs). Et surtout, elle propose une méthode d'indexation spatio-temporelle (TRIFL) efficace et adaptée au modèle de stockage en mémoire flash. Par ailleurs, afin de protéger les traces de localisation personnelles de l'utilisateur, une architecture distribuée et un protocole de collecte participative préservant les données de localisation ont été proposés dans PAMPAS. Cette architecture se base sur des dispositifs hautement sécurisés pour le calcul distribué des agrégats spatio-temporels sur les données privées collectées
Nowadays, the advances in the development of mobile devices, as well as embedded sensors have permitted an unprecedented number of services to the user. At the same time, most mobile devices generate, store and communicate a large amount of personal information continuously. While managing personal information on the mobile devices is still a big challenge, sharing and accessing these information in a safe and secure way is always an open and hot topic. Personal mobile devices may have various form factors such as mobile phones, smart devices, stick computers, secure tokens or etc. It could be used to record, sense, store data of user's context or environment surrounding him. The most common contextual information is user's location. Personal data generated and stored on these devices is valuable for many applications or services to user, but it is sensitive and needs to be protected in order to ensure the individual privacy. In particular, most mobile applications have access to accurate and real-time location information, raising serious privacy concerns for their users.In this dissertation, we dedicate the two parts to manage the location traces, i.e. the spatio-temporal data on mobile devices. In particular, we offer an extension of spatio-temporal data types and operators for embedded environments. These data types reconcile the features of spatio-temporal data with the embedded requirements by offering an optimal data presentation called Spatio-temporal object (STOB) dedicated for embedded devices. More importantly, in order to optimize the query processing, we also propose an efficient indexing technique for spatio-temporal data called TRIFL designed for flash storage. TRIFL stands for TRajectory Index for Flash memory. It exploits unique properties of trajectory insertion, and optimizes the data structure for the behavior of flash and the buffer cache. These ideas allow TRIFL to archive much better performance in both Flash and magnetic storage compared to its competitors.Additionally, we also investigate the protect user's sensitive information in the remaining part of this thesis by offering a privacy-aware protocol for participatory sensing applications called PAMPAS. PAMPAS relies on secure hardware solutions and proposes a user-centric privacy-aware protocol that fully protects personal data while taking advantage of distributed computing. For this to be done, we also propose a partitioning algorithm an aggregate algorithm in PAMPAS. This combination drastically reduces the overall costs making it possible to run the protocol in near real-time at a large scale of participants, without any personal information leakage
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Vasilopoulos, Dimitrios. "Reconciling cloud storage functionalities with security : proofs of storage with data reliability and secure deduplication". Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS399.

Texto completo
Resumen
Dans cette thèse, nous étudions en profondeur le problème de la vérifiabilité des systèmes de stockage en nuage. Suite à notre étude des preuves de stockage et nous avons identifié des limitations par rapport à deux caractéristiques essentielles aux systèmes de stockage en nuage: la fiabilité du stockage des données avec une maintenance automatique et la déduplication des données. Pour faire face à la première limitation, nous introduisons la notion de preuve de fiabilité des données, un schéma de vérification complet visant à résoudre le conflit entre la vérification fiable du stockage des données et la maintenance automatique. Nous proposons deux schémas de preuve de fiabilité des données, à savoir POROS et PORTOS, qui permettent de vérifier un mécanisme de stockage fiable de données tout en permettant au fournisseur de stockage en nuage d'effectuer de manière autonome des opérations de maintenance automatique. En ce qui concerne la deuxième caractéristique, nous traitons le conflit entre les preuves de stockage et la déduplication. Plus précisément nous proposons une preuve de stockage à message verrouillé c'est-à-dire une solution combinant les preuves de stockage avec la déduplication. De plus, nous proposons un nouveau protocole de génération de clé à message verrouillé qui résiste mieux aux attaques de dictionnaire hors ligne par rapport aux solutions existantes
In this thesis we study in depth the problem of verifiability in cloud storage systems. We study Proofs of Storage -a family of cryptographic protocols that enable a cloud storage provider to prove to a user that the integrity of her data has not been compromised- and we identify their limitations with respect to two key characteristics of cloud storage systems, namely, reliable data storage with automatic maintenance and data deduplication. To cope with the first characteristic, we introduce the notion of Proofs of Data Reliability, a comprehensive verification scheme that aims to resolve the conflict between reliable data storage verification and automatic maintenance. We further propose two Proofs of Data Reliability schemes, namely POROS and PORTOS, that succeed in verifying reliable data storage and, at the same time, enable the cloud storage provider to autonomously perform automatic maintenance operations. As regards to the second characteristic, we address the conflict between Proofs of Storage and deduplication. More precisely, inspired by previous attempts in solving the problem of deduplicating encrypted data, we propose message-locked PoR, a solution that combines Proofs of Storage with deduplication. In addition, we propose a novel message-locked key generation protocol which is more resilient against off-line dictionary attacks compared to existing solutions
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Qiu, Han. "Une architecture de protection des données efficace basée sur la fragmentation et le cryptage". Electronic Thesis or Diss., Paris, ENST, 2017. http://www.theses.fr/2017ENST0049.

Texto completo
Resumen
Une architecture logicielle de protection de données entièrement revisité basé sur le chiffrement sélectif est présentée. Tout d’abord, ce nouveau schéma est agnostique en terme de format de données (multimedia ou textuel). Deuxièmement, son implémentation repose sur une architecture parallèle utilisant un GPGPU de puissance moyenne permettant aux performances d’être comparable aux algorithmes de chiffrement utilisant l’architecture NI proposée par Intel particulièrement adaptée. Le format bitmap, en tant que format multimédia non compressé, est abordé comme un premier cas d’étude puis sera utilisé comme format pivot pour traiter tout autre format. La transformée en cosinus discrète (DCT) est la première transformation considérée pour fragmenter les données, les protéger et les stocker séparément sur des serveurs locaux et sur un cloud public. Ce travail a contribué à largement améliorer les précédents résultats publiés pour la protection sélective d’image bitmap en proposant une nouvelle architecture et en fournissant des expérimentations pratiques. L’unité de traitement graphique à usage général (GPGPU) est exploitée pour optimiser l’efficacité du calcul par rapport aux algorithmes traditionnels de chiffrement (tel que AES). Puis, un chiffrement sélectif agnostique basé sur la transformée en ondelettes discrètes sans perte (DWT) est présenté. Cette conception, avec des expérimentations pratiques sur différentes configurations matérielles, offre à la fois un fort niveau de protection et de bonnes performances en même temps que des possibilités de dispersion de stockage flexibles. Notre solution agnostique de protection de données combinant fragmentation, chiffrement et dispersion est applicable à une large gamme d’applications par un utilisateur final. Enfin, un ensemble complet d’analyses de sécurité est déployé pour s’assurer du bon niveau de protection fourni même pour les fragments les moins bien protégés
In this thesis, a completely revisited data protection scheme based on selective encryption is presented. First, this new scheme is agnostic in term of data format, second it has a parallel architecture using GPGPU allowing performance to be at least comparable to full encryption algorithms. Bitmap, as a special uncompressed multimedia format, is addressed as a first use case. Discrete Cosine Transform (DCT) is the first transformation for splitting fragments, getting data protection, and storing data separately on local device and cloud servers. This work has largely improved the previous published ones for bitmap protection by providing new designs and practical experimentations. General purpose graphic processing unit (GPGPU) is exploited as an accelerator to guarantee the efficiency of the calculation compared with traditional full encryption algorithms. Then, an agnostic selective encryption based on lossless Discrete Wavelet Transform (DWT) is presented. This design, with practical experimentations on different hardware configurations, provides strong level of protection and good performance at the same time plus flexible storage dispersion schemes. Therefore, our agnostic data protection and transmission solution combining fragmentation, encryption, and dispersion is made available for a wide range of end-user applications. Also a complete set of security analysis are deployed to test the level of provided protection
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Jemel, Mayssa. "Stockage des données locales : sécurité et disponibilité". Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0053.

Texto completo
Resumen
Le progrès technologique offre désormais de plus en plus aux utilisateurs divers équipements connectés et intelligents. En conséquence, la gestion des données entre ces équipements a fait l’objet d’ un nombre croissant d’études. Les applications déjà proposées sont principalement basées sur des solutions propriétaires dites solutions privées ou fermées. Toutefois, cette stratégie a toujours montré ses insuffisances en termes de problèmes de sécurité, de coût, de simplicité pour les développeurs et de transparence des solutions. Migrant vers des solutions standardisées, HTML5 propose de nouvelles fonctionnalités pour répondre aux exigences des entreprises et des utilisateurs. L’objectif principal est de mettre à la disposition des développeurs web un langage simple pour la mise en œuvre des applications concurrentes à moindre coût. Ces applications ne sont pas liées ni aux dispositifs utilisés ni aux logiciels installés. Trois contributions font l’objet de nos travaux. Dans la première partie, nous proposons un Coffre Fort Client basé sur les APIs HTML5 de stockage. Tout d’abord, nous commençons par le renforcement de la sécurité de ces API pour fournir une base sécurisée à notre Coffre Fort Client. Dans la deuxième contribution, nous proposons un protocole de synchronisation appelé SyncDS qui est caractérisé par son efficacité avec une consommation minimale des ressources. Nous traitons enfin les problèmes de sécurité, et nous nous concentrons principalement sur le contrôle d’accès dans le cas de partage des données tout en respectant les exigences des Coffres Forts
Due to technological advancements, people are constantly manipulating multiple connected and smart devices in their daily lives. Cross-device data management, therefore, remains the concern of several academic and industrial studies. The proposed frameworks are mainly based on proprietary solutions called private or closed solutions. This strategy has shown its deficiency on security issues, cost, developer support and customization. In recent years, however, the Web has faced a revolution in developing standardized solutions triggered by the significant improvements of HTML5. With this new version, innovative features and APIs are introduced to follow business and user requirements. The main purpose is to provide the web developer with a vendor-neutral language that enables the implementation of competing application with lower cost. These applications are related neither to the used devices nor to the installed software. The main motivation of this PhD thesis is to migrate towards the adoption of standardized solutions to ensure secure and reliable cross-device data management in both the client and server side. There is already a proposed standardized Cloud Digital Safe on the server side storage that follows the AFNOR specification while there is no standardized solution yet on the client-side. This thesis is focused on two main areas : 1) the proposal of a standardized Client Digital Safe where user data are stored locally and 2) the synchronization of these data between the Client and the Cloud Digital Safe and between the different user devices. We contribute in this research area in three ways. First, we propose a Client Digital Safe based on HTML5 Local Storage APIs. We start by strengthening the security of these APIs to be used by our Client Digital Safe. Second, we propose an efficient synchronization protocol called SyncDS with minimum resource consumption that ensures the synchronization of user data between the Client and the Cloud Digital Safe. Finally, we address security concerns, in particular, the access control on data sharing following the Digital Safe requirements
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Chiquet, Pierre. "Mécanismes thermophysiques déterminant la sécurité du stockage géologique du CO2". Pau, 2006. http://www.theses.fr/2006PAUU3045.

Texto completo
Resumen
Le stockage géologique du CO2 dont le but est de réduire les émissions anthropiques de gaz à effet de serre consiste à capter le CO2 produit au niveau des gros émetteurs et à l'injecter dans des formations géologiques profondes (aquifères ou réservoirs d'hydrocarbures). Nous évaluons les risques de fuite associés à ce type de stockage et estimons les quantités injectables. Deux types de fuites ont été envisagés, les fuites par rupture de l'étanchéité capillaire des couvertures et les fuites par diffusion. Le premier type de fuite repose sur les propriétés interfaciales du ternaire eau/CO2/roche : tension interfaciale saumure/CO2 et mouillabilité des roches en présence de CO2 dense. Le premier chapitre présente la mise en place d'un tensiomètre permettant de mesurer les tensions interfaciales eau/CO2 jusqu'à 45 MPa et 110°C. Les résultats, acquis suivant des isothermes, dévoilent une forte décroissance de la tension avec la pression jusqu'à 20 MPa puis, au-delà, une quasi-stagnation de ces valeurs entre 25 et 30 mN. M-1. Le second chapitre traite des propriétés de mouillabilité des roches. Un tensiomètre a été adapté de façon à mesurer en dynamique, jusqu'à 10 MPa, l'angle de contact d'une bulle de CO2 déposée en phase aqueuse sur des substrats modèles : mica et quartz. Les résultats montrent une altération de la mouillabilité avec la pression confirmée par une modélisation DLVO, des interactions entre roche, phase aqueuse et CO2. Des mesures directes de pressions d'entrée dans un échantillon argileux sont présentées dans le troisième chapitre. La diffusion, est traitée dans le quatrième chapitre. Un dispositif expérimental, basé sur la méthode de Taylor, a permis de mesurer D jusqu'à 40 MPa. Les résultats suggèrent des valeurs faibles, de l'ordre de 2. 10-9m2. S-1. Les conséquences sur le stockage des grandeurs précédemment mesurées sont discutées dans le cinquième chapitre
CO2 underground storage as an option for reducing greenhouse gases emissions consists of trapping industrial CO2 and injecting it into deep geological formations such as saline aquifers and hydrocarbons reservoirs. This study aims at assessing leakage processes and evaluating storage capacities. To this end, two leakage phenomena were considered, caprock capillary breakthrough and diffusional transport. The former involves interfacial properties of the brine/CO2/mineral system: brine/CO2 interfacial tension and rock wettability under dense CO2. Chapter one presents a series of IFT measurements performed at temperatures and pressures up to 45 MPa-110°C. Results show a great decrease of IFT with pressure in the 0-to-20 MPa range beyond what it tends to stabilize at values in the order of 25-30 mN. M-1. Chapter two deals with rock wettability. Dynamic contact angles were measured on muscovite mica and quartz up to 10 MPa. Results highlight an alteration of wettability with pressure that was accounted for by means of a DLVO based model. Direct capillary entry pressures on a clay stone sample are proposed in chapter three. Diffusion, is treated in chapter four. We used the Taylor dispersion method to measure D up to 40 MPa. Results indicate low values in the order of 2. 10-9 m2. S-1. Chapter five discuses the consequences of the previous parameters in terms of storage capacity
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Shah, Virenkumar. "Propriétés interfaciales contrôlant la sécurité du stockage géologique des gaz acides". Pau, 2008. http://www.theses.fr/2008PAUU3015.

Texto completo
Resumen
Le stockage des gaz acides (CO2, H2S) en formation géologique profonde est à la fois un moyen de réduire les émissions atmosphériques de CO2 et une alternative intéressante à la transformation de l’hydrogène sulfuré (H2S) en soufre par le procédé Claus. Etant moins dense que les fluides en place (comme l’eau), le gaz injecté dans la formation s’accumule sous la roche de couverture, qui est en général peu perméable et imbibée d’eau. Dans cette thèse sont examinées les propriétés interfaciales contrôlant l’étanchéité capillaire de cette couverture : la tension interfaciale (TI) eau/gaz et la mouillabilité à l’eau de la roche de couverture. Ces propriétés ont été mesurées dans les conditions du stockage (jusqu’à 150 bar et 120°C), et un modèle simple est proposé qui permet de prédire les TI entre l’eau et un composé peu polaire. Lorsque la pression augmente, la TI entre l’eau et la phase riche en H2S diminue, pour atteindre un plateau de l’ordre de 9-10 mN/m à des températures et pressions supérieures à 70°C et 120 bar. En revanche, l’altération de mouillabilité à l’eau induite par le gaz acide, évaluée à partir de mesures d’angle de contact, est limitée dans le cas de substrats naturels ou représentatifs de minéraux présents dans les roches de couverture, à l’exception du mica qui présente en présence d’H2S une altération significative de sa mouillabilité à l’eau. Ces propriétés ont un impact important sur les quantités d’intérêt pratique dans le stockage géologique, telle que la pression maximale d’injection et de stockage et la capacité de stockage d’une formation donnée : ces quantités sont diminuées dans le cas d’un gaz riche en H2S relativement au méthane ou au CO2
Acid gas geological storage is a process under which acid gas (CO2, H2S) is injected in a geological formation and thus stored away from the atmosphere for a long time (hundreds of years). It is a promising process to reduce CO2 atmospheric emissions and an alternative to the transformation of H2S into sulphur by the Claus process. In this process, the acid gas buoyantly rises to the top of the formation and accumulates beneath the caprock, a low permeable medium imbibed with water. This thesis investigates the interfacial properties involved in capillary failure of the caprock: water/acid gas interfacial tension (IFT) and caprock’s water-wettability. It presents the first ever systematic IFT and contact angle measurements under storage conditions (up to 150 bar and 120°C) with H2S-rich acid gases, as well as a model to predict IFTs between water and non-polar or slightly-polar compounds. Water/H2S IFT decreases with increasing pressure and levels off at around 9-10 mN/m at high pressure and temperature (T ≥ 70°C, P > 120 bar). However, wettability alteration due to the presence of dense acid gas is limited in the case of natural and model substrates typically present in the caprock, except in the case of mica, which exhibits pronounced alteration in the presence of H2S. These properties have a strong impact on various quantities of practical interest in geological storage, such as the maximum injection and storage pressure and potential storage capacity of a given formation. These quantities are significantly lowered in the case of H2S-rich gas as compared to CH4 and even CO2; they should be carefully determined when planning an acid gas geological storage operation
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Oualha, Nouha. "Sécurité et coopération pour le stockage de donnéees pair-à-pair". Paris, ENST, 2009. http://www.theses.fr/2009ENST0028.

Texto completo
Resumen
Les algorithmes et les protocoles auto-organisants ont récemment suscité beaucoup d'intérêt aussi bien pour les réseaux mobiles ad-hoc que pour les systèmes pair-à-pair (P2P), comme l’illustrent les applications de partage de fichiers ou VoIP. Le stockage P2P, où les pairs accroissent collectivement leurs ressources de stockage afin d’assurer la fiabilité et la disponibilité des données, est un domaine d'application émergeant. Le stockage P2P suscite cependant des enjeux de sécurité qui doivent être traités, en particulier en ce qui concerne l'égoïsme des pairs, en particulier en ce qui concerne le parasitisme (free-riding). L'observation continue du comportement des pairs et le contrôle du processus de stockage est une condition importante pour sécuriser un système de stockage contre de telles attaques. Détecter le mauvais comportement de pairs exige des primitives appropriées comme les preuves de possession de données, une forme de preuve de connaissance par lequel le pair de stockage essaye interactivement de convaincre le vérificateur qu'il possède les données sans les envoyer ou les copier chez le vérificateur. Nous proposons et passons en revue plusieurs protocoles de vérification de possession de données. Nous étudions en particulier comment la vérification et la maintenance de données peuvent être déléguées à des volontaires pour tolérer la déconnexion des pairs. Nous proposons alors deux mécanismes, l’un basé sur la réputation et l'autre sur la rémunération, pour imposer la coopération au moyen de telles preuves de possession de données périodiquement fournies par les pairs assurant le stockage. Nous évaluons l'efficacité de telles incitations avec des technique
Self-organizing algorithms and protocols have recently received a lot of interest in mobile ad-hoc networks as well as in peer-to-peer (P2P) systems, as illustrated by file sharing or VoIP. P2P storage, whereby peers collectively leverage their storage resources towards ensuring the reliability and availability of user data, is an emerging field of application. P2P storage however brings up far-reaching security issues that have to be dealt with, in particular with respect to peer selfishness, as illustrated by free-riding attacks. The continuous observation of the behavior of peers and monitoring of the storage process is an important requirement to secure a storage system against such attacks. Detecting peer misbehavior requires appropriate primitives like proof of data possession, a form of proof of knowledge whereby the holder interactively tries to convince the verifier that it possesses some data without actually retrieving them or copying them at the verifier. We propose and review several proof of data possession protocols. We in particular study how data verification and maintenance can be handed over to volunteers to accommodate peer churn. We then propose two mechanisms, one based on reputation and the other on remuneration, for enforcing cooperation by means of such data possession verification protocols, as periodically delivered by storage peers. We assess the effectiveness of such incentives with game theoretical techniques. We in particular discuss the use of non-cooperative one-stage and repeated Bayesian games as well as that of evolutionary games
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Sanchez, Bernard. "Insécurité des approvisionnements pétroliers et effet externe : le cas du stockage de sécurité". Montpellier 1, 1997. http://www.theses.fr/1997MON10007.

Texto completo
Resumen
L'intervention publique en matière de sécurité des approvisionnements pétroliers est couramment justifiée dans la littérature par l'existence d'effets externes liés au phénomène d'insécurité des approvisionnements. Nous proposons dans ce travail d'analyser en détail la validité de cette justification et son implication en matière de recommandations de politique énergétique. Pour ce faire nous étudions dans une première partie, les composantes du coût de l'insécurité. Nous en retenons deux, les effets macroéconomiques de l'insécurité et le coût du monopsone. L'étude de la composante macroéconomique de l'insécurité utilise une approche de type économie du déséquilibre. Concernant la composante monopsone de l'insécurité des approvisionnements, nous analysons en quoi l'insécurité génère un coût supplémentaire lié à la situation de monopsone. Ayant cerne les composantes du coût de l'insécurité, nous nous consacrons à leur analyse à travers la notion de coût externe. Cette étude nous permet de rejeter la composante macroéconomique en tant que coût externe et de ne retenir que la seule composante monopsone comme générant un coût de type externe. L'analyse des outils permettant d'internaliser l'effet externe généré par la composante monopsone de l'insécurité des approvisionnements pétroliers fait l'objet de la deuxième partie. Après un rappel des procédures classiques d'internalisation, nous particularisons celles-ci au problème de l'internalisation de l'effet externe "insécurité des approvisionnements pétroliers". Nous mettons en évidence la supériorité des procédures de stockage en rapprochant celles-ci de la création d'un marché de droits à la sécurité. Cette suprématie du stock nous amène a nous intéresser dans les deux derniers chapitres à deux problèmes particuliers. Le premier concerne la coexistence de stocks de sécurité et de stocks. La présentation de trois modèles théoriques met en exergue la complexité des relations s'établissant entre ces deux types de stocks. Le deuxième problème posé par la constitution des stocks de sécurité est l'impact international de la constitution de stocks. L'utilisation de concepts de théorie des jeux permet l'étude des choix de comportements stratégiques de deux pays soumis à une insécurité de leurs approvisionnements.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Chaou, Samira. "Modélisation et analyse de la sécurité dans un système de stockage pair-à-pair". Phd thesis, Université d'Evry-Val d'Essonne, 2013. http://tel.archives-ouvertes.fr/tel-00877094.

Texto completo
Resumen
Le sujet de ma thèse consiste à analyser la sécurité d'un système de stockage pair à pair. Durant la première phase j'ai commencé par me familiariser avec le système existant (que du code), par la suite j'ai analysé la résistance du système en la présence d'attaques internes (que j'ai implémenté) en utilisant la simulation (travaux publiés dans HPCS'11). Le simulateur utilisé est un simulateur propriétaire qui reprend le code initial du système et modulable. Les résultats de cette analyse (perte de données) m'ont conduit à mettre en place un mécanisme de détection pour détecter ces attaques avant qu'elles ne causent la perte des données. Ce mécanisme de détection consiste à mettre en place un système de notation à deux niveaux : niveau 1:notation des échanges entre pair, niveau 2: notation des notes accordées à chaque pair (confiance en ces notes). Le principe de ce système est basé sur l'historique des échanges et la diffusion des notes entre les pairs. Dans un premier temps un système de notation à un niveau à été modélisé, implémenté et son efficacité analysée en utilisant deux méthodes (simulation pour les résultats quantitatifs et le model-checking pour les résultats qualitatifs. Pour la partie modélisation et vérification j'ai utilisé le formalisme ABCD [1], et les compilateurs SNAKES[2] et NICO[3,4]. Les résultats ont montrés la limite de ce système de notation à un seul niveau. (Travaux publiés dans TMS'12). A noter que jusque là seulement quelques attaques ont été détectées. En parallèle de tout ça un travail de modélisation dans un contexte de génie logiciel à été fait. Modélisation de l'application (Java) en utilisant le formalisme ABCD.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Cavalcante, Janaide. "Traitement des sables à la bentonite pour la constitution de la barrière de sécurité passive des centres de stockage de déchets". Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0027.

Texto completo
Resumen
Ce travail porte sur l'utilisation de mélanges de sable et de bentonite pour la constitution des barrières passives des centres d'enfouissement techniques. La réglementation impose que le coefficient de perméabilité de cette barrière soit inférieur à 1*10-9 mis. Dans certains cas les - sites sont dépourvus de sols en place ayant ces caractéristiques, où bien ils ne disposent pas d'une épaisseur suffisante. Ces barrières pouvant être soumise à l'action des lixiviats en cas de défaillance de la barrière passive, se pose alors le problème de l'évolution de la perméabilité du mélange sable-bentonite sollicité par ces lixiviats. Le travail que nous avons mené se situe dans ce contexte. Dans une première partie nous avons cherché à définir à partir d'essais simples (gonflement, limites de consistance) les éventuelles interactions bentonite-lixiviat. Nous avons ensuite réalisé pour divers sables traités par divers pourcentages de bentonite de natures différentes des essais de perméabilité à l'eau et au lixiviat. Des modèles empiriques permettant d'estimer Je coefficient de perméabilité sont proposés
[This work is carry out on impervious barriers destined for landfill engineering composed by compacted sand-bentonite mixtures. French regulations require a barrier with a permeability less than lE-09rn/s. Standard tests often used in geotechnical engineering has allowed possible the establishment of a methodology to verify the behavoiur of this barrier during the presence of leachate. In the first part we have sought to define from swell tests and Atterberg limits tests the interactions bentonite-leachates. We realised the permeability testing to water and leachate for various samples constituted of compacted sand-bentonite mixtures. Emperical models allowed to estimate the permeability, tests results, experimental results and tests methods are proposed. ]
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Kircheva, Nina. "Contribution de l'émission acoustique pour la gestion et la sécurité des batteries Li-ion". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00960011.

Texto completo
Resumen
L'objectif de cette thèse est de démontrer que l'Emission Acoustique (AE) est une technique appropriée pour devenir un outil de diagnostic de l'état de charge, de santé et de sécurité pour les batteries lithium-ion. Ces questions sont actuellement des points clés important pour l'amélioration des performances et des durées de vie de la technologie. La structure de ce document est organisée en deux principaux chapitres expérimetaux l'un consacré à deséléments lithium-ion composés de composés d'intercalation et l'autre à desalliages de lithium.Dans le premier cas, les résultats présentés concernent le suivi par AE de la formation de la SEI et de la première intercalation des ions lithium dans la structure du graphite pour des éléments LiFePO4/C. Les événements AE provenant de plusieurs sources ont été identifiés et correspondent à la formation de gaz (bulles) et à des phénomènes de craquelures (ouvertures du bord des plans de graphène quand la SEI est formée et l'écartement quand les stades d'insertion du graphite-lithium sont finis). De plus, une étude par spectroscopie d'impédance a été menée durant un vieillissement calendaire en température sur des éléments formés à différents régimes de courant. Dans le second cas, le mécanisme d'insertion/extraction du lithium dans des éléments LiAl/LiMnO2 a été étudié en associant plusieurs techniques incluant des techniques électrochimiques, AE et post-mortem pour évaluer les mécanismes de dégradation. Lors du cyclage, les événements acoustiques sont plus intenses lors du processus de décharge et ils peuvent être attribués principalement à l'alliage avec la transformation de phase de -LiAl en -LiAl accompagnée d'une expansion volumique importante. L'émission acoustique peut ainsi offrir une nouvelle approche pour gérer le fonctionnement des technologies lithium-ion basées non plus seulement sur des paramètres électrochimiques classiques mais aussi sur des paramètres acoustiques. Des nouveaux d'états de santé et de sécurité peuvent ainsi être envisagés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Hernandez-Guevara, Hector. "Contribution à la simulation de systèmes chimiques orientée vers l’analyse de sécurité : application à la prévention de l’explosion thermique". Compiègne, 1987. http://www.theses.fr/1987COMPD078.

Texto completo
Resumen
L’analyse de sécurité d’un procédé chimique et particulièrement l’étape d’identification et caractérisation des dangers suit une démarche systémique qui demande beaucoup d’informations sur le comportement du système. Ce travail présente une voie d’obtention de ces informations à partir d’une approche phénoménologique basée sur des techniques du Génie des Procédés : Modélisation et Simulation. L’approche proposée est développée pour le cas de l’explosion thermique, notamment dans le réacteur discontinu et le réservoir de stockage, sièges typiques de réactions exothermiques susceptibles de s’emballer. Dans ce cadre, il a été construit un outil informatique pour la simulation de ces procédés. Le principe du code est la mise en équations (algèbro-différentielles) de chaque cas traité à partir de bilans de matière et d’énergie et la résolution numérique qui fournit les profils de température, concentration et flux thermique dans le temps (et l’espace pour le cas du stockage). L’exploitation des modèles mathématiques présentés dépend fortement de la disponibilité des données thermodynamiques et cinétiques. L’obtention de ces données fait l’objet d’un chapitre où l’on décrit des méthodes de détermination expérimentale à l’aide de la calorimétrie. L’applicabilité des méthodes et des outils décrits est démontrée à l’aide de deux cas réels tirés de la « chimie fine » : synthèse de Glycidate d’éthyle et stockage de cyclopentadiène.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Carpen-Amarie, Alexandra. "Utilisation de BlobSeer pour le stockage de données dans les Clouds: auto-adaptation, intégration, évaluation". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00696012.

Texto completo
Resumen
L'émergence de l'informatique dans les nuages met en avant de nombreux défis qui pourraient limiter l'adoption du paradigme Cloud. Tandis que la taille des données traitées par les applications Cloud augmente exponentiellement, un défi majeur porte sur la conception de solutions efficaces pour la gestion de données. Cette thèse a pour but de concevoir des mécanismes d'auto-adaptation pour des systèmes de gestion de données, afin qu'ils puissent répondre aux exigences des services de stockage Cloud en termes de passage à l'échelle, disponibilité et sécurité des données. De plus, nous nous proposons de concevoir un service de données qui soit à la fois compatible avec les interfaces Cloud standard dans et capable d'offrir un stockage de données à haut débit. Pour relever ces défis, nous avons proposé des mécanismes génériques pour l'auto-connaissance, l'auto-protection et l'auto-configuration des systèmes de gestion de données. Ensuite, nous les avons validés en les intégrant dans le logiciel BlobSeer, un système de stockage qui optimise les accès hautement concurrents aux données. Finalement, nous avons conçu et implémenté un système de fichiers s'appuyant sur BlobSeer, afin d'optimiser ce dernier pour servir efficacement comme support de stockage pour les services Cloud. Puis, nous l'avons intégré dans un environnement Cloud réel, la plate-forme Nimbus. Les avantages et les désavantages de l'utilisation du stockage dans le Cloud pour des applications réelles sont soulignés lors des évaluations effectuées sur Grid'5000. Elles incluent des applications à accès intensif aux données, comme MapReduce, et des applications fortement couplées, comme les simulations atmosphériques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Relaza, Théodore Jean Richard. "Sécurité et disponibilité des données stockées dans les nuages". Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30009/document.

Texto completo
Resumen
Avec le développement de l'Internet, l'informatique s'est basée essentiellement sur les communications entre serveurs, postes utilisateurs, réseaux et data centers. Au début des années 2000, les deux tendances à savoir la mise à disposition d'applications et la virtualisation de l'infrastructure ont vu le jour. La convergence de ces deux tendances a donné naissance à un concept fédérateur qu'est le Cloud Computing (informatique en nuage). Le stockage des données apparaît alors comme un élément central de la problématique liée à la mise dans le nuage des processus et des ressources. Qu'il s'agisse d'une simple externalisation du stockage à des fins de sauvegarde, de l'utilisation de services logiciels hébergés ou de la virtualisation chez un fournisseur tiers de l'infrastructure informatique de l'entreprise, la sécurité des données est cruciale. Cette sécurité se décline selon trois axes : la disponibilité, l'intégrité et la confidentialité des données. Le contexte de nos travaux concerne la virtualisation du stockage dédiée à l'informatique en nuage (Cloud Computing). Ces travaux se font dans le cadre du projet SVC (Secured Virtual Cloud) financé par le Fond National pour la Société Numérique " Investissement d'avenir ". Ils ont conduit au développement d'un intergiciel de virtualisation du stockage, nommé CloViS (Cloud Virtualized Storage), qui entre dans une phase de valorisation portée par la SATT Toulouse-Tech-Transfer. CloViS est un intergiciel de gestion de données développé au sein du laboratoire IRIT, qui permet la virtualisation de ressources de stockage hétérogènes et distribuées, accessibles d'une manière uniforme et transparente. CloViS possède la particularité de mettre en adéquation les besoins des utilisateurs et les disponibilités du système par le biais de qualités de service définies sur des volumes virtuels. Notre contribution à ce domaine concerne les techniques de distribution des données afin d'améliorer leur disponibilité et la fiabilité des opérations d'entrées/sorties dans CloViS. En effet, face à l'explosion du volume des données, l'utilisation de la réplication ne peut constituer une solution pérenne. L'utilisation de codes correcteurs ou de schémas de seuil apparaît alors comme une alternative valable pour maîtriser les volumes de stockage. Néanmoins aucun protocole de maintien de la cohérence des données n'est, à ce jour, adapté à ces nouvelles méthodes de distribution. Nous proposons pour cela des protocoles de cohérence des données adaptés à ces différentes techniques de distribution des données. Nous analysons ensuite ces protocoles pour mettre en exergue leurs avantages et inconvénients respectifs. En effet, le choix d'une technique de distribution de données et d'un protocole de cohérence des données associé se base sur des critères de performance notamment la disponibilité en écriture et lecture, l'utilisation des ressources système (comme l'espace de stockage utilisé) ou le nombre moyen de messages échangés durant les opérations de lecture et écriture
With the development of Internet, Information Technology was essentially based on communications between servers, user stations, networks and data centers. Both trends "making application available" and "infrastructure virtualization" have emerged in the early 2000s. The convergence of these two trends has resulted in a federator concept, which is the Cloud Computing. Data storage appears as a central component of the problematic associated with the move of processes and resources in the cloud. Whether it is a simple storage externalization for backup purposes, use of hosted software services or virtualization in a third-party provider of the company computing infrastructure, data security is crucial. This security declines according to three axes: data availability, integrity and confidentiality. The context of our work concerns the storage virtualization dedicated to Cloud Computing. This work is carried out under the aegis of SVC (Secured Virtual Cloud) project, financed by the National Found for Digital Society "Investment for the future". This led to the development of a storage virtualization middleware, named CloViS (Cloud Virtualized Storage), which is entering a valorization phase driven by SATT Toulouse-Tech-Transfer. CloViS is a data management middleware developped within the IRIT laboratory. It allows virtualizing of distributed and heterogeneous storage resources, with uniform and seamless access. CloViS aligns user needs and system availabilities through qualities of service defined on virtual volumes. Our contribution in this field concerns data distribution techniques to improve their availability and the reliability of I/O operations in CloViS. Indeed, faced with the explosion in the amount of data, the use of replication can not be a permanent solution. The use of "Erasure Resilient Code" or "Threshold Schemes" appears as a valid alternative to control storage volumes. However, no data consistency protocol is, to date, adapted to these new data distribution methods. For this reason, we propose to adapt these different data distribution techniques. We then analyse these new protocols, highlighting their respective advantages and disadvantages. Indeed, the choice of a data distribution technique and the associated data consistency protocol is based on performance criteria, especially the availability and the number of messages exchanged during the read and write operations or the use of system resources (such as storage space used)
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Curt, Corinne. "Evaluation de la performance des barrages en service basée sur une formalisation et une agrégation des connaisssances". Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21819.

Texto completo
Resumen
Dans ce mémoire, des approches contribuant à l'évaluation de la performance d'un barrage sont proposées. Les développements portent sur : -une méthode d'évaluation déterministe de la performance des barrages par recueil, formalisation et agrégation de différentes sources de connaissances ; -une base de connaissances sur les phénomènes de dégradation des barrages permettant la capitalisation des connaissances du domaine ; -une méthode d'analyse des imperfections ; -une méthode non déterministe d'évaluation de la performance qui procède par représentation des imperfections et leur propagation dans le modèle. Ces différentes méthodes ont conduit à trois outils informatiques : une interface d'aide à l'évaluation de la performance, un système de traçabilité des données et une base de connaissances sur les phénomènes de dégradation. Ces approches sont illustrées sur les barrages en remblai et plus spécifiquement le mécanisme d'érosion interne
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Contiu, Stefan. "Applied Cryptographic Access Control for Untrusted Cloud Storage". Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0215.

Texto completo
Resumen
Les clouds publics permettent de stocker et de partager des données à faible coût et haute disponibilité. Néanmoins, les avantages, les fournisseurs de cloud sont contournés de manière récurrente par des utilisateurs malveillants exposant des contenus utilisateurs sensibles. Face au manque de garanties de sécurité, les utilisateurs peuvent imposer une sécurité de bout-en-bout en chiffrant les données avant de les stocker à distance.Les mécanismes de contrôle d’accès filtrent les utilisateurs autorisés à produire ou à utiliser les données distantes. Au fur et à mesure que les données sont chiffrées, le contrôle d’accès est effectué de manière cryptographique, indépendamment du stockage en nuage. La gestion des clés cryptographiques régule l’accès des utilisateurs, tandis que des techniques de rechiffrement sont utilisées pour les mises à jour de clés. Une gestion des clés permet souvent d’arbitrer entre le temps de calcul et l’empreinte de stockage, tandis que les techniques de rechiffrement arbitrent entre les garanties de sécurité et la rapidité. Dans le cas de très volumineuses et dynamiques charges de travail spécifiques sur le cloud, un contrôle d’accès cryptographique même performant est généralement inefficace.Cette thèse propose une intégration minimale des environnements d’exécution de confiance (TEE) pour obtenir un contrôle d’accès efficace. En utilisant TEE, nous modifions les hypothèses des schémas de distribution de clés traditionnels, en dérivant deux schémas, un confidentiel et un anonyme, permettant à la fois d’obtenir une latence informatique supportable en même temps qu’une faible empreinte de stockage. La réactivité pour les utilisateurs finaux peut être encore optimisée par le recours à des techniques de partitionnement et d’indexation. De plus, nous proposons une méthode légère de rechiffrement des données en ne traitant que des parties des données dans TEE directement chez le fournisseur. Nous réalisons une mise en œuvre et une évaluation complètes en utilisant Intel Software Guard Extensions (SGX) comme TEE. Les résultats de l’analyse comparative montrent que nos systèmes de gestion de clés et de rechiffrement accroissent l’état de la technique de plusieurs ordres de grandeur
Public clouds enable storing and sharing data with efficient cost and high availability. Nevertheless the benefits, cloud providers are recurrently breached by malicious users exposing sensitive user content. To mitigate the lack of security guarantees, users can impose end-to-end security by encrypting the data before remotely storing it.Access control mechanisms specify the users who are allowed to produce or consume the re-mote data. As data is encrypted, access control is performed cryptogrpahically, concealed from the cloud storage. Cryptographic key management is used for regulating user access while re-encryption techniques are used for key updates. State-of-the-art key management often trades computational time for storage footprint, while re-encryption techniques exchange great security guarantees for speed. In the context of very large and highly dynamic cloud specific workloads,state-of-the-art cryptographic access control is generally inefficient.This thesis proposes a minimal integration of Trusted Execution Environments (TEE) to achieve efficient access control. Leveraging TEE, we perform a change in assumptions of traditional key distribution schemes, deriving a confidential and an anonymous scheme, both achieving efficient computational latency and low storage footprint. End-users servicing time is further optimized by partitioning and indexing techniques. In addition, we propose a lightweight data re-encryption method by processing only portions of the data in TEE directly at the provider side. We carry out a comprehensive implementation and evaluation using Intel Software Guard Extensions (SGX) as TEE. Benchmarking results highlight that our key management and re-encryption schemes can be few orders of magnitude better than state-of-the-art
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Viguier, Françoise. "Écoulements diphasiques lors de la vidange d'un réservoir de gaz liquéfiés sous pression. Comparaison Eau - CFC11-CFC113". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1992. http://tel.archives-ouvertes.fr/tel-00844457.

Texto completo
Resumen
Pour les études de sécurité industrielle, il est nécessaire d'évaluer le débit diphasique lors de vidanges accidentelles de stockages de gaz liquéfiés sous pression. Or, seules de rares études existent avec d'autres produits que l'eau. Le présent travail s'intéresse donc à l'influence de la nature du fluide mais aussi de la géométrie de la conduite. Nous avons conçu un montage expérimental (réservoir de 27 litres admettant une pression de 0,4 MPa) afin de comparer l'eau, le CFC11 et le CFC113 dans une même installation. Différentes conduites (diamètres 8 et 16 mm et longueurs de 0,1 à 0,6 m) ont d'abord été utilisées avec l'eau afin de déterminer la meilleure géométrie pour cette comparaison. Les mesures réalisées dans le réservoir montrent qu'au cours de la vidange il existe des oscillations de la pression, qui sont plus importantes pour les CFC que pour l'eau. Malgré ces différences, les trois fluides testes restent très prés des conditions d'équilibre. Les débits mesures sont ensuite comparés aux estimations de différents modèles. Les hypothèses les plus simples (Modèle homogène à l'équilibre) conduisent à une bonne évaluation du débit. Il ressort de cette analyse qu'il est nécessaire de considérer des frottements pour une bonne description des mesures faites le long de la conduite. Cependant, il existe des écarts résiduels entre les prévisions de ces modèles et les résultats expérimentaux: les débits mesures et ceux estimes ne sont pas égaux mais, de plus, le rapport de ces deux débits est différent selon le fluide utilisé. Pour expliquer ces écarts, il nous apparait nécessaire de prendre en compte simultanément des vitesses différentes (Échanges de quantité de mouvement entre les phases) d'une part et des écarts à l'équilibre d'autre part.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Kyoni, Idriss. "Contribution à l'amélioration de la fiabilitédu réseau électrique de la province du Katanga/RD Congo". Doctoral thesis, Universite Libre de Bruxelles, 2018. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/269651.

Texto completo
Resumen
RésuméLa République Démocratique du Congo est dotée d’un potentiel hydroélectrique estimé à 100.000MW répartis sur 217 sites, dont 2.6% du potentiel est exploité à ce jour. Malgré ce potentiel, malheureusement le taux d’accès de la population congolaise à l’électricité est de 9%, contre une moyenne africaine évaluée à 24.6%. La province du Katanga étant le poumon économique de la RDC est dotée de 24 sites pouvant produire une puissance exploitable de 1952MW, mais actuellement, seulement 4 sites sont en exploitation pour une puissance de 468MW.Suite à l’intensification d’activités industrielles dans la province du Katanga pour la production de matières premières (cuivre et cobalt essentiellement) ces dernières années et à l’accroissement de la population urbaine, la demande en énergie électrique ne fait qu’augmenter d’année en année. Le gestionnaire de réseau face à cette réalité, recourt en permanence à l’importation d’électricité depuis la Zambie pour satisfaire la clientèle. Mais malgré ce recours, la charge n’est pas totalement satisfaite, alors le gestionnaire est conduit à instaurer une politique de délestage tournant pour soulager son réseau électrique.Le but de notre thèse est l’amélioration de la fiabilité/sécurité d’approvisionnement du réseau katangais par des approches locales qui sont constituées de construction de nouvelles centrales électriques et de voir dans quelle mesure le recours au stockage peut contribuer à cette amélioration. La fiabilité du système électrique sera caractérisée par les indicateurs de fiabilité de niveaux hiérarchiques I et II. Pour atteindre notre objectif, une modélisation simplifiée, mais suffisamment détaillée, du réseau électrique sud/SNEL (Société Nationale d’Electricité) s’est avérée nécessaire, et l’application des outils de résolution des OPF (Optimal Power Flow) à ce réseau nous a permis d’estimer les indicateurs de fiabilité et de faire également l’analyse de sécurité du système. Cette analyse a servi à identifier les lignes et transformateurs candidats au renforcement du réseau.Les résultats obtenus ont montré une faible influence de l’utilisation des unités de stockage sur les indicateurs de fiabilité au niveau de la haute tension. Néanmoins des bons résultats ont été obtenus lors de l’utilisation du stockage au niveau de la distribution. Pour améliorer davantage les indicateurs de fiabilité, nos recherches présentent les perspectives sur les modèles de charge, la prise en compte d’un modèle de réseau étalé jusqu’à la moyenne tension ainsi d’une étude dynamique. SummaryThe Democratic Republic of Congo (DRC) is endowed with a hydroelectric potential estimated at 100.000MW. This potential is distributed on 217 sites, among which only 2.6% is exploited to this day. But unfortunately, in spite of this potential, only 9% of the Congolese population have access to electricity, while the African average is estimated at 24.6%. The province of Katanga, considered as the economic lung of the DRC, is endowed with 24 sites, which can produce an exploitable power of 1952MW. At present, only 4 out of the 24 sites are in exploitation, for an installed power of 468MW.These last years, the province of Katanga has encountered an intensification of industrial activities for the production of raw materials such as copper and cobalt. Furthermore, the urban population is rapidly expanding. These two factors are causes of a constant increase of the demand in electrical energy. To deal with this requirement, the electrical system operator is forced to import a part of the supply from Zambia in order to satisfy the customers. However, despite this importation, the load is not fully satisfied. The system operator must then establish a policy of rotating load shedding to relieve the network.The purpose of our thesis is the improvement of the supply reliability/safety of the Katanga network, by local approaches which are constituted of the construction of new power plants, and to see to which extent storage can contribute to this improvement. The reliability of the electrical system will be characterized by reliability indicators at hierarchical levels I and II. To reach this goal, a simplified, yet sufficiently detailed modeling of the south network/SNEL (National Company of Electricity) was necessary, and the application of OPF (Optimal Power Flow) tools to this network model allowed us estimating the reliability indicators and making the safety analysis of the system. This analysis helped identify lines and transformers that are candidates to the reinforcement of the network.The obtained results showed a weak influence of the use of the storage units on the reliability indicators at the high voltage level. Nevertheless, good results have been obtained when using storage at the distribution level. For a better improvement of the reliability indicators of the Katanga network, our research works present perspectives on the models of load, taking into account an extended network model up to the medium voltage and a dynamic study.
Doctorat en Sciences de l'ingénieur et technologie
info:eu-repo/semantics/nonPublished
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Gérard, Bruno. "Contribution des couplages mécanique-chimie : transfert dans la tenue à long terme des ouvrages de stockage de dechets radioactifs". Cachan, Ecole normale supérieure, 1996. http://www.theses.fr/1996DENS0017.

Texto completo
Resumen
Une prédiction fiable du comportement a long terme des barrières de confinement en béton nécessite d'avoir bien identifie les divers mécanismes de détérioration et de les avoir convenablement modélisés. L'originalité de cette étude est de coupler le comportement mécanique avec une dégradation d'origine chimique (dissolution des hydrates cimentaires due a un ruissellement d'eau pure). Afin d'évaluer ce couplage, un modèle a été développé et implanté dans un code de calculs par éléments finis. Le module d'élasticité évolue comme une fonction d'une variable de vieillissement dépendant de la teneur locale en calcium. Le comportement mécanique non-linéaire du béton est modélisé selon la théorie de l'endommagement. Parallèlement, deux procédures expérimentales ont été développées. La procédure bipède a été développée afin d'étudier les mécanismes de développement de la fissuration et des propriétés de permutation sous chargement mécanique de traction. La procédure lift a été développée pour la réalisation accélérée d'échantillons cimentaires dégradés chimiquement dans le but d'évaluer le couplage mécanique-chimie. Des essais de micro dureté ont été réalisés pour identifier la fonction de vieillissement chimico-mécanique. Plusieurs simulations numériques ont été réalisées. La présence d'une fissure modifie localement la pénétration de la dégradation. L'ouverture de la fissuration constitue un paramètre dominant le couplage diffusion-chimie-mécanique. A l'issue de ces simulations, plusieurs applications industrielles sont directement envisageables. Les limitations et les extensions futures du modèle ont aussi été discutées
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Perlot, Céline. "Influence de la décalcification de matériaux cimentaires sur les propriétés de transfert : application au stockage profond de déchets radioactifs". Toulouse 3, 2005. http://www.theses.fr/2005TOU30211.

Texto completo
Resumen
Les matériaux cimentaires ont été retenus afin de composer la barrière ouvragée du site français de stockage des déchets nucléaires en formation géologique profonde. Ce choix se justifie par les capacités physico-chimiques propres aux bétons : les hydrates de la matrice cimentaire (CSH) et le pH de sa solution interstitielle contribuent à la rétention des radionucléides ; d'autre part la compacité de ces matériaux limite le transport d'éléments. Il convient de s'assurer de la pérennité de cette structure pendant une durée au moins égale à celle de la vie des déchets (jusqu'à 100 000 ans). Sa durabilité a été éprouvée par l'évolution des propriétés de transfert en fonction de la décalcification de matériaux cimentaires, altération traduisant le vieillissement de l'ouvrage. Deux modes de dégradation ont ainsi été appliqués tenant compte des différentes interactions physico-chimiques induites par la formation hôte. Le premier, de type statique, a consisté en une décalcification accélérée par le nitrate d'ammonium. Il simule l'altération de la barrière ouvragée par les eaux souterraines. La cinétique de la dégradation a été estimée par le suivi du calcium lixivié et l'avancée du front de dissolution de l'hydroxyde de calcium. Pour évaluer l'impact de la décalcification, les échantillons ont été caractérisés à l'état sain puis dégradé, en terme de microstructure (porosité, distribution porosimétrique) et de propriétés de transfert (diffusivité, perméabilité au gaz et à l'eau). L'influence de la nature du liant (CEM I et CEM V/A) et des granulats (calcaires et siliceux) a été observée en répétant les essais sur différentes formulations de mortiers. A cette occasion, une importante réflexion sur la métrologie de cet essai a été menée. Le deuxième mode de dégradation, dynamique, a été réalisé par un perméamètre environnemental. Il recrée les sollicitations subies par l'ouvrage lors de sa phase de resaturation post-fermeture (pression hydraulique imposée par la couche géologique et exothermicité des déchets). Cet appareillage, basé sur le principe d'une cellule triaxiale, permet de fixer un gradient de pression entre 2 et 10 MPa et une température de 20 à 80°C. La variation de la perméabilité à l'eau en fonction de ces deux paramètres expérimentaux, découplés et couplés, a été mesurée et reliée aux modifications microstructurales des échantillons
Cementitious materials have been selected to compose engineering barrier system (EBS) of the french radioactive waste deep repository, because of concrete physico-chemical properties: the hydrates of the cementitious matrix and the pH of the pore solution contribute to radionuclides retention; furthermore the compactness of these materials limits elements transport. The confinement capacity of the system has to be assessed while a period at least equivalent to waste activity (up to 100. 000 years). His durability was sustained by the evolution of transfer properties in accordance with cementitious materials decalcification, alteration that expresses structure long-term behavior. Then, two degradation modes were carried out, taking into account the different physical and chemical interactions imposed by the host formation. The first mode, a static one, was an accelerated decalcification using nitrate ammonium solution. It replicates EBS alteration dues to underground water. Degradation kinetic was estimated by the amount of calcium leached and the measurement of the calcium hydroxide dissolution front. To evaluate the decalcification impact, samples were characterized before and after degradation in term of microstructure (porosity, pores size distribution) and of transfer properties (diffusivity, gas and water permeability). The influence of cement nature (ordinary Portland cement, blended cement) and aggregates type (lime or siliceous) was observed: experiments were repeated on different mortars mixes. On this occasion, an essential reflection on this test metrology was led. The second mode, a dynamical degradation, was performed with an environmental permeameter. It recreates the EBS solicitations ensured during the resaturation period, distinguished by the hydraulic pressure imposed by the geologic layer and the waste exothermicity. This apparatus, based on triaxial cell functioning, allows to applied on samples pressure drop between 2 and 10 MPa and temperature from 20 to 80°C. Water permeability evolution relating to experimental parameters, uncoupled or coupled, was relied to mortars microstructural modifications
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Baklouti, Malika. "Détermination de la conductivité thermique effective de milieux poreux granulaires par la méthode du fil chaud en régime transitoire : modélisation et expériences : application à la sureté des stockages". Vandoeuvre-les-Nancy, INPL, 1997. http://www.theses.fr/1997INPL010N.

Texto completo
Resumen
L’auto-échauffement susceptible de se produire lors du stockage d'un matériau granulaire est le résultat d'une compétition entre les vitesses d'évacuation et de génération de chaleur (par oxydation ou décomposition du produit stocké) en faveur de cette dernière. Ces vitesses impliquent l'ensemble des paramètres liés au stockage et au milieu environnant. La connaissance de ceux-ci permet de définir les conditions critiques relatives au stockage étudié, par la réalisation d'une étude de type Frank-Kamenetskii basée sur la résolution analytique du bilan thermique en régime stationnaire, ou par une résolution numérique de ce bilan en régime transitoire. Dans les deux cas, la possession de valeurs expérimentales précises des paramètres impliqués est décisive pour une bonne prédiction du comportement thermique du stockage. Parmi ceux-ci, la conductivité thermique effective du milieu poreux doit faire l'objet d'une mesure expérimentale. Parmi les méthodes possibles, celle du fil chaud en régime transitoire nous a paru la plus adaptée à cette détermination. Cependant, outre la précision de la mesure elle-même, la fiabilité des résultats repose aussi sur la procédure d'exploitation. L’identification d'un modèle reproduisant l'expérience aux acquisitions de température issues de la mesure permet de déduire la valeur de cette conductivité thermique. Le choix du modèle, les hypothèses sur lesquelles il repose, ainsi que l'intervalle de temps sur lequel l'identification est réalisée sont directement liés au système expérimental et contribuent à l'obtention de valeurs expérimentales fiables utilisables pour une étude relative à la sureté des stockages.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Glatron, Sandrine. "L'évaluation des risques technologiques majeurs en milieu urbain : approche géographique : le cas de la distribution des carburants dans la région Ile-de-France". Paris 1, 1997. http://www.theses.fr/1997PA010684.

Texto completo
Resumen
Les risques technologiques majeurs constitue aujourd'hui un enjeu de société. En témoigne la contrainte qui pèse sur le planificateur depuis la loi du 22 juillet 1987 : celui-ci doit prendre en compte les risques majeurs lors de l'élaboration des plans d'aménagement, du POS (Plan d'Occupation des Sols) au schéma directeur régional. Partant de cette disposition qui instaure des mesures de maîtrise de l'urbanisation autour des installations dangereuses, une évaluation des risques est menée. Elle s'appuie sur la comptabilisation des dommages potentiels dans les périmètres d'effets d'un accident éventuel. Ceux-ci résultent du calcul des conséquences de l'accident le plus grave possible, dit "pénalisant", suivant la méthode déterministe adoptée en France pour traiter de cette question. L'évaluation des risques technologiques majeurs ne s'arrête pas aux établisseemnts dangereux. Elle considère les risques qui accompagnent tous les maillons d'une filière industrielle, y compris le transport. Les flux sont en effet étroitement liés à l'organisation spatiale d'une entreprise. La méthode d'évaluation mise au point prend acte de cette articulation forte en proposant une démarche commune aux risques-site et aux risques-transport. Elle permet de vérifier l'hypothèse selon laquelle il y aurait des transferts de risques depuis l'établissement fixe vers les transports de matières dangereuses si la géographie d'une entreprise était modifiée, suite à la "délocalisation" d'un établissement de stockage ou de production. La démonstration a été menée pour le cas du segment aval de la filière pétrolière : le stockage et la distribution de détail des carburants (par la route), dans la région Ile-de-France. Elle s'appuie sur l'analyse de l'espace telle qu'elle apparaît dans le mode d'occupation des sols (MOS), cartographie originale établie et suivie sur le système d'information géographique de l'Institut d'Aménagement et d'urbanisme de la région Ile-de-France (AURIF)
Technological hasards have now a societal dimension, as shown by the necessity for the town planner to consider them, since the French law of 1987. During the elaboration of urban plans, local (Land of urban, local (Land Use Plan) or regional, the technological hazards must be taken into account. An original assesment method is built, using this legal constraint - the control of urban development around dangerous industrial sites. It consists in counting the potential damages wihin the area concerned by the consequences of an accident. This area is calculated for the most serious accident, called "penalizing" accident, because of the determinist assessment method we use in France. This assessment doesn't concern only the dangerous plants. It is implemented for the hole steps of an industrial branch, including the transport. Flows are very closely linked to the spatial firm organisation. The assessing method elaborated takes account of this close link, when it proposes a common evaluation for plant - hazards and transport - hazards. It allows the verification of the following hypothesis : there might be risks transferts from the plant to the dangerous substances transports if the georgraphy of the firm was changed, as the storage or production plant is localized elsewhere. The evaluation method is undertaken for the end of the petroleum industrial branch, i. E. Storage and retail road distribution of fuel oils, in the Ile-de-France Region. It uses the spatial analysis described in the land use map worked out by the IAURIF (Town Planning Institut of the Ile-de-France Region)
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Dimbour, Jean-Philippe. "Contribution à l'étude expérimentale et à la modélisation de l'influence de dispositifs de protection de type rideau d'eau sur la dispersion atmosphérique d'un rejet de gaz lourd se produisant depuis un local de stockage de chlore liquiéfié sous pression". Aix-Marseille 1, 2003. http://www.theses.fr/2003AIX11036.

Texto completo
Resumen
Les rejets accidentels de gaz lourds peuvent être contrôlés dans certaines conditions par des dispositifs de protection de type rideau d'eau. Des essais expérimentaux de dispersion atmosphérique sur site ont été mis en oeuvre au cours desquels l'efficacité de différents types de rideaux d'eau a été évaluée vis-à-vis de la limitation des conséquences de rejets de chlore gazeux. Ces rejets réalisés depuis un cabanage expérimental simulent le cas d'une petite fuite accidentelle se produisant depuis une petite installation de stockage. Le dispositif le plus efficace pour réduire les concentrations à proximité de la source est le rideau d'eau mobile ascendant lance queue de paon (abattement d'un facteur 5 à 10, à 5 m en aval de la source). Pour les rideaux d'eau fixes descendants cône plein et jet plat le maximum d'abattement des concentrations (facteur 2 à 5) est observé à 10 m en aval de la source. La mitigation des rejets de chlore se fait essentiellement par dilution mécanique l'efficacité de dissolution étant faible. Les simulations réalisées en dispersion libre (absence de rideau d'eau) avec différents modèles ont montré que les modèles disponibles semblent peu adaptés aux conditions de cette étude (rejets de gaz lourd à faible débit, distances d'étude courtes). Ainsi les conclusions relatives à l'utilisation de ces modèles ont conduit à la mise au point du modèle rideaux d'eau descendants (RED) permettant de calculer les concentrations en aval d'un local de stockage en dispersion libre ainsi qu'en aval d'un rideau d'eau. Le modèle RED semble bien adapté à la problématique de cette étude avec des résultats satisfaisants.
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Gouel, Christophe. "Agricultural price instability and optimal stabilisation policies=Instabilité des prix agricoles et politiques optimales de stabilisation". Phd thesis, Ecole Polytechnique X, 2011. http://pastel.archives-ouvertes.fr/pastel-00584922.

Texto completo
Resumen
Cette thèse propose une analyse des politiques de stabilisation des prix alimentaires dans les pays pauvres. Afin de représenter la situation dans ces pays, nous considérons dans un modèle de stockage à anticipations rationnelles que les consommateurs ne peuvent pas s'assurer contre le risque prix et qu'ils sont averses au risque. L'incomplétude de marché justifie l'intervention publique et des politiques optimales de stabilisation sont analysées. Une politique optimale de stockage publique implique une augmentation du niveau de stockage. Ce stockage additionnel entraîne l'évincement de tous les stockeurs privés en supprimant les opportunités de profit spéculatif. L'usage de règles complexes d'intervention publique étant peu probable dans des pays pauvres, nous comparons des politiques optimales de stockage alimentaire à des règles simples comme une subvention au stockage privé ou une bande de prix défendue par du stockage public. L'engagement du gouvernement entraîne des gains de bien-être par rapport à une politique discrétionnaire liés à la possibilité de manipuler les anticipations des producteurs et donc de les induire à stabiliser les prix. Les règles simples de stabilisation permettent d'obtenir des gains proches de ceux obtenus avec des politiques optimales. Dans un cadre d'économie ouverte, les instruments de stabilisation sont la politique commerciale et le stockage. Une politique de stockage non accompagnée d'une politique commerciale ne profite pas aux consommateurs, car les bénéfices de la stabilisation se dissipent sur le marché mondial. Au contraire, une politique commerciale optimale permet d'augmenter la stabilisation en exploitant le marché mondial.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Leca, Denis. "Caractérisation des altérations du granite d'Auriat (Creuse). Étude de son espace poreux". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1990. http://pastel.archives-ouvertes.fr/pastel-00569148.

Texto completo
Resumen
On se propose de caractériser les altérations du granite d'Auriat (Creuse) à partir d'un forage profond (1003.15 m). Ce mémoire comprend deux volets : - la reconnaissance des altérations du granite : études visuelle, microscopique, chimique, minéralogique et mécanique ; - l'analyse du milieu poreux. Tout au long de l'étude, nous sommes amenés à adapter les moyens d'investigation pour une petite quantité de matériau. Après une revue bibliographique, nous caractérisons le granite d'Auriat et ses altérations à partir des moyens classiques : étude visuelle du sondage, microscopie optique, MEB, diffraction de rayons X, analyses chimiques à l'échelle de la roche puis du minéral , microduretés Vickers, résistance à la compression et géophysique de laboratoire. Il apparaît que les faciès que nous définissons à partir de la couleur des feldspaths (rubéfaction) correspondent à une réalité physico-chimique. La seconde partie du mémoire débute par la mesure du volume poreux du granite. On reprend les différentes méthodes et on met au point une technique de mesure de la porosité à l'eau adaptée aux matériaux très peu poreux (< 2 %). La validité de la méthode est démontrée. La répartition des porosités en fonction des faciès montre que les granites sains sont très peu poreux (< 1 % en moyenne) et les rubéfiés légèrement plus poreux (de 0 à 2 % en moyenne). La décomposition de la porosité totale en porosité de pores et de fissures montre que le faciès sain est affecté par un système de microfissures ouvertes. Le faciès rubéfié possède une porosité de pores dominante et ses microfissures sont largement colmatées. L'essai de porosimétrie au mercure est abordé à partir des calculs utilisés en physique des hautes pressions en tenant compte des corrections de compressibilité relatives à chacun des éléments en présence. L'examen des courbes porosimétriques montre qu'il existe une infraporosité (0.001 < r < 0.01 µm) caractéristique du faciès rubéfié. Nous mesurons la perméabilité au gaz du granite, puis calculons sa surface spécifique à partir de la porosité et de la perméabilité. Enfin, nous présentons une synthèse des résultats et une prospective est envisagée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Carpen-Amarie, Alexandra. "BlobSeer as a data-storage facility for clouds : self-Adaptation, integration, evaluation". Thesis, Cachan, Ecole normale supérieure, 2011. http://www.theses.fr/2011DENS0066/document.

Texto completo
Resumen
L’émergence de l’informatique dans les nuages met en avant de nombreux défis qui pourraient limiter l’adoption du paradigme Cloud. Tandis que la taille des données traitées par les applications Cloud augmente exponentiellement, un défi majeur porte sur la conception de solutions efficaces pour la gestion de données. Cette thèse a pour but de concevoir des mécanismes d’auto-adaptation pour des systèmes de gestion de données, afin qu’ils puissent répondre aux exigences des services de stockage Cloud en termes de passage à l’échelle, disponibilité et sécurité des données. De plus, nous nous proposons de concevoir un service de données qui soit à la fois compatible avec les interfaces Cloud standard dans et capable d’offrir un stockage de données à haut débit. Pour relever ces défis, nous avons proposé des mécanismes génériques pour l’auto-connaissance, l’auto-protection et l’auto-configuration des systèmes de gestion de données. Ensuite, nous les avons validés en les intégrant dans le logiciel BlobSeer, un système de stockage qui optimise les accès hautement concurrents aux données. Finalement, nous avons conçu et implémenté un système de fichiers s’appuyant sur BlobSeer, afin d’optimiser ce dernier pour servir efficacement comme support de stockage pour les services Cloud. Puis, nous l’avons intégré dans un environnement Cloud réel, la plate-forme Nimbus. Les avantages et les désavantages de l’utilisation du stockage dans le Cloud pour des applications réelles sont soulignés lors des évaluations effectuées sur Grid’5000. Elles incluent des applications à accès intensif aux données, comme MapReduce, et des applications fortement couplées, comme les simulations atmosphériques
The emergence of Cloud computing brings forward many challenges that may limit the adoption rate of the Cloud paradigm. As data volumes processed by Cloud applications increase exponentially, designing efficient and secure solutions for data management emerges as a crucial requirement. The goal of this thesis is to enhance a distributed data-management system with self-management capabilities, so that it can meet the requirements of the Cloud storage services in terms of scalability, data availability, reliability and security. Furthermore, we aim at building a Cloud data service both compatible with state-of-the-art Cloud interfaces and able to deliver high-throughput data storage. To meet these goals, we proposed generic self-awareness, self-protection and self-configuration components targeted at distributed data-management systems. We validated them on top of BlobSeer, a large-scale data-management system designed to optimize highly-concurrent data accesses. Next, we devised and implemented a BlobSeer-based file system optimized to efficiently serve as a storage backend for Cloud services. We then integrated it within a real-world Cloud environment, the Nimbus platform. The benefits and drawbacks of using Cloud storage for real-life applications have been emphasized in evaluations that involved data-intensive MapReduce applications and tightly-coupled, high-performance computing applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Kaaniche, Nesrine. "Cloud data storage security based on cryptographic mechanisms". Thesis, Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0033/document.

Texto completo
Resumen
Au cours de la dernière décennie, avec la standardisation d’Internet, le développement des réseaux à haut débit, le paiement à l’usage et la quête sociétale de la mobilité, le monde informatique a vu se populariser un nouveau paradigme, le Cloud. Le recours au cloud est de plus en plus remarquable compte tenu de plusieurs facteurs, notamment ses architectures rentables, prenant en charge la transmission, le stockage et le calcul intensif de données. Cependant, ces services de stockage prometteurs soulèvent la question de la protection des données et de la conformité aux réglementations, considérablement due à la perte de maîtrise et de gouvernance. Cette dissertation vise à surmonter ce dilemme, tout en tenant compte de deux préoccupations de sécurité des données, à savoir la confidentialité des données et l’intégrité des données. En premier lieu, nous nous concentrons sur la confidentialité des données, un enjeu assez considérable étant donné le partage de données flexible au sein d’un groupe dynamique d’utilisateurs. Cet enjeu exige, par conséquence, un partage efficace des clés entre les membres du groupe. Pour répondre à cette préoccupation, nous avons, d’une part, proposé une nouvelle méthode reposant sur l’utilisation de la cryptographie basée sur l’identité (IBC), où chaque client agit comme une entité génératrice de clés privées. Ainsi, il génère ses propres éléments publics et s’en sert pour le calcul de sa clé privée correspondante. Grâce aux propriétés d’IBC, cette contribution a démontré sa résistance face aux accès non autorisés aux données au cours du processus de partage, tout en tenant compte de deux modèles de sécurité, à savoir un serveur de stockage honnête mais curieux et un utilisateur malveillant. D’autre part, nous définissons CloudaSec, une solution à base de clé publique, qui propose la séparation de la gestion des clés et les techniques de chiffrement, sur deux couches. En effet, CloudaSec permet un déploiement flexible d’un scénario de partage de données ainsi que des garanties de sécurité solides pour les données externalisées sur les serveurs du cloud. Les résultats expérimentaux, sous OpenStack Swift, ont prouvé l’efficacité de CloudaSec, en tenant compte de l’impact des opérations cryptographiques sur le terminal du client. En deuxième lieu, nous abordons la problématique de la preuve de possession de données (PDP). En fait, le client du cloud doit avoir un moyen efficace lui permettant d’effectuer des vérifications périodiques d’intégrité à distance, sans garder les données localement. La preuve de possession se base sur trois aspects : le niveau de sécurité, la vérification publique, et les performances. Cet enjeu est amplifié par des contraintes de stockage et de calcul du terminal client et de la taille des données externalisées. Afin de satisfaire à cette exigence de sécurité, nous définissons d’abord un nouveau protocole PDP, sans apport de connaissance, qui fournit des garanties déterministes de vérification d’intégrité, en s’appuyant sur l’unicité de la division euclidienne. Ces garanties sont considérées comme intéressantes par rapport à plusieurs schémas proposés, présentant des approches probabilistes. Ensuite, nous proposons SHoPS, un protocole de preuve de possession de données capable de traiter les trois relations d’ensembles homomorphiques. SHoPS permet ainsi au client non seulement d’obtenir une preuve de la possession du serveur distant, mais aussi de vérifier que le fichier, en question, est bien réparti sur plusieurs périphériques de stockage permettant d’atteindre un certain niveau de la tolérance aux pannes. En effet, nous présentons l’ensemble des propriétés homomorphiques, qui étend la malléabilité du procédé aux propriétés d’union, intersection et inclusion
Recent technological advances have given rise to the popularity and success of cloud. This new paradigm is gaining an expanding interest, since it provides cost efficient architectures that support the transmission, storage, and intensive computing of data. However, these promising storage services bring many challenging design issues, considerably due to the loss of data control. These challenges, namely data confidentiality and data integrity, have significant influence on the security and performances of the cloud system. This thesis aims at overcoming this trade-off, while considering two data security concerns. On one hand, we focus on data confidentiality preservation which becomes more complex with flexible data sharing among a dynamic group of users. It requires the secrecy of outsourced data and an efficient sharing of decrypting keys between different authorized users. For this purpose, we, first, proposed a new method relying on the use of ID-Based Cryptography (IBC), where each client acts as a Private Key Generator (PKG). That is, he generates his own public elements and derives his corresponding private key using a secret. Thanks to IBC properties, this contribution is shown to support data privacy and confidentiality, and to be resistant to unauthorized access to data during the sharing process, while considering two realistic threat models, namely an honest but curious server and a malicious user adversary. Second, we define CloudaSec, a public key based solution, which proposes the separation of subscription-based key management and confidentiality-oriented asymmetric encryption policies. That is, CloudaSec enables flexible and scalable deployment of the solution as well as strong security guarantees for outsourced data in cloud servers. Experimental results, under OpenStack Swift, have proven the efficiency of CloudaSec in scalable data sharing, while considering the impact of the cryptographic operations at the client side. On the other hand, we address the Proof of Data Possession (PDP) concern. In fact, the cloud customer should have an efficient way to perform periodical remote integrity verifications, without keeping the data locally, following three substantial aspects : security level, public verifiability, and performance. This concern is magnified by the client’s constrained storage and computation capabilities and the large size of outsourced data. In order to fulfill this security requirement, we first define a new zero-knowledge PDP proto- col that provides deterministic integrity verification guarantees, relying on the uniqueness of the Euclidean Division. These guarantees are considered as interesting, compared to several proposed schemes, presenting probabilistic approaches. Then, we propose SHoPS, a Set-Homomorphic Proof of Data Possession scheme, supporting the 3 levels of data verification. SHoPS enables the cloud client not only to obtain a proof of possession from the remote server, but also to verify that a given data file is distributed across multiple storage devices to achieve a certain desired level of fault tolerance. Indeed, we present the set homomorphism property, which extends malleability to set operations properties, such as union, intersection and inclusion. SHoPS presents high security level and low processing complexity. For instance, SHoPS saves energy within the cloud provider by distributing the computation over multiple nodes. Each node provides proofs of local data block sets. This is to make applicable, a resulting proof over sets of data blocks, satisfying several needs, such as, proofs aggregation
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Kaaniche, Nesrine. "Cloud data storage security based on cryptographic mechanisms". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0033.

Texto completo
Resumen
Au cours de la dernière décennie, avec la standardisation d’Internet, le développement des réseaux à haut débit, le paiement à l’usage et la quête sociétale de la mobilité, le monde informatique a vu se populariser un nouveau paradigme, le Cloud. Le recours au cloud est de plus en plus remarquable compte tenu de plusieurs facteurs, notamment ses architectures rentables, prenant en charge la transmission, le stockage et le calcul intensif de données. Cependant, ces services de stockage prometteurs soulèvent la question de la protection des données et de la conformité aux réglementations, considérablement due à la perte de maîtrise et de gouvernance. Cette dissertation vise à surmonter ce dilemme, tout en tenant compte de deux préoccupations de sécurité des données, à savoir la confidentialité des données et l’intégrité des données. En premier lieu, nous nous concentrons sur la confidentialité des données, un enjeu assez considérable étant donné le partage de données flexible au sein d’un groupe dynamique d’utilisateurs. Cet enjeu exige, par conséquence, un partage efficace des clés entre les membres du groupe. Pour répondre à cette préoccupation, nous avons, d’une part, proposé une nouvelle méthode reposant sur l’utilisation de la cryptographie basée sur l’identité (IBC), où chaque client agit comme une entité génératrice de clés privées. Ainsi, il génère ses propres éléments publics et s’en sert pour le calcul de sa clé privée correspondante. Grâce aux propriétés d’IBC, cette contribution a démontré sa résistance face aux accès non autorisés aux données au cours du processus de partage, tout en tenant compte de deux modèles de sécurité, à savoir un serveur de stockage honnête mais curieux et un utilisateur malveillant. D’autre part, nous définissons CloudaSec, une solution à base de clé publique, qui propose la séparation de la gestion des clés et les techniques de chiffrement, sur deux couches. En effet, CloudaSec permet un déploiement flexible d’un scénario de partage de données ainsi que des garanties de sécurité solides pour les données externalisées sur les serveurs du cloud. Les résultats expérimentaux, sous OpenStack Swift, ont prouvé l’efficacité de CloudaSec, en tenant compte de l’impact des opérations cryptographiques sur le terminal du client. En deuxième lieu, nous abordons la problématique de la preuve de possession de données (PDP). En fait, le client du cloud doit avoir un moyen efficace lui permettant d’effectuer des vérifications périodiques d’intégrité à distance, sans garder les données localement. La preuve de possession se base sur trois aspects : le niveau de sécurité, la vérification publique, et les performances. Cet enjeu est amplifié par des contraintes de stockage et de calcul du terminal client et de la taille des données externalisées. Afin de satisfaire à cette exigence de sécurité, nous définissons d’abord un nouveau protocole PDP, sans apport de connaissance, qui fournit des garanties déterministes de vérification d’intégrité, en s’appuyant sur l’unicité de la division euclidienne. Ces garanties sont considérées comme intéressantes par rapport à plusieurs schémas proposés, présentant des approches probabilistes. Ensuite, nous proposons SHoPS, un protocole de preuve de possession de données capable de traiter les trois relations d’ensembles homomorphiques. SHoPS permet ainsi au client non seulement d’obtenir une preuve de la possession du serveur distant, mais aussi de vérifier que le fichier, en question, est bien réparti sur plusieurs périphériques de stockage permettant d’atteindre un certain niveau de la tolérance aux pannes. En effet, nous présentons l’ensemble des propriétés homomorphiques, qui étend la malléabilité du procédé aux propriétés d’union, intersection et inclusion
Recent technological advances have given rise to the popularity and success of cloud. This new paradigm is gaining an expanding interest, since it provides cost efficient architectures that support the transmission, storage, and intensive computing of data. However, these promising storage services bring many challenging design issues, considerably due to the loss of data control. These challenges, namely data confidentiality and data integrity, have significant influence on the security and performances of the cloud system. This thesis aims at overcoming this trade-off, while considering two data security concerns. On one hand, we focus on data confidentiality preservation which becomes more complex with flexible data sharing among a dynamic group of users. It requires the secrecy of outsourced data and an efficient sharing of decrypting keys between different authorized users. For this purpose, we, first, proposed a new method relying on the use of ID-Based Cryptography (IBC), where each client acts as a Private Key Generator (PKG). That is, he generates his own public elements and derives his corresponding private key using a secret. Thanks to IBC properties, this contribution is shown to support data privacy and confidentiality, and to be resistant to unauthorized access to data during the sharing process, while considering two realistic threat models, namely an honest but curious server and a malicious user adversary. Second, we define CloudaSec, a public key based solution, which proposes the separation of subscription-based key management and confidentiality-oriented asymmetric encryption policies. That is, CloudaSec enables flexible and scalable deployment of the solution as well as strong security guarantees for outsourced data in cloud servers. Experimental results, under OpenStack Swift, have proven the efficiency of CloudaSec in scalable data sharing, while considering the impact of the cryptographic operations at the client side. On the other hand, we address the Proof of Data Possession (PDP) concern. In fact, the cloud customer should have an efficient way to perform periodical remote integrity verifications, without keeping the data locally, following three substantial aspects : security level, public verifiability, and performance. This concern is magnified by the client’s constrained storage and computation capabilities and the large size of outsourced data. In order to fulfill this security requirement, we first define a new zero-knowledge PDP proto- col that provides deterministic integrity verification guarantees, relying on the uniqueness of the Euclidean Division. These guarantees are considered as interesting, compared to several proposed schemes, presenting probabilistic approaches. Then, we propose SHoPS, a Set-Homomorphic Proof of Data Possession scheme, supporting the 3 levels of data verification. SHoPS enables the cloud client not only to obtain a proof of possession from the remote server, but also to verify that a given data file is distributed across multiple storage devices to achieve a certain desired level of fault tolerance. Indeed, we present the set homomorphism property, which extends malleability to set operations properties, such as union, intersection and inclusion. SHoPS presents high security level and low processing complexity. For instance, SHoPS saves energy within the cloud provider by distributing the computation over multiple nodes. Each node provides proofs of local data block sets. This is to make applicable, a resulting proof over sets of data blocks, satisfying several needs, such as, proofs aggregation
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Tanon, Affaud A. "Construction et validation de filtres de recherche bibliographique pour soutenir la prise de décisions basée sur les évidences : le cas de la sécurité des patients". Thèse, 2012. http://hdl.handle.net/1866/9892.

Texto completo
Resumen
Les filtres de recherche bibliographique optimisés visent à faciliter le repérage de l’information dans les bases de données bibliographiques qui sont presque toujours la source la plus abondante d’évidences scientifiques. Ils contribuent à soutenir la prise de décisions basée sur les évidences. La majorité des filtres disponibles dans la littérature sont des filtres méthodologiques. Mais pour donner tout leur potentiel, ils doivent être combinés à des filtres permettant de repérer les études couvrant un sujet particulier. Dans le champ de la sécurité des patients, il a été démontré qu’un repérage déficient de l’information peut avoir des conséquences tragiques. Des filtres de recherche optimisés couvrant le champ pourraient s’avérer très utiles. La présente étude a pour but de proposer des filtres de recherche bibliographique optimisés pour le champ de la sécurité des patients, d’évaluer leur validité, et de proposer un guide pour l’élaboration de filtres de recherche. Nous proposons des filtres optimisés permettant de repérer des articles portant sur la sécurité des patients dans les organisations de santé dans les bases de données Medline, Embase et CINAHL. Ces filtres réalisent de très bonnes performances et sont spécialement construits pour les articles dont le contenu est lié de façon explicite au champ de la sécurité des patients par leurs auteurs. La mesure dans laquelle on peut généraliser leur utilisation à d’autres contextes est liée à la définition des frontières du champ de la sécurité des patients.
Optimized bibliographic search filters are designed to facilitate information retrieval in bibliographic databases, which are almost always the most abundant source of scientific evidence. The purpose of such filters is to support evidence-based decision making. Many of the filters available in the literature are methodological search filters. To reach their full potential they need to be combined with subject filters that identify studies covering a particular topic. In the field of patient safety, it has been demonstrated that deficiencies in the information retrieval process can lead to tragic consequences. Optimized bibliographic search filters covering the field could thus be very useful. This study is intended to provide subject bibliographic search filters optimized for the field of patient safety, assess their validity, and offer a guide for developing optimized bibliographic search filters. We propose high-performing bibliographic search filters to retrieve papers dealing with patient safety in health care organizations, that have been explicitly defined as relevant to the patient safety field by their authors, in Medline, Embase and CINAHL. The main generalization issue lies in defining the boundaries of the patient safety field.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía