Academic literature on the topic 'Stockage des données'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Stockage des données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Stockage des données"

1

Hehn, Michel, Gregory Malinowski, and Stéphane Mangin. "Retournement d’aimantation dans un dispositif « Spintronique » par impulsion d’électrons unique ultra-courte." Photoniques, no. 108 (May 2021): 36–39. http://dx.doi.org/10.1051/photon/202110836.

Full text
Abstract:
Portée par l’internet des objets et l’intelligence artificielle, la quantité de données générées et stockées augmente de manière exponentielle. A l’horizon 2030, 20 % de l’électricité mondiale sera utilisée pour le stockage et la gestion des données. Une très large majorité des données est stockée sur des surfaces magnétiques. Nous démontrons que nous pouvons retourner l’aimantation d’une couche ferromagnétique, donc écrire de l’information, grâce à un seul pulse laser femto-seconde.
APA, Harvard, Vancouver, ISO, and other styles
2

Rey, J. F. "Stockage des données en endoscopie digestive." Acta Endoscopica 20, S2 (March 1990): 381–83. http://dx.doi.org/10.1007/bf02970790.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

J.-L.P. "Le stockage et la communication des données." Revue Forestière Française, S (1993): 41. http://dx.doi.org/10.4267/2042/26498.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Metay, A., B. Mary, D. Arrouays, J. Labreuche, M. Martin, B. Nicolardot, and J. C. Germon. "Effets des techniques culturales sans labour sur le stockage de carbone dans le sol en contexte climatique tempéré." Canadian Journal of Soil Science 89, no. 5 (November 1, 2009): 623–34. http://dx.doi.org/10.4141/cjss07108.

Full text
Abstract:
En régions de climat tempéré, les terres cultivées ont un potentiel de stockage de carbone que l’on peut tenter d’utiliser pour réduire d’autant les émissions de CO2 atmosphérique par des pratiques culturales adaptées et notamment par les techniques culturales sans labour (TCSL). Cette capacité de stockage de carbone dans le sol a été évaluée sur l’essai de longue durée de Boigneville (Bassin de Paris, France) et a été comparée aux données de la littérature internationale. Le suivi du stock de carbone du sol sous une rotation maïs-blé indique une tendance à un stockage modéré tant en système labouré (0,10 t C ha-1 an-1 sur 28 ans) qu’en TCSL (respectivement 0,21 t et 0,19 t C ha-1 an-1 pour le travail superficiel et le semis direct sur cette même période). Avec une absence de différence significative entre le semis direct et le travail superficiel, l’effet spécifique moyen des TCSL évalué à 0,10 t C ha-1 an-1 sur 28 ans apparait sensiblement plus faible que celui mesuré sur les 20 premières années et évalué à 0,20 t C ha-1 an-1. Ces valeurs, inférieures à d’autres valeurs largement diffusées par ailleurs, et cette variation décroissante de la capacité de stockage avec la durée de TCSL sont cohérentes avec la tendance moyenne observée à partir d’un large échantillonnage de données de la littérature internationale. L’évolution de ce stockage de carbone est discutée en lien avec les indications sur l’évolution du stock de carbone des sols de cette même région, les indicateurs de stockage potentiel, et les implications liées à l’évolution du climat.Mots clés: Techniques de culture sans labour, travail superficiel, semis direct, stockage de carbone, séquestration, mitigation, gaz à effet de serre, essai de longue durée, climat tempéré
APA, Harvard, Vancouver, ISO, and other styles
5

VIGNAL, A. "Bases de données en biologie." INRAE Productions Animales 13, HS (December 22, 2000): 187–89. http://dx.doi.org/10.20870/productions-animales.2000.13.hs.3836.

Full text
Abstract:
Les bases de données en biologie doivent permettre le stockage d’une quantité croissante d’informations dont la nature est hétérogène. Des entités parfois très différentes sont à représenter, ainsi que leurs relations. De plus, les techniques variées utilisées pour générer les données doivent être prises en compte. De ce fait, il existe un foisonnement de bases de données spécialisées, dont nous décrivons ici les principales, ainsi que leurs interrelations.
APA, Harvard, Vancouver, ISO, and other styles
6

Maillet, Grégoire M., Guillaume Raccasi, Mireille Provansal, François Sabatier, Christelle Antonelli, Claude Vella, and Thomas J. Fleury. "Transferts sédimentaires dans le Bas-Rhône depuis le milieu du 19e siècle : essai de quantification." Géographie physique et Quaternaire 61, no. 1 (March 26, 2009): 39–53. http://dx.doi.org/10.7202/029569ar.

Full text
Abstract:
Résumé En raison des contraintes géographiques et hydrographiques qui le caractérisent (influence des affluents méditerranéens, affaiblissement du profil longitudinal, proximité du niveau marin), le Bas-Rhône présente une tendance historique au stockage des sédiments dans sa plaine d’inondation, responsable de la progradation de la plaine deltaïque. Il constitue aujourd’hui une zone-clé essentielle à la compréhension des relations entre le bassin-versant et le milieu océanique, aussi bien pour le transfert de la charge sédimentaire que pour les différents polluants dont celle-ci est le vecteur. Il apparaît donc nécessaire de déterminer quelle est sa capacité de transfert et quelle part du transit sédimentaire est stockée dans les différents compartiments de cet espace. Les données utilisées sont issues de sources bibliographiques directes (mesures in situ, travaux de quantification) et indirectes (superposition de cartes bathymétriques, reconstitution de l’historique des débits). Disponibles à diverses échelles temporelles et spatiales, ces sources permettent de proposer un bilan du fonctionnement sédimentaire depuis 150 ans et d’analyser les discontinuités du transit particulaire, en tenant compte de la part du stockage (permanent ou temporaire) dans les lits fluviaux et du transfert vers l’embouchure, puis le littoral et la plate-forme continentale. Ce bilan démontre que le Rhône actuel est un bon conducteur de sa charge solide jusqu’à l’embouchure et que cette dernière stocke de moins en moins le flux sédimentaire. Ce fonctionnement est interprété comme étant la conséquence des aménagements qui contraignent l’écoulement fluvial depuis le milieu de 19e siècle.
APA, Harvard, Vancouver, ISO, and other styles
7

Gaultier, M. "Une base de données en anthropologie adaptée pour l'archéologie préventive. Usages, enjeux et limites au service de l'archéologie du département d'Indre-et-Loire (Sadil)." Bulletins et Mémoires de la Société d'Anthropologie de Paris 29, no. 3-4 (March 17, 2017): 159–64. http://dx.doi.org/10.1007/s13219-017-0179-8.

Full text
Abstract:
Les pratiques professionnelles en archéologie préventive liées aux contraintes de temps imposées à la réalisation des recherches sur le terrain ou lors de la phase d'étude, ainsi que la normalisation toujours plus aboutie des rapports d'opérations, favorisent l'émergence et le développement d'outils informatiques aptes à seconder archéologues et anthropologues au quotidien. Pour la gestion de séries importantes de données issues de l'étude de nécropoles ou cimetières, la création et le développement d'une base de données s'avèrent ainsi indispensables tant pour le stockage des données brutes que pour leur manipulation : tri, comparaison, analyse. L'outil informatique permet également d'automatiser certaines tâches et de normaliser la présentation des données. Cette note présente l'expérience du service de l'archéologie du département d'Indre-et-Loire en la matière.
APA, Harvard, Vancouver, ISO, and other styles
8

Mbaye, Moussa, Elhadji Faye, Mamoudou Abdoul Toure, and Awa Ba. "Identification des caractéristiques techniques des systèmes de culture et de stockage d’oignon (<i>Allium cepa</i> L.) de la vallée du fleuve Sénégal." International Journal of Biological and Chemical Sciences 17, no. 5 (October 29, 2023): 1832–48. http://dx.doi.org/10.4314/ijbcs.v17i5.5.

Full text
Abstract:
La performance des systèmes de culture et de stockage influe fortement sur la qualité de la récolte. L’objectif de cette étude était de produire des données actualisées sur l’état des systèmes de culture d’oignon et son stockage dans la vallée du fleuve Sénégal. La collecte des données a été faite à travers des enquêtes qualitatives auprès de 400 producteurs et de 22 acteurs techniques de la filière. Un questionnaire semi-structuré et un guide d’entretien ont permis de collecter les données. La moyenne et la fréquence ont été utilisées pour les analyses statistiques sur Sphinx v.5. Les résultats ont montré que les techniques de culture demeurent manuelles avec un système d’irrigation gravitaire. Les engrais avec moins de 1 t.ha-1 et les pesticides chimiques à raison de 8 l.ha-1 étaient utilisés, respectivement, dans la fumure des sols et la gestion des ravageurs. En moyenne, les emblavures étaient de 0,99 ha par exploitant et par saison avec un rendement de 14,45 t.ha-1. Le stockage s’était fait dans des hangars qui ne permettaient pas de conserver l’oignon à plus de 2 mois. Les effets de la matière organique sur la qualité et la durée de stockage de l’oignon pourraient être explorés pour l’amélioration de la filière. Performance of growing and storage system impacts highly on harvest quality. The objective of this study was to produce updated data about status of onion growing system and its storage in Senegal river valley. Data collection has been done through qualitative investigation next to 400 producers and 22 technical actors of the path. A semi structured survey and an interview guide allowed to collect data. Mean and frequency have been used for statistical analysis on Sphinx v.5. Results showed that growing technics stay essentially manual with gravitary irrigation system. Fertilizers with less than 1 t.ha-1 and chemical pesticides at 8 l.ha-1 were used, respectively, for soil fertilization and pests management. In mean, cropped lands are 0,99 ha per user and per season with a yield of 14,45 t.ha-1. Storage was performed under sheds which did not allow to store onion over 2 months. Effects of organic matter on quality and storage duration of onion could be explored for the path improvement.
APA, Harvard, Vancouver, ISO, and other styles
9

Jouini, Khaled, and Geneviève Jomier. "Modèles de stockage orientés interrogation pour bases de données temporelles." Ingénierie des systèmes d'information 15, no. 1 (February 28, 2010): 61–85. http://dx.doi.org/10.3166/isi.15.1.61-85.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Brun-Trigaud, Guylaine, Clément Chagnaud, Maeva Seffar, and Jordan Drapeau. "Présentation du projet ANR ECLATS." Les atlas linguistiques galloromans à l'heure numérique : projets et enjeux, no. 35 (October 1, 2020): 71–84. http://dx.doi.org/10.54563/bdba.441.

Full text
Abstract:
L'ANR ECLATS est un projet transdisciplinaire qui réunit des équipes de géomaticiens, d'informaticiens et de dialectologues autour de la conception d'un outillage logiciel et méthodologique afin de faciliter l'extraction, l'analyse, la visualisation et la diffusion des données contenues dans l'Atlas Linguistique de la France. Chaque objectif donnera lieu à une application en cours de développement : 1) l’extraction de contenus des cartes s'effectue par vectorisation et permettra l'annotation 2) le stockage des cartes numérisées sont mises à disposition dans le site CartoDialect, 3) l'application ShinyDialect facilite la visualisation des données linguistiques, 4) ShinyClass permet la production de cartes interprétatives, enfin 5) DialectoLOD fera la promotion d'une démarche collaborative.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Stockage des données"

1

Jemel, Mayssa. "Stockage des données locales : sécurité et disponibilité." Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0053.

Full text
Abstract:
Le progrès technologique offre désormais de plus en plus aux utilisateurs divers équipements connectés et intelligents. En conséquence, la gestion des données entre ces équipements a fait l’objet d’ un nombre croissant d’études. Les applications déjà proposées sont principalement basées sur des solutions propriétaires dites solutions privées ou fermées. Toutefois, cette stratégie a toujours montré ses insuffisances en termes de problèmes de sécurité, de coût, de simplicité pour les développeurs et de transparence des solutions. Migrant vers des solutions standardisées, HTML5 propose de nouvelles fonctionnalités pour répondre aux exigences des entreprises et des utilisateurs. L’objectif principal est de mettre à la disposition des développeurs web un langage simple pour la mise en œuvre des applications concurrentes à moindre coût. Ces applications ne sont pas liées ni aux dispositifs utilisés ni aux logiciels installés. Trois contributions font l’objet de nos travaux. Dans la première partie, nous proposons un Coffre Fort Client basé sur les APIs HTML5 de stockage. Tout d’abord, nous commençons par le renforcement de la sécurité de ces API pour fournir une base sécurisée à notre Coffre Fort Client. Dans la deuxième contribution, nous proposons un protocole de synchronisation appelé SyncDS qui est caractérisé par son efficacité avec une consommation minimale des ressources. Nous traitons enfin les problèmes de sécurité, et nous nous concentrons principalement sur le contrôle d’accès dans le cas de partage des données tout en respectant les exigences des Coffres Forts
Due to technological advancements, people are constantly manipulating multiple connected and smart devices in their daily lives. Cross-device data management, therefore, remains the concern of several academic and industrial studies. The proposed frameworks are mainly based on proprietary solutions called private or closed solutions. This strategy has shown its deficiency on security issues, cost, developer support and customization. In recent years, however, the Web has faced a revolution in developing standardized solutions triggered by the significant improvements of HTML5. With this new version, innovative features and APIs are introduced to follow business and user requirements. The main purpose is to provide the web developer with a vendor-neutral language that enables the implementation of competing application with lower cost. These applications are related neither to the used devices nor to the installed software. The main motivation of this PhD thesis is to migrate towards the adoption of standardized solutions to ensure secure and reliable cross-device data management in both the client and server side. There is already a proposed standardized Cloud Digital Safe on the server side storage that follows the AFNOR specification while there is no standardized solution yet on the client-side. This thesis is focused on two main areas : 1) the proposal of a standardized Client Digital Safe where user data are stored locally and 2) the synchronization of these data between the Client and the Cloud Digital Safe and between the different user devices. We contribute in this research area in three ways. First, we propose a Client Digital Safe based on HTML5 Local Storage APIs. We start by strengthening the security of these APIs to be used by our Client Digital Safe. Second, we propose an efficient synchronization protocol called SyncDS with minimum resource consumption that ensures the synchronization of user data between the Client and the Cloud Digital Safe. Finally, we address security concerns, in particular, the access control on data sharing following the Digital Safe requirements
APA, Harvard, Vancouver, ISO, and other styles
2

Bouabache, Fatiha. "Stockage fiable des données dans les grilles, application au stockage des images de checkpoint." Paris 11, 2010. http://www.theses.fr/2010PA112329.

Full text
Abstract:
Les techniques de tolérance aux fautes basées sur les points de reprise s'appuient principalement sur la fiabilité du stockage des images de checkpoint. Dans le cas où ces images ne seraient pas disponibles, le redémarrage du système échoue. L'objectif de cette thèse est de proposer des solutions qui garantissent le stockage fiable et efficace des données en général et des images de checkpoint en particulier. Par fiable, nous voulons dire quelque soit le scénario de pannes qui se produit, du moment qu'il respecte les hypothèses faites par les algorithmes, les images restent accessibles. Et nous entendons par efficace, minimiser le temps nécessaire au stockage des images et donc le temps de transfert. Ceci permettra de réduire le temps d'exécution global des vagues de checkpoint. Pour garantir ces deux points, nous proposons : 1. Un protocole de checkpoint coordonné qui exploite la localisation des images de checkpoint afin de réduire au maximum les communications inter-cluster ; 2. Un service de stockage distribué et structuré en une architecture à trois couches : a) La couche réplication : afin de garantir la fiabilité des données stockées, nous proposons de répliquer les différentes images sur un certain nombre de serveur. Dans cette direction, nous avons proposé deux techniques de réplication hiérarchique adaptées à l'architecture considérée. B) La couche planification : à ce niveau, nous avons travaillé sur l'efficacité du stockage en réduisant le temps de transfert des données sur le réseau. Pour cela, nous proposons d'ordonnancer les transferts au niveau des sources. C) L'outil d'ordonnancement, implémentant le plan de transfert tel que calculé par la couche supérieure
Rollback/recovery solutions rely on checkpoint storage reliability (after a failure, if the checkpoint images are not available, the rollback operation fails). The goal of this thesis is to propose a reliable and an efficient checkpoint storage service. By reliable, we mean that whatever the scenario of failures is, as long as it respects the assumptions made by the algorithms, the checkpoint images are still available. And we mean by efficient, minimizing the time required to transfer and to store the checkpoint images. This will minimize the global execution time of the checkpoint waves. To ensure those two points (reliability and efficiency), we propose: 1. A new coordinated checkpoint protocol which tolerates checkpoint server failures and clusters failures, and ensures a checkpoint storage reliability in a grid environment; 2. A distributed storage service structured on three layers architecture: a) The replication layer: to ensure the checkpoint storage reliability, we propose to replicate the images over the network. Ln this direction, we propose two hierarchical replication strategies adapted to the considered architecture and that exploit the locality of checkpoint images in order to minimize inter-cluster communication. B) The scheduling layer: at this level we work on the storage efficiency by reducing the data transfer time. We propose an algorithm based on the uniform random sampling of possible schedules. C) The scheduling engine: at this layer, we develop a tool that implements the scheduling plan calculated in the scheduling layer
APA, Harvard, Vancouver, ISO, and other styles
3

Devigne, Julien. "Protocoles de re-chiffrement pour le stockage de données." Caen, 2013. http://www.theses.fr/2013CAEN2032.

Full text
Abstract:
La protection de la vie privée est un des enjeux majeurs de la société moderne dans laquelle Internet est omnipotent. Dans cette thèse, nous étudions des techniques permettant de réaliser un stockage dématérialisé qui préserve la confidentialité des informations. Nous nous intéressons ainsi à protéger les données stockées tout en permettant à leur propriétaire de les partager avec les personnes de son choix. Le serveur de re-chiffrement, une des primitives proposées par la cryptographie, est la solution que nous décidons de retenir. Tout d'abord, nous donnons une définition d'un système de serveur de re-chiffrement qui regroupe tous les modèles classiques existants. Nous décrivons également les caractéristiques habituelles que peut présenter cette primitive ainsi que son modèle de sécurité. Ensuite, nous nous concentrons plus particulièrement sur certains schémas spécifiques afin d'en améliorer la sécurité. Nous présentons pour cela une méthode qui transforme un schéma sûr contre une attaque à chiffré choisi rejouable en un schéma sûr contre une attaque à chiffré choisi. Nous étudions aussi les schémas fondés sur le chiffrement Hash ElGamal et proposons d'y apporter des modifications afin qu'ils atteignent une meilleure sécurité. Pour terminer et dans le but d'obtenir le stockage le plus fonctionnel possible, nous proposons deux nouveaux modèles. Le premier, que nous appelons serveur de re-chiffrement combiné, permet d'obtenir une gestion dynamique des droits d'accès. Le second, que nous appelons serveur de re-chiffrement sélectif, permet d'obtenir une gestion des droits d'accès plus fine que celle offerte par le serveur de re-chiffrement conditionnel
Privacy is one of the main issues of our modern day society in which the Internet is omnipotent. In this thesis, we study some technics allowing to realise a privacy-preserving cloud storage. In this way, we focus to protect stored data while allowing their owner to share them with people of his choice. Proxy re-encryption, one of the primitives offered by cryptography, is the solution we decide to consider. First, we give a definition of a proxy re-encryption system unifying all existing conventional models. We also describe usual characteristics that this primitive may present and we provide its security model. Then, we focus more precisely on some specific schemes in order to improve their security. In this meaning, we expose a method which turns a scheme secure against a replayable chosen ciphertext attack into a secure scheme against a chosen ciphertext attack. We study schemes based on the Hash ElGamal encryption too and propose some modifications in order to reach a better security. Finally and in order to obtain the most functional cloud storage, we propose two new models. The first one, that we call combined proxy re-encryption, offers dynamic right access. The second one, that we call selective proxy re-encryption, enables a more fine-grained access right control than the one offered by the conditional proxy re-encryption
APA, Harvard, Vancouver, ISO, and other styles
4

Khelil, Amar. "Elaboration d'un système de stockage et exploitation de données pluviométriques." Lyon, INSA, 1985. http://www.theses.fr/1985ISAL0034.

Full text
Abstract:
Du point de vue hydrologique, l'agglomération lyonnaise peut être caractérisée comme un bassin versant d'une surface de 600 km2 drainé par quelque deux mille kilomètres de canalisations. Pour assurer la gestion et l’ extension d'un tel réseau, des outils informatiques ont été conçus au Laboratoire Méthodes de l'INSA de Lyon en collaboration avec le Service Assainissement de la COURLY et la société d'informatique communale ICARE, notamment le logiciel SERAIL, qui permet une simulation généralisée du fonctionnement du réseau lyonnais. Or, un des points faibles du système consiste en une connaissance insuffisamment précise des phénomènes pluvieux d'origine convective lesquels sont le plus susceptibles de provoquer des dysfonctionnements du réseau. Il a ainsi été décidé d'implanter, dès 1983, un réseau de 30 pluviomètres enregistreurs sur le territoire communautaire, avec l'appui financier du Plan Urbain et de l'Agence Financière de Bassin Rhône-Méditerranée-Corse. Le mémoire présente le travail effectué sur cette expérimentation suivant trois étapes principales : 1) implantation du réseau et ses caractéristiques ; 2) élaboration d'un système de dépouillement et d'archivage des données ; 3) élaboration d'un système de traitement des données. L'aspect le plus original du travail concerne le traitement des données. Un ensemble de logiciels permet d'exhiber et d’étudier tout séquence pluvieuse reconnue intéressante par l'hydrologue urbain. Deux objectifs ont été poursuivis : 1) obtenir une meilleure perception (intuition) des phénomènes considérés (aspect représentation brute des mesures) ; 2) construire des outils de modélisation des phénomènes. Ce deuxième objectif a nécessité une réflexion pour déterminer notamment la pertinence des modèles proposés ou leur limite de validité, réflexion qui a débouché sur l'élaboration de logiciels supplémentaires de vérifications et comparaisons des modèles utilisés (numériques ou graphiques). Un exemple complet des traitements, pour une pluie choisie, est donné, ainsi que le type de conclusions auxquelles ils permettent de parvenir
The Lyon District Urban Area (CO. UR. LY. ) may be explained from an hydrological point of view as a 600 km2 area equipped with a sewerage system estimated by 2 000 km of pipes. Due to the complexity of the sewerage network of the area, it must therefore be controlled by an accurate and reliable system of calculation to avoid any negative consequences of its function. The capacity of the present computerising system SERAIL, allows an overall simulation of the functioning of drainage / sewerage system. This model requires an accurate information of the rainfall rate which was not previously available. Therefore a 30 rain gages network (with cassette in sit recording) was set up within the Urban District Area in 1983. This research however introduces the experiment of three steps: 1) to install the network; 2) to build up a data checking and storage system; 3) to analyse the data. The characteristic nature of this work deals with the data analysis system. It allows to extract easily and analyse any rainfall event important to the hydrologist. Two aims were defined: 1) to get a better understanding of the phenomena (punctual representations ); 2) to build up models. In order to achieve the second aim, it was necessary to think about the fitting of the propounded models and their limits which led to the setting up of several other programmes for checking and comparison. For example a complete analysis of a rainfall event is given with comments and conclusion
APA, Harvard, Vancouver, ISO, and other styles
5

Jule, Alan. "Etude des codes en graphes pour le stockage de données." Thesis, Cergy-Pontoise, 2014. http://www.theses.fr/2014CERG0739.

Full text
Abstract:
Depuis deux décennies, la révolution technologique est avant tout numérique entrainant une forte croissance de la quantité de données à stocker. Le rythme de cette croissance est trop importante pour les solutions de stockage matérielles, provoquant une augmentation du coût de l'octet. Il est donc nécessaire d'apporter une amélioration des solutions de stockage ce qui passera par une augmentation de la taille des réseaux et par la diminution des copies de sauvegarde dans les centres de stockage de données. L'objet de cette thèse est d'étudier l'utilisation des codes en graphe dans les réseaux de stockage de donnée. Nous proposons un nouvel algorithme combinant construction de codes en graphe et allocation des noeuds de ce code sur le réseau. Cet algorithme permet d'atteindre les hautes performances des codes MDS en termes de rapport entre le nombre de disques de parité et le nombre de défaillances simultanées pouvant être corrigées sans pertes (noté R). Il bénéficie également des propriétés de faible complexité des codes en graphe pour l'encodage et la reconstruction des données. De plus, nous présentons une étude des codes LDPC Spatiallement-Couplés permettant d'anticiper le comportement de leur décodage pour les applications de stockage de données.Il est généralement nécessaire de faire des compromis entre différents paramètres lors du choix du code correcteur d'effacement. Afin que ce choix se fasse avec un maximum de connaissances, nous avons réalisé deux études théoriques comparatives pour compléter l'état de l'art. La première étude s'intéresse à la complexité de la mise à jour des données dans un réseau dynamique établi et déterminons si les codes linéaires utilisés ont une complexité de mise à jour optimale. Dans notre seconde étude, nous nous sommes intéressés à l'impact sur la charge du réseau de la modification des paramètres du code correcteur utilisé. Cette opération peut être réalisée lors d'un changement du statut du fichier (passage d'un caractère hot à cold par exemple) ou lors de la modification de la taille du réseau. L'ensemble de ces études, associé au nouvel algorithme de construction et d'allocation des codes en graphe, pourrait mener à la construction de réseaux de stockage dynamiques, flexibles avec des algorithmes d'encodage et de décodage peu complexes
For two decades, the numerical revolution has been amplified. The spread of digital solutions associated with the improvement of the quality of these products tends to create a growth of the amount of data stored. The cost per Byte reveals that the evolution of hardware storage solutions cannot follow this expansion. Therefore, data storage solutions need deep improvement. This is feasible by increasing the storage network size and by reducing data duplication in the data center. In this thesis, we introduce a new algorithm that combines sparse graph code construction and node allocation. This algorithm may achieve the highest performance of MDS codes in terms of the ratio R between the number of parity disks and the number of failures that can be simultaneously reconstructed. In addition, encoding and decoding with sparse graph codes helps lower the complexity. By this algorithm, we allow to generalize coding in the data center, in order to reduce the amount of copies of original data. We also study Spatially-Coupled LDPC (SC-LDPC) codes which are known to have optimal asymptotic performance over the binary erasure channel, to anticipate the behavior of these codes decoding for distributed storage applications. It is usually necessary to compromise between different parameters for a distributed storage system. To complete the state of the art, we include two theoretical studies. The first study deals with the computation complexity of data update and we determine whether linear code used for data storage are update efficient or not. In the second study, we examine the impact on the network load when the code parameters are changed. This can be done when the file status changes (from a hot status to a cold status for example) or when the size of the network is modified by adding disks. All these studies, combined with the new algorithm for sparse graph codes, could lead to the construction of new flexible and dynamical networks with low encoding and decoding complexities
APA, Harvard, Vancouver, ISO, and other styles
6

Obame, Meye Pierre. "Sûreté de fonctionnement dans le nuage de stockage." Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S091/document.

Full text
Abstract:
La quantité de données stockées dans le monde ne cesse de croître et cela pose des challenges aux fournisseurs de service de stockage qui doivent trouver des moyens de faire face à cette croissance de manière scalable, efficace, tout en optimisant les coûts. Nous nous sommes intéressés aux systèmes de stockage de données dans le nuage qui est une grande tendance dans les solutions de stockage de données. L'International Data Corporation (IDC) prédit notamment que d'ici 2020, environ 40% des données seront stockées et traitées dans le nuage. Cette thèse adresse les challenges liés aux performances d'accès aux données et à la sûreté de fonctionnement dans les systèmes de stockage dans le nuage. Nous avons proposé Mistore, un système de stockage distribué que nous avons conçu pour assurer la disponibilité des données, leur durabilité, ainsi que de faibles latences d'accès aux données en exploitant des zones de stockage dans les box, les Points de Présence (POP), et les centre de données dans une infrastructure Digital Subscriber Line (xDSL) d'un Fournisseur d'Accès à Internet (FAI). Dans Mistore, nous adressons aussi les problèmes de cohérence de données en fournissant plusieurs critères de cohérence des données ainsi qu'un système de versioning. Nous nous sommes aussi intéressés à la sécurité des données dans le contexte de systèmes de stockage appliquant une déduplication des données, qui est l'une des technologies les plus prometteuses pour réduire les coût de stockage et de bande passante réseau. Nous avons conçu une méthode de déduplication en deux phases qui est sécurisée contre des attaques d'utilisateurs malicieux tout en étant efficace en termes d'économie de bande passante réseau et d'espace de stockage
The quantity of data in the world is steadily increasing bringing challenges to storage system providers to find ways to handle data efficiently in term of dependability and in a cost-effectively manner. We have been interested in cloud storage which is a growing trend in data storage solution. For instance, the International Data Corporation (IDC) predicts that by 2020, nearly 40% of the data in the world will be stored or processed in a cloud. This thesis addressed challenges around data access latency and dependability in cloud storage. We proposed Mistore, a distributed storage system that we designed to ensure data availability, durability, low access latency by leveraging the Digital Subscriber Line (xDSL) infrastructure of an Internet Service Provider (ISP). Mistore uses the available storage resources of a large number of home gateways and Points of Presence for content storage and caching facilities. Mistore also targets data consistency by providing multiple types of consistency criteria on content and a versioning system. We also considered the data security and confidentiality in the context of storage systems applying data deduplication which is becoming one of the most popular data technologies to reduce the storage cost and we design a two-phase data deduplication that is secure against malicious clients while remaining efficient in terms of network bandwidth and storage space savings
APA, Harvard, Vancouver, ISO, and other styles
7

Secret, Ghislain. "La maintenance des données dans les systèmes de stockage pair à pair." Amiens, 2009. http://www.theses.fr/2009AMIE0111.

Full text
Abstract:
Les systèmes P2P sont conçus pour partager des ressources sur internet. L’indépendance de l’architecture par rapport à un serveur centralisé confère à ces systèmes une très grande résistance aux pannes. Cette propriété rend l’utilisation de cette architecture tout à fait adaptée au stockage pérenne de données, à grande échelle. Cependant un système P2P est caractérisé par la volatilité des pairs qui le composent. Le challenge est d’assurer la pérennité des données dans un environnement de supports de stockage en continuelle mutation. Pour cela, les systèmes de stockage P2P introduisent des schémas de redondance couplés à des mécanismes de régénération des données perdues. Mais les reconstructions nécessaires au maintien de la pérennité des données ne sont pas neutres en termes de charge pour le système. Pour étudier les facteurs qui impactent le plus le coût de maintenance des données, un modèle de système de stockage P2P a été conçu. Ce modèle repose sur un schéma de redondance de type IDA (Information Dispersal Algorithm). Sur la base de ce modèle, un simulateur a été élaboré et le comportement du système vis à vis des coûts de la régénération des données a été analysé. Deux stratégies de reconstruction sont observées. La première repose sur un mécanisme de seuil par rapport au niveau de redondance des données. Elle nécessite un contrôle permanent de l’état des données. La seconde encadre simplement le nombre des reconstructions par un système de quota alloué pour une période de temps donnée. Sur la base d’une analyse stochastique des stratégies, des clés sont proposées pour définir les paramètres du système en fonction du niveau de pérennité visé
Peer to peer systems are designed to share resources on the Internet. The independence of the architecture from a centralized server provides the peer-to-peer networks a very high fault tolerance (no peer is essential to the functioning of the network). This property makes the use of this architecture very suitable for permanent storage of data on a large scale. However, peer to peer systems are characterised by peer’s volatility. Peers connect and disconnect randomly. The challenge is to ensure the continuity of data in a storage media constantly changing. For this, to cope with peer’s volatility, data redundancy schemes coupled with reconstruction mechanism of lost data are introduced. But the reconstructions needed to maintain the continuity of data are not neutral in terms of burden on the system. To investigate factors that impact the higher the data maintenance cost, a model of peer to peer storage system was designed. This model is based on an IDA (Information Dispersal Algorithm) redundancy scheme. Built on this model, a simulator was developed and the system behaviour for the cost of regeneration of the data was analyzed. Two reconstruction strategies are observed. The first mechanism is based on a threshold from the level of data redundancy. It requires constant monitoring of the state data. The second strategy involves a number of reconstructions by a system of quota allocation for a defined period of time. It is less comfortable psychologically because it significantly reduces the control of the data state by abstracting the threshold mechanism. Based on a stochastic analysis of the strategies, keys are provided to define the parameters of the system according to the target level of durability desired
APA, Harvard, Vancouver, ISO, and other styles
8

Kiefer, Renaud. "Etude et conception d'un système de stockage et d'adressage photonique de données." Université Louis Pasteur (Strasbourg) (1971-2008), 2002. http://www.theses.fr/2002STR13199.

Full text
Abstract:
L'accélération des cadences des processeurs, l'évolution du multimédia et des applications de l'Internet ont créé une demande croissante de solutions de stockage de données. Encouragée par les progrès technologiques rapides de ces dix dernières années, cette demande s'est accrue de façon exponentielle. Même si la technologie DVD satisfait actuellement aux exigences en matière de stockage (dizaines de bits par æm2), de nouvelles applications comme l'imagerie 3D, les grandes bases de données nécessitent le développement de nouvelles technologies. L'objectif de cette thèse a été d'étudier et de concevoir un système de stockage et d'adressage de données à base de mémoires holographiques. Celles-ci possèdent en effet d'énormes possibilités de stockage volumique des données (quelques centaines de bits par æm3 ). Le système développé permet d'adresser en un temps voisin de la milliseconde, une information quelconque stockée sur la mémoire diffractive. L'analyse des mémoires à base de gélatine bichromatée a permis de déterminer leur domaine d'utilisation et de poser les contraintes du système d'adressage. L'originalité de ce travail a consisté à associer des MEMS (micro-miroirs intégrés) et une cellule acousto-optique. Nous avons mesuré les déformations des MEMS afin d'évaluer leur influence sur la lecture des informations enregistrées dans la mémoire diffractive. Les résultats expérimentaux obtenus ont montré la possibilité d'obtenir des débits d'adressage de l'ordre de 100 Gbits/s ; les limitations du système de lecture sont liées aux faibles fréquences d'oscillation des MEMS et surtout aux faibles cadences d'acquisition des caméras CCD utilisées. L'utilisation de caméra rapide permettra d'augmenter les débits de lectures
The increase in the speed of microprocessors, the evolution of multimedia and of the Internet has created a growing need of data storage solutions. Encouraged by the rapid technological progress over the past decade, this need has grown exponentially. Even if DVD technology satisfies the present data storage demand (about 10 bit/æmø), certain new applications such as 3D imaging and huge data bases need the development of new technology. The objective of this thesis has been to study and conceive a data storage and addressing system based on holographic memories. This kind of memory shows interesting possibilities for massive volume data storage (about 100 bit/æm3). The system allows a rapid access time (ms), on a large angular bandwidth, at any informations stored on the diffractive memory. Analysis of optical memories based on dichromated gelatin has allowed the determination of their domain of use and set the constrains of the addressing system. The originality of the work has been to associate MEMS (integrated micro mirrors) and an acousto-optic cell. We have measured the deformation of the MEMS to evaluate the influence on the reading of the information stored in diffractive memories. Experimental results show the possibility of obtaining an address rate of 100Gbits/s. The reading system limitations are due to the low oscillating frequency of the MEMS and principally to the low acquisition rate of the CCD camera. The use of high speed cameras will allow to increase the readout rate
APA, Harvard, Vancouver, ISO, and other styles
9

Barrabe, Patrice. "Acquisition et transmission optique de données." Grenoble 1, 1990. http://www.theses.fr/1990GRE10121.

Full text
Abstract:
Cette etude porte sur l'acquisition multisources et la transmission a haut debit (10 moctets/sec) de donnees numeriques, dans les domaines industriels et scientifiques. Les applications plus particulierement visees, sont celles qui presentent simultanement des contraintes d'immunite electromagnetique, de dispersion geographique (quelques centaines de metres), et de fonctionnement temps reel. Nous proposons une solution basee sur le choix de technologies performantes mais standards (fibres optiques multimodes et logique ttl rapide), afin d'optimiser les couts de fabrication. Le principe est d'implanter au niveau de chaque source des unites entierement logiques, destinees a la preparation et a la transmission des donnees. Ces unites sont reliees entre elles et a une station centrale, par un bus optique synchrone relaye en chaque point de connexion (structure daisy chain. Grace a une bonne maitrise des technologies, le travail presente permettra d'aboutir a un reseau d'acquisition rapide et fiable, ne necessitant que peu de developpement logiciel
APA, Harvard, Vancouver, ISO, and other styles
10

Barkat, Okba. "Utilisation conjointe des ontologies et du contexte pour la conception des systèmes de stockage de données." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2017. http://www.theses.fr/2017ESMA0001/document.

Full text
Abstract:
Nous assistons à une époque où toute entreprise (ou organisme), dans le but d’augmenter son pou- voir décisionnel, est fortement intéressée par la collecte et l’analyse des données provenant de multiples sources hétérogènes et variées. Ces sources présentent également une autre spécificité à savoir la sensibilité au contexte. Cette situation nous met face à un enjeu scientifique crucial, du fait qu’elle réunit trois problématiques complémentaires : (i) la résolution de l’hétérogénéité qui peut exister entre les sources,(ii) la construction d’un système d’intégration décisionnel, et (iii) la prise en compte du contexte dans cette intégration. Afin de répondre à ces problématiques, nous nous intéressons dans cette thèse à la conception des applications contextuelles basées sur une ontologie de domaine, supposée existante. Pour ce faire, nous proposons d’abord un modèle de contexte qui intègre les dimensions principales identifiées dans la littérature. Une fois construit, il est lié au modèle de l’ontologie. Cette façon de procéder augmente la flexibilité dans la conception des applications avancées. Ensuite, nous proposons deux cas d’étude : (1) la contextualisation de sources de données sémantiques où nous étendons le système On- toBD/OntoQL afin qu’il prenne en compte le contexte, et (2) la conception d’un entrepôt de données contextuel où le modèle de contexte est projeté sur les différentes phases de conception du cycle de vie. Afin de valider notre proposition, nous présentons un prototype d’outil d’aide à la conception implémentant les différentes étapes de l’approche de conception proposée
We are witnessing an era when any company is strongly interested in collecting and analyzing data from heterogeneous and varied sources. These sources also have another specificity, namely con- text awareness. Three complementary problems are identified: the resolution of the heterogeneity of the sources, (ii) the construction of a decisional integrating system, and (iii) taking into account the context in this integration. To solve these problems, we are interested in this thesis in the design of contextual applications based on a domain ontology.To do this, we first propose a context model that integrates the main dimensions identified in the literature. Once built, it is linked to the ontology model. This approach increases flexibility in the design of advanced applications. Then, we propose two case studies: (1) the contextualization of semantic data sources where we extend the OntoBD/OntoQL system to take the context into account, and (2) the design of a contextual data warehouse where the context model is projected on the different phases of the life cycle design. To validate our proposal, we present a tool implementing the different phases of the proposed design approach
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Stockage des données"

1

Building storage networks. Berkeley: Osborne/McGraw-Hill, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Farley, Marc. Building storage networks. 2nd ed. New York: Osborne/McGraw-Hill, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Building Storage Networks. New York: McGraw-Hill, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Pierre-Antoine, Taufour, ed. La Technologie multimédia. 2nd ed. Paris: Hermès, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Pierre-Antoine, Taufour, ed. La Technologie multimédia. Paris: Hermès, 1993.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

NATO Advanced Study Institute on Picture Archiving and Communication Systems (PACS) in Medicine (1990 Evian-les-Bains, France). Picture archiving and communication systems (PACS). Berlin: Springer-Verlag, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Logiciels de stockage de données. Vuibert, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Kimball, Ralph. Data Warehouse Toolkit: The Complete Guide to Dimensional Modeling. Wiley & Sons, Incorporated, John, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Kimball, Ralph. The Data Warehouse Toolkit: The Complete Guide to Dimensional Modeling (Second Edition). Wiley, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Kimball, Ralph. Data Warehouse Toolkit: The Definitive Guide to Dimensional Modeling. Wiley & Sons, Incorporated, John, 2013.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Stockage des données"

1

PUTEAUX, Pauline, and William PUECH. "Insertion de données cachées dans le domaine chiffré." In Sécurité multimédia 2, 233–77. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9027.ch7.

Full text
Abstract:
Avec le développement de l'informatique en nuage, de nombreux utilisateurs téléchargent leurs données multimédia sur des serveurs distants. Pour assurer leur sécurité, ces données sont généralement chiffrées avant leur transmission et leur stockage. Dans ce chapitre, nous nous intéressons à la problématique du traitement de ces données multimédia chiffrées, et plus particulièrement à l'insertion de données cachées dans le domaine chiffré.
APA, Harvard, Vancouver, ISO, and other styles
2

POUYLLAU, Stéphane. "Nakala : service de publication de données." In Partage et valorisation des données de la recherche, 107–26. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9073.ch6.

Full text
Abstract:
Depuis 2013, la très grande infrastructure de recherche (TGIR) Huma-Num offre à la communauté des sciences humaines et sociales (SHS) un service de publication de données, baptisé Nakala. Fondé sur un socle commun, permettant le stockage et l’organisation des fichiers, Nakala s’articule avec des outils d’éditorialisation modulables, donnant la possibilité à chaque projet de recherche de créer sa propre interface web d’accès aux données. En quoi ce dispositif particulier répond aux attentes de la communauté des SHS en France et comment il s’adapte aux politiques d’ouverture des données de la recherche ?
APA, Harvard, Vancouver, ISO, and other styles
3

N’TSOUKPOE, Kokouvi Edem. "Matériaux pour le stockage thermochimique et par sorption." In Stockage de la chaleur et du froid 2, 5–97. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9134.ch1.

Full text
Abstract:
Le stockage thermique par sorption ou par voie thermochimique utilise des phénomènes mettant en jeu un gaz en contact avec un matériau liquide, solide ou gazeux. Après une introduction du principe de stockage thermique sous forme de potentiel chimique et des caractéristiques des matériaux susceptibles d’y convenir, ce chapitre donne un aperçu des matériaux les plus utilisés dans ce domaine.
APA, Harvard, Vancouver, ISO, and other styles
4

LAZARO, Ana, and Erwin FRANQUET. "Stockage latent : bases fondamentales et matériaux usuels." In Stockage de la chaleur et du froid 1, 53–75. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9133.ch4.

Full text
Abstract:
Ce chapitre permet d’avoir une vision claire de l’offre existante des différents matériaux à changement de phase. Il propose d’abord une classification de ces matériaux en les distinguant selon leur nature chimique : organique ou non organique, ainsi qu’une classification selon les caractéristiques souhaitées pour une application particulière. Un aperçu des matériaux à changement de phase disponibles dans le commerce est proposé avant de donner des informations sur la manière de mener l’évaluation technico économique d’un projet industriel incluant de tels matériaux.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Stockage des données"

1

Guidati, Gianfranco, and Domenico Giardini. Synthèse conjointe «Géothermie» du PNR «Energie». Swiss National Science Foundation (SNSF), February 2020. http://dx.doi.org/10.46446/publication_pnr70_pnr71.2020.4.fr.

Full text
Abstract:
La géothermie de faible profondeur avec des pompes à chaleur correspond à l’état actuel de la technique et est déjà largement répandue en Suisse. Au sein du futur système énergétique, la géothermie de moyenne à grande profondeur (1 à 6 km) devrait également jouer un rôle important, notamment en matière de fourniture de chaleur pour les bâtiments et les process industriels. Cette forme d’utilisation de la chaleur géothermique nécessite un sous-sol bien perméable, permettant à un fluide – généralement de l’eau – d’engranger la chaleur naturellement présente dans la roche et de la transporter jusqu’à la surface. Dans les roches sédimentaires, cette condition est généralement vérifiée du fait de la structure naturelle, tandis que dans les granites et les gneiss la perméabilité doit être générée artificiellement par injection d’eau. La chaleur ainsi récupérée augmente au fur et à mesure de la profondeur de forage : la température souterraine atteint environ 40°C à 1 km de profondeur et environ 100°C à 3 km de profondeur. Pour entraîner une turbine à vapeur en vue de produire de l’électricité, des températures supérieures à 100°C sont nécessaires. Étant donné que cela implique de forer à des profondeurs de 3 à 6 km, le risque de sismicité induite augmente en conséquence. Le sous-sol peut également servir à stocker de la chaleur ou des gaz, par exemple de l’hydrogène ou du méthane, ou encore à enfouir de façon permanente du CO2. À cet effet, les mêmes exigences que pour l’extraction de chaleur doivent être vérifiées et le réservoir doit en outre être surmonté d’une couche étanche, empêchant le gaz de s’échapper. Le projet conjoint « Énergie hydroélectrique et géothermique » du PNR « Énergie » était avant tout consacré à la question de savoir où en Suisse trouver des couches de sol appropriées, répondant de manière optimale aux exigences des différentes utilisations. Un deuxième grand axe de recherche concernait les mesures visant à réduire la sismicité induite par les forages profonds et les dommages aux structures qui en résultent. Par ailleurs, des modèles et des simulations ont été élaborés dans le but de mieux comprendre les processus souterrains qui interviennent dans la mise en œuvre et l’exploitation des ressources géothermiques. En résumé, les résultats de recherche montrent que la Suisse jouit de bonnes conditions pour l’utilisation de la géothermie de moyenne profondeur (1-3 km), tant pour le parc de bâtiments que pour les processus industriels. L’optimisme est également de mise en ce qui concerne le stockage saisonnier de chaleur et de gaz. Le potentiel de stockage définitif de CO2 dans des quantités pertinentes s’avère en revanche plutôt limité. Concernant la production d’électricité à partir de la chaleur issue de la géothermie profonde (> 3 km), il n’existe pas encore de certitude définitive quant à l’importance du potentiel économiquement exploitable du sous-sol. Des installations de démonstration exploitées industriellement sont absolument nécessaires à cet égard, afin de renforcer l’acceptation par la population et les investisseurs.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography