Дисертації з теми "Réduction du stockage des données"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Réduction du stockage des données.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Réduction du stockage des données".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Jemel, Mayssa. "Stockage des données locales : sécurité et disponibilité." Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0053.

Повний текст джерела
Анотація:
Le progrès technologique offre désormais de plus en plus aux utilisateurs divers équipements connectés et intelligents. En conséquence, la gestion des données entre ces équipements a fait l’objet d’ un nombre croissant d’études. Les applications déjà proposées sont principalement basées sur des solutions propriétaires dites solutions privées ou fermées. Toutefois, cette stratégie a toujours montré ses insuffisances en termes de problèmes de sécurité, de coût, de simplicité pour les développeurs et de transparence des solutions. Migrant vers des solutions standardisées, HTML5 propose de nouvelles fonctionnalités pour répondre aux exigences des entreprises et des utilisateurs. L’objectif principal est de mettre à la disposition des développeurs web un langage simple pour la mise en œuvre des applications concurrentes à moindre coût. Ces applications ne sont pas liées ni aux dispositifs utilisés ni aux logiciels installés. Trois contributions font l’objet de nos travaux. Dans la première partie, nous proposons un Coffre Fort Client basé sur les APIs HTML5 de stockage. Tout d’abord, nous commençons par le renforcement de la sécurité de ces API pour fournir une base sécurisée à notre Coffre Fort Client. Dans la deuxième contribution, nous proposons un protocole de synchronisation appelé SyncDS qui est caractérisé par son efficacité avec une consommation minimale des ressources. Nous traitons enfin les problèmes de sécurité, et nous nous concentrons principalement sur le contrôle d’accès dans le cas de partage des données tout en respectant les exigences des Coffres Forts
Due to technological advancements, people are constantly manipulating multiple connected and smart devices in their daily lives. Cross-device data management, therefore, remains the concern of several academic and industrial studies. The proposed frameworks are mainly based on proprietary solutions called private or closed solutions. This strategy has shown its deficiency on security issues, cost, developer support and customization. In recent years, however, the Web has faced a revolution in developing standardized solutions triggered by the significant improvements of HTML5. With this new version, innovative features and APIs are introduced to follow business and user requirements. The main purpose is to provide the web developer with a vendor-neutral language that enables the implementation of competing application with lower cost. These applications are related neither to the used devices nor to the installed software. The main motivation of this PhD thesis is to migrate towards the adoption of standardized solutions to ensure secure and reliable cross-device data management in both the client and server side. There is already a proposed standardized Cloud Digital Safe on the server side storage that follows the AFNOR specification while there is no standardized solution yet on the client-side. This thesis is focused on two main areas : 1) the proposal of a standardized Client Digital Safe where user data are stored locally and 2) the synchronization of these data between the Client and the Cloud Digital Safe and between the different user devices. We contribute in this research area in three ways. First, we propose a Client Digital Safe based on HTML5 Local Storage APIs. We start by strengthening the security of these APIs to be used by our Client Digital Safe. Second, we propose an efficient synchronization protocol called SyncDS with minimum resource consumption that ensures the synchronization of user data between the Client and the Cloud Digital Safe. Finally, we address security concerns, in particular, the access control on data sharing following the Digital Safe requirements
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Bouabache, Fatiha. "Stockage fiable des données dans les grilles, application au stockage des images de checkpoint." Paris 11, 2010. http://www.theses.fr/2010PA112329.

Повний текст джерела
Анотація:
Les techniques de tolérance aux fautes basées sur les points de reprise s'appuient principalement sur la fiabilité du stockage des images de checkpoint. Dans le cas où ces images ne seraient pas disponibles, le redémarrage du système échoue. L'objectif de cette thèse est de proposer des solutions qui garantissent le stockage fiable et efficace des données en général et des images de checkpoint en particulier. Par fiable, nous voulons dire quelque soit le scénario de pannes qui se produit, du moment qu'il respecte les hypothèses faites par les algorithmes, les images restent accessibles. Et nous entendons par efficace, minimiser le temps nécessaire au stockage des images et donc le temps de transfert. Ceci permettra de réduire le temps d'exécution global des vagues de checkpoint. Pour garantir ces deux points, nous proposons : 1. Un protocole de checkpoint coordonné qui exploite la localisation des images de checkpoint afin de réduire au maximum les communications inter-cluster ; 2. Un service de stockage distribué et structuré en une architecture à trois couches : a) La couche réplication : afin de garantir la fiabilité des données stockées, nous proposons de répliquer les différentes images sur un certain nombre de serveur. Dans cette direction, nous avons proposé deux techniques de réplication hiérarchique adaptées à l'architecture considérée. B) La couche planification : à ce niveau, nous avons travaillé sur l'efficacité du stockage en réduisant le temps de transfert des données sur le réseau. Pour cela, nous proposons d'ordonnancer les transferts au niveau des sources. C) L'outil d'ordonnancement, implémentant le plan de transfert tel que calculé par la couche supérieure
Rollback/recovery solutions rely on checkpoint storage reliability (after a failure, if the checkpoint images are not available, the rollback operation fails). The goal of this thesis is to propose a reliable and an efficient checkpoint storage service. By reliable, we mean that whatever the scenario of failures is, as long as it respects the assumptions made by the algorithms, the checkpoint images are still available. And we mean by efficient, minimizing the time required to transfer and to store the checkpoint images. This will minimize the global execution time of the checkpoint waves. To ensure those two points (reliability and efficiency), we propose: 1. A new coordinated checkpoint protocol which tolerates checkpoint server failures and clusters failures, and ensures a checkpoint storage reliability in a grid environment; 2. A distributed storage service structured on three layers architecture: a) The replication layer: to ensure the checkpoint storage reliability, we propose to replicate the images over the network. Ln this direction, we propose two hierarchical replication strategies adapted to the considered architecture and that exploit the locality of checkpoint images in order to minimize inter-cluster communication. B) The scheduling layer: at this level we work on the storage efficiency by reducing the data transfer time. We propose an algorithm based on the uniform random sampling of possible schedules. C) The scheduling engine: at this layer, we develop a tool that implements the scheduling plan calculated in the scheduling layer
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Lopez, Olivier. "Réduction de dimension en présence de données censurées." Phd thesis, Rennes 1, 2007. http://tel.archives-ouvertes.fr/tel-00195261.

Повний текст джерела
Анотація:
Nous considérons des modèles de régression où la variable expliquée est censurée à droite aléatoirement. Nous proposons de nouveaux estimateurs de la fonction de régression dans des modèles paramétriques, et nous proposons une procédure de test non paramétrique d'adéquation à ces modèles. Nous prolongeons ces méthodes à l'étude du modèle semi-paramétrique "single-index", généralisant ainsi des techniques de réduction de dimension utilisées en l'absence de censure. Nous nous penchons tout d'abord sur le cas d'un modèle où la variable de censure est indépendante de la variable expliquée ainsi que des variables explicatives. Nous travaillons dans un second temps dans un cadre moins restrictif où la variable expliquée et la censure sont indépendantes conditionnellement aux variables explicatives. Une difficulté spécifique à ce dernier type de modèle tient en l'impossibilité des techniques actuelles à estimer une espérance conditionnelle (de façon paramétrique ou non) en présence de plus d'une
variable explicative. Nous développons une nouvelle approche de réduction de la dimension afin de résoudre ce problème.
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Devigne, Julien. "Protocoles de re-chiffrement pour le stockage de données." Caen, 2013. http://www.theses.fr/2013CAEN2032.

Повний текст джерела
Анотація:
La protection de la vie privée est un des enjeux majeurs de la société moderne dans laquelle Internet est omnipotent. Dans cette thèse, nous étudions des techniques permettant de réaliser un stockage dématérialisé qui préserve la confidentialité des informations. Nous nous intéressons ainsi à protéger les données stockées tout en permettant à leur propriétaire de les partager avec les personnes de son choix. Le serveur de re-chiffrement, une des primitives proposées par la cryptographie, est la solution que nous décidons de retenir. Tout d'abord, nous donnons une définition d'un système de serveur de re-chiffrement qui regroupe tous les modèles classiques existants. Nous décrivons également les caractéristiques habituelles que peut présenter cette primitive ainsi que son modèle de sécurité. Ensuite, nous nous concentrons plus particulièrement sur certains schémas spécifiques afin d'en améliorer la sécurité. Nous présentons pour cela une méthode qui transforme un schéma sûr contre une attaque à chiffré choisi rejouable en un schéma sûr contre une attaque à chiffré choisi. Nous étudions aussi les schémas fondés sur le chiffrement Hash ElGamal et proposons d'y apporter des modifications afin qu'ils atteignent une meilleure sécurité. Pour terminer et dans le but d'obtenir le stockage le plus fonctionnel possible, nous proposons deux nouveaux modèles. Le premier, que nous appelons serveur de re-chiffrement combiné, permet d'obtenir une gestion dynamique des droits d'accès. Le second, que nous appelons serveur de re-chiffrement sélectif, permet d'obtenir une gestion des droits d'accès plus fine que celle offerte par le serveur de re-chiffrement conditionnel
Privacy is one of the main issues of our modern day society in which the Internet is omnipotent. In this thesis, we study some technics allowing to realise a privacy-preserving cloud storage. In this way, we focus to protect stored data while allowing their owner to share them with people of his choice. Proxy re-encryption, one of the primitives offered by cryptography, is the solution we decide to consider. First, we give a definition of a proxy re-encryption system unifying all existing conventional models. We also describe usual characteristics that this primitive may present and we provide its security model. Then, we focus more precisely on some specific schemes in order to improve their security. In this meaning, we expose a method which turns a scheme secure against a replayable chosen ciphertext attack into a secure scheme against a chosen ciphertext attack. We study schemes based on the Hash ElGamal encryption too and propose some modifications in order to reach a better security. Finally and in order to obtain the most functional cloud storage, we propose two new models. The first one, that we call combined proxy re-encryption, offers dynamic right access. The second one, that we call selective proxy re-encryption, enables a more fine-grained access right control than the one offered by the conditional proxy re-encryption
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Hadjar, Abdelkader. "Catalyseurs électrochimiques pour le stockage et la réduction des oxydes d'azote (NOx)." Thesis, Lyon 1, 2009. http://www.theses.fr/2009LYO10111.

Повний текст джерела
Анотація:
L’objectif de ce travail était de démontrer la possibilité de coupler sur un même catalyseur, la fonction de stockage et réduction des NOx (sur le baryum) avec un effet électrochimique reposant sur un système micropile. Ce système micropile est composé de nanoparticules catalytiques (Pt et Rh) déposés sur conducteur ionique par les ions O2- (YSZ) en contact avec un support conducteur électronique (SiC dopé) de façon à pouvoir générer, sous mélanges réactionnels, une force électromotrice capable de réduire électrochimiquement une partie des NOx sur le Pt et d’oxyder le CO, les hydrocarbures imbrûlés et H2 sur le Rh. L’effet micropile a été observé sur un catalyseur Pt/Ba (matériau de stockage)/YSZ/Rh enduit dans les canaux d’un filtre à particule en carbure de silicium dopé, en condition essence pauvre à 400°C et en condition Diesel à plus basse température (300°C). Une augmentation de la conversion des NOx d’environ 10% a été observé sur les catalyseurs micropile. L’effet électrochimique a été détecté par une surproduction de CO2, en milieu riche (très peu ou pas de O2) provenant de la réaction d’oxydation électrochimique du CO (produit par vaporeformage) en réagissant avec les ions O2- provenant de YSZ. De plus, des tests catalytiques ont montré que YSZ peut être utilisée comme matériau de stockage des NOx. En effet, un traitement réducteur préalable augmente fortement sa capacité de stockage des NOx
The main objective of this study was to demonstrate the coupling between NOx storage/reduction process on barium, with an electrochemical reduction of NOx (micro fuel cell effect) on the same catalyst. The micro fuel cell effect is ensured by a an electromotive force (potential) which is created between catalytic nanoparticules (Pt and Rh) in contact with an ionic conductor (YSZ) and an electronic conductor (doped SiC). The micro fuel cell effect was observed, during the regeneration phase of the catalysts (rich period), on a Pt/Ba/doped α-SiC-YSZ/Rh monolithic system under lean-burn gasoline conditions at 400°C with an enhancement of about 10 % of the NOx conversion over a complete cycle lean/rich. This electrochemical effect was characterized by the electrochemical oxidation of CO (produced by steam reforming) into CO2 by using O2- ions coming from YSZ. Under Diesel conditions, the micro fuel cell system was found to work at low temperature especially at 300°C. In the second part of the work, a new generation of NOx Storage and reduction catalyst was developed consisting only of noble metals (Pt and/or Rh) deposited on YSZ support (Ba free catalyst). The catalytic measurements revealed that YSZ can be used as a NOx storage material in lean burn conditions (Gasoline and Diesel) especially when it was previously reduced under hydrogen. The storage mechanism would take place on the oxygen vacancies created by the removal of O-2 ions from the YSZ structure
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Berland, Sébastien. "Préparation, caractérisation et activité de matériaux pour la réduction des NOx par l'ammoniac ; Association au catalyseur de stockage-réduction." Poitiers, 2011. http://nuxeo.edel.univ-poitiers.fr/nuxeo/site/esupversions/5113f776-4c92-453d-8e7b-4655c49cce2f.

Повний текст джерела
Анотація:
Ce travail porte sur la dépollution des gaz d'échappement automobile et plus particulièrement sur la combinaison de deux procédés de réduction des NOx : les systèmes NSR (NOx Storage-Reduction) et SCR (Selective Catalytic Reduction). En condition de fonctionnement, les catalyseurs NSR sont susceptibles d'émettre de l'ammoniac, qui est aussi un bon réducteur des NOx. L'ajout d'un matériau acide et actif en SCR-NH3 sur un second lit catalytique en aval, permet d'utiliser cet ammoniac pour augmenter la réduction globale des NOx. Le catalyseur NSR choisi est du type Pt-Ba/Al qui, lors du fonctionnement du système (alternance de phases oxydantes de stockage des NOx et pulses courts réducteurs), conduit à une sélectivité en ammoniac élevée lorsque H2 est utilisé comme réducteur. Pour le second lit catalytique, trois types de matériau ont été étudiés : matériaux industriels, WO3/Ce-Zr de composition Ce-Zr variable, et des matériaux synthétisés au laboratoire (voie sol-gel) : à partir d’une base alumine, les incorporations successives de Ce, Ti, et Si ont permis de formuler des matériaux actifs, améliorés par ajout de tungstène. Les matériaux ont été caractérisés par différentes techniques : DRX, BET, mesures d’acidité (stockage NH3, adsorption de pyridine), de réductibilité (RTP-H2, CSO), test de réactivité (NH3+NOx, NH3 + O2),. . . L'association des deux procédés (NSR + SCR) a montré que sur les matériaux de SCR-NH3, les NOx sont réduits selon deux réactions : la "fast SCR-NH3" (à 200, 300 et 400°C), et "standard SCR-NH3" (à 200°C). De plus, une partie de l'ammoniac peut aussi réagir avec O2 pour donner N2 (300-400°C) et le stockage de NH3 à 400°C reste insuffisant
This work deals with clean exhaust motor and more particularly on the combination of two processes for NOx reduction systems: NSR (NOx Storage-Reduction) and SCR (Selective Catalytic Reduction). In operating conditions, the NSR catalysts are likely to emit ammonia, which is also a good reducer of NOx. The addition of an acidic and active SCR-NH3 material on a second catalytic bed downstream, can use this ammonia to increase the overall reduction of NOx. The chosen NSR catalyst is type of Pt-Ba/Al which, in the functioning of the system (alternating oxidizing phases of NOx storage and short pulses of reducers) led to high selectivity in ammonia when H2 is used as a reducing agent. For the second catalytic bed, three types of material have been studied: industrial materials, WO3/Ce-Zr of Ce-Zr variable composition and materials synthesized in the laboratory (sol-gel route): from an alumina base, successive incorporations of Ce, Ti, and Si have been formulated active materials, improved by addition of tungsten. The materials have been characterized by different techniques: XRD, BET, measures of acidity (NH3, pyridine adsorption storage), of reducibility (RTP-H2, OSC), test of reactivity (NH3+ NOx, NH3 + O2),. . . The association of two processes (NSR + SCR) showed that on materials of SCR-NH3, NOx are reduced according to two reactions: the "fast SCR-NH3"(200, 300 and 400°C), and "standard SCR-NH3"(at 200°C). Furthermore, a part of ammonia may also react with O2 to give N2 (300-400°C) and the storage of NH3 at 400°C remains insufficient
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Khelil, Amar. "Elaboration d'un système de stockage et exploitation de données pluviométriques." Lyon, INSA, 1985. http://www.theses.fr/1985ISAL0034.

Повний текст джерела
Анотація:
Du point de vue hydrologique, l'agglomération lyonnaise peut être caractérisée comme un bassin versant d'une surface de 600 km2 drainé par quelque deux mille kilomètres de canalisations. Pour assurer la gestion et l’ extension d'un tel réseau, des outils informatiques ont été conçus au Laboratoire Méthodes de l'INSA de Lyon en collaboration avec le Service Assainissement de la COURLY et la société d'informatique communale ICARE, notamment le logiciel SERAIL, qui permet une simulation généralisée du fonctionnement du réseau lyonnais. Or, un des points faibles du système consiste en une connaissance insuffisamment précise des phénomènes pluvieux d'origine convective lesquels sont le plus susceptibles de provoquer des dysfonctionnements du réseau. Il a ainsi été décidé d'implanter, dès 1983, un réseau de 30 pluviomètres enregistreurs sur le territoire communautaire, avec l'appui financier du Plan Urbain et de l'Agence Financière de Bassin Rhône-Méditerranée-Corse. Le mémoire présente le travail effectué sur cette expérimentation suivant trois étapes principales : 1) implantation du réseau et ses caractéristiques ; 2) élaboration d'un système de dépouillement et d'archivage des données ; 3) élaboration d'un système de traitement des données. L'aspect le plus original du travail concerne le traitement des données. Un ensemble de logiciels permet d'exhiber et d’étudier tout séquence pluvieuse reconnue intéressante par l'hydrologue urbain. Deux objectifs ont été poursuivis : 1) obtenir une meilleure perception (intuition) des phénomènes considérés (aspect représentation brute des mesures) ; 2) construire des outils de modélisation des phénomènes. Ce deuxième objectif a nécessité une réflexion pour déterminer notamment la pertinence des modèles proposés ou leur limite de validité, réflexion qui a débouché sur l'élaboration de logiciels supplémentaires de vérifications et comparaisons des modèles utilisés (numériques ou graphiques). Un exemple complet des traitements, pour une pluie choisie, est donné, ainsi que le type de conclusions auxquelles ils permettent de parvenir
The Lyon District Urban Area (CO. UR. LY. ) may be explained from an hydrological point of view as a 600 km2 area equipped with a sewerage system estimated by 2 000 km of pipes. Due to the complexity of the sewerage network of the area, it must therefore be controlled by an accurate and reliable system of calculation to avoid any negative consequences of its function. The capacity of the present computerising system SERAIL, allows an overall simulation of the functioning of drainage / sewerage system. This model requires an accurate information of the rainfall rate which was not previously available. Therefore a 30 rain gages network (with cassette in sit recording) was set up within the Urban District Area in 1983. This research however introduces the experiment of three steps: 1) to install the network; 2) to build up a data checking and storage system; 3) to analyse the data. The characteristic nature of this work deals with the data analysis system. It allows to extract easily and analyse any rainfall event important to the hydrologist. Two aims were defined: 1) to get a better understanding of the phenomena (punctual representations ); 2) to build up models. In order to achieve the second aim, it was necessary to think about the fitting of the propounded models and their limits which led to the setting up of several other programmes for checking and comparison. For example a complete analysis of a rainfall event is given with comments and conclusion
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Jule, Alan. "Etude des codes en graphes pour le stockage de données." Thesis, Cergy-Pontoise, 2014. http://www.theses.fr/2014CERG0739.

Повний текст джерела
Анотація:
Depuis deux décennies, la révolution technologique est avant tout numérique entrainant une forte croissance de la quantité de données à stocker. Le rythme de cette croissance est trop importante pour les solutions de stockage matérielles, provoquant une augmentation du coût de l'octet. Il est donc nécessaire d'apporter une amélioration des solutions de stockage ce qui passera par une augmentation de la taille des réseaux et par la diminution des copies de sauvegarde dans les centres de stockage de données. L'objet de cette thèse est d'étudier l'utilisation des codes en graphe dans les réseaux de stockage de donnée. Nous proposons un nouvel algorithme combinant construction de codes en graphe et allocation des noeuds de ce code sur le réseau. Cet algorithme permet d'atteindre les hautes performances des codes MDS en termes de rapport entre le nombre de disques de parité et le nombre de défaillances simultanées pouvant être corrigées sans pertes (noté R). Il bénéficie également des propriétés de faible complexité des codes en graphe pour l'encodage et la reconstruction des données. De plus, nous présentons une étude des codes LDPC Spatiallement-Couplés permettant d'anticiper le comportement de leur décodage pour les applications de stockage de données.Il est généralement nécessaire de faire des compromis entre différents paramètres lors du choix du code correcteur d'effacement. Afin que ce choix se fasse avec un maximum de connaissances, nous avons réalisé deux études théoriques comparatives pour compléter l'état de l'art. La première étude s'intéresse à la complexité de la mise à jour des données dans un réseau dynamique établi et déterminons si les codes linéaires utilisés ont une complexité de mise à jour optimale. Dans notre seconde étude, nous nous sommes intéressés à l'impact sur la charge du réseau de la modification des paramètres du code correcteur utilisé. Cette opération peut être réalisée lors d'un changement du statut du fichier (passage d'un caractère hot à cold par exemple) ou lors de la modification de la taille du réseau. L'ensemble de ces études, associé au nouvel algorithme de construction et d'allocation des codes en graphe, pourrait mener à la construction de réseaux de stockage dynamiques, flexibles avec des algorithmes d'encodage et de décodage peu complexes
For two decades, the numerical revolution has been amplified. The spread of digital solutions associated with the improvement of the quality of these products tends to create a growth of the amount of data stored. The cost per Byte reveals that the evolution of hardware storage solutions cannot follow this expansion. Therefore, data storage solutions need deep improvement. This is feasible by increasing the storage network size and by reducing data duplication in the data center. In this thesis, we introduce a new algorithm that combines sparse graph code construction and node allocation. This algorithm may achieve the highest performance of MDS codes in terms of the ratio R between the number of parity disks and the number of failures that can be simultaneously reconstructed. In addition, encoding and decoding with sparse graph codes helps lower the complexity. By this algorithm, we allow to generalize coding in the data center, in order to reduce the amount of copies of original data. We also study Spatially-Coupled LDPC (SC-LDPC) codes which are known to have optimal asymptotic performance over the binary erasure channel, to anticipate the behavior of these codes decoding for distributed storage applications. It is usually necessary to compromise between different parameters for a distributed storage system. To complete the state of the art, we include two theoretical studies. The first study deals with the computation complexity of data update and we determine whether linear code used for data storage are update efficient or not. In the second study, we examine the impact on the network load when the code parameters are changed. This can be done when the file status changes (from a hot status to a cold status for example) or when the size of the network is modified by adding disks. All these studies, combined with the new algorithm for sparse graph codes, could lead to the construction of new flexible and dynamical networks with low encoding and decoding complexities
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Atigui, Faten. "Approche dirigée par les modèles pour l’implantation et la réduction d’entrepôts de données." Thesis, Toulouse 1, 2013. http://www.theses.fr/2013TOU10044/document.

Повний текст джерела
Анотація:
Nos travaux se situent dans le cadre des systèmes d'aide à la décision reposant sur un Entrepôt de Données multidimensionnelles (ED). Un ED est une collection de données thématiques, intégrées, non volatiles et historisées pour des fins décisionnelles. Les données pertinentes pour la prise de décision sont collectées à partir des sources au moyen des processus d'Extraction-Transformation-Chargement (ETL pour Extraction-Transformation-Loading). L'étude des systèmes et des méthodes existants montre deux insuffisances. La première concerne l'élaboration d'ED qui, typiquement, se fait en deux phases. Tout d'abord, il faut créer les structures multidimensionnelles ; ensuite, il faut extraire et transformer les données des sources pour alimenter l'ED. La plupart des méthodes existantes fournit des solutions partielles qui traitent soit de la modélisation du schéma de l'ED, soit des processus ETL. Toutefois, peu de travaux ont considéré ces deux problématiques dans un cadre unifié ou ont apporté des solutions pour automatiser l'ensemble de ces tâches.La deuxième concerne le volume de données. Dès sa création, l'entrepôt comporte un volume important principalement dû à l'historisation régulière des données. En examinant les analyses dans le temps, on constate que les décideurs portent généralement un intérêt moindre pour les données anciennes. Afin de pallier ces insuffisances, l'objectif de cette thèse est de formaliser le processus d'élaboration d'ED historisés (il a une dimension temporelle) depuis sa conception jusqu'à son implantation physique. Nous utilisons l'Ingénierie Dirigée par les Modèles (IDM) qui permet de formaliser et d'automatiser ce processus~; ceci en réduisant considérablement les coûts de développement et en améliorant la qualité du logiciel. Les contributions de cette thèse se résument comme suit : 1. Formaliser et automatiser le processus de développement d'un ED en proposant une approche dirigée par les modèles qui inclut : - un ensemble de métamodèles (conceptuel, logique et physique) unifiés décrivant les données et les opérations de transformation. - une extension du langage OCL (Object Constraint Langage) pour décrire de manière conceptuelle les opérations de transformation d'attributs sources en attributs cibles de l'ED. - un ensemble de règles de transformation d'un modèle conceptuel en modèles logique et physique.- un ensemble de règles permettant la génération du code de création et de chargement de l'entrepôt. 2. Formaliser et automatiser le processus de réduction de données historisées en proposant une approche dirigée par les modèles qui fournit : - un ensemble de métamodèles (conceptuel, logique et physique) décrivant les données réduites, - un ensemble d'opérations de réduction,- un ensemble de règles de transformation permettant d'implanter ces opérations au niveau physique. Afin de valider nos propositions, nous avons développé un prototype comportant trois parties. Le premier module réalise les transformations de modèles vers des modèles de plus bas niveau. Le deuxième module transforme le modèle physique en code. Enfin, le dernier module permet de réduire l'ED
Our work handles decision support systems based on multidimensional Data Warehouse (DW). A Data Warehouse (DW) is a huge amount of data, often historical, used for complex and sophisticated analysis. It supports the business process within an organization. The relevant data for the decision-making process are collected from data sources by means of software processes commonly known as ETL (Extraction-Transformation-Loading) processes. The study of existing systems and methods shows two major limits. Actually, when building a DW, the designer deals with two major issues. The first issue treats the DW's design, whereas the second addresses the ETL processes design. Current frameworks provide partial solutions that focus either on the multidimensional structure or on the ETL processes, yet both could benefit from each other. However, few studies have considered these issues in a unified framework and have provided solutions to automate all of these tasks. Since its creation, the DW has a large amount of data, mainly due to the historical data. Looking into the decision maker's analysis over time, we can see that they are usually less interested in old data.To overcome these shortcomings, this thesis aims to formalize the development of a time-varying (with a temporal dimension) DW from its design to its physical implementation. We use the Model Driven Engineering (MDE) that automates the process and thus significantly reduce development costs and improve the software quality. The contributions of this thesis are summarized as follows: 1. To formalize and to automate the development of a time-varying DW within a model-driven approach that provides: - A set of unified (conceptual, logical and physical) metamodels that describe data and transformation operations. - An OCL (Object Constraint Language) extension that aims to conceptually formalize the transformation operations. - A set of transformation rules that maps the conceptual model to logical and physical models. - A set of transformation rules that generates the code. 2. To formalize and to automate historical data reduction within a model-driven approach that provides : - A set of (conceptual, logical and physical) metamodels that describe the reduced data. - A set of reduction operations. - A set of transformation rules that implement these operations at the physical level.In order to validate our proposals, we have developed a prototype composed of three parts. The first part performs the transformation of models to lower level models. The second part transforms the physical model into code. The last part allows the DW reduction
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Kwémou, Djoukoué Marius. "Réduction de dimension en régression logistique, application aux données actu-palu." Thesis, Evry-Val d'Essonne, 2014. http://www.theses.fr/2014EVRY0030/document.

Повний текст джерела
Анотація:
Cette thèse est consacrée à la sélection de variables ou de modèles en régression logistique. Elle peut-être divisée en deux parties, une partie appliquée et une partie méthodologique. La partie appliquée porte sur l'analyse des données d'une grande enquête socio - épidémiologique dénommée actu-palu. Ces grandes enquêtes socio - épidémiologiques impliquent généralement un nombre considérable de variables explicatives. Le contexte est par nature dit de grande dimension. En raison du fléau de la dimension, le modèle de régression logistique n'est pas directement applicable. Nous procédons en deux étapes, une première étape de réduction du nombre de variables par les méthodes Lasso, Group Lasso et les forêts aléatoires. La deuxième étape consiste à appliquer le modèle logistique au sous-ensemble de variables sélectionné à la première étape. Ces méthodes ont permis de sélectionner les variables pertinentes pour l'identification des foyers à risque d'avoir un épisode fébrile chez un enfant de 2 à 10 ans à Dakar. La partie méthodologique, composée de deux sous-parties, porte sur l'établissement de propriétés techniques d'estimateurs dans le modèle de régression logistique non paramétrique. Ces estimateurs sont obtenus par maximum de vraisemblance pénalisé, dans un cas avec une pénalité de type Lasso ou Group Lasso et dans l'autre cas avec une pénalité de type 1 exposant 0. Dans un premier temps, nous proposons des versions pondérées des estimateurs Lasso et Group Lasso pour le modèle logistique non paramétrique. Nous établissons des inégalités oracles non asymptotiques pour ces estimateurs. Un deuxième ensemble de résultats vise à étendre le principe de sélection de modèle introduit par Birgé et Massart (2001) à la régression logistique. Cette sélection se fait via des critères du maximum de vraisemblance pénalisé. Nous proposons dans ce contexte des critères de sélection de modèle, et nous établissons des inégalités oracles non asymptotiques pour les estimateurs sélectionnés. La pénalité utilisée, dépendant uniquement des données, est calibrée suivant l'idée de l'heuristique de pente. Tous les résultats de la partie méthodologique sont illustrés par des études de simulations numériques
This thesis is devoted to variables selection or model selection in logistic regression. The applied part focuses on the analysis of data from a large socioepidémiological survey, called actu-palu. These large socioepidemiological survey typically involve a considerable number of explanatory variables. This is well-known as high-dimensional setting. Due to the curse of dimensionality, logistic regression model is no longer reliable. We proceed in two steps, a first step of reducing the number of variables by the Lasso, Group Lasso ans random forests methods. The second step is to apply the logistic model to the sub-set of variables selected in the first step. These methods have helped to select relevant variables for the identification of households at risk of having febrile episode amongst children from 2 to 10 years old in Dakar. In the methodological part, as a first step, we propose weighted versions of Lasso and group Lasso estimators for nonparametric logistic model. We prove non asymptotic oracle inequalities for these estimators. Secondly we extend the model selection principle introduced by Birgé and Massart (2001) to logistic regression model. This selection is done using penalized macimum likelihood criteria. We propose in this context a completely data-driven criteria based on the slope heuristics. We prove non asymptotic oracle inequalities for selected estimators. The results of the methodological part are illustrated through simulation studies
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Wright, Sophie. "Données obstétricales et néonatales précoces des grossesses gémellaires après réduction embryonnaire." Montpellier 1, 1994. http://www.theses.fr/1994MON11106.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Bel, Liliane. "Sur la réduction des modèles linéaires : analyse de données en automatique." Paris 11, 1985. http://www.theses.fr/1985PA112306.

Повний текст джерела
Анотація:
Nous étudions ici deux méthodes de réduction dans l’espace d’état : l’agrégation et la troncature dans la base d’équilibre. Dans le cas de l’agrégation on propose une nouvelle méthode de sélection des valeurs propres qui est à la fois géométrique et séquentielle. Des problèmes de robustesse sont soulevés et résolus dans quelques cas particuliers. La base d’équilibre est abordée par le biais des degrés de commandabilité et d’observabilité. La notion de degré de perturbabilité est introduite. On étudie ensuite l’application de ces deux méthodes à la détermination d’une commande d’ordre réduit. Enfin les deux méthodes sont appliquées au système représentant le lanceur Ariane en vol
Two state space model reduction methods are studied: aggregation method and the balanced state space representation method. In the case of aggregation a new method of selecting eigenvalues is proposed, which is both geometrical and sequential. Problems of robustness of aggregation are evoked and resolved in some particular cases. The balanced state space representation is approached by means of contralibility and observability degrees. The notion of perturbability degree is introduced. Then we study the application of those two methods to reduced order compensator design. The two methods are finally applied to the system representing the launch booster Ariane flying
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Obame, Meye Pierre. "Sûreté de fonctionnement dans le nuage de stockage." Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S091/document.

Повний текст джерела
Анотація:
La quantité de données stockées dans le monde ne cesse de croître et cela pose des challenges aux fournisseurs de service de stockage qui doivent trouver des moyens de faire face à cette croissance de manière scalable, efficace, tout en optimisant les coûts. Nous nous sommes intéressés aux systèmes de stockage de données dans le nuage qui est une grande tendance dans les solutions de stockage de données. L'International Data Corporation (IDC) prédit notamment que d'ici 2020, environ 40% des données seront stockées et traitées dans le nuage. Cette thèse adresse les challenges liés aux performances d'accès aux données et à la sûreté de fonctionnement dans les systèmes de stockage dans le nuage. Nous avons proposé Mistore, un système de stockage distribué que nous avons conçu pour assurer la disponibilité des données, leur durabilité, ainsi que de faibles latences d'accès aux données en exploitant des zones de stockage dans les box, les Points de Présence (POP), et les centre de données dans une infrastructure Digital Subscriber Line (xDSL) d'un Fournisseur d'Accès à Internet (FAI). Dans Mistore, nous adressons aussi les problèmes de cohérence de données en fournissant plusieurs critères de cohérence des données ainsi qu'un système de versioning. Nous nous sommes aussi intéressés à la sécurité des données dans le contexte de systèmes de stockage appliquant une déduplication des données, qui est l'une des technologies les plus prometteuses pour réduire les coût de stockage et de bande passante réseau. Nous avons conçu une méthode de déduplication en deux phases qui est sécurisée contre des attaques d'utilisateurs malicieux tout en étant efficace en termes d'économie de bande passante réseau et d'espace de stockage
The quantity of data in the world is steadily increasing bringing challenges to storage system providers to find ways to handle data efficiently in term of dependability and in a cost-effectively manner. We have been interested in cloud storage which is a growing trend in data storage solution. For instance, the International Data Corporation (IDC) predicts that by 2020, nearly 40% of the data in the world will be stored or processed in a cloud. This thesis addressed challenges around data access latency and dependability in cloud storage. We proposed Mistore, a distributed storage system that we designed to ensure data availability, durability, low access latency by leveraging the Digital Subscriber Line (xDSL) infrastructure of an Internet Service Provider (ISP). Mistore uses the available storage resources of a large number of home gateways and Points of Presence for content storage and caching facilities. Mistore also targets data consistency by providing multiple types of consistency criteria on content and a versioning system. We also considered the data security and confidentiality in the context of storage systems applying data deduplication which is becoming one of the most popular data technologies to reduce the storage cost and we design a two-phase data deduplication that is secure against malicious clients while remaining efficient in terms of network bandwidth and storage space savings
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Secret, Ghislain. "La maintenance des données dans les systèmes de stockage pair à pair." Amiens, 2009. http://www.theses.fr/2009AMIE0111.

Повний текст джерела
Анотація:
Les systèmes P2P sont conçus pour partager des ressources sur internet. L’indépendance de l’architecture par rapport à un serveur centralisé confère à ces systèmes une très grande résistance aux pannes. Cette propriété rend l’utilisation de cette architecture tout à fait adaptée au stockage pérenne de données, à grande échelle. Cependant un système P2P est caractérisé par la volatilité des pairs qui le composent. Le challenge est d’assurer la pérennité des données dans un environnement de supports de stockage en continuelle mutation. Pour cela, les systèmes de stockage P2P introduisent des schémas de redondance couplés à des mécanismes de régénération des données perdues. Mais les reconstructions nécessaires au maintien de la pérennité des données ne sont pas neutres en termes de charge pour le système. Pour étudier les facteurs qui impactent le plus le coût de maintenance des données, un modèle de système de stockage P2P a été conçu. Ce modèle repose sur un schéma de redondance de type IDA (Information Dispersal Algorithm). Sur la base de ce modèle, un simulateur a été élaboré et le comportement du système vis à vis des coûts de la régénération des données a été analysé. Deux stratégies de reconstruction sont observées. La première repose sur un mécanisme de seuil par rapport au niveau de redondance des données. Elle nécessite un contrôle permanent de l’état des données. La seconde encadre simplement le nombre des reconstructions par un système de quota alloué pour une période de temps donnée. Sur la base d’une analyse stochastique des stratégies, des clés sont proposées pour définir les paramètres du système en fonction du niveau de pérennité visé
Peer to peer systems are designed to share resources on the Internet. The independence of the architecture from a centralized server provides the peer-to-peer networks a very high fault tolerance (no peer is essential to the functioning of the network). This property makes the use of this architecture very suitable for permanent storage of data on a large scale. However, peer to peer systems are characterised by peer’s volatility. Peers connect and disconnect randomly. The challenge is to ensure the continuity of data in a storage media constantly changing. For this, to cope with peer’s volatility, data redundancy schemes coupled with reconstruction mechanism of lost data are introduced. But the reconstructions needed to maintain the continuity of data are not neutral in terms of burden on the system. To investigate factors that impact the higher the data maintenance cost, a model of peer to peer storage system was designed. This model is based on an IDA (Information Dispersal Algorithm) redundancy scheme. Built on this model, a simulator was developed and the system behaviour for the cost of regeneration of the data was analyzed. Two reconstruction strategies are observed. The first mechanism is based on a threshold from the level of data redundancy. It requires constant monitoring of the state data. The second strategy involves a number of reconstructions by a system of quota allocation for a defined period of time. It is less comfortable psychologically because it significantly reduces the control of the data state by abstracting the threshold mechanism. Based on a stochastic analysis of the strategies, keys are provided to define the parameters of the system according to the target level of durability desired
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Kiefer, Renaud. "Etude et conception d'un système de stockage et d'adressage photonique de données." Université Louis Pasteur (Strasbourg) (1971-2008), 2002. http://www.theses.fr/2002STR13199.

Повний текст джерела
Анотація:
L'accélération des cadences des processeurs, l'évolution du multimédia et des applications de l'Internet ont créé une demande croissante de solutions de stockage de données. Encouragée par les progrès technologiques rapides de ces dix dernières années, cette demande s'est accrue de façon exponentielle. Même si la technologie DVD satisfait actuellement aux exigences en matière de stockage (dizaines de bits par æm2), de nouvelles applications comme l'imagerie 3D, les grandes bases de données nécessitent le développement de nouvelles technologies. L'objectif de cette thèse a été d'étudier et de concevoir un système de stockage et d'adressage de données à base de mémoires holographiques. Celles-ci possèdent en effet d'énormes possibilités de stockage volumique des données (quelques centaines de bits par æm3 ). Le système développé permet d'adresser en un temps voisin de la milliseconde, une information quelconque stockée sur la mémoire diffractive. L'analyse des mémoires à base de gélatine bichromatée a permis de déterminer leur domaine d'utilisation et de poser les contraintes du système d'adressage. L'originalité de ce travail a consisté à associer des MEMS (micro-miroirs intégrés) et une cellule acousto-optique. Nous avons mesuré les déformations des MEMS afin d'évaluer leur influence sur la lecture des informations enregistrées dans la mémoire diffractive. Les résultats expérimentaux obtenus ont montré la possibilité d'obtenir des débits d'adressage de l'ordre de 100 Gbits/s ; les limitations du système de lecture sont liées aux faibles fréquences d'oscillation des MEMS et surtout aux faibles cadences d'acquisition des caméras CCD utilisées. L'utilisation de caméra rapide permettra d'augmenter les débits de lectures
The increase in the speed of microprocessors, the evolution of multimedia and of the Internet has created a growing need of data storage solutions. Encouraged by the rapid technological progress over the past decade, this need has grown exponentially. Even if DVD technology satisfies the present data storage demand (about 10 bit/æmø), certain new applications such as 3D imaging and huge data bases need the development of new technology. The objective of this thesis has been to study and conceive a data storage and addressing system based on holographic memories. This kind of memory shows interesting possibilities for massive volume data storage (about 100 bit/æm3). The system allows a rapid access time (ms), on a large angular bandwidth, at any informations stored on the diffractive memory. Analysis of optical memories based on dichromated gelatin has allowed the determination of their domain of use and set the constrains of the addressing system. The originality of the work has been to associate MEMS (integrated micro mirrors) and an acousto-optic cell. We have measured the deformation of the MEMS to evaluate the influence on the reading of the information stored in diffractive memories. Experimental results show the possibility of obtaining an address rate of 100Gbits/s. The reading system limitations are due to the low oscillating frequency of the MEMS and principally to the low acquisition rate of the CCD camera. The use of high speed cameras will allow to increase the readout rate
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Barrabe, Patrice. "Acquisition et transmission optique de données." Grenoble 1, 1990. http://www.theses.fr/1990GRE10121.

Повний текст джерела
Анотація:
Cette etude porte sur l'acquisition multisources et la transmission a haut debit (10 moctets/sec) de donnees numeriques, dans les domaines industriels et scientifiques. Les applications plus particulierement visees, sont celles qui presentent simultanement des contraintes d'immunite electromagnetique, de dispersion geographique (quelques centaines de metres), et de fonctionnement temps reel. Nous proposons une solution basee sur le choix de technologies performantes mais standards (fibres optiques multimodes et logique ttl rapide), afin d'optimiser les couts de fabrication. Le principe est d'implanter au niveau de chaque source des unites entierement logiques, destinees a la preparation et a la transmission des donnees. Ces unites sont reliees entre elles et a une station centrale, par un bus optique synchrone relaye en chaque point de connexion (structure daisy chain. Grace a une bonne maitrise des technologies, le travail presente permettra d'aboutir a un reseau d'acquisition rapide et fiable, ne necessitant que peu de developpement logiciel
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Duquesne, Marie. "Résolution et réduction d'un modèle non-linéaire de stockage d'énergie par adsorption sur des zéolithes." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00821894.

Повний текст джерела
Анотація:
Les sources d'énergies renouvelables représentent un gisement intéressant mais l'intermittence de leur production impose une meilleure anticipation des besoins et la mise en place d'un système de stockage d'énergie. Le stockage thermochimique par adsorption dans un système intégrant le couple zéolithe 13X/eau semble être une solution adaptée à un stockage de l'énergie à basse température pour une application aux bâtiments. Notre objectif consiste à reproduire le comportement de ce type de problèmes thermiques non-linéaires. En effet, une simulation précise et rapide du comportement du système sélectionné permettrait une régulation lors de son utilisation. Un modèle bidimensionnel de stockage d'énergie dans un adsorbeur cylindrique a été développé. La résolution numérique de ce modèle, dit d'ordre élevé, implique l'intégration d'un système de quelques centaines à quelques milliers d'équations fortement non-linéaires et couplés. Les coûts de calculs générés pouvant être prohibitifs, l'application d'une méthode de réduction a ainsi été envisagée afin de conserver les caractéristiques, le couplage des transferts de chaleur et de masse ainsi que les non-linéarités de ce modèle tout en limitant le temps de calculs. La projection de Galerkin des équations de ce dernier sur la base, obtenue grâce à une décomposition orthogonale aux valeurs propres, permet de construire un système dynamique d'ordre faible. Sa résolution est moins coûteuse que celle du modèle d'ordre élevé et reproduit correctement la dynamique de l'adsorbeur.
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Barkat, Okba. "Utilisation conjointe des ontologies et du contexte pour la conception des systèmes de stockage de données." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2017. http://www.theses.fr/2017ESMA0001/document.

Повний текст джерела
Анотація:
Nous assistons à une époque où toute entreprise (ou organisme), dans le but d’augmenter son pou- voir décisionnel, est fortement intéressée par la collecte et l’analyse des données provenant de multiples sources hétérogènes et variées. Ces sources présentent également une autre spécificité à savoir la sensibilité au contexte. Cette situation nous met face à un enjeu scientifique crucial, du fait qu’elle réunit trois problématiques complémentaires : (i) la résolution de l’hétérogénéité qui peut exister entre les sources,(ii) la construction d’un système d’intégration décisionnel, et (iii) la prise en compte du contexte dans cette intégration. Afin de répondre à ces problématiques, nous nous intéressons dans cette thèse à la conception des applications contextuelles basées sur une ontologie de domaine, supposée existante. Pour ce faire, nous proposons d’abord un modèle de contexte qui intègre les dimensions principales identifiées dans la littérature. Une fois construit, il est lié au modèle de l’ontologie. Cette façon de procéder augmente la flexibilité dans la conception des applications avancées. Ensuite, nous proposons deux cas d’étude : (1) la contextualisation de sources de données sémantiques où nous étendons le système On- toBD/OntoQL afin qu’il prenne en compte le contexte, et (2) la conception d’un entrepôt de données contextuel où le modèle de contexte est projeté sur les différentes phases de conception du cycle de vie. Afin de valider notre proposition, nous présentons un prototype d’outil d’aide à la conception implémentant les différentes étapes de l’approche de conception proposée
We are witnessing an era when any company is strongly interested in collecting and analyzing data from heterogeneous and varied sources. These sources also have another specificity, namely con- text awareness. Three complementary problems are identified: the resolution of the heterogeneity of the sources, (ii) the construction of a decisional integrating system, and (iii) taking into account the context in this integration. To solve these problems, we are interested in this thesis in the design of contextual applications based on a domain ontology.To do this, we first propose a context model that integrates the main dimensions identified in the literature. Once built, it is linked to the ontology model. This approach increases flexibility in the design of advanced applications. Then, we propose two case studies: (1) the contextualization of semantic data sources where we extend the OntoBD/OntoQL system to take the context into account, and (2) the design of a contextual data warehouse where the context model is projected on the different phases of the life cycle design. To validate our proposal, we present a tool implementing the different phases of the proposed design approach
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Labbé, Sébastien. "Réduction paramétrée de spécifications formées d'automates communicants : algorithmes polynomiaux pour la réduction de modèles." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00180174.

Повний текст джерела
Анотація:
Les travaux décrits dans ce manuscrit de thèse s'inscrivent dans le cadre des méthodes formelles pour les langages de spécifications formées d'automates communicants. Ce type de langage est largement utilisé dans les industries de pointe où le niveau de fiabilité requis est élevé (e.g. aéronautique, transports), car ils permettent d'améliorer la précision des spécifications et d'exploiter des outils de simulation, de test ou de vérification qui contribuent à la validation des spécifications. Un frein au passage à l'échelle industrielle de ces méthodes formelles est connu sous le nom de l'explosion combinatoire, qui est due à la fois à la manipulation de larges domaines numériques, et au parallélisme intrinsèque aux spécifications.
L'idée que nous proposons consiste à contourner ce phénomène en appliquant des techniques de réduction paramétrée, pouvant être désignées sous le terme anglo-saxon "slicing'', en amont d'une analyse complexe. Cette analyse peut ainsi être effectuée a posteriori sur une spécification réduite, donc potentiellement moins sujette à l'explosion combinatoire. Notre méthode de réduction paramétrée est basée sur des relations de dépendances dans la spécification sous analyse, et est fondée principalement sur les travaux effectués par les communautés de la compilation et du slicing de programmes. Dans cette thèse nous établissons un cadre théorique pour les analyses statiques de spécifications formées d'automates communicants, dans lequel nous définissons formellement les relations de dépendances mentionnées ci-dessus, ainsi que le concept de "tranche" de spécification par rapport à un "critère" de réduction. Ensuite, nous décrivons et démontrons les algorithmes efficaces que nous avons mis au point pour calculer les relations de dépendances et les tranches de spécifications, et enfin nous décrivons notre mise en oeuvre de ces algorithmes dans l'outil "Carver", pour la réduction paramétrée de spécifications formées d'automates communicants.
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Gabsi, Nesrine. "Extension et interrogation de résumé de flux de données." Paris, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00613122.

Повний текст джерела
Анотація:
Au cours de ces dernières années, un nouvel environnement s'est développé dans lequel les données doivent être collectées et traitées instantanément dès leur arrivée. La gestion de cette volumétrie nécessite la mise en place d'un nouveau modèle et de nouvelles techniques de traitements de l'information. Il s'agit du traitement des flux de données. Ces derniers ont la particularité d'être continus, évolutifs, volumineux et ne peuvent être stockés, dans leur intégralité, en tant que données persistantes. Plusieurs travaux de recherche se sont intéressés à cette problématique ce qui a engendré l'apparition des systèmes de gestion de flux de données (SGFD). Ces systèmes permettent d'exprimer des requêtes continues qui s'évaluent au fur et à mesure sur un flux ou sur des fenêtres (sous ensembles finis du flux). Toutefois, dans certaines applications, de nouveaux besoins peuvent apparaître après le passage des données. Dans ce cas, le système ne peut répondre aux requêtes posées car toutes les données n'appelant aucun traitement sont définitivement perdues. Il est ainsi nécessaire de conserver un résumé du flux de données. De nombreux algorithmes de résumé ont été développés. Le choix d'une méthode de résumé particulière dépend de la nature des données à traiter et de la problématique à résoudre. Dans ce manuscrit, nous nous intéressons en premier lieu à l'élaboration d'un résumé généraliste permettant de créer un compromis entre la vitesse de construction du résumé et la qualité du résumé conservé. Nous présentons une nouvelle approche de résumé qui se veut performance face à des requêtes portant sur des données du passé lointain. Nous nous focalisons par la suite sur l'exploitation et l'accès aux évènements du flux conservés dans ces résumés. Notre objectif consiste à intégrer les structures de résumés généralistes dans l'architecture des SGFD existantes de façon à étendre le champ de requêtes possibles. A cet effet, l'évaluation des requêtes qui font appel aux données du passé lointain d'un flux (i. E. Données expirées de la mémoire du SGFD) serait possible au même titre que les requêtes posées sur le passé proche d'un flux de données. Nous présentons deux approches permettant d'atteindre cet objectif. Ces approches se différencient par le rôle que détient le module de résumé lors de l'évaluation d'une requêtes
In the last few years, a new environment, in which data have to be collected and processed instantly when arriving, has emerged. To handle the large volume of data associated with this environment, new data processing model and techniques have to be set up ; they are referred as data stream management. Data streams are usually continuous, voluminous, and cannot be registered integrally as persistent data. Many research works have handled this issue. Therefore, new systems called DSMS (Data Stream Management Systems) appeared. The DSMS evaluates continuous queries on a stream or a window (finite subset of streams). These queries have to be specified before the stream's arrival. Nevertheless, in case of some applications, some data could be required after their expiration from the DSMS in-memory. In this case, the system cannot treat the queries as such data are definitely lost. To handle this issue, it is essential to keep a ummary of data stream. Many summaries algorithms have been developed. The selection of a summarizing method depends on the kind of data and the associated issue. In this thesis, we are first interested with the elaboration of a generic summary structure while coming to a compromise between the summary elaboration time and the quality of the summary. We introduce a new summary approach which is more efficient for querying very old data. Then, we focus on the uerying methods for these summaries. Our objective is to integrate the structure of generic summaries in the architecture of the existing DSMS. By this way, we extend the range of the possible queries. Thus, the processing of the queries on old stream data (expired data) becomes possible as well as queries on new stream data. To this end, we introduced two approaches. The difference between them is the role played by summary module when the query is evaluated
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Yin, Shaoyi. "Un modèle de stockage et d'indexation pour des données embarquées en mémoire flash." Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0008.

Повний текст джерела
Анотація:
La mémoire de type Flash NAND s’est imposée comme le moyen de stockage le plus populaire pour les systèmes embarqués. Les techniques efficaces de stockage et d'indexation sont très difficiles à concevoir en raison des contraintes de la Flash NAND combinées à celles des systèmes embarqués. Dans cette thèse, nous proposons un nouvel modèle reposant sur deux principes fondamentaux: la sérialisation de base de données et la stratification de base de données. Une technique d'indexation appelée PBFilter est présentée pour illustrer ces principes. PBFilter a été intégrée dans un moteur de SGBD embarqué complet nommé PlugDB. PlugDB est utilisé dans une application réelle de mise en œuvre d'un dossier médico-social sécurisé et portable. PlugDB peut être aussi considéré comme un élément central pour une vision globale nommée Serveur de Données Personnel, dont l'objectif est de gérer les informations personnelles de façon sécurisée et dans le respect de la vie privée
NAND Flash has become the most popular stable storage medium for embedded systems. Efficient storage and indexing techniques are very challenging to design due to a combination of NAND Flash constraints and embedded system constraints. In this thesis, we propose a new model relying on two basic principles: database serialization and database stratification. An indexing technique called PBFilter is presented to illustrate these principles. Analytical and experimental results show that the new approach meets very well the embedded system requirements. The PBFilter technique has been integrated into a complete embedded DBMS engine PlugDB. PlugDB is used in a real-life application implementing a secure and portable medico-social folder. PlugDB can be also seen as a central building block for a global vision named Personal Data Server, whose objective is to manage personal information in a secure, privacy-preserving and user-controlled way
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Chiky, Raja. "Résumé de flux de données distribués." Paris, ENST, 2009. https://pastel.hal.science/pastel-00005137.

Повний текст джерела
Анотація:
Nous considérons dans cette thèse, un environnement distribué décrit par une collection de plusieurs capteurs distants qui envoient des flux de données numériques et unidimensionnelles à un serveur central unique. Ce dernier a un espace de stockage limité mais doit calculer des agrégats, comme des sommes ou des moyennes, à partir des données de tout sous-ensemble de capteurs et sur un large horizon temporel. Deux approches sont étudiées pour construire l'historique des flux de données :(1) Echantillonnage spatial en ne considérant qu'un échantillon aléatoire des sources qu'on observe dans le temps ; (2) Echantillonnage temporel en considérant toutes les sources mais en échantillonnant les instants observés de chaque capteur. Nous proposons une méthode générique et optimisée de construction de résumés à partir de flux de données distribués : à partir des flux de données observés à une période de temps t -1, nous déterminons un modèle de collecte de données à appliquer aux capteurs de la période t. Le calcul des agrégats se base sur l'inférence tatistique dans le cas de l'échantillonnage spatial et sur l'interpolation dans le cas de l'échantillonnage temporel. A notre connaissance, il n'existe pas de méthodes d'interpolation qui estiment les erreurs à tout instant et qui prennent en compte le flux de données ou courbe à interpoler et son intégrale. Nous proposons donc deux approches : la première se base sur le passé des courbes pour l'interpolation (approche naive) ; et la seconde utilise à un processus stochastique pour modéliser l'évolution des courbes (approche stochastique)
In this thesis, we consider a distributed computing environment, describing a collection of multiple remote sensors that feed a unique central server with numeric and uni-dimensional data streams (also called curves). The central server has a limited memory but should be able to compute aggregated value of any subset of the stream sources from a large time horizon including old and new data streams. Two approaches are studied to reduce the size of data : (1) spatial sampling only consider a random sample of the sources observed at every instant ; (2) temporal sampling consider all sources but samples the instants to be stored. In this thesis, we propose a new approach for summarizing temporally a set of distributed data streams : From the observation of what is happening during a period t -1, we determine a data collection model to apply to the sensors for period t. The computation of aggregates involves statistical inference in the case of spatial sampling and interpolation in the case of temporal sampling. To the best of our knowledge, there is no method for estimating interpolation errors at each timestamp that would take into account some curve features such as the knowledge of the integral of the curve during the period. We propose two approaches : one uses the past of the data curve (naive approach) and the other uses a stochastic process for interpolation (stochastic approach)
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Fournié, Laurent Henri. "Stockage et manipulation transactionnels dans une base de données déductives à objets : techniques et performances." Versailles-St Quentin en Yvelines, 1998. http://www.theses.fr/1998VERS0017.

Повний текст джерела
Анотація:
Cette thèse propose des solutions pour mettre en oeuvre, de manière flexible et performante, le stockage et les manipulations transactionnels d'une base de données déductive à objets (dood) ; elle s'inscrit dans le développement du système validity. Outre une analyse et une synthèse de l'état de l'art, nos travaux comportent une validation pratique par la réalisation d'un véritable système de stockage et par son évaluation à l'aide d'un ensemble de mesures de performance. Nous exposons les principes dood et leurs impacts fonctionnels, transactionnels et opérationnels : les convergences et les divergences avec les modèles relationnel et objet sont approfondies. Deux axes principaux sont ensuite étudiés : (1) une synthèse des mécanismes de gestion de la mémoire persistante (organisation sur les supports physiques, contrôle des caches et stratégie de reprise) assurant l'atomicité et la durabilité des écritures, (2) le protocole original rc2pl intégrant le verrouillage a deux phases (2pl) et l'ordonnancement par multiversion pour isoler les transactions. Rc2pl décompose les transactions en deux phases : une phase de mise à jour (lectures et écritures) isolée par verrouillage, suivie d'une phase de vérification (lectures seulement) isolée par multiversion. Ainsi, rc2pl assure une isolation stricte et non conflictuelle des lectures exécutées en fin de transaction pour vérifier les contraintes d'intégrité sans pénaliser la concurrence. L'algorithme, la correction et les techniques de mises en oeuvre sont détaillés. Finalement, nous comparons les performances de rc2pl avec les différentes stratégies de vérification sous 2pl (avant, pendant et après les écritures). Les résultats démontrent que rc2pl réduit le nombre de conflits : la verification des contraintes d'integrité déclaratives après les écritures sous rc2pl offre des performances comparables à la meilleure optimisation des vérifications programmées à la main dans les applications sous 2pl.
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Hanczar, Blaise. "Réduction de dimension pour l'apprentissage supervisé de données issues de puce à ADN." Paris 13, 2006. http://www.theses.fr/2006PA132012.

Повний текст джерела
Анотація:
Les puces à ADN ont permis de faire beaucoup de progrès dans l'étude du transcriptome, et ont de très nombreuses applications potentielles, en particulier dans le diagnostique médical. Elles permettent de mesurer simultanément le niveau d'expression de plusieurs milliers de gènes dans une condition donnée. Les données produites sont analysées par des méthodes issues des statistiques et de l'apprentissage artificiel, cependant elles posent des problèmes spécifiques. Il y a une grande disproportion entre le nombre d'attributs (quelques milliers) et celui des exemples (quelques dizaines). Une réduction de dimension est donc requise afin d'obtenir des performances en classification et une interprétation biologique correctes. Nous avons développé pour cela deux méthodes de réduction de dimensions originales. La première, ProGene, effectue une compression de l'expression des gènes grâce à la construction de nouveaux attributs. La seconde mesure les interactions d'information entre les gènes et identifie des paires de gènes synergiques afin d'améliorer la classification. Nous montrons ensuite comment exploiter ces interactions afin de construire des réseaux de gènes et identifier les fonctions biologiques mobilisées dans les expériences. Nous terminons par une application de ces méthodes sur des données d'expression portant sur l'obésité issues du service de nutrition de l'hôpital Hôtel-Dieu.
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Durbiano, Sophie. "Vecteurs caractéristiques de modèles océaniques pour la réduction d'ordre en assimilation de données." Université Joseph Fourier (Grenoble), 2001. http://www.theses.fr/2001GRE10228.

Повний текст джерела
Анотація:
Les principales difficultés que connaissent les méthodes actuelles d'assimilation de données sont la taille des problèmes (très grande), la spécification des erreurs (mal connues) et les non-linéarités (mal prises en compte). C'est pour tenter de remédier à ces deux premiers points en particulier que nous nous intéressons à des méthodes de réduction d'ordre prenant le mieux possible en compte la "variabilité" du système considéré. Sa connaissance passe par la détection de modes privilégiés que nous appelons vecteurs caractéristiques et qui sont à la base de toutes nos expériences. Il s'agit des vecteurs singuliers, des vecteurs de Liapunov, de ceux obtenus par breeding, des vecteurs singuliers non linéaires et des composantes principales. Au travers de diverses applications, nous abordons successivement trois points : le premier concerne la réduction des coûts de calcul de la méthode d'assimilation 4D-Var par minimisation de la fonctionnelle d'écart aux observations dans un espace de dimension plus petite que celle de l'espace d'origine. Il s'agit pour le second de la prise en compte d'un terme d'erreur modèle dans les équations de la méthode 4D-Var, terme décomposé sur des bases de vecteurs caractéristiques. Le troisième vise à étudier la capacité de ces vecteurs à corriger les prédictions effectuées par une méthode d'assimilation séquentielle variante du filtre de Kalman : le filtre SEEK. Il résulte de toutes ces expériences que chaque type de vecteurs caractéristiques s'adapte plus ou moins bien aux différents processus d'assimilation, les résultats mettant toutefois globalement en évidence le rôle des non-linéarités - particulièrement au travers des modes issus de la technique de breeding - et l'efficacité de la réduction d'ordre en termes de coûts de calcul.
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Guittenit, Christophe. "Placement d'objets multimédias sur un groupe hétérogène de dispositifs de stockage." Toulouse 3, 2002. http://www.theses.fr/2002TOU30098.

Повний текст джерела
Анотація:
L'administration d'un système de stockage de données consiste à fournir à chaque application un espace de stockage ayant une qualité de service appropriée aux besoins de cette application : qualité exprimée en terme de capacité de stockage, de fiabilité et disponibilité du stockage, et de performances en temps d'accès et en débit (bande passante). Cette thèse se propose de faire l'étude de l'administration automatique d'un système de stockage hétérogène dédié au service d'objets multimédias. Après avoir étudié et effectué la classification des différentes politiques de placement conçus pour exploiter ce type de système de stockage, nous proposons un nouveau placement, l'EFLEX (Entrelacement FLEXible) qui permet d'exploiter conjointement la bande passante et la capacité de stockage du système. .
The data administration of storage system consists in providing to each application a storage space having a quality of service appropriate to the needs for this application: quality expressed in term of storage capacity, reliability and availability of storage, and of performances in access time and throughput (bandwidth). This thesis proposes to make the study of the automatic administration of a heterogeneous storage system dedicated to the service of multimedia objects. After having studied and having carried out the classification of the various policies of placement designed to exploit this type of storage system, we propose a new data placement, the EFLEX (Entrelacement FLEXible - that is "flexible interleaving") that makes it possible to jointly exploit the bandwidth and the storage capacity of the system. .
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Khouri, Selma. "Cycle de vie sémantique de conception de systèmes de stockage et manipulation de données." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2013. http://www.theses.fr/2013ESMA0016/document.

Повний текст джерела
Анотація:
Les ED deviennent des composants incontournables dans les entreprises et les organisations.Le thème de conception des ED a fait l’objet de recherches actives ces dernières années. Laprincipale limitation des approches proposées est le manque d’une vision globale s’inscrivantdans le cadre du cycle de conception des ED, même si la communauté reconnait toutes lesphases de ce cycle. Nos principales contributions dans cette thèse portent sur la proposition d’uneméthode de conception adaptée aux récentes évolutions qu’a connu le cycle de conception, etenglobant l’ensemble de ses phases. Le cycle de conception a connu une diversification importantedes modèles de stockage de données et des architectures de déploiement possibles offrant deschoix de conception variés. Ce cycle reconnait l’importance des besoins des utilisateurs dansle processus de conception, et l’importance d’accès et de représentation de la sémantique desdonnées. Notre première proposition présente une méthode de conception suivant une approcheà base d’ontologies de domaine, permettant de valoriser les besoins des utilisateurs en leur offrantune vue persistante au sein de l’ED. Cette vue permet d’anticiper diverses tâches de conceptionet de simuler les différents choix de conception. Notre deuxième proposition revisite le cycle deconception en exécutant la phase ETL (extraction-transformation-chargement des données) dèsla phase conceptuelle. Cette proposition permet de fournir un moyen de déploiement multiplesur différentes plateformes disponibles
Data Warehouses (DWs) become essential components for companies and organizations.DWdesign field has been actively researched in recent years. The main limitation of the proposedapproaches is the lack of an overall vision covering the DW design cycle. Our main contributionin this thesis is to propose a method adapted to recent evolutions of the DW design cycle,and covering all its phases. These evolutions have given rise to new data storage models andnew deployment architectures, which offers different design choices for designers and administrators.DW literature recognizes the importance of user requirements in the design process, andthe importance of accessing and representing data semantics. We propose an ontology drivendesign method that valorizes users’ requirements by providing them a persistent view in theDW structure. This view allows anticipating diverse design tasks and simulating different designchoices. Our second proposal revisits the design cycle by executing the ETL phase (extractiontransformation-loading of data) in the conceptual stage. This proposal allows a deployment à lacarte of the DW using the different deployment platforms available
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Khouri, Selma, and Selma Khouri. "Cycle de vie sémantique de conception de systèmes de stockage et manipulation de données." Phd thesis, ISAE-ENSMA Ecole Nationale Supérieure de Mécanique et d'Aérotechique - Poitiers, 2013. http://tel.archives-ouvertes.fr/tel-00926657.

Повний текст джерела
Анотація:
Les ED deviennent des composants incontournables dans les entreprises et les organisations.Le thème de conception des ED a fait l'objet de recherches actives ces dernières années. Laprincipale limitation des approches proposées est le manque d'une vision globale s'inscrivantdans le cadre du cycle de conception des ED, même si la communauté reconnait toutes lesphases de ce cycle. Nos principales contributions dans cette thèse portent sur la proposition d'uneméthode de conception adaptée aux récentes évolutions qu'a connu le cycle de conception, etenglobant l'ensemble de ses phases. Le cycle de conception a connu une diversification importantedes modèles de stockage de données et des architectures de déploiement possibles offrant deschoix de conception variés. Ce cycle reconnait l'importance des besoins des utilisateurs dansle processus de conception, et l'importance d'accès et de représentation de la sémantique desdonnées. Notre première proposition présente une méthode de conception suivant une approcheà base d'ontologies de domaine, permettant de valoriser les besoins des utilisateurs en leur offrantune vue persistante au sein de l'ED. Cette vue permet d'anticiper diverses tâches de conceptionet de simuler les différents choix de conception. Notre deuxième proposition revisite le cycle deconception en exécutant la phase ETL (extraction-transformation-chargement des données) dèsla phase conceptuelle. Cette proposition permet de fournir un moyen de déploiement multiplesur différentes plateformes disponibles.
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Romito, Benoit. "Stockage décentralisé adaptatif : autonomie et mobilité des données dans les réseaux pair-à-pair." Caen, 2012. http://www.theses.fr/2012CAEN2072.

Повний текст джерела
Анотація:
We study a new approach for decentralized data storage in peer-to-peer networks. In this approach, the responsibility of data management is transferred from the peers to the documents. It means that documents are not passive data sets anymore but become autonomous and responsible for their own durability. Thanks to a multi-agent system modeling and bio-inspired algorithms, we transform each document into a mobile agents flock able to move into the network. Firstly, we assess the feasibility of this approach with several experiments done on a prototype deployed in a real peer-to-peer network. We note that, given some hypothesis, our motion algorithms are sound. We also note that, topological relationships between the agents are enough for the emergence of a global flocking behavior. Secondly, we focus on mechanisms required to ensure flocks durability. We note that those flocks are self-adaptive and that, this property can be used to find the accurate fragmentation parameters, given a network instance and a required level of availability. Finaly, we study this self-adaptation property in the context of correlated failures. We propose and we analyze a decentralized flock placement algorithm aimed at reducing the correlated failures impact on data storage systems.
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Le, Hung-Cuong. "Optimisation d'accès au médium et stockage de données distribuées dans les réseaux de capteurs." Besançon, 2008. http://www.theses.fr/2008BESA2052.

Повний текст джерела
Анотація:
Les réseaux de capteurs constituent un axe de recherche très fertile ces dernières années. Cette technique se développe dans différents domaines comme l'environnement, l'industrie, le commerce, la médecine, l'armée etc. Selon le type d'application, les problématiques peuvent être différentes. Dans cette thèse, nous nous sommes intéressés à deux problématiques: les protocoles d'accès au canal et le stockage de données distribuées. Le document est divisé en deux parties où la première partie est un état de l'art de différentes techniques existantes et la deuxième partie décrit notre contribution dans ces deux problématiques. Dans la première contribution, nous avons proposé deux protocoles d'accès au canal. Le premier optimise la durée de vie des réseaux de capteurs de type surveillance et le second réduit la latence de transmission dans les réseaux de capteurs orientés événements pour les applications critiques. Dans la deuxième contribution, nous nous sommes focalisés sur le modèle de stockage de données data-centric. Nous avons proposé une structure de regroupement des capteurs afm d'améliorer le routage et réduire le nombre de transmissions afin de prolonger la durée de vie d'un réseau de capteurs
Wireless sensor network is a very hot research topic tendency for the last few years. This technology can be applied into different domains as environment, industry, commerce, medicine, military etc. Depending on the application type, the problems and requirements might be different. In this thesis, we are interested in two major problems: the medium access control and the distributed data storage. The document is divided to two parts where the first part is a state of the art of different existing works and the second part describes our contribution. In the first contribution, we have proposed two MAC protocols. The first one optimizes the wireless sensor networks lifetime for surveillance applications and the second one reduces the transmission latency in event-driven wireless sensor networks for critical applications. In the second contribution, we have worked with several data storage models in wireless sensor network and we focus on the data-centric storage model. We have proposed a clustering structure for sensors to improve the routing and reduce the number of transmissions in order to prolong the network lifetime
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Crespo-Monteiro, Nicolas. "Photochromisme de films mésoporeux d'oxyde de titane dopés argent appliqué au stockage de données." Thesis, Saint-Etienne, 2012. http://www.theses.fr/2012STET4027.

Повний текст джерела
Анотація:
L’argent associé aux colloïdes de titane est connu depuis longtemps pour produire un effet photochrome réversible. Le changement de couleur est dû à la réduction des sels d’argent en nanoparticules métalliques sous lumière UV et à l’oxydation de ces dernières sous lumière visible. Récemment, une nouvelle fonctionnalité induisant du photochromisme multicolore a été rapportée dans des matériaux nanocomposites constitués de nanoparticules d’argent introduites dans des films nanoporeux d’oxyde de titane. Dans cette thèse, nous étudions l’influence d’une matrice mésoporeuse d’oxyde de titane avec des tailles de pores contrôlées sur le comportement photochrome de tels films. Nous montrons que la porosité des films permet de contrôler la taille des particules formées sous insolations UV et qu’il est possible de blanchir les motifs photo-induits avec une lumière monochromatique visible bien qu’habituellement ce type d’insolation colore le film. L’utilisation de ces matériaux permet aussi d’améliorer sensiblement la stabilité temporelle des inscriptions photo-induites, ce qui permet de les utiliser comme support de données reconfigurables. Nous démontrons aussi qu’au-delà d’un seuil en intensité, il est possible d’inscrire des motifs permanents avec une lumière UV ou visible, ce qui permet l’utilisation de ces films comme support de données permanentes. Enfin, dans une dernière partie, nous montrons qu’il est possible de photo-inscrire en lumière visible des couleurs dichroïques fortement réfléchissantes sans aucune réduction préalable des sels d’argent
Silver species adsorbed on colloidal titania have been known for a long time to exhibit photochromism. The color change is due to the reduction of silver salts from metallic nanoparticles under UV illumination and oxidation of these latters under visible illumination. Recently, a new functionality inducing multicolor photochromism has been reported in nanocomposite materials constituted by silver nanoparticles introduced in nanoporous titania film. In this dissertation, we study the influence of mesoporous titania matrix with controlled pores sizes on the photochromisrn behavior of such films. We show that the films porosity allows to control the formed particles under UV illumination and that is possible to bleach the photo-induced patterns with a monochromatic visible light although usually this type of illumination color the film. The utilization of these materials allows also to sensibly improve the temporal stability of photo-induced inscriptions, which allows to use them as rewritable data carriers. We demonstrate also that above an intensity threshold, it is possible to inscribe permanent pattern with an UV or visible illumination, which allows to use these films like permanent data carriers. Finally, in the last part, we show that it is possible to photo-induce in visible light dichroic color highly reflective without prior reduction of silver salts
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Diallo, Thierno Ahmadou. "GRAPP&S, une solution totalement répartie pour le stockage des données et Services." Thesis, Reims, 2016. http://www.theses.fr/2016REIMS006.

Повний текст джерела
Анотація:
Le stockage des données est un point crucial du développement des applications, et plus particulièrement des applications réparties. Les problématiques liées au stockage sont multiples : assurer la pérennité des données, en assurer l'identification et l'indexation, en garantir la recherche et l'accès, et le cas échéant le rappatriement afin d'être exploité par les différents acteurs de l'application. Il faut de surcroit concevoir des méthodes permettant de garantir l'efficacité de toutes des propriétés et opérations, dans un environnement multi-hétérogène, tant au niveau des formats des données, des protocoles d'échange, des systèmes et des applications. Dans cette thèse, nous proposons GRAPP&S, une architecture multi-échelle pour le stockage et l'indexation unifiée de différents formats de données tels que les fichiers, les flux de données, les requêtes sur les bases de données mais aussi l'accès à des services distants (des web services sur un serveur ou le cloud, ou des tâches de calcul dans un cluster HPC). GRAPP&S offre et orchestre une architecture hiérarchique de routage pour accéder aux différents types de données, et permet l'interconnexion de différentes communautés (réseaux locaux) grâce aux principes des systèmes multi-échelle. Les données sont présentées de façon transparente à l'utilisateur par l'intermédiaire de proxies spécifiques à chaque type de donnée. Le routage hiérarchique de GRAPP&S permet de s'affranchir de tables de routage, et d'éviter l'utilisation de solutions d'inondation pour la recherche de données.Enfin, nous proposons d'exploiter GRAPP&S dans le cadre particulier du E-Learning. Notre solution permettra de fédérer, à moindre coût, des ressources pédagogiques réparties sur plusieurs organisme, et d'en assurer l'exploitation par des apprenants
Data storage is a crucial point for applications development and particularly for distributed applications. There are many issues related to data storage: the insurance of sustainability, identification and indexing of the data, the warranty of searching and accessing the data, and possibly the fetching of the data for applications use. So, there is a need to design methods for ensuring effectiveness of all of these properties and operations in heterogeneous environments, both in terms of data formats, exchange protocols, and applications.In this thesis, we propose GRAPP&S (Grid APPlication & Services), a multi-scale framework for an unified storage and indexing of both data and services. Indeed, GRAPP&S was designed to support different data formats such as files, stream or database queries, but also to support the access to distant services (web services, cloud services or HPC computing services, for example). GRAPP&S coordinates an hierarchical routing architecture that allows data indexing and access, thanks to a multi-scale network of local-area communities. Transparent access is provided by a network of specialized proxies, which handle most aspects related to data location, request handling, data preprocessing or summary and also data consistence.Finally, we exploit GRAPP&S in the particular context of E-Learning. Our solution will reduce the cost of merging distributed educational resources over several organizations and ensure the exploitation of learners
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Kumar, Sathiya Prabhu. "Cohérence de données répliquées partagées adaptative pour architectures de stockage à fort degré d’élasticité." Thesis, Paris, CNAM, 2016. http://www.theses.fr/2016CNAM1035/document.

Повний текст джерела
Анотація:
Les principales contributions de cette thèse sont au nombre de trois. La première partie de cette thèse concerne le développement d’un nouveau protocole de réplication nommé LibRe, permettant de limiter le nombre de lectures obsolètes dans un système de stockage distribué. LibRe est un acronyme signifiant "Library for Replication". Le principal objectif de LibRe est d’assurer la cohérence des données en contactant un minimum de répliques durant les opérations de lectures où d’écritures. Dans ce protocole, lors d’une opération d’écriture, chaque réplique met à jour un registre (la "librairie"), de manière asynchrone, avec l’identifiant de version de la donnée modifiée. Lors des opérations de lecture, la requête est transférée au réplica le plus approprié en fonction de l’information figurant dans le registre. Ce mécanisme permet de limiter le nombre de lectures obsolétes. L’évaluation de la cohérence d’un système reste un problème difficile à resoudre, que ce soit par simulation ou par évaluation en conditions réelles. Par conséquent nous avons développé un simulateur appelé Simizer, qui permet d’évaluer et de comparer la performance de différents protocoles de cohérence. Le système d’évaluation de bases de données YCSB a aussi été étendu pour évaluer l’échange entre cohérence et latence dans les systèmes de stockage modernes. Le code du simulateur et les modifications apportées à l’outil YCSB sont disponibles sous licence libre.Bien que les systèmes de bases de données modernes adaptent les garanties de cohérence à la demande de l’utilisateur, anticiper le niveau de cohérence requis pour chaque opération reste difficile pour un développeur d’application. La deuxième contribution de cette thèse cherche à résoudre ce problème en permettant à la base de données de remplacer le niveau de cohérence défini par défaut par d’autres règles définies à partir d’informations externes. Ces informations peuvent être fournies par l’administrateur ou un service extérieur. Dans cette thèse, nous validons ce modèle à l’aide d’une implémentation au sein du système de bases de données distribué Cassandra. La troisième contribution de cette thèse concerne la résolution des conflits de mise à jour. La résolution de ce type de conflits nécessite de retenir toutes les valeurs possibles d’un objet pour permettre la résolution du conflit grâce à une connaissance spécifique côté client. Ceci implique des coûts supplémentaires en termes de débit et de latence. Dans cette thèse nous discutons le besoin et la conception d’un nouveau type d’objet distribué, le registre à priorité, qui utilise une stratégie de détection et de résolution de conflits spécifique au domaine, et l’implante côté serveur. Notre approche utilise la notion d’ordre de remplacement spécifique. Nous montrons qu’un type de donnée paramètrée par un tel ordre peut fournir une solution efficace pour les applications demandant des solutions spécifiques à la résolution des conflits. Nous décrivons aussi l’implémentation d’une preuve de concept au sein de Cassandra
The main contributions of this thesis are three folds. The first contribution of the thesis focuses on an efficient way to control stale reads in modern database systems with the help of a new consistency protocol called LibRe. LibRe is an acronym for Library for Replication. The main goal of the LibRe protocol is to ensure data consistency by contacting a minimum number of replica nodes during read and write operations with the help of a library information. According to the protocol, during write operations each replica node updates a registry (library) asynchronously with the recent version identifier of the updated data. Forwarding the read requests to a right replica node referring the registry information helps to control stale reads during read operations. Evaluation of data consistency remains challenging both via simulation as well as in a real world setup. Hence, we implemented a new simulation toolkit called Simizer that helps to evaluate the performance of different consistency policies in a fast and efficient way. We also extended an existing benchmark tool YCSB that helps to evaluate the consistency-latency tradeoff offered by modern database systems. The codebase of the simulator and the extended YCSB are made open-source for public access. The performance of the LibRe protocol is validated both via simulation as well as in a real setup with the help of extended YCSB.Although the modern database systems adapt the consistency guarantees of the system per query basis, anticipating the consistency level of an application query in advance during application development time remains challenging for the application developers. In order to overcome this limitation, the second contribution of the thesis focuses on enabling the database system to override the application-defined consistency options during run time with the help of an external input. The external input could be given by a data administrator or by an external service. The thesis validates the proposed model with the help of a prototype implementation inside the Cassandra distributed storage system.The third contribution of the thesis focuses on resolving update conflicts. Resolving update conflicts often involve maintaining all possible values and perform the resolution via domain-specific knowledge at the client side. This involves additional cost in terms of network bandwidth and latency, and considerable complexity. In this thesis, we discuss the motivation and design of a novel data type called priority register that implements a domain-specific conflict detection and resolution scheme directly at the database side, while leaving open the option of additional reconciliation at the application level. Our approach uses the notion of an application-defined replacement ordering and we show that a data type parameterized by such an order can provide an efficient solution for applications that demand domain-specific conflict resolution. We also describe the proof of concept implementation of the priority register inside Cassandra. The conclusion and perspectives of the thesis work are summarized at the end
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Flitti, Farid. "Techniques de réduction de données et analyse d'images multispectrales astronomiques par arbres de Markov." Phd thesis, Université Louis Pasteur - Strasbourg I, 2005. http://tel.archives-ouvertes.fr/tel-00156963.

Повний текст джерела
Анотація:
Le développement de nouveaux capteurs multispectraux en imagerie astronomique permet l'acquisition de données d'une grande richesse. Néanmoins, la classification d'images multidimensionnelles se heurte souvent au phénomène de Hughes : l'augmentation de la dimensionnalité s'accompagne d'un accroissement du nombre de paramètres du modèle et donc inévitablement une baisse de précision de leur estimation entrainant une dégradation de la qualité de la segmentation. Il est donc impératif d'écarter l'information redondante afin de réaliser des opérations de segmentation ou de classification robustes. Dans le cadre de cette thèse, nous avons propose deux méthodes de réduction de la dimensionnalité pour des images multispectrales : 1) le regroupement de bandes suivis de projections locales ; 2) la réduction des cubes radio par un modèle de mélange de gaussiennes. Nous avons également propose un schéma de réduction/segmentation jointe base sur la régularisation du mélange d'analyseurs en composantes principales probabilistes (MACPP). En se qui concerne la tâche de segmentation, nous avons choisie une approche bayésienne s'appuyant sur des modèles hiérarchiques récents a base d'arbres de Markov cache et couple. Ces modèles permettent en effet un calcul rapide et exact des probabilités a posteriori. Pour le terme d'attache aux données, nous avons utilisée la loi gaussienne multidimensionnelle classique, la loi gaussienne généralisée multidimensionnelles formulée grâce à la théorie des copules et la vraisemblance par rapport au modèle de l'ACP probabiliste (dans le cadre de la MACPP régularisée). L'apport majeur de ce travail consiste donc a proposer différents modèles markoviens hiérarchiques de segmentation adaptés aux données multidimensionnelles multirésolutions. Leur exploitation pour des données issues d'une analyse par ondelettes adaptée au contexte astronomique nous a permis de développer des techniques de débruitage et de fusion d'images astronomiques multispectrales nouvelles. Tous les algorithmes sont non supervises et ont été valides sur des images synthétiques et réelles.
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Flitti, Farid. "Techniques de réduction de données et analyse d'images multispéctrales astronomiques par arbres de Markov." Université Louis Pasteur (Strasbourg) (1971-2008), 2005. https://publication-theses.unistra.fr/public/theses_doctorat/2005/FLITTI_Farid_2005.pdf.

Повний текст джерела
Анотація:
Le développement des capteurs multispectraux en imagerie astronomique permet l'acquisition de données très riches. Néanmoins, la classification d'images multidimensionnelles se heurte souvent au phénomène de Hughes : l'augmentation de la dimensionalité induit l’accroissement du nombre de paramètres du modèle ce qui cause la baisse de précision de leur estimation entraînant une dégradation de la qualité de la segmentation. Il est donc impératif d'écarter l'information redondante pour réaliser des opérations de segmentation ou de classification robustes. Dans ce travail, nous avons proposé deux méthodes de réduction de la dimensionnalité pour des images multispectrales : 1) le regroupement de bandes suivis de projections locales ; 2) la réduction des cubes radio par un modèle de mélange de gaussiennes. Nous avons également proposé un schéma de réduction/segmentation jointe basé sur la régularisation du mélange d'analyseurs en composantes principales probabilistes (MACPP). Pour la tâche de segmentation, nous avons choisie une approche bayésienne s'appuyant sur des modèles hiérarchiques récents à base d'arbres de Markov caché et couple. Ces modèles permettent un calcul rapide et exact des probabilités a posteriori. Pour le terme d'attache aux données, nous avons utilisée la loi gaussienne multidimensionnelle, la loi gaussienne généralisée multidimensionnelle formulée grâce à la théorie des copules et la vraisemblance par rapport au modèle de l'ACP probabiliste (MACPP régularisée). L'apport majeur de ce travail consiste à proposer différents modèles markoviens hiérarchiques de segmentation adaptés aux données multidimensionnelles et multirésolutions. Leur exploitation pour des données issues d'une analyse par ondelettes adaptée au contexte astronomique nous a permis de développer des techniques de débruitage et de fusion d'images astronomiques multispectrales nouvelles. Tous les algorithmes sont non supervisés et ont été validés sur des images synthétiques et réelles
The development of astronomical multispectral sensors allows data of a great richness. Nevertheless, the classification of multidimensional images is often limited by Hughes phenomenon: when dimensionality increases the number of parameters of the model grows and the precision of their estimates falls inevitably, therefore the quality of the segmentation dramatically decreases. It is thus imperative to discard redundant information in order to carry out robust segmentation or classification. In this thesis, we have proposed two methods for multispectral image dimensionnality reduction: 1) bands regrouping followed by local projections; 2) radio cubes reduction by a mixture of Gaussians model. We have also proposed joint reduction/segmentation scheme based on the regularization of the mixture of probabilistic principal components analyzers (MPPCA). For the segmentation task, we have used a Bayesian approach based on hierarchical Markov models namely the hidden Markov tree and the pairwise Markov tree. These models allow fast and exact computation of the a posteriori probabilities. For the data driven term, we have used three formulations: 1) the classical multidimensional Gaussian distribution 2) the multidimensional generalized Gaussian distribution formulated using copulas theory 3) the likelihood of the probabilistic PCA model (within the framework of the regularized MPPCA). The major contribution of this work consists in introducing various hierarchical Markov models for multidimensional and multiresolution data segmentation. Their exploitation for data issued from wavelets analysis, adapted to the astronomical context, enabled us to develop new denoising and fusion techniques of multispectral astronomical images. All our algorithms are unsupervised and were validated on synthetic and real images
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Chen, Fati. "Réduction de l'encombrement visuel : Application à la visualisation et à l'exploration de données prosopographiques." Thesis, Université de Montpellier (2022-….), 2022. http://www.theses.fr/2022UMONS023.

Повний текст джерела
Анотація:
La prosopographie est utilisée par les historiens pour désigner des notices biographiques afin d'étudier des caractéristiques communes d'un groupe d'acteurs de l'histoire au moyen d'une analyse collective de leur vie. La visualisation d'informations présente des perspectives intéressantes pour analyser les données prosopographiques. C'est dans ce contexte que se situe le travail présenté dans ce mémoire. Dans un premier temps, nous présentons la plateforme ProsoVis conçue pour analyser et naviguer dans des données prosopographiques. Nous décrivons les différents besoins exprimés et détaillons les choix de conception ainsi que les techniques de visualisation employées. Nous illustrons son utilisation avec la base Siprojuris qui contient les données sur la carrière des enseignants de droit de 1800 à 1950. La visualisation d'autant de données pose des problèmes d'encombrement visuel. Dans ce contexte, nous abordons la problématique des chevauchements des nœuds dans un graphe. Différentes approches existent mais il est difficile de les comparer car leurs évaluations ne sont pas basées sur les mêmes critères de qualité. Nous proposons donc une étude de l'état de l'art et comparons les résultats des algorithmes sur une liste homogène de critères. Enfin, nous abordons une autre problématique d'encombrement visuel au sein d'une carte et proposons une approche de regroupement spatial agglomératif, F-SAC, beaucoup plus rapide que les propositions de l'état de l'art tout en garantissant la même qualité de résultats
Prosopography is used by historians to designate biographical records in order to study common characteristics of a group of historical actors through a collective analysis of their lives. Information visualization presents interesting perspectives for analyzing prosopographic data. It is in this context that the work presented in this thesis is situated. First, we present the ProsoVis platform to analyze and navigate through prosopographic data. We describe the different needs expressed and detail the design choices as well as the different views. We illustrate its use with the Siprojuris database which contains data on the careers of law teachers from 1800 to 1950. Visualizing so much data induces visual cluttering problems. In this context, we address the problem of overlapping nodes in a graph. Even if approaches exist, it is difficult to compare them because their respective evaluations are not based on the same quality criteria. We therefore propose a study of the state-of-the-art algorithms by comparing their results on the same criteria. Finally, we address a similar problem of visual cluttering within a map and propose an agglomeration spatial clustering approach, F-SAC, which is much faster than the state-of-the-art proposals while guaranteeing the same quality of results
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Teixeira, Ramachrisna. "Traitement global des observations méridiennes de l'Observatoire de Bordeaux." Bordeaux 1, 1990. http://www.theses.fr/1990BOR10618.

Повний текст джерела
Анотація:
Usuellement les observations meridiennes sont groupees en series qui sont reduites separement, et le systeme instrumental est fixe par les observations d'etoiles de repere. Dans ce travail, nous traitons les donnees acquises pendant deux ans avec la lunette meridienne de bordeaux, en considerant simultanement toutes les observations. Ainsi, nous sommes amenes a resoudre un seul probleme de moindres carres dont les inconnues ne sont plus uniquement les parametres instrumentaux mais aussi les positions de toutes les etoiles. Dans ce cas, toutes les etoiles contribuent a la definition du systeme instrumental et, par consequent, nous sommes moins tributaires des catalogues de repere. Les solutions du systeme d'equations resultant, qui contient quelques dizaines de milliers d'equations et des milliers d'inconnues et est singulier, sont obtenues par une adaptation de la methode iterative de gauss-seidel. La convergence des iterations est demontree et les resultats ainsi obtenus sont presentes et analyses
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Tissot, Gilles. "Réduction de modèle et contrôle d'écoulements." Thesis, Poitiers, 2014. http://www.theses.fr/2014POIT2284/document.

Повний текст джерела
Анотація:
Le contrôle d'écoulements turbulents est un enjeu majeur en aérodynamique. Cependant, la présence d'un grand nombre de degrés de libertés et d'une dynamique complexe rend délicat la modélisation dynamique de ces écoulements qui est pourtant nécessaire à la conception d'un contrôle efficace. Au cours de cette thèse, différentes directions ont été suivies afin de développer des modèles réduits dans des configurations réalistes d'écoulements et d'utiliser ces modèles pour le contrôle.Premièrement, la décomposition en modes dynamiques (DMD), et certaines de ses variantes, ont été exploitées en tant que base réduite afin d'extraire au mieux le comportement dynamique de l'écoulement. Par la suite, nous nous sommes intéressés à l'assimilation de données 4D-Var qui permet de combiner des informations inhomogènes provenant d'un modèle dynamique, d'observations et de connaissances a priori du système. Nous avons ainsi élaboré des modèles réduits POD et DMD d'un écoulement turbulent autour d'un cylindre à partir de données expérimentales PIV. Finalement, nous avons considéré le contrôle d'écoulement dans un contexte d'interaction fluide/structure. Après avoir montré que les mouvements de solides immergés dans le fluide pouvaient être représentés comme une contrainte supplémentaire dans le modèle réduit, nous avons stabilisé un écoulement de sillage de cylindre par oscillation verticale
Control of turbulent flows is still today a challenge in aerodynamics. Indeed, the presence of a high number of active degrees of freedom and of a complex dynamics leads to the need of strong modelling efforts for an efficient control design. During this PhD, various directions have been followed in order to develop reduced-order models of flows in realistic situations and to use it for control. First, dynamic mode decomposition (DMD), and some of its variants, have been exploited as reduced basis for extracting at best the dynamical behaviour of the flow. Thereafter, we were interested in 4D-variational data assimilation which combines inhomogeneous informations coming from a dynamical model, observations and an a priori knowledge of the system. POD and DMD reduced-order models of a turbulent cylinder wake flow have been successfully derived using data assimilation of PIV measurements. Finally, we considered flow control in a fluid-structure interaction context. After showing that the immersed body motion can be represented as an additional constraint in the reduced-order model, we stabilized a cylinder wake flow by vertical oscillations
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Laga, Arezki. "Optimisation des performance des logiciels de traitement de données sur les périphériques de stockage SSD." Thesis, Brest, 2018. http://www.theses.fr/2018BRES0087/document.

Повний текст джерела
Анотація:
Nous assistons aujourd’hui à une croissance vertigineuse des volumes de données. Cela exerce une pression sur les infrastructures de stockage et les logiciels de traitement de données comme les Systèmes de Gestion de Base de Données (SGBD). De nouvelles technologies ont vu le jour et permettent de réduire la pression exercée par les grandes masses de données. Nous nous intéressons particulièrement aux nouvelles technologies de mémoires secondaires comme les supports de stockage SSD (Solid State Drive) à base de mémoire Flash. Les supports de stockage SSD offrent des performances jusqu’à 10 fois plus élevées que les supports de stockage magnétiques. Cependant, ces nouveaux supports de stockage offrent un nouveau modèle de performance. Cela implique l’optimisation des coûts d’E/S pour les algorithmes de traitement et de gestion des données. Dans cette thèse, nous proposons un modèle des coûts d’E/S sur SSD pour les algorithmes de traitement de données. Ce modèle considère principalement le volume des données, l’espace mémoire alloué et la distribution des données. Nous proposons également un nouvel algorithme de tri en mémoire secondaire : MONTRES. Ce dernier est optimisé pour réduire le coût des E/S lorsque le volume de données à trier fait plusieurs fois la taille de la mémoire principale. Nous proposons enfin un mécanisme de pré-chargement de données : Lynx. Ce dernier utilise un mécanisme d’apprentissage pour prédire et anticiper les prochaines lectures en mémoire secondaire
The growing volume of data poses a real challenge to data processing software like DBMS (DataBase Management Systems) and data storage infrastructure. New technologies have emerged in order to face the data volume challenges. We considered in this thesis the emerging new external memories like flash memory-based storage devices named SSD (Solid State Drive).SSD storage devices offer a performance gain compared to the traditional magnetic devices.However, SSD devices offer a new performance model that involves 10 cost optimization for data processing and management algorithms.We proposed in this thesis an 10 cost model to evaluate the data processing algorithms. This model considers mainly the SSD 10 performance and the data distribution.We also proposed a new external sorting algorithm: MONTRES. This algorithm includes optimizations to reduce the 10 cost when the volume of data is greater than the allocated memory space by an order of magnitude. We proposed finally a data prefetching mechanism: Lynx. This one makes use of a machine learning technique to predict and to anticipate future access to the external memory
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Borba, Ribeiro Heverson. "L'Exploitation de Codes Fontaines pour un Stockage Persistant des Données dans les Réseaux d'Overlay Structurés." Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00763284.

Повний текст джерела
Анотація:
L'importante augmentation de la quantité d'informations sur Internet a contribué à une forte demande pour un stockage persistant des données. Les architectures centralisées de stockage de données sont financièrement onéreuses, faiblement évolutives et vulnérables aux attaques car elles constituent un point unique de défaillance du système. Ces dernières années, les architectures pair-à-pair ont mergé comme une alternative pour la mise en place d'une architecture de stockage persistant des données. Les systèmes pair-à-pair sont fondamentalement évolutifs et moins chers que les modèles client-serveur. Cependant, pour construire des systèmes de stockage persistant en utilisant le modèle pair-à-pair, deux défis fondamentaux doivent être abordés. i) Faire face à la dynamique des pairs, en raison de leur connectivité transitoire. ii) Réduire l'impact du comportement malicieux des pairs. La réplication est une technique régulièrement utilisée pour faire face à la connectivité transitoire des systèmes de stockage pair-à-pair. Toutefois, selon le ratio d'arrivées et de départs des pairs dans le système, cette technique présente un impact négatif en termes de stockage et de bande passante. Les réseaux pair-à-pair qui offrent la tolérance aux fautes byzantins, font généralement l'hypothèse que seulement une fraction limitée des pairs dans le système sont des pairs de comportements malveillants. Toutefois, l'estimation de la proportion de pairs malveillants dans un système pair-à-pair est une opération peu fiable. Ainsi, créer une architecture qui fournit le stockage persistant de données fiables et qui permet de faire face à tous ces problèmes est une contribution souhaitable. Dans cette thèse, nous proposons Datacube. Datacube est une architecture pair-à-pair de stockage de données scalable et efficace qui fournit un stockage persistant en utilisant un schéma de redondance hybride sur un réseau overlay structuré basée sur des clusters. Le schéma de redondance hybride proposé par Datacube assure la persistance et l'intégrité des données garantissant une forte résilience aux arrivées et départs de pairs même en présence de pairs malveillants. Datacube repose sur les propriétés des codes fontaines pour mettre en place son schéma de redondance hybride. Les valuations analytiques ont montré que Datacube est notamment performant en termes de disponibilité, de surcharge de stockage et de bande passante. Nous avons aussi effectué des évaluations pratiques concernant les performances de deux types de codes fontaines dans le contexte de systèmes de stockage pair-à-pair. Ces évaluations ont aidé à comprendre l'impact des paramètres de codage sur les performances de Datacube. À notre connaissance, ceci est la première étude complète qui permet aux développeurs d'applications de trouver les valeurs des paramètres de codage adaptés au contexte des réseaux pair-à-pair.
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Carpen-Amarie, Alexandra. "Utilisation de BlobSeer pour le stockage de données dans les Clouds: auto-adaptation, intégration, évaluation." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00696012.

Повний текст джерела
Анотація:
L'émergence de l'informatique dans les nuages met en avant de nombreux défis qui pourraient limiter l'adoption du paradigme Cloud. Tandis que la taille des données traitées par les applications Cloud augmente exponentiellement, un défi majeur porte sur la conception de solutions efficaces pour la gestion de données. Cette thèse a pour but de concevoir des mécanismes d'auto-adaptation pour des systèmes de gestion de données, afin qu'ils puissent répondre aux exigences des services de stockage Cloud en termes de passage à l'échelle, disponibilité et sécurité des données. De plus, nous nous proposons de concevoir un service de données qui soit à la fois compatible avec les interfaces Cloud standard dans et capable d'offrir un stockage de données à haut débit. Pour relever ces défis, nous avons proposé des mécanismes génériques pour l'auto-connaissance, l'auto-protection et l'auto-configuration des systèmes de gestion de données. Ensuite, nous les avons validés en les intégrant dans le logiciel BlobSeer, un système de stockage qui optimise les accès hautement concurrents aux données. Finalement, nous avons conçu et implémenté un système de fichiers s'appuyant sur BlobSeer, afin d'optimiser ce dernier pour servir efficacement comme support de stockage pour les services Cloud. Puis, nous l'avons intégré dans un environnement Cloud réel, la plate-forme Nimbus. Les avantages et les désavantages de l'utilisation du stockage dans le Cloud pour des applications réelles sont soulignés lors des évaluations effectuées sur Grid'5000. Elles incluent des applications à accès intensif aux données, comme MapReduce, et des applications fortement couplées, comme les simulations atmosphériques.
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Dandoush, Abdulhalim. "L'Analyse et l'Optimisation des Systèmes de Stockage de Données dans les Réseaux Pair-à-Pair." Phd thesis, Université de Nice Sophia-Antipolis, 2010. http://tel.archives-ouvertes.fr/tel-00470493.

Повний текст джерела
Анотація:
Cette thèse évalue les performances de systèmes de stockage de données sur des réseaux de pairs. Ces systèmes reposent sur trois piliers: la fragmentation des données et leur dissémination chez les pairs, la redondance des données afin de faire face aux éventuelles indisponibilités des pairs et l'existence d'un mécanisme de recouvrement des données perdues ou temporairement indisponibles. Nous modélisons deux mécanismes de recouvrement des données par des chaînes de Markov absorbantes. Plus précisément, nous évaluons la qualité du service rendu aux utilisateurs en terme de longévité et de disponibilité des données de chaque mécanisme. Le premier mécanisme est centralisé et repose sur l'utilisation d'un serveur pour la reconstruction des donnée perdus. Le second est distribué : la reconstruction des fragments perdus met en oeuvre, séquentiellement, plusieurs pairs et s'arrête dès que le niveau de redondance requis est atteint. Les principales hypothèses faites dans nos modèles sont validées soit par des simulations soit par des traces réelles recueillies dans différents environnements distribués. Pour les processus de téléchargement et de recouvrement des données nous proposons un modèle de simulation réaliste qui est capable de prédire avec précision le comportement de ces processus mais le temps de simulation est long pour de grands réseaux. Pour surmonter cette restriction nous proposons et analysons un algorithme efficace au niveau flux. L'algorithme est simple et utilise le concept de (min-max). Il permet de caractériser le temps de réponse des téléchargements en parallèle dans un système de stockage distribué.
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Loisel, Loïc. "Claquage Electrique et Optique d'Allotropes du Carbone : Mécanismes et Applications pour le Stockage de Données." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX021/document.

Повний текст джерела
Анотація:
Aujourd’hui, les applications de stockage de données utilisent principalement deux types de matériaux : les chalcogénures pour le stockage optique (e.g. Blu-Ray) et le silicium pour le stockage électronique (e.g. mémoires Flash). Malgré le fait qu’ils se soient avérés les plus efficaces pour des applications répandues, ces matériaux ont des limitations. Récemment, avec la montée en puissance du graphene, les allotropes du carbone ont été étudiés à la fois pour leurs propriétés intrinsèques et pour des applications ; ils ont des propriétés électroniques, thermiques et mécaniques très intéressantes qui peuvent rendre ces matériaux plus efficaces que les chalcogénures ou le silicium pour certaines applications. Dans cette thèse, nous étudions la faisabilité et le potentiel du carbone comme matériau pour le stockage de données.Nous nous concentrons d’abord sur le développement de stockage optique. Nous découvrons que les lasers continus et pulsés peuvent être utilisés pour induire des changements de phase réversibles dans des couches minces de carbone, confirmant la possibilité d’utiliser le carbone comme un matériau pour le stockage optique. De plus, nous découvrons plusieurs nouveaux phénomènes, que nous expliquons en utilisant des techniques de caractérisation avancées et de la modélisation par ordinateur de la propagation thermique dans le carbone.Ensuite, nous nous concentrons sur le stockage de données électronique en développant des mémoires à base de graphene qui peuvent être dans deux états de résistance bien séparés pour un grand nombre de cycles. Pour évaluer le potentiel de cette technologie, on caractérise le mécanisme de changement de résistance et on développe un modèle électromécanique qui permet de prédire les meilleures performances atteignables : ces mémoires ont le potentiel de commuter bien plus rapidement que les mémoires Flash tout en étant non-volatiles
Today, data storage applications rely mainly on two types of materials: chalcogenides for optical storage (e.g. Blu-Ray) and silicon for electronic storage (e.g. Flash memory). While these materials have proven to be the most efficient for widespread applications, both have limitations. Recently, with the rise of graphene, carbon allotropes have been studied both for their intrinsic properties and for applications; graphene and other carbon allotropes have very interesting electronic, thermal and mechanical properties that can make these materials more efficient than either chalcogenides or silicon for certain applications. In this thesis, we study the feasibility and potential of the usage of carbon as a data storage material.Firstly, we focus on developing optical data storage. It is found that both continuous-wave and pulsed lasers can be used to induce reversible phase changes in carbon thin films, thus opening the way toward carbon-based data storage. Along the way, several phenomena are discovered, shown and explained by using advanced characterization techniques and thermal modelling.Secondly, we focus on electronic data storage by developing graphene-based memories that are found to switch reliably between two well-separated resistance states for a large number of cycles. To assess the potential of this new technology, we characterize the switching mechanism and develop an electro-mechanical model enabling to predict the best performances attainable: these memories would potentially be much faster than Flash memories while playing the same role (non-volatile storage)
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Jaiman, Vikas. "Amélioration de la prédictibilité des performances pour les environnements de stockage de données dans les nuages." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM016/document.

Повний текст джерела
Анотація:
De nos jours, les utilisateurs de services interactifs comme le e-commerce, ou les moteurs de recherche, ont de grandes attentes sur la performance et la réactivité de ces services. En effet, les études ont montré que des lenteurs (même pendant une courte durée) impacte directement le chiffre d'affaire. Avoir des performances prédictives est donc devenu une priorité pour ces fournisseurs de services depuis une dizaine d'années.Mais empêcher la variabilité dans les systèmes de stockage distribué est un challenge car les requêtes des utilisateurs finaux transitent par des centaines de servers et les problèmes de performances engendrés par chacun de ces serveurs peuvent influencer sur la latence observée. Même dans les environnements correctement dimensionnés, des problèmes comme de la contention sur les ressources partagés ou un déséquilibre de charge entre les serveurs influent sur les latences des requêtes et en particulier sur la queue de leur distribution (95ème et 99ème centile).L’objectif de cette thèse est de développer des mécanises permettant de réduire les latences et d’obtenir des performances prédictives dans les environnements de stockage de données dans les nuages. Une contre-mesure efficace pour réduire la latence de queue dans les environnements de stockage de données dans les nuages est de fournir des algorithmes efficaces pour la sélection de réplique. Dans la sélection de réplique, une requête tentant d’accéder à une information donnée (aussi appelé valeur) identifiée par une clé unique est dirigée vers la meilleure réplique présumée. Cependant, sous des charges de travail hétérogènes, ces algorithmes entraînent des latences accrues pour les requêtes ayant un court temps d'exécution et qui sont planifiées à la suite de requêtes ayant des long temps d’exécution. Nous proposons Héron, un algorithme de sélection de répliques qui gère des charges de travail avec des requêtes ayant un temps d’exécution hétérogène. Nous évaluons Héron dans un cluster de machines en utilisant un jeu de données synthétique inspiré du jeu de données de Facebook ainsi que deux jeux de données réels provenant de Flickr et WikiMedia. Nos résultats montrent que Héron surpasse les algorithmes de l’état de l’art en réduisant jusqu’à 41% la latence médiane et la latence de queue.Dans la deuxième contribution de cette thèse, nous nous sommes concentrés sur les charges de travail multi-GET afin de réduire la latence dans les environnements de stockage de données dans les nuages Le défi consiste à estimer les opérations limitantes et à les planifier sur des serveurs non-coordonnés avec un minimum de surcoût. Pour atteindre cet objectif, nous présentons TailX, un algorithme d’ordonnancement de tâches multi-GET qui réduit les temps de latence de queue sous des charges de travail hétérogènes. Nous implémentons TailX dans Cassandra, une base de données clé-valeur largement utilisée. Il en résulte une amélioration des performances globales des environnements de stockage de données dans les nuages pour une grande variété de charges de travail hétérogènes
Today, users of interactive services such as e-commerce, web search have increasingly high expectations on the performance and responsiveness of these services. Indeed, studies have shown that a slow service (even for short periods of time) directly impacts the revenue. Enforcing predictable performance has thus been a priority of major service providers in the last decade. But avoiding latency variability in distributed storage systems is challenging since end user requests go through hundreds of servers and performance hiccups at any of these servers may inflate the observed latency. Even in well-provisioned systems, factors such as the contention on shared resources or the unbalanced load between servers affect the latencies of requests and in particular the tail (95th and 99th percentile) of their distribution.The goal of this thesis to develop mechanisms for reducing latencies and achieve performance predictability in cloud data stores. One effective countermeasure for reducing tail latency in cloud data stores is to provide efficient replica selection algorithms. In replica selection, a request attempting to access a given piece of data (also called value) identified by a unique key is directed to the presumably best replica. However, under heterogeneous workloads, these algorithms lead to increased latencies for requests with a short execution time that get scheduled behind requests with large execution times. We propose Héron, a replica selection algorithm that supports workloads of heterogeneous request execution times. We evaluate Héron in a cluster of machines using a synthetic dataset inspired from the Facebook dataset as well as two real datasets from Flickr and WikiMedia. Our results show that Héron outperforms state-of-the-art algorithms by reducing both median and tail latency by up to 41%.In the second contribution of the thesis, we focus on multiget workloads to reduce the latency in cloud data stores. The challenge is to estimate the bottleneck operations and schedule them on uncoordinated backend servers with minimal overhead. To reach this objective, we present TailX, a task aware multiget scheduling algorithm that reduces tail latencies under heterogeneous workloads. We implement TailX in Cassandra, a widely used key-value store. The result is an improved overall performance of the cloud data stores for a wide variety of heterogeneous workloads
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Soyez, Olivier. "Stockage dans les systèmes pair à pair." Phd thesis, Université de Picardie Jules Verne, 2005. http://tel.archives-ouvertes.fr/tel-00011443.

Повний текст джерела
Анотація:
Cette thèse a pour objectif de définir un système de stockage pair à pair, nommé Us. Le but principal de Us est de garantir la pérennité des données. Pour cela, Us associe un mécanisme de redondance des données à un processus dynamique de reconstruction.

Dans un premier temps, nous avons créé un prototype Us et conçu une interface utilisateur, nommée UsFS, de type système de fichiers. Un procédé de journalisation des données est inclus dans UsFS.

Ensuite, nous nous sommes intéressés aux distributions de données au sein du réseau Us. Le but de ces distributions est de minimiser le dérangement occasionné par le processus de reconstruction pour chaque pair. Enfin, nous avons étendu notre schéma de distribution pour gérer le comportement dynamique des pairs et prendre en compte les corrélations de panne.
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Pasquier, Nicolas. "Data Mining : algorithmes d'extraction et de réduction des règles d'association dans les bases de données." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2000. http://tel.archives-ouvertes.fr/tel-00467764.

Повний текст джерела
Анотація:
L'extraction de connaissances dans les bases de données, également appelé data mining, désigne le processus non trivial permettant d'extraire des informations et des connaissances utiles qui sont enfouies dans les bases de données, les entrepôts de données (data warehouse) ou autres sources de données. Les recherches en ce domaine sont motivées par la croissance très rapide des volumes de données stockées et le potentiel de telles informations pour l'aide à la décision dans de nombreux domaines. Dans ce mémoire, nous traitons du problème de la génération efficace des règles d'association. Une règle d'association est une implication conditionnelle entre ensembles d'attributs binaires appelés items. Dans l'ensemble des travaux existants, ce problème est décomposé en deux sous-problèmes qui sont la recherche des ensembles fréquents d'items et la génération des règles d'association à partir de ces ensembles. Le premier sous-problème a une complexité exponentielle dans la taille de la relation en entrée et nécessite de parcourir à plusieurs reprises la totalité de la relation. L'extraction des ensembles fréquents d'items constitue donc la phase la plus coûteuse en termes de temps d'exécution et d'espace mémoire pour les algorithmes d'extraction des règles d'association. Nous proposons une nouvelle sémantique pour le problème de l'extraction des règles d'association basée sur la connexion de Galois d'une relation binaire finie. Utilisant cette sémantique, nous démontrons que les ensembles fermés fréquents d'items constituent une base, c'est à dire un ensemble générateur non redondant, pour les ensembles fréquents d'items et les règles d'association. Nous proposons deux nouveaux algorithmes, nommés Close et A-Close, permettant l'extraction des ensembles fermés fréquents d'items, à partir desquels les ensembles fréquents d'items et les règles d'association peuvent être dérivés sans accéder au jeu de données. Les résultats expérimentaux démontrent que ces algorithmes permettent de réduire les temps d'extraction des règles d'association dans le cas de jeux de données constitués de données denses ou corrélées. Utilisant la sémantique définie, nous proposons d'améliorer la pertinence et l'utilité des règles d'association extraites en limitant l'extraction à des bases pour les règles d'association. Nous adaptons pour cela les bases pour les règles d'implication définies en analyse de données et nous définissons de nouvelles bases constituées des règles non redondantes d'antécédents minimaux et de conséquences maximales à partir des ensembles fermés fréquents. Nous proposons également des algorithmes efficaces de génération de ces bases.
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Soler, Maxime. "Réduction et comparaison de structures d'intérêt dans des jeux de données massifs par analyse topologique." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS364.

Повний текст джерела
Анотація:
Dans cette thèse, nous proposons différentes méthodes, basées sur l'analyse topologique de données, afin de répondre aux problématiques modernes concernant l'analyse de données scientifiques. Dans le cas de données scalaires, extraire un savoir pertinent à partir de données statiques, de données qui varient dans le temps, ou données d'ensembles s'avère de plus en plus difficile. Nos approches pour la réduction et l'analyse de telles données reposent sur l'idée de définir des structures d'intérêt dans les champs scalaires à l’aide d’abstractions topologiques. Dans un premier temps, nous proposons un nouvel algorithme de compression avec pertes offrant de fortes garanties topologiques, afin de préserver les structures topologiques tout au long de la compression. Des extensions sont proposées pour offrir un contrôle supplémentaire sur l'erreur géométrique. Nous ciblons ensuite les données variables dans le temps en proposant une nouvelle méthode de suivi des structures topologiques, basée sur des métriques topologiques. Ces métriques sont étendues pour être plus robustes. Nous proposons un nouvel algorithme efficace pour les calculer, obtenant des accélérations de plusieurs ordres de grandeur par rapport aux approches de pointe. Enfin, nous appliquons et adaptons nos méthodes aux données d'ensemble relatives à la simulation de réservoir, dans un cas de digitation visqueuse en milieu poreux. Nous adaptons les métriques topologiques pour quantifier l’écart entre les simulations et la vérité terrain, évaluons les métriques proposées avec le retour d’experts, puis implémentons une méthode de classement in-situ pour évaluer la fidélité des simulations
In this thesis, we propose different methods, based on topological data analysis, in order to address modern problematics concerning the increasing difficulty in the analysis of scientific data. In the case of scalar data defined on geometrical domains, extracting meaningful knowledge from static data, then time-varying data, then ensembles of time-varying data proves increasingly challenging. Our approaches for the reduction and analysis of such data are based on the idea of defining structures of interest in scalar fields as topological features. In a first effort to address data volume growth, we propose a new lossy compression scheme which offers strong topological guarantees, allowing topological features to be preserved throughout compression. The approach is shown to yield high compression factors in practice. Extensions are proposed to offer additional control over the geometrical error. We then target time-varying data by designing a new method for tracking topological features over time, based on topological metrics. We extend the metrics in order to overcome robustness and performance limitations. We propose a new efficient way to compute them, gaining orders of magnitude speedups over state-of-the-art approaches. Finally, we apply and adapt our methods to ensemble data related to reservoir simulation, for modeling viscous fingering in porous media. We show how to capture viscous fingers with topological features, adapt topological metrics for capturing discrepancies between simulation runs and a ground truth, evaluate the proposed metrics with feedback from experts, then implement an in-situ ranking framework for rating the fidelity of simulation runs
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Benaceur, Amina. "Réduction de modèles en thermo-mécanique." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1140/document.

Повний текст джерела
Анотація:
Cette thèse propose trois nouveaux développements de la méthode des bases réduites (RB) et de la méthode d'interpolation empirique (EIM) pour des problèmes non-linéaires. La première contribution est une nouvelle méthodologie, la méthode progressive RB-EIM (PREIM) dont l'objectif est de réduire le coût de la phase de construction du modèle réduit tout en maintenant une bonne approximation RB finale. L'idée est d'enrichir progressivement l'approximation EIM et l'espace RB, contrairement à l'approche standard où leurs constructions sont disjointes. La deuxième contribution concerne la RB pour les inéquations variationnelles avec contraintes non-linéaires. Nous proposons une combinaison RB-EIM pour traiter la contrainte. En outre, nous construisons une base réduite pour les multiplicateurs de Lagrange via un algorithme hiérarchique qui conserve la positivité des vecteurs cette base. Nous appliquons cette stratégie aux problèmes de contact élastique sans frottement pour les maillages non-coïncidents. La troisième contribution concerne la réduction de modèles avec assimilation de données. Une méthode dédiée a été introduite dans la littérature pour combiner un modèle numérique avec des mesures expérimentales. Nous élargissons son cadre d'application aux problèmes instationnaires en exploitant la méthode POD-greedy afin de construire des espaces réduits pour tout le transitoire temporel. Enfin, nous proposons un nouvel algorithme qui produit des espaces réduits plus représentatifs de la solution recherchée tout en minimisant le nombre de mesures nécessaires pour le problème réduit final
This thesis introduces three new developments of the reduced basis method (RB) and the empirical interpolation method (EIM) for nonlinear problems. The first contribution is a new methodology, the Progressive RB-EIM (PREIM) which aims at reducing the cost of the phase during which the reduced model is constructed without compromising the accuracy of the final RB approximation. The idea is to gradually enrich the EIM approximation and the RB space, in contrast to the standard approach where both constructions are separate. The second contribution is related to the RB for variational inequalities with nonlinear constraints. We employ an RB-EIM combination to treat the nonlinear constraint. Also, we build a reduced basis for the Lagrange multipliers via a hierarchical algorithm that preserves the non-negativity of the basis vectors. We apply this strategy to elastic frictionless contact for non-matching meshes. Finally, the third contribution focuses on model reduction with data assimilation. A dedicated method has been introduced in the literature so as to combine numerical models with experimental measurements. We extend the method to a time-dependent framework using a POD-greedy algorithm in order to build accurate reduced spaces for all the time steps. Besides, we devise a new algorithm that produces better reduced spaces while minimizing the number of measurements required for the final reduced problem
Стилі APA, Harvard, Vancouver, ISO та ін.
49

Schaaf, Thomas. "Couplage inversion et changement d'échelle pour l'intégration des données dynamiques dans les modèles de réservoirs pétroliers." Paris 9, 2003. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2003PA090046.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Pamba, Capo-Chichi Medetonhan Shambhalla Eugène William. "Conception d’une architecture hiérarchique de réseau de capteurs pour le stockage et la compression de données." Besançon, 2010. http://www.theses.fr/2010BESA2031.

Повний текст джерела
Анотація:
Les récentes avancées dans les divers domaines liés à la micro-électronique, à l'informatique et aux réseaux sans fil ont donné naissance à de nouvelles thématiques de recherche. Les réseaux de capteurs issus de ces nouveaux progrès technologiques constituent un axe de recherche très fertile. En effet, la capacité réduite des noeuds en teme de calcul, de mémoire et d'énergie génère de nombreuses problématiques intéressantes. Le but de cette thèse est la conception d'une architecture hiérarchique de réseaux de capteurs capables de s'adapter à différents contextes en prenant en compte les contraintes énergétiques et en permettant de fournir des informations riches comme le multimédia à l'utilisateur final. Nous proposons une architecture hiérarchique avec les différents noeuds qui la composent et les technologies sans fil qui les relient. L'économie d'énergie étant un fil conducteur de notre travail et le module de transmission la principale source d'énergie, nous proposons deux nouveaux algorithmes de compression de données permettant d'optimiser l'utilisation du canal de communication. Nous présentons également une solution pour le stockage de grandes quantités d'informations sur les noeuds en integrant le système de fichiers FAT16 sous TinyOS-2. X
Recent advances in various aeras related to micro-electronics, computer science and wireless networks have resulted in the development of new research topics. Sensor networks are one of them. The particularity of this new research direction is the reduced performances of nodes in terms of computation, memory and energy. The purpose of this thesis is the definition of a new hierarchical architecture of sensor networks usable in different contexts by taking into account the sensors constraints and providing a high quality data such as multimedia to the end-users. We present our hierachical architecture with different nodes and the wireless technologies that connect them. Because of the high consumtpionof data transmission, we have developped two data compression algortithms in order to optimize the use of the channel by reducing data transmitted. We also present a solution for storing large amount of data on nodes by integrating the file system FAT16 under TinyOS-2. X
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії