Dissertations / Theses on the topic 'Fragmentation (informatique)'

To see the other types of publications on this topic, follow the link: Fragmentation (informatique).

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 18 dissertations / theses for your research on the topic 'Fragmentation (informatique).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ranéa, Pierre-Guy. "La tolérance aux intrusions par fragmentation-dissémination." Toulouse, INPT, 1989. http://www.theses.fr/1989INPT007H.

Full text
Abstract:
La technique originale proposee met a profit l'isolation physique entre les divers composants et la redondance des ressources du systeme reparti. Cette technique a ete appliquee a l'archivage des fichiers. Ceci a consiste a concevoir a realiser, sur un reseau d'ordinateurs, un service d'archivage tolerant ces fautes accidentelles et les intrusions
APA, Harvard, Vancouver, ISO, and other styles
2

Kapusta, Katarzyna. "Protecting data confidentiality combining data fragmentation, encryption, and dispersal over a distributed environment." Electronic Thesis or Diss., Paris, ENST, 2018. http://www.theses.fr/2018ENST0061.

Full text
Abstract:
La thèse revient sur les techniques de fragmentation en les rendant plus rapides et/ou moins gourmand en mémoire. Le but ultime est de fournir à un utilisateur un ensemble de méthodes de fragmentation rapide pouvant être directement appliqué dans un contexte industrielle afin de renforcer la confidentialité des données stockées ou d'accélérer le processus de protection. Premièrement, une enquête riche sur la fragmentation en tant que moyen de préserver la confidentialité des données a été effectué et a donné comme résultat une vaste analyse de l'état de l'art. Deuxièmement, la famille des algorithmes de type "all-or-nothing" (tout-ou-rien) a été agrandie avec trois nouvelles propositions. Elles sont conçues pour être utilisés dans trois contextes différents: pour la fragmentation des données dans un environnement multi-cloud, un système de stockage distribué quelconque et un environnement composé d'un seul fournisseur de stockage et un dispositif privé. Troisièmement, une manière d'accélérer la fragmentation a été présentée, qui offre de meilleurs performances que le chiffrement de données en utilisant l'algorithme de chiffrement à clé symétrique le plus courant (AES-NI). Quatrièmement, un schéma de fragmentation léger basé sur le codage, la permutation et la dispersion des données a été introduit. Enfin, la fragmentation au sein des réseaux de capteurs a été réexaminée, en particulier dans les réseaux de capteurs sans fils. Dans ce cas, l'accent est mis non seulement sur la performance en matière de fragmentation, mais également sur la réduction des coûts de stockage et de transmission grâce à l'agrégation des données
This thesis dissertation revisits state-of-the-art fragmentation techniques making them faster and cost-efficient. The main focus is put on increasing data confidentiality without deteriorating the processing performance. The ultimate goal is to provide a user with a set of fast fragmentation methods that could be directly applied inside an industrial context to reinforce the confidentiality of the stored data and/or accelerate the fragmentation processing. First, a rich survey on fragmentation as a way of preserving data confidentiality is presented. Second, the family of all-or-nothing transforms is extended with three new proposals. They all aim at protecting encrypted and fragmented data against the exposure of the encryption key but are designed to be employed in three different contexts: for data fragmentation in a multi-cloud environment, a distributed storage system, and an environment composed of one storage provider and one private device. Third, a way of accelerating fragmentation is presented that achieves better performance than data encryption using the most common symmetric-key encryption algorithm. Fourth, a lightweight fragmentation scheme based on data encoding, permuting, and dispersing is introduced. It totally gets rid of data encryption allowing the fragmentation to be performed even faster; up to twice as fast as data encryption. Finally, fragmentation inside sensor networks is revisited, particularly in the Unattended Wireless Sensor Networks. The main focus in this case is put not solely on the fragmentation performance, but also on the reduction of storage and transmission costs by using data aggregation
APA, Harvard, Vancouver, ISO, and other styles
3

Trouessin, Gilles. "Traitements fiables de données confidentielles par fragmentation-redondance-dissémination." Toulouse 3, 1991. http://www.theses.fr/1991TOU30260.

Full text
Abstract:
Ce memoire presente des travaux et resultats, theoriques mais aussi appliques, concernant trois approches permettant de resoudre le probleme des traitements fiables de donnees confidentielles: protection-replication, chiffrement-replication et fragmentation-redondance-dissemination. Ces approches visent a tolerer a la fois des fautes accidentelles et des fautes intentionnelles. L'amelioration de la fiabilite et la preservation de la confidentialite reposent en general sur des techniques antagonistes et sont d'ordinaire abordees separement. Differentes solutions sont presentees et comparees selon un ensemble de criteres relatifs a la surete de fonctionnement, a l'ouverture et aux performances; l'une d'elles, la fragmentation-dissemination et replication, qui semble la plus prometteuse, est approfondie. Les caracteristiques de cette solution sont presentees, en insistant sur les analogies qui peuvent etre constatees avec la parallelisation d'algorithmes. Trois classes de techniques de fragmentation sont definies (tranches de bits, orientee-structure, orientee-parallelisme) et deux modeles d'execution fragmentee (client/serveurs, oriente-objets) sont proposes. Une technique d'evaluation quantitative de la preservation de la confidentialite, issue de la theorie de l'information et reposant sur des mesures d'entropie, est appliquee a la fragmentation par tranches de bits. Des mesures generales d'evaluation comparative sont ainsi obtenues. L'analogie entre fragmentation et parallelisation est etudiees en detail sur des algorithmes paralleles de resolution de systemes lineaires. Une demarche d'evaluation qualitative, qui offre des analogies avec la technique precedente pour ce qui est des types d'information a observer et des niveaux d'appreciation de la preservation de la confidentialite, est appliquee a la fragmentation orientee-parallelisme. Ces deux etudes confirment l'interet de la fragmentation-redondance-dissemination pour tolerer de facon unifiee les fautes accidentelles et les intrusions
APA, Harvard, Vancouver, ISO, and other styles
4

Lin, Ping. "Commande adaptative et régulation automatique d'une unité de broyage du cru en cimenterie." Lyon, INSA, 1992. http://www.theses.fr/1992ISAL0003.

Full text
Abstract:
Le procédé de broyage du cru en cimenterie est un système complexe: multivariable (plusieurs matières premières en service), à fortes perturbations et avec un retard pur important dû à l'analyseur de la composition chimique en fluorescence X. La régulation d'une unité de broyage du cru consiste à maintenir une production maximale de la farine crue avec une granulométrie et une composition désirées et régulières. Cette dernière nécessite une logique de maitrise complète: une commande adaptative, une prédiction à long terme et une optimisation sous contraintes (critères sur la qualité et le coût). Basé sur des connaissances industrielles, un ajustement heuristique de consignes et de coefficients de pondération est mis en pratique afin d'améliorer la performance des algorithmes de commande. Après une étude en simulation, plusieurs applications ont été réalisées dans les usines du groupe Lafarge
In cement manufactory, the raw material blending process, between prehomogeneization silo and clinker kiln, is a multivariable system (several raw materials in use) and coupled with considerable time delay due toX-ray fluorescence analyser. The main goal of blending control is to maintain close to the standard value and to decrease the variance of chemical composition (in terms of composition moduli) of the raw meal by using correcting products. The proposed control strategy consists of four parts: (1) a multivariable predictive control system based on an internai madel; (2) an adaptive control due to on-line estimation for chemical composition of the raw materials; (3) an optimization unit to minimize a qualitycost cri teri on; ( 4) a self-adjustment function of reference values for the special batch process. In order to improve the control performance, an heuristic adaptive supervision is developped to adjust the regulator parameters in lower level. The proposed control policy bas been applied to cement plants of Lafarge Coppée
APA, Harvard, Vancouver, ISO, and other styles
5

Minier, Josselin. "Fragmentation cognitive/informatique de la musique populaire amplifiée : construction d'un système numérique dirigé par une notion de simulacre cinétique." Paris 1, 2011. http://www.theses.fr/2011PA010678.

Full text
Abstract:
Une réflexion systémique envisage la musique populaire amplifiée à partir du son, la considérant en tant que construction issue d'une simulation de l'appréhension cognitive. Cette appréhension s'intègre dans un paradigme de la fragmentation qui remplace celui de la segmentation, habituellement adopté pour l'analyse des structures musicales et sonores. La méthode décrite s'apparente à une fragmentation synthétisant une construction orientée par la notion de simulacre cinétique, à considérer en tant que simulation du mouvement irriguant tous les niveaux cognitifs. Le parcours cognitif proposé relie le percept, étape de transduction sensorielle, le schème, étape de l'intuition rythmique et de la figure, et le concept, étape de symbolisation élaborant un langage, aussi bien en fonction de la dépression sensorielle que de l'impression culturelle. La pop est ainsi appréhendée contextuellement en tant que construction d'un système cognitif inséré dans un méta-système social. Sont élaborées diverses représentations multi-échelles du signal sonore numérique s'appuyant principalement sur le domaine temporel, ainsi que des procédures d'extraction de donnée aptes à effectuer une synthèse par fragments, en vue d'une interprétation musicologique ou d'un développement compositionnel. À travers le méta-concept général de système, c'est tout une appréhension esthétique qui se construit, ré interprétant certains dualismes problématiques, qui le deviennent d'autant plus que l'interactivité des applications informatiques modernes brouille les frontières entre technique et technologie, entre producteur et récepteur, entre matière et forme, et finalement entre son et musique.
APA, Harvard, Vancouver, ISO, and other styles
6

Nicolas, Jean-Christophe. "Machines bases de données parallèles : contribution aux problèmes de la fragmentation et de la distribution." Lille 1, 1991. http://www.theses.fr/1991LIL10025.

Full text
Abstract:
Nous nous intéressons au problème de la fragmentation des objets complexes d'une base de données et à la distribution des objets partiels obtenus sur une machine parallèle. Ce travail a comme cadre celui des machines bases de données sans-partage, sur lesquelles, les opérations sont exécutées là où les données se trouvent. Pour ce type de machine, la répartition de charge est donc fortement dépendante du placement des données. Le modèle de données considéré supporte les notions d'objets complexes, d'identité et de partage d'objets. La fragmentation des objets est réalisée par une extension originale des concepts de fragmentation verticale. Cela nous permet, d'une part, d'augmenter le parallélisme inter-requêtes en introduisant un parallélisme intra-objet et, d'autre part, de gérer de façon adaptée, les agrégations d'objets induites par le modèle de données. La distribution des objets fragmentés (objets partiels) est réalisée par une technique particulière de fragmentation horizontale, qui assure, en relation avec la configuration matérielle disponible, la gestion de la localité entre les différents objets partiels d'un même objet. De plus, l'utilisation de fonctions de hachage simples et adaptables nous permet d'obtenir une distribution uniforme, source d'un taux de parallélisme intra-requête optimal. A la fois pour la fragmentation et pour la distribution des objets, nous utilisons des méthodes quantitatives basées sur l'analyse des principales requêtes soumises au système. Néanmoins, les contraintes physiques sont aussi prises en compte à différents niveaux. En conséquence, le placement obtenu peut être modifié, aussi bien pour des raisons logiques, relatives à l'utilisation des données, que physiques. Ainsi, nous proposons avec cette approche une solution pour la résolution du délicat problème du placement des données sur une machine base de données sans-partage. L'utilisation d'une telle solution s’oriente vers un type de machine où le placement des donnes serait dirigé par leur utilisation et par la configuration matérielle
APA, Harvard, Vancouver, ISO, and other styles
7

Qiu, Han. "Une architecture de protection des données efficace basée sur la fragmentation et le cryptage." Electronic Thesis or Diss., Paris, ENST, 2017. http://www.theses.fr/2017ENST0049.

Full text
Abstract:
Une architecture logicielle de protection de données entièrement revisité basé sur le chiffrement sélectif est présentée. Tout d’abord, ce nouveau schéma est agnostique en terme de format de données (multimedia ou textuel). Deuxièmement, son implémentation repose sur une architecture parallèle utilisant un GPGPU de puissance moyenne permettant aux performances d’être comparable aux algorithmes de chiffrement utilisant l’architecture NI proposée par Intel particulièrement adaptée. Le format bitmap, en tant que format multimédia non compressé, est abordé comme un premier cas d’étude puis sera utilisé comme format pivot pour traiter tout autre format. La transformée en cosinus discrète (DCT) est la première transformation considérée pour fragmenter les données, les protéger et les stocker séparément sur des serveurs locaux et sur un cloud public. Ce travail a contribué à largement améliorer les précédents résultats publiés pour la protection sélective d’image bitmap en proposant une nouvelle architecture et en fournissant des expérimentations pratiques. L’unité de traitement graphique à usage général (GPGPU) est exploitée pour optimiser l’efficacité du calcul par rapport aux algorithmes traditionnels de chiffrement (tel que AES). Puis, un chiffrement sélectif agnostique basé sur la transformée en ondelettes discrètes sans perte (DWT) est présenté. Cette conception, avec des expérimentations pratiques sur différentes configurations matérielles, offre à la fois un fort niveau de protection et de bonnes performances en même temps que des possibilités de dispersion de stockage flexibles. Notre solution agnostique de protection de données combinant fragmentation, chiffrement et dispersion est applicable à une large gamme d’applications par un utilisateur final. Enfin, un ensemble complet d’analyses de sécurité est déployé pour s’assurer du bon niveau de protection fourni même pour les fragments les moins bien protégés
In this thesis, a completely revisited data protection scheme based on selective encryption is presented. First, this new scheme is agnostic in term of data format, second it has a parallel architecture using GPGPU allowing performance to be at least comparable to full encryption algorithms. Bitmap, as a special uncompressed multimedia format, is addressed as a first use case. Discrete Cosine Transform (DCT) is the first transformation for splitting fragments, getting data protection, and storing data separately on local device and cloud servers. This work has largely improved the previous published ones for bitmap protection by providing new designs and practical experimentations. General purpose graphic processing unit (GPGPU) is exploited as an accelerator to guarantee the efficiency of the calculation compared with traditional full encryption algorithms. Then, an agnostic selective encryption based on lossless Discrete Wavelet Transform (DWT) is presented. This design, with practical experimentations on different hardware configurations, provides strong level of protection and good performance at the same time plus flexible storage dispersion schemes. Therefore, our agnostic data protection and transmission solution combining fragmentation, encryption, and dispersion is made available for a wide range of end-user applications. Also a complete set of security analysis are deployed to test the level of provided protection
APA, Harvard, Vancouver, ISO, and other styles
8

Cherrueau, Ronan-Alexandre. "Un langage de composition des techniques de sécurité pour préserver la vie privée dans le nuage." Thesis, Nantes, Ecole des Mines, 2016. http://www.theses.fr/2016EMNA0233/document.

Full text
Abstract:
Un service du nuage peut employer des techniques de sécurités pour assurer la sécurité de l’information. Ces techniques protègent une donnée personnelle en la rendant inintelligible pour toutes personnes autres que l’utilisateur du service. En contrepartie, certaines fonctionnalités ne peuvent plus être implémentées. Par exemple, la technique du chiffrement symétrique rend les données inintelligibles, mais empêche le calcul sur ces données.Cette thèse avance qu’un service du nuage doit composer les techniques pour assurer la sécurité de l’information sans perdre de fonctionnalités. Elle se base sur l’étude de la composition de trois techniques qui sont le chiffrement, la fragmentation verticale et les calculs côté client. Cette étude montre que la composition sécurise sans perdre de fonctionnalités, mais complexifie l’écriture du service. La thèse propose alors un nouveau langage pour l’écriture de services du nuage qui assurent la sécurité des données personnelles par compositions des techniques de sécurité.Ce langage est muni de lois algébriques pour dériver,systématiquement, un service local sans protection vers son équivalent sécurisé du nuage. Le langage est implémenté en Idris et profite de son système de type expressif pour vérifier la composition correcte des techniques de cryptographie. Dans le même temps, un encodage traduit le langage en ProVerif, un vérificateur de modèle pour l’analyse automatique des propriétés de sécurité sur les protocoles cryptographiques. Cette traduction vérifie alors la sécurité des données personnelles dans le service
A cloud service can use security techniques to ensure information privacy. These techniques protect privacy by converting the client’s personal data into unintelligible text. But they can also cause the loss of some functionalities of the service. For instance, a symmetric-key cipher protects privacy by converting readable personal data into unreadable one. However, this causes the loss of computational functionalities on this data.This thesis claims that a cloud service has to compose security techniques to ensure information privacy without the loss of functionalities. This claim is based on the study of the composition of three techniques: symmetric cipher, vertical data fragmentation and client-side computation. This study shows that the composition makes the service privacy preserving, but makes its formulation overwhelming. In response, the thesis offers a new language for the writing of cloud services that enforces information privacy using the composition of security techniques. This language comes with a set of algebraic laws to systematically transform a local service without protection into its cloud equivalent protected by composition. An Idris implementation harnesses the Idris expressive type system to ensure the correct composition of security techniques. Furthermore, an encoding translates the language intoProVerif, a model checker for automated reasoning about the security properties found in cryptographic protocols. This translation checks that the service preserves the privacy of its client
APA, Harvard, Vancouver, ISO, and other styles
9

Lecler, Philippe. "Une approche de la programmation des systèmes distribués fondée sur la fragmentation des données et des calculs et sa mise en oeuvre dans le système GOTHIC." Rennes 1, 1989. http://www.theses.fr/1989REN10103.

Full text
Abstract:
Presentation du langage polygoth. Les concepts d'objet fragmente et de multiprocedure, qui permettent d'exprimer la repartition des donnees et des calculs, sont etudies. Une partie est consacree a l'expression du paprallelisme dans les langages et plus particulierement dans les langages orientes objet. La dualite objet-processus est abordee. La semantique operationnelle de l'appel de multiprocedure est presentee
APA, Harvard, Vancouver, ISO, and other styles
10

Benkrid, Soumia. "Le déploiement, une phase à part entière dans le cycle de vie des entrepôts de données : application aux plateformes parallèles." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2014. http://www.theses.fr/2014ESMA0027/document.

Full text
Abstract:
La conception d’un entrepôt de données parallèle consiste à choisir l’architecture matérielle,à fragmenter le schéma d’entrepôt de données, à allouer les fragments générés, à répliquer les fragments pour assurer une haute performance du système et à définir la stratégie de traitement et d’équilibrage de charges. L’inconvénient majeur de ce cycle de conception est son ignorance de l’interdépendance entre les sous-problèmes liés à la conception d’un EDP et l’utilisation des métriques hétérogènes pour atteindre le même objectif. Notre première proposition définie un modèle de coût analytique pour le traitement parallèle des requêtes OLAP dans un environnement cluster. Notre deuxième proposition prend en considération l’interdépendance existante entre la fragmentation et l’allocation. Dans ce contexte, nous avons proposé une nouvelle approche de conception d’un EDP sur un cluster de machine. Durant le processus de fragmentation, notre approche décide si le schéma de fragmentation généré est pertinent pour le processus d’allocation. Les résultats obtenus sont très encourageant et une validation est faite sur Teradata. Notre troisième proposition consiste à présenter une méthode de conception qui est une extension de notre travail. Dans cette phase, une méthode de réplication originale, basée sur la logique floue, est intégrée
Designing a parallel data warehouse consists of choosing the hardware architecture, fragmenting the data warehouse schema, allocating the generated fragments, replicating fragments to ensure high system performance and defining the treatment strategy and load balancing.The major drawback of this design cycle is its ignorance of the interdependence between subproblems related to the design of PDW and the use of heterogeneous metrics to achieve thesame goal. Our first proposal defines an analytical cost model for parallel processing of OLAP queries in a cluster environment. Our second takes into account the interdependence existing between fragmentation and allocation. In this context, we proposed a new approach to designa PDW on a cluster machine. During the fragmentation process, our approach determines whether the fragmentation pattern generated is relevant to the allocation process or not. The results are very encouraging and validation is done on Teradata. For our third proposition, we presented a design method which is an extension of our work. In this phase, an original method of replication, based on fuzzy logic is integrated
APA, Harvard, Vancouver, ISO, and other styles
11

Benallal, Mohammed Wehbi. "Contributions à la gestion des processus métier configurables : une approche orientée base de connaissances, fragmentation, et mesure d'entropies." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1121.

Full text
Abstract:
Nous proposons une approche de gestion des processus métier configurables (cBP) offrant une vue consolidée des variantes de ces processus. Une variante est le résultat de l'ajustement d'un cBP en réponse à des besoins fonctionnels et / ou structurels. Cette approche utilise une base de connaissances pour suivre les spécificités de chaque variante représentée sous la forme d'arborescence de structure de processus configurable (cPST). Une implémentation de l'approche consistant à générer un cPST à partir d'un cBP est proposée. Nous appliquons cette approche pour calculer la complexité des processus métier configurables et prouver son avantage pour améliorer la qualité du cBP
We propose an approach for managing configurable Business Processes (cBP) that offer a consolidated view over these processes’ variants. A variant is the result of adjusting a BP in response to functional and/or structural needs. The approach uses a knowledge base to track the specificities of each variant that is represented as configurable Process Structure Tree (cPST). An implementation of the approach that consists of generating a cPST from a cBP is proposed. We apply this approach to compute configurable business process complexity and to prove its advantage for improving cBP quality
APA, Harvard, Vancouver, ISO, and other styles
12

Roland, Jérémy. "Dynamique et mécanique de la fragmentation de filaments d'actine par l'ADF/cofiline : comparaison entre expériences et modèles." Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00566088.

Full text
Abstract:
L'actine est une protéine abondante dans le cytosquelette des eucaryotes qui se polymérise pour former des filaments. Ces filaments jouent un rôle fondamental dans de nombreux processus biologiques (contraction musculaire, division et motilité cellulaire, etc...). La dynamique d'assemblage et de désassemblage des filaments est sous le contrôle de plusieurs protéines associées à l'actine, en particulier l'ADF/cofiline. Cette protéine s'associe aux filaments et les fragmente, accélérant ainsi le désassemblage du cytosquelette d'actine. Au cours de cette thèse, nous avons développé des modèles mathématiques pour étudier l'effet de l'ADF/cofiline sur le cytosquelette d'actine. Dans un premier temps, nous nous sommes intéressés à la cinétique d'assemblage des filaments en présence d'ADF/Cofiline. Des simulations basées sur l'algorithme de Gillespie ont mis en évidence un équilibre dynamique dans lequel la polymérisation des filaments est contrebalancée par la fragmentation. Nous avons pu caractériser cet équilibre et comparer nos prédictions à des données in vitro obtenues dans le cadre d'une collaboration avec l'équipe de Laurent Blanchoin (CEA/iRTSV/LPCV, Grenoble). Dans un second temps, nous nous sommes penchés sur la mécanique des polymères d'actine pour expliquer les bases physiques de la fragmentation. Un modèle mésoscopique du filament a permis de prouver l'existence d'un couplage entre les déformations en flexion et en torsion dans le filament. Ce couplage permet de convertir les fluctuations thermiques en un effort qui cisaille la section du filament, entraînant ainsi la fragmentation. Les résultats extraits de ces modèles ont donc permis d'améliorer notre compréhension de l'action d'ADF/cofiline sur le cytosquelette d'actine.
APA, Harvard, Vancouver, ISO, and other styles
13

Khelil, Abdallah. "Gestion et optimisation des données massives issues du Web Combining graph exploration and fragmentation for scalable rdf query processing Should We Be Afraid of Querying Billions of Triples in a Graph-Based Centralized System? EXGRAF : Exploration et Fragmentation de Graphes au Service du Traitement Scalable de Requˆetes RDF." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2020. http://www.theses.fr/2020ESMA0009.

Full text
Abstract:
Le Big Data représente un défi non seulement pour le monde socio-économique mais aussi pour la recherchescientifique. En effet, comme il a été souligné dans plusieurs articles scientifiques et rapports stratégiques, lesapplications informatiques modernes sont confrontées à de nouveaux problèmes qui sont liés essentiellement austockage et à l’exploitation de données générées par les instruments d’observation et de simulation. La gestion de tellesdonnées représente un véritable goulot d’étranglement qui a pour effet de ralentir la valorisation des différentesdonnées collectées non seulement dans le cadre de programmes scientifiques internationaux mais aussi par desentreprises, ces dernières s'appuyant de plus en plus sur l’analyse de données massives. Une bonne partie de cesdonnées sont publié aujourd’hui sur le WEB. Nous assistons en effet à une évolution du Web classique permettant degérer les documents vers un Web de données qui permet d’offrir des mécanismes d’interrogation des informationssémantiques. Plusieurs modèles de données ont été proposés pour représenter ces informations sur le Web. Le plusimportant est le Resource Description Framework (RDF) qui fournit une représentation des connaissances simple etabstraite pour les ressources sur le Web. Chaque fait du Web sémantique peut être codé avec un triplet RDF. Afin depouvoir explorer et interroger les informations structurées exprimées en RDF, plusieurs langages de requête ont étéproposés au fil des années. En 2008, SPARQL est devenu le langage de recommandation officiel du W3C pourl'interrogation des données RDF. La nécessité de gérer et interroger efficacement les données RDF a conduit audéveloppement de nouveaux systèmes conçus spécialement pour traiter ce format de données. Ces approches peuventêtre catégorisées en étant centralisées qui s’appuient sur une seule machine pour gérer les données RDF et distribuéesqui peuvent combiner plusieurs machines connectées avec un réseau informatique. Certaines de ces approchess’appuient sur un système de gestion de données existant tels que Virtuoso et Jena, d’autres approches sont basées surune approche spécialement conçue pour la gestion des triplets RDF comme GRIN, RDF3X et gStore. Avec l’évolutiondes jeux de données RDF (e.g. DBPedia) et du langage Sparql, la plupart des systèmes sont devenus obsolètes et/ouinefficaces. A titre d’exemple, aucun système centralisé existant n’est en mesure de gérer 1 Milliard de triplets fourniesdans le cadre du benchmark WatDiv. Les systèmes distribués permettraient sous certaines conditions d’améliorer cepoint mais une perte de performances conséquente est induite.Dans cette thèse, nous proposons le système centralisé "RDF_QDAG" qui permet de trouver un bon compromisentre passage à l’échelle et performances. Nous proposons de combiner la fragmentation physique de données etl’exploration du graphe de données. "RDF_QDAG" permet de support plusieurs types de requêtes basées nonseulement sur les motifs basiques de graphes mais aussi qui intègrent des filtres à base d’expressions régulières et aussides fonctions d’agrégation et de tri. "RDF_QDAG" se base sur le modèle d’exécution Volcano, ce qui permet decontrôler la mémoire principale, en évitant tout débordement pour garantir les performances même si la configurationmatérielle est limitée. A notre connaissance, "RDF_QDAG" est le seul système centralisé capable de gérer plusieursmilliards de triplets tout en garantissant de bonnes performances. Nous avons comparé ce système avec d’autressystèmes qui représentent l’état de l’art en matière de gestion de données RDF : une approche relationnelle (Virtuoso),une approche à base de graphes (g-Store), une approche d'indexation intensive (RDF-3X) et une approche MPP(CliqueSquare). "RDF_QDAG" surpasse les systèmes existants lorsqu’il s’agit de garantir à la fois le passage à l’échelleet les performances
Big Data represents a challenge not only for the socio-economic world but also for scientific research. Indeed, as has been pointed out in several scientific articles and strategic reports, modern computer applications are facing new problems and issues that are mainly related to the storage and the exploitation of data generated by modern observation and simulation instruments. The management of such data represents a real bottleneck which has the effect of slowing down the exploitation of the various data collected not only in the framework of international scientific programs but also by companies, the latter relying increasingly on the analysis of large-scale data. Much of this data is published today on the WEB. Indeed, we are witnessing an evolution of the traditional web, designed basically to manage documents, to a web of data that allows to offer mechanisms for querying semantic information. Several data models have been proposed to represent this information on the Web. The most important is the Resource Description Framework (RDF) which provides a simple and abstract representation of knowledge for resources on the Web. Each semantic Web fact can be encoded with an RDF triple. In order to explore and query structured information expressed in RDF, several query languages have been proposed over the years. In 2008,SPARQL became the official W3C Recommendation language for querying RDF data.The need to efficiently manage and query RDF data has led to the development of new systems specifically designed to process this data format. These approaches can be categorized as centralized that rely on a single machine to manage RDF data and distributed that can combine multiple machines connected with a computer network. Some of these approaches are based on an existing data management system such as Virtuoso and Jena, others relies on an approach specifically designed for the management of RDF triples such as GRIN, RDF3X and gStore. With the evolution ofRDF datasets (e.g. DBPedia) and Sparql, most systems have become obsolete and/or inefficient. For example, no one of existing centralized system is able to manage 1 billion triples provided under the WatDiv benchmark. Distributed systems would allow under certain conditions to improve this point but consequently leads a performance degradation. In this Phd thesis, we propose the centralized system "RDF_QDAG" that allows to find a good compromise between scalability and performance. We propose to combine physical data fragmentation and data graph exploration."RDF_QDAG" supports multiple types of queries based not only on basic graph patterns but also that incorporate filters based on regular expressions and aggregation and sorting functions. "RDF_QDAG" relies on the Volcano execution model, which allows controlling the main memory, avoiding any overflow even if the hardware configuration is limited. To the best of our knowledge, "RDF_QDAG" is the only centralized system that good performance when manage several billion triples. We compared this system with other systems that represent the state of the art in RDF data management: a relational approach (Virtuoso), a graph-based approach (g-Store), an intensive indexing approach (RDF-3X) and two parallel approaches (CliqueSquare and g-Store-D). "RDF_QDAG" surpasses existing systems when it comes to ensuring both scalability and performance
APA, Harvard, Vancouver, ISO, and other styles
14

Galicia, Auyón Jorge Armando. "Revisiting Data Partitioning for Scalable RDF Graph Processing Combining Graph Exploration and Fragmentation for RDF Processing Query Optimization for Large Scale Clustered RDF Data RDFPart- Suite: Bridging Physical and Logical RDF Partitioning. Reverse Partitioning for SPARQL Queries: Principles and Performance Analysis. ShouldWe Be Afraid of Querying Billions of Triples in a Graph-Based Centralized System? EXGRAF: Exploration et Fragmentation de Graphes au Service du Traitement Scalable de Requˆetes RDF." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2021. http://www.theses.fr/2021ESMA0001.

Full text
Abstract:
Le Resource Description Framework (RDF) et SPARQL sont des standards très populaires basés sur des graphes initialement conçus pour représenter et interroger des informations sur le Web. La flexibilité offerte par RDF a motivé son utilisation dans d'autres domaines. Aujourd'hui les jeux de données RDF sont d'excellentes sources d'information. Ils rassemblent des milliards de triplets dans des Knowledge Graphs qui doivent être stockés et exploités efficacement. La première génération de systèmes RDF a été construite sur des bases de données relationnelles traditionnelles. Malheureusement, les performances de ces systèmes se dégradent rapidement car le modèle relationnel ne convient pas au traitement des données RDF intrinsèquement représentées sous forme de graphe. Les systèmes RDF natifs et distribués cherchent à surmonter cette limitation. Les premiers utilisent principalement l’indexation comme stratégie d'optimisation pour accélérer les requêtes. Les deuxièmes recourent au partitionnement des données. Dans le modèle relationnel, la représentation logique de la base de données est cruciale pour concevoir le partitionnement. La couche logique définissant le schéma explicite de la base de données offre un certain confort aux concepteurs. Cette couche leur permet de choisir manuellement ou automatiquement, via des assistants automatiques, les tables et les attributs à partitionner. Aussi, elle préserve les concepts fondamentaux sur le partitionnement qui restent constants quel que soit le système de gestion de base de données. Ce schéma de conception n'est plus valide pour les bases de données RDF car le modèle RDF n'applique pas explicitement un schéma aux données. Ainsi, la couche logique est inexistante et le partitionnement des données dépend fortement des implémentations physiques des triplets sur le disque. Cette situation contribue à avoir des logiques de partitionnement différentes selon le système cible, ce qui est assez différent du point de vue du modèle relationnel. Dans cette thèse, nous promouvons l'idée d'effectuer le partitionnement de données au niveau logique dans les bases de données RDF. Ainsi, nous traitons d'abord le graphe de données RDF pour prendre en charge le partitionnement basé sur des entités logiques. Puis, nous proposons un framework pour effectuer les méthodes de partitionnement. Ce framework s'accompagne de procédures d'allocation et de distribution des données. Notre framework a été incorporé dans un système de traitement des données RDF centralisé (RDF_QDAG) et un système distribué (gStoreD). Nous avons mené plusieurs expériences qui ont confirmé la faisabilité de l'intégration de notre framework aux systèmes existants en améliorant leurs performances pour certaines requêtes. Enfin, nous concevons un ensemble d'outils de gestion du partitionnement de données RDF dont un langage de définition de données (DDL) et un assistant automatique de partitionnement
The Resource Description Framework (RDF) and SPARQL are very popular graph-based standards initially designed to represent and query information on the Web. The flexibility offered by RDF motivated its use in other domains and today RDF datasets are great information sources. They gather billions of triples in Knowledge Graphs that must be stored and efficiently exploited. The first generation of RDF systems was built on top of traditional relational databases. Unfortunately, the performance in these systems degrades rapidly as the relational model is not suitable for handling RDF data inherently represented as a graph. Native and distributed RDF systems seek to overcome this limitation. The former mainly use indexing as an optimization strategy to speed up queries. Distributed and parallel RDF systems resorts to data partitioning. The logical representation of the database is crucial to design data partitions in the relational model. The logical layer defining the explicit schema of the database provides a degree of comfort to database designers. It lets them choose manually or automatically (through advisors) the tables and attributes to be partitioned. Besides, it allows the partitioning core concepts to remain constant regardless of the database management system. This design scheme is no longer valid for RDF databases. Essentially, because the RDF model does not explicitly enforce a schema since RDF data is mostly implicitly structured. Thus, the logical layer is inexistent and data partitioning depends strongly on the physical implementations of the triples on disk. This situation contributes to have different partitioning logics depending on the target system, which is quite different from the relational model’s perspective. In this thesis, we promote the novel idea of performing data partitioning at the logical level in RDF databases. Thereby, we first process the RDF data graph to support logical entity-based partitioning. After this preparation, we present a partitioning framework built upon these logical structures. This framework is accompanied by data fragmentation, allocation, and distribution procedures. This framework was incorporated to a centralized (RDF_QDAG) and a distributed (gStoreD) triple store. We conducted several experiments that confirmed the feasibility of integrating our framework to existent systems improving their performances for certain queries. Finally, we design a set of RDF data partitioning management tools including a data definition language (DDL) and an automatic partitioning wizard
APA, Harvard, Vancouver, ISO, and other styles
15

Qaddah, Baraa. "Modélisation numérique de la dynamique et de l'évolution thermique d'une goutte métallique en chute libre dans un milieu visqueux." Thesis, Aix-Marseille, 2020. http://www.theses.fr/2020AIXM0139.

Full text
Abstract:
Au cours des derniers stades de l’accrétion planétaire, des impacts entre des protoplanètes différenciées ont considérablement influencé les conditions thermochimiques des futures planètes telluriques. Le résultat de ces impacts est un écoulement diphasique. Après chaque impact et la formation d'un océan de magma, la phase métallique de l’impacteur a subi de forts processus de déformation et de fragmentation avant d’atteindre la base de l’océan de magma. Les enjeux de cette thèse sont de déterminer le rôle du rapport de viscosité entre les deux phases et la taille initiale de la goutte sur la dynamique, la fragmentation et l’évolution thermochimique de la goutte métallique. Pour ce faire, nous développons des modèles numériques en utilisant le logiciel Comsol Multiphysics. Nous déterminons les modes de fragmentation en fonction des nombres de Reynolds, de Weber et du rapport de viscosité. Ensuite, nous comparons le temps et la distance de fragmentation avec des études antérieures et nous proposons des lois d’échelles du rayon maximum stable de la goutte et du Weber critique en fonction de la viscosité de l’océan de magma et du rapport de viscosité, respectivement. Puis, nous estimons les échanges thermochimiques potentiels entre la goutte et l’océan magmatique en appliquant un modèle géophysique dépendant de nos résultats numériques. Enfin, nous étudions l’évolution thermique d’une goutte dans un océan magmatique et l’influence d’une viscosité dépendant de la température sur la dynamique, et l’évolution thermique d’une goutte. Nous proposons des lois d’échelle de temps et de longueur d’équilibre thermique et du nombre de Nusselt en fonction du nombre de Peclet
During the last stages of planetary accretion, impacts between differentiated protoplanets have considerably influenced the thermochemical conditions of future telluric planets. The result of these impacts is a two-phase flow. After each impact and the formation of a magma ocean, the metallic phase of the impactor underwent strong deformation and fragmentation processes before reaching the bottom of the magma ocean. The challenges of this thesis are to determine the role of the viscosity ratio between the two phases and the initial drop size on the dynamics, fragmentation and thermochemical evolution of the metallic drop. To do so, we develop numerical models using the Comsol Multiphysics software. We determine the fragmentation modes as a function of Reynolds and Weber numbers and viscosity ratio. We then compare the fragmentation time and distance with previous studies and propose scaling laws of the maximum stable radius of the drop and critical Weber as a function of magma ocean viscosity and viscosity ratio, respectively. Then we estimate the potential thermo-chemical exchanges between the drop and the magma ocean by applying a geophysical model depending on our numerical results. Finally, we study the thermal evolution of a drop in a magmatic ocean and the influence of a temperature-dependent viscosity on the dynamics. We propose time scale and length laws of thermal equilibrium and Nusselt number as a function of the Peclet number
APA, Harvard, Vancouver, ISO, and other styles
16

Boukhalfa, Kamel. "De la conception physique aux outils d'administration et de tuning des entrepôts de données." Phd thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aéronautique, 2009. http://tel.archives-ouvertes.fr/tel-00410411.

Full text
Abstract:
Nous visons à travers cette thèse à proposer un ensemble d'approches permettant d'optimiser les entrepôts de données et d'aider l'AED à bien mener cette optimisation. Nos approches d'optimisation reposent sur l'utilisation de trois techniques d'optimisation : la fragmentation horizontale primaire, dérivée et les index de jointure binaires (IJB). Nous commençons par proposer une approche de fragmentation qui prend en considération à la fois la performance (réduction du coût d'exécution) et la manageabilité (contrôle du nombre de fragments générés). Nous proposons ensuite une approche gloutonne de sélection d'IJB. L'utilisation séparée de la fragmentation horizontale (FH) et des IJB ne permet pas d'exploiter les similarités existantes entre ces deux techniques. Nous proposons une approche de sélection conjointe de la FH et des IJB. Cette approche peut être utilisée pour le tuning de l'entrepôt. Nous avons mené plusieurs expériences pour valider nos différentes approches. Nous proposons par la suite un outil permettant d'aider l'AED dans ses tâches de conception physique et de tuning.
Mots clés : Conception physique, Tuning, Techniques d'optimisation, Fragmentation Horizontale, Index de Jointure Binaires.
APA, Harvard, Vancouver, ISO, and other styles
17

Bouriquet, Bertrand. "Relaxation en forme et multifragmentation nucléaire." Phd thesis, Université de Caen, 2001. http://tel.archives-ouvertes.fr/tel-00003803.

Full text
Abstract:
Ce travail concerne la caractérisation des réactions de multifragmentation induites dans les collisions centrales de Xe+Sn à 32 MeV /A mesurées avec le détecteur INDRA. Cette caractérisation informe sur le degré d'équilibration. Un aspect crucial pour ces études est la sélection des événements. Dans cette étude deux approches ont été utilisées pour la sélection des collisions d'intérêt. La première approche s'appuie sur des sélecteurs de centralité (angle de flot, angle d'émission du plus gros fragment, multiplicité totale de particules chargées). La seconde approche qui constitue une innovation dans le domaine de la physique nucléaire est l'utilisation des cartes auto-organisées de Kohonen. Cette méthode permet un classement en topologie des événements sans utiliser explicitement des variables reliées à la forme. Les deux méthodes de sélection indiquent la coexistence d'au moins deux niveaux de dissipation dans les collisions les plus centrales. La méthode des cartes auto-organisées permet de déconvoluer ces processus. L'échantillon associé au processus de multifragmentation et à la plus grande conversion de l'énergie initiale représente 5% (250 mb) de la section efficace totale de réaction. Quelle que soit la méthode de sélection la forme moyenne de la source est allongée dans la direction du faisceau. Ce résultat signe une relaxation incomplète du degré de liberté de forme. Les données expérimentales sont comparées avec un modèle de multifragmentation statistique (SMM) incluant la déformation de la source et une énergie collective d'expansion. La caractérisation des réactions de multifragmentation en terme de taille, d'énergie d'excitation d'énergie collective d'expansion et de déformation est indépendante du mode de sélection utilisé. De cette comparaison on déduit que 70% de l'énergie disponible et 83% des nucléons du système initial ont été équilibré durant la réaction.
APA, Harvard, Vancouver, ISO, and other styles
18

Charlton, Martin. "Fragmentation de graphes et applications au génie logiciel." Thèse, 2005. http://constellation.uqac.ca/555/1/24584500.pdf.

Full text
Abstract:
Ce mémoire porte sur la fragmentation de graphes et ses applications au génie logiciel. Après une présentation du domaine d'application et de la problématique, nous traitons d'un certain nombre d'algorithmes de fragmentation. Ces algorithmes, issus de la littérature scientifique, sont analysés selon notre problématique. Pour répondre à nos besoins, nous introduisons la fragmentation par noyaux. Cette approche produit une partition en identifiant des sommets jugés centraux à des sous-graphes possibles afin de construire des noyaux. Les différents sommets du graphe sont ensuite distribués dans la partition selon leur relation avec les noyaux. La dernière partie de ce mémoire aborde la mise en oeuvre et l'utilisation de la fragmentation par noyaux. La méthode est appliquée au génie logiciel. Nous obtenons des partitions sur des graphes de systèmes logiciels. Les partitions sont analysées pour trouver les points forts et les défaillances de la fragmentation par noyaux, ainsi que les améliorations possibles.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography