Дисертації з теми "Bases de données factorisées"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Bases de données factorisées.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Bases de données factorisées".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Crosetti, Nicolas. "Enrichir et résoudre des programmes linéaires avec des requêtes conjonctives." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILB003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'optimisation mathématique et la gestion des données sont deux domaines majeurs de l'informatique qui sont largement étudiés par des communautés essentiellement distinctes.Cependant, les problèmes d'optimisation complexes dépendent souvent de grands jeux de données qui peuvent être difficiles à gérer,alors que la gestion de grandes quantités de données n'est utile que dans la mesure où l'on analyse ces données pour en extraire des connaissancesafin de résoudre un problème pratique, de sorte que ces domaines sont souvent entremêlés en pratique.Cette thèse se place à la croisée de ces deux domaines en étudiant les programmes linéaires qui raisonnent sur les réponses de requêtes de bases de données.La première contribution de cette thèse est la définition de ce que nous appelons le langage des programmes linéaires avec requêtes conjonctives (que nous noterons LP(CQ)).Il s'agit d'un langage de modélisation de programmes linéaires avec des constructions permettant d'exprimer des contraintes et sommes linéairesqui raisonnent sur les ensembles de réponses de requêtes de bases de données sous forme conjonctive.Nous décrivons ensuite la sémantique naturelle du langage en montrant comment de tels modèles peuvent être interprétés,en conjonction avec une base de données, en de vrais programmes linéairesqui peuvent ensuite être résolus par tout solveur de programmes linéaires standard et nous discutons de la difficulté de résoudre les modèles LP(CQ).Motivés par la difficulté de résoudre les modèles LP(CQ) en général, nous introduisons ensuiteun processus basé sur ce que nous appelons l'interprétation T-factorisée pour résoudre de tels modèles plus efficacement.Cette approche est basée sur des techniques classiques en théorie des bases de donnéespour exploiter la structure des requêtes en utilisant des décompositions arborescentes de petite largeur.L'interprétation T-factorisée produit un programme linéaire qui a la même valeur optimale que la sémantique naturelle du modèle mais moins de variableset qui peut donc être utilisé pour résoudre le modèle plus efficacement.La troisième contribution est une généralisation du résultat précédent au cadre des bases de données factorisées.Nous introduisons une structure de données spécifique pour coder succinctement les relations sous forme de circuit.Nous définissons ensuite l'interprétation dite C-factorisée qui exploite le caractère succinct de ces circuitspour produire un programme linéaire qui a la même valeur optimale que la sémantique naturelle du modèle mais avec moins de variablesde manière similaire à l'interprétation T-factorisée.Enfin, nous montrons que nous pouvons explicitement compiler les ensembles de réponses de requêtes conjonctives admettant une décomposition de petite largeuren circuits succincts, ce qui nous permet de récapturer l'interprétation T-factorisée
Mathematical optimization and data management are two major fields of computer science that are widely studied by mostly separate communities.However complex optimization problems often depend on large datasets that may be cumbersome to manage,while managing large amounts of data is only useful insofar as one analyzes this data to extract some knowledgein order to solve some practical problem, so these fields are often actually intertwined in practice.This thesis places itself at the crossroads between these two fields by studying linear programs that reason about the answers of database queries.The first contribution of this thesis is the definition of the so-called language of linear programs with conjunctive queries, or LP(CQ) for short.It is a language to model linear programs with constructs that allow one to express linear constraints and linear sumsthat reason over the answer sets of database queries in the form of conjunctive queries.We then describe the natural semantics of the languageby showing how such models can be interpreted, in conjunction with a database, into actual linear programsthat can then be solved by any standard linear program solver and discuss the hardness of solving LP(CQ) models.Motivated by the hardness of solving LP(CQ) models in general, we then introducea process based on the so-called T-factorized interpretation to solve such models more efficiently.This approach is based on classical techniques from database theoryto exploit the structure of the queries using hypertree decompositions of small width.The T-factorized interpretation yields a linear programthat has the same optimal value as the natural semantics of the model but fewer variableswhich can thus be used to solve the model more efficiently.The third contribution is a generalization of the previous result to the framework of factorized databases.We introduce a specific circuit data-structure to succintly encode relations.We the define the so-called C-factorized interpretation that leverages the succintness of these circuitsto yield a linear program that has the same optimal value as the natural semantics of the model but fewer variablessimilarly to the T-factorized interpretation.Finally we show that we can explicitly compile the answer sets of conjunctive queries with small fractional hypertreewidthinto succinct circuits, thus allowing us to recapture the T-factorized interpretation
2

Gross-Amblard, David. "Tatouage des bases de données." Habilitation à diriger des recherches, Université de Bourgogne, 2010. http://tel.archives-ouvertes.fr/tel-00590970.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les techniques de tatouage de bases de données permettent la dissimulation d'information pertinente dans les n-uplets, comme par exemple l'identité du propriétaire des données. Les techniques de tatouage sont nombreuses dans le domaine multimédia, mais le tatouage des bases de données présente de nombreuses spécificités. Certaines d'entre elles sont traitées dans ce document : comment tatouer une base de données numérique tout en préservant le résultat de requêtes d'agrégat importantes, comment tatouer un flux structuré, comme un flux XML typé ou une partition musicale symbolique, comment tatouer une base de données géographiques.
3

Waller, Emmanuel. "Méthodes et bases de données." Paris 11, 1993. http://www.theses.fr/1993PA112481.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Benchkron, Said Soumia. "Bases de données et logiciels intégrés." Paris 9, 1985. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1985PA090025.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Marie-Julie, Jean Michel. "Bases de données d'images- Calculateurs parallèles." Paris 6, 2000. http://www.theses.fr/2000PA066593.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Castelltort, Arnaud. "Historisation de données dans les bases de données NoSQLorientées graphes." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20076.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur l'historisation des données dans les bases de données graphes. La problématique des données en graphes existe depuis longtemps mais leur exploitation par des moteurs de système de gestion de bases de données, principalement dans les moteurs NoSQL, est récente. Cette apparition est notamment liée à l'émergence des thématiques Big Data dont les propriétés intrinsèques, souvent décrites à l'aide des propriétés 3V (variété, volume, vélocité), ont révélé les limites des bases de données relationnelles classiques. L'historisation quant à elle, est un enjeu majeur des SI qui a été longtemps abordé seulement pour des raisons techniques de sauvegarde, de maintenance ou plus récemment pour des raisons décisionnelles (suites applicatives de Business Intelligence). Cependant, cet aspect s'avère maintenant prendre une place prédominante dans les applications de gestion. Dans ce contexte, les bases de données graphes qui sont de plus en plus utilisées n'ont que très peu bénéficié des apports récents de l'historisation. La première contribution consiste à étudier le nouveau poids des données historisées dans les SI de gestion. Cette analyse repose sur l'hypothèse selon laquelle les applications de gestion intègrent de plus en plus en leur sein les enjeux d'historisation. Nous discutons ce positionnement au regard de l'analyse de l'évolution des SI par rapport à cette problématique. La deuxième contribution vise, au-delà de l'étude de l'évolution des sytèmes d'information, à proposer un modèle innovant de gestion de l'historisation dans les bases de données NoSQL en graphes. Cette proposition consiste d'une part en l'élaboration d'un système unique et générique de représentation de l'historique au sein des BD NoSQL en graphes et d'autre part à proposer des modes d'interrogation (requêtes). Nous montrons qu'il est possible d'utiliser ce système aussi bien pour des requêtes simples (c'est-à-dire correspondant à ce que l'on attend en première intention d'un système d'historisation~: récupérer les précédentes versions d'une donnée) mais aussi de requêtes plus complexes qui permettent de tirer parti aussi bien de la notion d'historisation que des possibilités offertes par les bases de données graphes (par exemple, la reconnaissance de motifs dans le temps)
This thesis deals with data historization in the context of graphs. Graph data have been dealt with for many years but their exploitation in information systems, especially in NoSQL engines, is recent. The emerging Big Data and 3V contexts (Variety, Volume, Velocity) have revealed the limits of classical relational databases. Historization, on its side, has been considered for a long time as only linked with technical and backups issues, and more recently with decisional reasons (Business Intelligence). However, historization is now taking more and more importance in management applications.In this framework, graph databases that are often used have received little attention regarding historization. Our first contribution consists in studying the impact of historized data in management information systems. This analysis relies on the hypothesis that historization is taking more and more importance. Our second contribution aims at proposing an original model for managing historization in NoSQL graph databases.This proposition consists on the one hand in elaborating a unique and generic system for representing the history and on the other hand in proposing query features.We show that the system can support both simple and complex queries.Our contributions have been implemented and tested over synthetic and real databases
7

Voisard, Agnès. "Bases de données géographiques : du modèle de données à l'interface utilisateur." Paris 11, 1992. http://www.theses.fr/1992PA112354.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systemes d'information geographiques (sig) servent de support aux applications qui manipulent des donnees geographiques, telles que la planification urbaine, la regulation de la circulation, la gestion des ressources naturelles. Les problemes majeurs poses par la realisation de sig sont lies d'une part a la gestion d'un gros volume de donnees, d'autre part a la coexistence de deux types de donnees: la description des cartes (donnees alphanumeriques) et leur spatialite (geometrie et topologie). Les donnees spatiales posent de plus un double probleme car elles doivent etre manipulees par des operations specifiques et leur structuration est complexe et eminemment variable. Pour stocker, interroger et manipuler les donnees, les sig peuvent utiliser des systemes de gestion de bases de donnees (sgbd) dotes de fonctionnalites particulieres pour gerer des donnees spatiales. Notre travail a tout d'abord porte sur les problemes de modelisation de l'information geographique et a abouti a la proposition d'un modele original, base sur un modele a objets complexes, pour applications manipulant des cartes thematiques. Pour valider ce modele, nous avons implemente une maquette de sig au-dessus du prototype de sgrd oriente-objet o2. Cette experience nous a permis de degager des enseignements multiples. En particulier, la conception d'interfaces utilisateurs specifiques aux sig s'est averee etre une tache indispensable et complexe. Cette constatation a conduit a la proposition d'un modele d'interface pour concepteurs d'applications geographiques, premiere etape vers une boite a outils permettant de manipuler une large gamme d'applications geographiques. Les systemes d'information geographique et finalement les interfaces pour systemes d'information geographique sont les trois points auxquels nous nous interessons dans cette these
8

Nguyen, Gia Toan. "Quelques fonctionnalités de bases de données avancées." Habilitation à diriger des recherches, Grenoble 1, 1986. http://tel.archives-ouvertes.fr/tel-00321615.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
On utilise une méthode de représentation de l'information basée sur la logique des prédicats du premier ordre pour enrichir la représentation sémantique des données qui peuvent être stockées dans un ensemble de bases de données reparties. On définit ensuite une méthode originale d'évaluation de questions sur des données distribuées basée sur une décomposition dynamique des opérations. On propose enfin une nouvelle approche pour le contrôle des contraintes sémantiques dans une base de données. Elle est basée sur la notion de prototypes logiques d'objets formant un échantillon de la base de données.
9

Qian, Shunchu. "Restructuration de bases de données entité-association." Dijon, 1995. http://www.theses.fr/1995DIJOS064.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception de bases de données dans un contexte de modelés entité-association ou objet-oriente nécessite des outils qui permettent de spécifier à la fois des transformations au niveau des types (restructuration de schéma) et les transformations correspondantes au niveau des occurrences (réorganisation de base de données). Dans cette thèse nous présentons une algèbre de transformation de bases de données qui étend les travaux sur le modèle en définissant des opérateurs sémantiques de restructuration de schéma et de réorganisation de la base de données correspondante. La première étape de nos travaux est consacrée à la reformulation du modèle erc+ à l'aide de la théorie de graphe. Ce formalisme se prête mieux que la modélisation ensembliste original à la définition et a l'illustration des transformations sémantiques en fonction de transformations de graphes. La deuxième étape est consacrée à la définition d'une algèbre regroupant des opérateurs sur deux niveaux: les opérateurs de restructuration de schéma, qui agissent uniquement sur le schéma et les opérateurs de réorganisation de bases de données, qui propagent sur les données les effets de la restructuration de schéma. Il y a deux types d'opérateurs de restructuration de schéma: les opérateurs de base qui permettent l'ajout ou la suppression de nuds ou d'arcs et les opérateurs dérivés plus puissants qui sont définis par combinaison d'opérateurs de base ou dérives. La transformation au niveau des objets est faite par des opérateurs de réorganisation qui permettent de modifier des valeurs propriétés d'objets, de faire une extension (ajout d'un élément) ou une restriction (suppression d'éléments) de la base de données, de transformer la structure d'occurrences d'objet et de glisser, c'est à dire effectuer un héritage explicite, d'une relation ou un attribut à travers des arcs rôle ou lien de généralisation. Les opérateurs de l'algèbre de transformation constituent une base sur laquelle on peut construire plusieurs services très importants dans la gestion d'une base de données: définition de vues, intégration de schémas, évolution de schéma, traduction de schémas, normalisation de schémas, base de données repartie et optimisation des performances
10

Gross-Amblard, David. "Approximation dans les bases de données contraintes." Paris 11, 2000. http://www.theses.fr/2000PA112304.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le modèle des bases de données contraintes, introduit par Kanellakis, Kuper et Revesz [KKR95] permet la prise en compte d'informations géométriques, comme les données cartographiques. Les objets géométriques sont représentés comme la solution d'un système d'équations ou d'inéquations, sans limitation sur leur dimension. La compléxité en temps de l'évaluation des requêtes du premier ordre ou du volume est raisonnable lorsque la dimension des objets est fixe. Lorsque la dimension des objets est une variable du problème, cette complexité est prohibitive (globalement exponentielle dans la dimension). Dans cette thèse, nous nous intéressons à l'obtention d'algorithmes d'évaluation en temps polynomial dans la dimension, par des techniques d'approximation probabiliste. En étendant les travaux de Dyer, Frieze et Kannan [DFK91], nous obtenons : - un algorithme d'échantillonnage de points avec distribution presque uniforme dans l'ensemble défini par une requête du premier ordre ; - un algorithme estimant le volume et la forme de cet ensemble [GdR00]. Sous certaines conditions, le volume peut être estimé sans évaluation préalable de la requête. Nous considérons ensuite la robustesse des relations topologiques entre objets après utilisation d'algorithmes d'approximation. Enfin, nous présentons un prototype de base de données spatiales mettant en oeuvre certains de ces algorithmes probabilistes sur des données réelles.
11

Collobert, Ronan. "Algorithmes d'Apprentissage pour grandes bases de données." Paris 6, 2004. http://www.theses.fr/2004PA066063.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Bossy, Robert. "Édition coopérative de bases de données scientifiques." Paris 6, 2002. http://www.theses.fr/2002PA066047.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Valceschini-Deza, Nathalie. "Accès sémantique aux bases de données textuelles." Nancy 2, 1999. http://www.theses.fr/1999NAN21021.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les besoins justifiant cette recherche sont ceux de l'analyse du contenu textuel, les banques de données textuelles étant de plus en plus nombreuses et volumineuses. Ce travail est une contribution au problème de l'accès sémantique aux bases de données électroniques. Les données à notre disposition sont une base de données à dominante sciences humaines comportant environ 3000 oeuvres : FRANTEXT. Pour utiliser cette base et les bases de données littéraires en général nous proposons un outil basé sur le test statistique de l'écart réduit. Ce type de méthode prend en entrée un mot (ou une expression, un chapitre, un roman) et fournit comme une liste de mots-résultats qui sont corrélés statistiquement au premier mot (ou mot-pôle). La sémantique différentielle sert d'appui théorique à ce travail. Ce choix est motivé par les raisons suivantes : - elle pose comme postulat que les structures textuelles varient en fonction des genres ; - elle propose des unités de sens au palier inférieur au mot : les sèmes. Ces sèmes permettent d'expliquer la cohérence textuelle et de lier les différents niveaux : de l'en-deça du mot au texte : - elle interprète les unités en contexte. Cela permet d'expliquer les variations de sens d'un mot. De par sa nature, elle est compatible avec le test de l'écart réduit. A l'aide de ces trois composantes (données, outil et théorie sémantique), nous avons défini des méthodologies d'interrogation des bases de données littéraires. Nous nous sommes surtout intéressé à la thématique des textes. Mais l'étude de phénomènes connexes a été abordée, par exemple la stéréotypie. L'utilisation des statistiques a été illustrée et accompagnée de méthodologies constituant des aides à l'interprétation. D'autres procédés et méthodologies ont été proposées en amont et en aval des tests statistiques notamment l'utilisation de patrons morpho-syntaxiques pour obtenir des sous-corpus cohérents d'un point de vue sémantique et aptes à subir un traitement statistique. Les applications de ce type de recherches sont les suivantes : - l'étude des oeuvres par le biais de vérifications d'hypothèses et d'intuitions ; - le développement de stratégies d'interrogations fiables, testables par des élèves dans un cadre d'enseignement ; - l'étude des comportements socio-culturels dans les différents genres textuels ; - la recherche d'informations sur les régularités et les différences des textes en vue de la réalisation d'une typologie des genres textuels.
14

Souihli, Asma. "Interrogation des bases de données XML probabilistes." Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0046/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
XML probabiliste est un modèle probabiliste pour les bases de données incertaines semi-structurées, avec des applications telles que l'intégration incertaine de données, l'extraction d'informations ou le contrôle probabiliste de versions. Nous explorons dans cette thèse une solution efficace pour l'évaluation des requêtes tree-pattern avec jointures sur ces documents, ou, plus précisément, pour l'approximation de la probabilité d'une requête booléenne sur un document probabiliste. L'approche repose sur, d'une part, la production de la provenance probabiliste de la requête posée, et, d'autre part, la recherche d'une stratégie optimale pour estimer la probabilité de cette provenance. Cette deuxième partie s'inspire des approches des optimiseurs de requêtes: l'exploration de différents plans d'évaluation pour différentes parties de la formule et l'estimation du coût de chaque plan, suivant un modèle de coût établi pour les algorithmes de calcul utilisés. Nous démontrons l'efficacité de cette approche sur des jeux de données utilisés dans des travaux précédents sur l'interrogation des bases de données XML probabilistes, ainsi que sur des données synthétiques
Probabilistic XML is a probabilistic model for uncertain tree-structured data, with applications to data integration, information extraction, or uncertain version control. We explore in this dissertation efficient algorithms for evaluating tree-pattern queries with joins over probabilistic XML or, more specifically, for approximating the probability of each item of a query result. The approach relies on, first, extracting the query lineage over the probabilistic XML document, and, second, looking for an optimal strategy to approximate the probability of the propositional lineage formula. ProApproX is the probabilistic query manager for probabilistic XML presented in this thesis. The system allows users to query uncertain tree-structured data in the form of probabilistic XML documents. It integrates a query engine that searches for an optimal strategy to evaluate the probability of the query lineage. ProApproX relies on a query-optimizer--like approach: exploring different evaluation plans for different parts of the formula and predicting the cost of each plan, using a cost model for the various evaluation algorithms. We demonstrate the efficiency of this approach on datasets used in a number of most popular previous probabilistic XML querying works, as well as on synthetic data. An early version of the system was demonstrated at the ACM SIGMOD 2011 conference. First steps towards the new query solution were discussed in an EDBT/ICDT PhD Workshop paper (2011). A fully redesigned version that implements the techniques and studies shared in the present thesis, is published as a demonstration at CIKM 2012. Our contributions are also part of an IEEE ICDE
15

Souihli, Asma. "Interrogation des bases de données XML probabilistes." Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0046.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
XML probabiliste est un modèle probabiliste pour les bases de données incertaines semi-structurées, avec des applications telles que l'intégration incertaine de données, l'extraction d'informations ou le contrôle probabiliste de versions. Nous explorons dans cette thèse une solution efficace pour l'évaluation des requêtes tree-pattern avec jointures sur ces documents, ou, plus précisément, pour l'approximation de la probabilité d'une requête booléenne sur un document probabiliste. L'approche repose sur, d'une part, la production de la provenance probabiliste de la requête posée, et, d'autre part, la recherche d'une stratégie optimale pour estimer la probabilité de cette provenance. Cette deuxième partie s'inspire des approches des optimiseurs de requêtes: l'exploration de différents plans d'évaluation pour différentes parties de la formule et l'estimation du coût de chaque plan, suivant un modèle de coût établi pour les algorithmes de calcul utilisés. Nous démontrons l'efficacité de cette approche sur des jeux de données utilisés dans des travaux précédents sur l'interrogation des bases de données XML probabilistes, ainsi que sur des données synthétiques
Probabilistic XML is a probabilistic model for uncertain tree-structured data, with applications to data integration, information extraction, or uncertain version control. We explore in this dissertation efficient algorithms for evaluating tree-pattern queries with joins over probabilistic XML or, more specifically, for approximating the probability of each item of a query result. The approach relies on, first, extracting the query lineage over the probabilistic XML document, and, second, looking for an optimal strategy to approximate the probability of the propositional lineage formula. ProApproX is the probabilistic query manager for probabilistic XML presented in this thesis. The system allows users to query uncertain tree-structured data in the form of probabilistic XML documents. It integrates a query engine that searches for an optimal strategy to evaluate the probability of the query lineage. ProApproX relies on a query-optimizer--like approach: exploring different evaluation plans for different parts of the formula and predicting the cost of each plan, using a cost model for the various evaluation algorithms. We demonstrate the efficiency of this approach on datasets used in a number of most popular previous probabilistic XML querying works, as well as on synthetic data. An early version of the system was demonstrated at the ACM SIGMOD 2011 conference. First steps towards the new query solution were discussed in an EDBT/ICDT PhD Workshop paper (2011). A fully redesigned version that implements the techniques and studies shared in the present thesis, is published as a demonstration at CIKM 2012. Our contributions are also part of an IEEE ICDE
16

Ripoche, Hugues. "Une construction interactive d'interprétations de données : application aux bases de données de séquences génétiques." Montpellier 2, 1995. http://www.theses.fr/1995MON20248.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette these est de faciliter l'interpretation de grands ensembles de donnees, c'est-a-dire d'extraire des connaissances a partir de donnees. Nous avons utilise deux domaines complementaires: bases de donnees (objet) et apprentissage automatique. Dans une premiere etape, nous proposons d'extraire des descripteurs a partir d'ensembles de donnees de reference, puis d'utiliser ces descripteurs pour interpreter de nouvelles donnees (non encore caracterisees). Dans une seconde etape, une classification construite a partir de donnees interpretees par des descripteurs peut etre critiquee par une methode d'analyse specifique, ce qui conduit en retour a une revision des donnees et des descripteurs. Une application a ete menee dans le cadre de l'analyse de sequences genetiques (proteines) en utilisant des motifs proteiques comme descripteurs, des treillis de concept comme methode de classification et l'alignement multiple de sequences pour la critique
17

Benzine, Mehdi. "Combinaison sécurisée des données publiques et sensibles dans les bases de données." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0024.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La protection des données sensibles est une problématique majeure dans le monde des bases de données. Plusieurs solutions logicielles et matérielles ont été proposées pour assurer une sécurité optimale lors du stockage et de la manipulation de ces données. Il est également nécessaire de sécuriser les opérations mettant en relation des données sensibles avec des données publiques. Pour cala, nous avons mis en place une architecture de stockage et d'interrogation offrant cette sécurité. Cette architecture est composée d'un serveur central regroupant les données publiques et d'un serveur sécurisé stockant les données privées. Ce serveur sécurisé est constitué (i) d'un microcontrôleur sécurisé associé à (ii) une mémoire persistante, de grande capacité, de type Flash NAND. Les requêtes mêlant données publiques et sensibles sont scinder en deux sous-requêtes, l'une portant sur les données publiques, l'autre sur les données sensibles. Chaque sous-requête est exécutée sur le serveur contenant les données appropriées. Enfin, le résultat de la sous-requête sur données publiques est envoyé au serveur sécurisé qui se charge de construire le résultat final en toute sécurité. Cette architecture résolvant les problèmes de sécurité introduit néanmoins de sévères problèmes de performances dues aux caractéristiques physiques du serveur sécurisé (peu de RAM, asymétrie des coûts de lecture et d'écriture. . . ) qu'il est impératif de résoudre par des techniques d'optimisation de requêtes
Protection of sensitive data is a major issue in the databases field. Many software and hardware solutions have been designed to protect data when stored and during query processing. Moreover, it is also necessary to provide a secure manner to combine sensitive data with public data. To achieve this goal, we designed a new storage and processing architecture. Our solution combines a main server that stores public data and a secure server dedicated to the storage and processing of sensitive data. The secure server is a hardware token which is basically a combination of (i) a secured microcontroller and (ii) a large external NAND Flash memory. The queries which combine public and sensitive data are split in two sub queries, the first one deals with the public data, the second one deals with the sensitive data. Each sub query is processed on the server storing the corresponding data. Finally, the data obtained by the computation of the sub query on public data is sent to the secure server to be mixed with the result of the computation on sensitive data. For security reasons, the final result is built on the secure server. This architecture resolves the security problems, because all the computations dealing with sensitive data are done by the secure server, but brings performance problems (few RAM, asymmetric cost of read/write operations. . . ). These problems will be solved by different strategies of query optimization
18

Léonard, Michel. "Conception d'une structure de données dans les environnements de bases de données." Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00327370.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Étude de bases de données ayant des structures complexes avec l'objectif de rendre plus efficace le processus de leur conception et de leur réalisation, de les faire évoluer et d'améliorer leur compréhension autant par leur utilisateurs que par leurs responsables
19

Smine, Hatem. "Outils d'aide à la conception : des bases de données relationnelles aux bases d'objets complexes." Nice, 1988. http://www.theses.fr/1988NICE4213.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse comporte deux parties : un outil d'aide à la conception de bases de données pour non spécialistes et la conception d'objets complexes. On propose un outil intégrant un système expert d'assistance sémantique d'un utilisateur profane pour la construction de son schéma conceptuel. Les dialogues à base de questions-réponses sont simples et riches. Pour la conception d'objets complexes, on définit un réseau sémantique associé au modèle de données B-relationnel et on introduit le concept de chemin de structure dans le réseau. On étudie les questions de modélisation et de manipulation d'objets complexes. On propose un outil d'aide à la conception de schéma B-relationnel avec pour supports des dialogues de langage naturel et le langage B-SQL
20

Sahri, Soror. "Conception et implantation d'un système de bases de données distribuée & scalable : SD-SQL Server." Paris 9, 2006. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2006PA090013.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le thème de recherche de cette thèse concerne la conception et l’implantation d’un système de gestion de bases de données distribuées et scalables (ang. Scalable Distributed Database System, SD-DBS) que nous avons appelé SD-SQL Server. SD-SQL Server implémente une nouvelle architecture de SGBD relationnel. Une base de SD-SQL Server, dite base scalable, grandit par la partition dynamique, scalable et distribuée de ses tables, dites scalables aussi. La partition et son évolution sont invisibles de l’usager/application. A l’heure actuelle, SD-SQL Server est le seul SGBD à offrir cette possibilité à notre connaissance. Les autres SGBDs connus, n’offrent au mieux que le partitionnement statique, nécessitant des réorganisations périodiques globales. Leur maniement est en général complexe et peu apprecié des usagers. Nos tables scalables sont organisées en segments d’une structure de données distribuée et scalable (SDDS). Chaque segment est placé sur un nœud lié de SQL Server. A l’heure actuelle, SQL Server supporte 250 nœuds liés, permettant à une table scalable de croître autant. L'expansion dynamique résulte des éclatements de segments débordant leur capacité de stockage. Chaque éclatement est déclenché par une insertion, à l’origine du débordement. Tout éclatement crée un ou plusieurs nouveaux segments. Les segments sont cachés des usagers/applications derrière les vues supportant les mises à jour, dites images. Les images sont des vues partitionnées et distribuées de SQL Server dynamiquement ajustées. Les usagers/applications de tables scalables n’interfacent que les images ou les vues des images
Our thesis elaborates on the design of a scalable distributed database system (SD-DBS). A novel feature of an SD-DBS is the concept of a scalable distributed relational table, a scalable table in short. Such a table accommodates dynamic splits of its segments at SD-DBS storage nodes. A split occurs when an insert makes a segment to overflow, like in, e. G. , B-tree file. Current DBMSs provide the static partitioning only, requiring a cumbersome global reorganization from time to time. The transparency of the distribution of a scalable table is in this light an important step beyond the current technology. Our thesis explores the design issues of an SD-DBS, by constructing a prototype termed SD-SQL Server. As its name indicates, it uses the services of SQL-Server. SD-SQL Server repartitions a table when an insert overflows existing segments. With the comfort of a single node SQL Server user, the SD-SQL Server user has larger tables or a faster response time through the dynamic parallelism. We present the architecture of our system, its implementation and the performance analysis
21

Bost, Raphaël. "Algorithmes de recherche sur bases de données chiffrées." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S001/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La recherche sur les bases de données chiffrées vise à rendre efficace une tâche apparemment simple : déléguer le stockage de données à un serveur qui ne serait pas de confiance, tout en conservant des fonctionnalités de recherche. Avec le développement des services de stockage dans le Cloud, destinés aussi bien aux entreprises qu'aux individus, la mise au point de solutions efficaces à ce problème est essentielle pour permettre leur déploiement à large échelle. Le principal problème de la recherche sur bases de données chiffrées est qu'un schéma avec une sécurité ''parfaite'' implique un surcoût en termes de calcul et de communication qui serait inacceptable pour des fournisseurs de services sur le Cloud ou pour les utilisateurs - tout du moins avec les technologies actuelles. Cette thèse propose et étudie de nouvelles notions de sécurité et de nouvelles constructions de bases de données chiffrées permettant des recherches efficaces et sûres. En particulier, nous considérons la confidentialité persistante et la confidentialité future de ces bases de données, ce que ces notions impliquent en termes de sécurité et d'efficacité, et comment les réaliser. Ensuite, nous montrons comment protéger les utilisateurs de bases de données chiffrées contre des attaques actives de la part du serveur hébergeant la base, et que ces protections ont un coût inévitable. Enfin, nous étudions les attaques existantes contre ces bases de données chiffrées et comment les éviter
Searchable encryption aims at making efficient a seemingly easy task: outsourcing the storage of a database to an untrusted server, while keeping search features. With the development of Cloud storage services, for both private individuals and businesses, efficiency of searchable encryption became crucial: inefficient constructions would not be deployed on a large scale because they would not be usable. The key problem with searchable encryption is that any construction achieving ''perfect security'' induces a computational or a communicational overhead that is unacceptable for the providers or for the users --- at least with current techniques and by today's standards. This thesis proposes and studies new security notions and new constructions of searchable encryption, aiming at making it more efficient and more secure. In particular, we start by considering the forward and backward privacy of searchable encryption schemes, what it implies in terms of security and efficiency, and how we can realize them. Then, we show how to protect an encrypted database user against active attacks by the Cloud provider, and that such protections have an inherent efficiency cost. Finally, we take a look at existing attacks against searchable encryption, and explain how we might thwart them
22

Nunez, Del Prado Cortez Miguel. "Attaques d'inférence sur des bases de données géolocalisées." Phd thesis, INSA de Toulouse, 2013. http://tel.archives-ouvertes.fr/tel-00926957.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au cours des dernières années, nous avons observé le développement de dispositifs connectés et nomades tels que les téléphones mobiles, tablettes ou même les ordinateurs portables permettant aux gens d'utiliser dans leur quotidien des services géolocalisés qui sont personnalisés d'après leur position. Néanmoins, les services géolocalisés présentent des risques en terme de vie privée qui ne sont pas forcément perçus par les utilisateurs. Dans cette thèse, nous nous intéressons à comprendre les risques en terme de vie privée liés à la dissémination et collection de données de localisation. Dans ce but, les attaques par inférence que nous avons développé sont l'extraction des points d'intérêts, la prédiction de la prochaine localisation ainsi que la désanonymisation de traces de mobilité, grâce à un modèle de mobilité que nous avons appelé les chaînes de Markov de mobilité. Ensuite, nous avons établi un classement des attaques d'inférence dans le contexte de la géolocalisation se basant sur les objectifs de l'adversaire. De plus, nous avons évalué l'impact de certaines mesures d'assainissement à prémunir l'efficacité de certaines attaques par inférence. En fin nous avons élaboré une plateforme appelé GEoPrivacy Enhanced TOolkit (GEPETO) qui permet de tester les attaques par inférences développées.
23

Najjar, Ahmed. "Forage de données de bases administratives en santé." Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28162.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes de santé actuels sont de plus en plus informatisés et dotés de systèmes de collecte et de stockage des données. Une énorme quantité des données est ainsi stockée dans les bases de données médicales. Les bases de données, conçues à des fins administratives ou de facturation, sont alimentées de nouvelles données à chaque fois que le patient fait appel au système de soins de santé. Cette spécificité rend ces bases de données une source riche en information et extrêmement intéressante et utile. Elles rassemblent ainsi toutes les données de prestation de soins et pourraient permettre de construire et de dévoiler les processus de soins des patients. Toutefois, malgré cet intérêt évident que représente ces banques de données administratives, elles sont jusqu’à date sous-exploitées par les chercheurs. Nous proposons donc dans cette thèse une approche de découverte de connaissances qui à partir des données administratives brutes permet de détecter des patrons des trajectoires de soins des patients. Nous avons tout d’abord proposé un algorithme capable de regrouper des objets complexes qui représentent les services médicaux. Ces objets sont caractérisés par un mélange de variables numériques, catégorielles et catégorielles multivaluées. Nous proposons pour cela d’extraire des espaces de projection pour les variables multivaluées et de modifier le calcul de la distance entre les objets afin de prendre ces projections en compte. La deuxième nouveauté consiste à la proposition d’un modèle de mélange en deux étapes, capable de regrouper ces objets. Ce modèle fait appel à la distribution gaussienne pour les variables numériques, multinomiales pour les variables catégorielles et aux modèles cachés de Markov (HMM) pour les variables multivaluées. Nous obtenons ainsi deux algorithmes capables de regrouper des objets complexes caractérisés par un mélange de variables. Par la suite, une approche de découverte de patrons des trajectoires de soins a été mise en place. Cette approche comporte plusieurs étapes. La première est l’étape de prétraitement qui permet de construire et de générer les ensembles des services médicaux. Ainsi, on obtient trois ensembles des services médicaux : un pour les séjours hospitaliers, un pour les consultations et un pour les visites. La deuxième étape est l’étape de modélisation et regroupement des processus de soins comme une succession des étiquettes des services médicaux. Ces processus sont complexes et ils nécessitent une méthode sophistiquée de regroupement. Nous proposons ainsi un algorithme de regroupement basé sur les HMM. Finalement, une approche de visualisation et d’analyse des patrons des trajectoires est proposée pour exploiter les modèles découverts. L’ensemble de ces étapes forment le processus de découvertes des patrons des trajectoires à partir des bases de données administratives en santé. Nous avons appliqué cette approche aux bases de données sur la prestation des soins pour les personnes âgées de 65 ans et plus souffrant d’insuffisance cardiaque et habitant à la province de Québec. Ces données sont extraites de trois bases de données : la banque de données MED-ÉCHO du MSSS, la banque de la RAMQ et la base contenant les données concernant les certificats de décès. Les résultats issus de ce projet ont montré l’efficacité de notre approche et de nos algorithmes en détectant des patrons spéciaux qui peuvent aider les administrateurs de soins de santé à mieux gérer les soins de santé.
Current health systems are increasingly equipped with data collection and storage systems. Therefore, a huge amount of data is stored in medical databases. Databases, designed for administrative or billing purposes, are fed with new data whenever the patient uses the healthcare system. This specificity makes these databases a rich source of information and extremely interesting. These databases can unveil the constraints of reality, capturing elements from a great variety of real medical care situations. So, they could allow the conception and modeling the medical treatment process. However, despite the obvious interest of these administrative databases, they are still underexploited by researchers. In this thesis, we propose a new approach of the mining for administrative data to detect patterns from patient care trajectories. Firstly, we have proposed an algorithm able to cluster complex objects that represent medical services. These objects are characterized by a mixture of numerical, categorical and multivalued categorical variables. We thus propose to extract one projection space for each multivalued variable and to modify the computation of the distance between the objects to consider these projections. Secondly, a two-step mixture model is proposed to cluster these objects. This model uses the Gaussian distribution for the numerical variables, multinomial for the categorical variables and the hidden Markov models (HMM) for the multivalued variables. Finally, we obtain two algorithms able to cluster complex objects characterized by a mixture of variables. Once this stage is reached, an approach for the discovery of patterns of care trajectories is set up. This approach involves the followed steps: 1. preprocessing that allows the building and generation of medical services sets. Thus, three sets of medical services are obtained: one for hospital stays, one for consultations and one for visits. 2. modeling of treatment processes as a succession of labels of medical services. These complex processes require a sophisticated method of clustering. Thus, we propose a clustering algorithm based on the HMM. 3. creating an approach of visualization and analysis of the trajectory patterns to mine the discovered models. All these steps produce the knowledge discovery process from medical administrative databases. We apply this approach to databases for elderly patients over 65 years old who live in the province of Quebec and are suffering from heart failure. The data are extracted from the three databases: the MSSS MED-ÉCHO database, the RAMQ bank and the database containing death certificate data. The obtained results clearly demonstrated the effectiveness of our approach by detecting special patterns that can help healthcare administrators to better manage health treatments.
24

Thion-Goasdoue, Virginie. "Bases de données, contraintes d'intégrité et logiques modales." Paris 11, 2004. http://www.theses.fr/2004PA112134.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette these, nous nous etudions l'utilisation des systemes par tableaux pour les logiques modales dans le cadre de problemes lies aux contraintes d'integrite dans lesbases de donnees. Dans une premiere partie, nous utilisons un systeme par tableaux, traitant differentes logiques modales du premier ordre (lmpo), dans le cadre d'une methode permettant de tester la preservation de contraintes d'integrite dynamiques dans des bases de donnees orientees objet. Nous associons a ce systeme une strategie de recherche de preuve que nous prouvons correcte et complete dans sa version non bornee, ceci nous permet d'implanter un demonstrateur automatique detheoremes pour les lmpo k, k4, d, t et s4. Ce demonstrateur est re-utilisable pour d'autres applications necessitant de prouver la validite de formules des lmpo (verification de logiciel,systeme multi-agents, etc. ). Dans une seconde partie, nous etudions l'utilisation de la logique multi-modale hybride (lmmh) en tant que formalisme d'expression de schema et de contraintes pour les donnees semi-structurees. D'une part, nous prouvons que la lmmh permet de capturer directement la notion de donnees semi-structurees et donc de contraintes sur ces donnees. D'autre part, nous proposons une extention des dtd permettant le typage des references et nous montrons que cette nouvelle notion de schemapeut etre formalisee en termes de formules de la lmmh exactement comme une contrainte. En associant un systeme par tableaux pour la lmmh a cette approche, il est alors possible de traiter beaucoup de problemes classiques de bases de donnees (implication de contraintes, inclusion de schemas, satisfaisabilite de contraintes, etc. )
In this thesis, we use tableaux system for modal logics in order to solve databases problems related to integrity constraints. In first part, we use a tableaux system for first order modal logics in the context of a method testing integrity constraints preservation in an object oriented database. We develop a proof search strategy and we prove that it is sound and complete in its unbounded version. This leads to the implementation of a theorem prover for first order modal logics k, k4, d, t and s4. The prover can also be used for other applications where the test of validity of first order modal logics is needed (software verification, multi-agents systems, etc. ). In second part, we study hybrid multi-modal logic (hmml) as a formalism to express schemas and integrity constraints for semi-structured data. On the one hand we prove that hmml captures the notion of semi-structured data and constraints on it. On the other hand we generalize the notion of schema, by proposing a definition of schema where references are "well typed" (contrary to what happens with dtds), and we prove that this new notion can be formalized by sentences of hmml exactly like a constraint is. When a tableaux system for the hmml is added to this approach, some classical database problems can be treated (constraints implication, schemas inclusion, constraints satisfiability, etc. )
25

Guo, Yanli. "Confidentialité et intégrité de bases de données embarquées." Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0038.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’approche PDS (serveurs personnel données) prône une gestion totalement décentralisée des données personnelles. Elle s’appuie sur un nouveau composant matériel qui combine un microcontrôleur protégé contre toute attaque avec une mémoire de masse de type flash NAND. Il permet de stocker les données personnelles, les rendre disponibles et contrôler les droits d’accès. L’intégration d’un moteur de base de données permet le déploiement d’applications manipulant ces données. Cette thèse aborde deux problèmes concernant la confidentialité et l'intégrité des données personnelles: (i) la base de données est en dehors du périmètre de sécurité et peut être la cible d’attaques; (ii) des serveurs de support assurent la durabilité, la disponibilité des données, ou d'autres traitements globaux. Des protocoles appropriés doivent assurer qu’ils ne peuvent attaquer les données manipulées. Les solutions proposées s'appuyent sur des techniques cryptographiques et limitent les surcoûts générés
As a decentralized way for managing personal data, the Personal Data Server approach (PDS) resorts to Secure Portable Token, combining the tamper resistance of a smart card microcontroller with the mass storage capacity of NAND Flash. The data is stored, accessed and its access rights controlled using such devices. To support powerful PDS application requirements, a full-fledged DBMS engine is embedded in the SPT. This thesis addresses two problems with the confidentiality and integrity of personal data: (i) the database stored on the NAND Flash remains outside the security perimeter of the microcontroller, thus potentially suffering from attacks; (ii) the PDS approach relies on supporting servers to provide durability, availability, and global processing functionalities. Appropriate protocols must ensure that these servers cannot breach the confidentiality of the manipulated data. The proposed solutions rely on cryptography techniques, without incurring large overhead
26

Lavergne-Boudier, Valérie. "Système dynamique d'interrogation des bases de données bibliographiques." Paris 7, 1990. http://www.theses.fr/1990PA077243.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les bases de données bibliographiques répondent à des protocoles d'organisation très formels qui vont de pair avec des méthodes d'interrogation rigides. Cette étude propose de nouvelles méthodes d'interrogation qui prennent en compte le point de vue de l'utilisateur et son modèle personnel d'organisation et de représentation des connaissances. La requête se fait à partir de la structuration des données disponibles de la base de données bibliographique, sous forme de cartes cognitives. Les cartes cognitives sont des représentations personnalisées de connaissances dans lesquelles sont définies des conditions d'apparition de concepts selon des modèles booléens. Une carte cognitive permet d'exploiter un fonds bibliographique de façon nouvelle, en se présentant comme une grille d'analyse définie spécifiquement pour répondre à une question donnée. Elle permet également d'exploiter des coïncidences partielles qui permettent de révéler de l'information en émergence.
27

Raïssi, Chedy. "Extraction de Séquences Fréquentes : Des Bases de Données Statiques aux Flots de Données." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00351626.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Extraction de séquences fréquentes : des bases de données statiques aux flots de données Il est reconnu aujourd'hui que l'être humain est généralement noyé sous une profusion d'informations et que sa capacité d'analyse n'est plus capable de faire face au volume sans cesse croissant de données. C'est dans ce contexte qu'est né le processus d'Extraction de Connaissance dans les bases de Données. Un des buts de ce processus est de passer d'un grand volume d'informations à un petit ensemble de connaissances à fortes valeurs ajoutées pour l'analyste ou le décideur. De plus, le processus d'ECD n'est pas un processus monolithique et univoque au cours duquel il s'agirait d'appliquer un principe général à tous les types de données stockées ou récupérées. Ainsi, une des étapes de ce processus qu'est la fouille de données peut se dériver sous plusieurs formes tels que : le clustering, la classification, l'extraction d'itemset et de règles d'associations, l'extraction de structures plus complexes tels que les épisodes, les graphes ou comme dans le cadre de cette thèse l'extraction de motifs séquentiels. Malheureusement, dans un monde sans cesse en évolution, le contexte dans lequel les travaux d'ECD ont été définis ces dernières années considérait que les données, sur lesquelles la fouille était réalisée, étaient disponibles dans des bases de données statiques. Aujourd'hui, suite au développement de nouvelles technologies et applications associées, nous devons faire face à de nouveaux modèles dans lesquels les données sont disponibles sous la forme de flots. Une question se pose alors : quid des approches d'extraction de connaissances traditionnelles ? Dans ce mémoire, nous présentons un ensemble de résultat sur les motifs séquentiels dans les bases de données d'un point de vue des représentations condensées et des méthodes d'échantillonnage puis nous étendons nos différentes approches afin de prendre en compte le nouveau modèle des flots de données. Nous présentons des algorithmes permettant ainsi l'extraction de motifs séquentiels (classiques et multidimensionnels) sur les flots. Des expérimentations menées sur des données synthétiques et sur des données réelles sont rapportées et montrent l'intérêt de nos propositions.
28

Laurent, Anne. "Bases de données multidimensionnelles floues et leur utilisation pour la fouille de données." Paris 6, 2002. http://www.theses.fr/2002PA066426.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Raissi, Chedy. "Extraction de séquences fréquentes : des bases de données statiques aux flots de données." Montpellier 2, 2008. http://www.theses.fr/2008MON20063.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Laabi, Abderrazzak. "Étude et réalisation de la gestion des articles appartenant à des bases de données gérées par une machine bases de données." Paris 11, 1987. http://www.theses.fr/1987PA112338.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté dans cette thèse se situe dans le cadre d'un projet d'étude et de réalisation de trois couches du S. G. B. D. De la machine bases de données DORSAL-32. La première couche assure la gestion des articles dans le espaces de stockage, l'organisation des verrouillages des articles et des pages selon le mode d'accès effectue et le degré de cohérence de la transaction. Elle assure également la gestion des micro-journalisations qui permettent de garantir la propriété d'atomicité d'une action. La seconde assure la gestion du journal des transactions et la procédure de reprise à chaud, qui permettent de garantir les propriétés d'atomicité et de durabilité d'une transaction. Quant à la troisième couche, elle assure le contrôle concurrents, et la gestion des tables de verrous. Des accès des mesures de performances des méthodes utilisées sont présentés dans ce rapport. Le dernier chapitre contient un travail de recherche concernant la mise en pratique de la méthode de hachage virtuel linéaire dans notre S. G. B. D. Le problème étudie est celui des déplacements des articles d’une page à l'autre. Dans de telles conditions, les pointeurs d'articles classiquement utilises ne permettent pas d'effectuer des accès directs. Nous proposons un nouveau pointeur qui permet de réaliser un accès direct à l'article, et ceci quelle que soit la page où il se trouve à un instant donné
The work presented in this thesis is part of a study and development project concerning the design of three layers of the DBMS on the DORSAL-32 Data Base Machine. The first layer ensures record management within the storage areas, record and page locking organization according to the access mode and transaction coherency degree. It ensures also the handling of micro-logs which permit to guarantee the atomicity of an action. The second layer ensures handling of transaction logging and warm restarts which guarantee the atomicity and durability of a transaction. The third layer ensures simultaneous access management and handling of lock tables. Performance measures of the methods used are also presented. The last chapter of this report contains a research work concerning the implementation of the virtual linear hashing method in our DBMS. The problem studied is the transfer of records from one page to another. Under these conditions, the record pointers which are classically used don't permit direct access. We propose a new pointer which enables direct access to the record, on no matter which page it is contained at a given instant
31

Baptiste, Pierre. "Contribution à la conception d'un atelier flexible : définition de la base de données techniques, ordonnancement de taches à temps de réglage variables." Lyon, INSA, 1985. http://www.theses.fr/1985ISAL0038.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous décrivons dans ce travail les différentes étapes de la construction du système d'information d'un atelier flexible et une méthode d'ordonnancement permettant de minimiser les temps de réglage. Nous abordons les points suivants : -Description de l'atelier étudié Justification du choix de la méthode MERISE pour analyser et construire le système d'information. - Présentation des principaux aspects du modèle conceptuel de la base de données techniques. Sont particulièrement développées les notions de gammes (gammes d'ordonnancement VS, gammes d'usinage), la notion de réglage (approche structurée avec les notions d'outils, d'outillages, de types de réglage) et une redéfinition des nomenclatures en familles en pièces. -Présentation d'une méthode d'ordonnancement minimisant les temps de réglage. Cette méthode originale fait appel à des outils mathématiques comme les treillis de Galois et les graphes d'intervalle. Les tests effectués permettent de constater un gain de l'ordre de 50% sur les temps de réglage et de 15% sur le temps total de fabrication dans une classe de problèmes où les solutions classiques sont peu applicables
This work is a contribution to the elaboration of an information system for a PMS. It deals with the construction of a technical data base and with a scheduling method that minimizes the number of set-up operations. Pour main parts can be distinguished. - In the first part, the PMS studied is described. - The second is a review of the different methods used to construct a production manufacturing system (the ones based on the physical system and the ones based on the information system ). The choice of MERISE method is justified - In a third part, some conceptual models are presented (describing routings, tools, fixtures, DNC programmes, etc. . . ). - At last a scheduling method that minimizes set-up times is proposed. This method uses mathematical tools, such as Galois lattice, interval graphs. A prototype of this method gives very good results in numerous examples: about 50 % of set-up operations can be avoided in all cases studied
32

Mahfoudi, Abdelwahab. "Contribution a l'algorithmique pour l'analyse des bases de données statistiques hétérogènes." Dijon, 1995. http://www.theses.fr/1995DIJOS009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La première partie est consacrée a l'analyse et au positionnement multidimensionnel des tableaux de données hétérogènes (qualitatifs et quantitatifs). On présente d'abord une synthèse des méthodes de multidimensional scaling (MDS) et des problèmes sous jacents. On étudie ensuite le problème de l'homogénéisation des données par transformation des variables et on établit les limites d'une telle approche. Nous abordons ensuite le problème sous l'angle du M. D. S. , divers indices de dépendances entre attributs de natures différentes sont construits. L'ensemble des résultats est implémenté dans le package Kalita. La deuxième partie traite de la détection des outliers dans les données. Après un historique, une présentation des principales règles existantes pour la détection ainsi que des relations d'équivalence de certaines d'entre elles sont données. Une règle générale est ensuite construite dans le cadre d'un modèle linéaire généralisé et sa distribution est établie. Cette règle généralise la plupart de celles existantes et s'applique aux principaux modèles d'analyse de données (A. C. P. , Anova, Manova, modèle linéaire et polynomial)
33

Boullé, Marc. "Recherche d'une représentation des données efficace pour la fouille des grandes bases de données." Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003023.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La phase de préparation du processus de fouille des données est critique pour la qualité des résultats et consomme typiquement de l'ordre de 80% d'une étude. Dans cette thèse, nous nous intéressons à l'évaluation automatique d'une représentation, en vue de l'automatisation de la préparation des données. A cette fin, nous introduisons une famille de modèles non paramétriques pour l'estimation de densité, baptisés modèles en grille. Chaque variable étant partitionnée en intervalles ou groupes de valeurs selon sa nature numérique ou catégorielle, l'espace complet des données est partitionné en une grille de cellules résultant du produit cartésien de ces partitions univariées. On recherche alors un modèle où l'estimation de densité est constante sur chaque cellule de la grille. Du fait de leur très grande expressivité, les modèles en grille sont difficiles à régulariser et à optimiser. Nous avons exploité une technique de sélection de modèles selon une approche Bayesienne et abouti à une évaluation analytique de la probabilité a posteriori des modèles. Nous avons introduit des algorithmes d'optimisation combinatoire exploitant les propriétés de notre critère d'évaluation et la faible densité des données en grandes dimensions. Ces algorithmes ont une complexité algorithmique garantie, super-linéaire en nombre d'individus. Nous avons évalué les modèles en grilles dans de nombreux contexte de l'analyse de données, pour la classification supervisée, la régression, le clustering ou le coclustering. Les résultats démontrent la validité de l'approche, qui permet automatiquement et efficacement de détecter des informations fines et fiables utiles en préparation des données.
34

Curé, Olivier. "Relations entre bases de données et ontologies dans le cadre du web des données." Habilitation à diriger des recherches, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00843284.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce manuscrit présente mon intérêt pour la conception des méthodes et algorithmes nécessaires pour la réalisation d'applications avancées pour le web sémantique. Cette extension du web actuel vise à autoriser l'intégration et le partage de données entre organismes et applications. Une conséquence directe du succès de cette approche permettrait de considérer le web comme une base de données globale contenant les données stockées sur toutes les machines connectées. Cet aspect s'exprime bien dans le site web dédié à l'activité web sémantique du W3C, qui déclare que le web sémantique est un web des données. Ainsi, ce web des données permettra de soumettre des requêtes structurées sur tous les ensembles de données connectés, et de récupérer des résultats pertinents provenant de sources diverses et hétérogènes. Une question essentielle liée à cette hétérogénéité concerne la notion de sémantique. Dans le contexte du web sémantique, elle est généralement traitée avec des ontologies et les opérations de médiation associées. Ma recherche s'ancrent dans ces thématiques et ce manuscrit vise à présenter quelques unes de mes recherches et résultats, ainsi qu'à décrire certaines des applications que j'ai conçues et implémentées
35

Charmpi, Konstantina. "Méthodes statistiques pour la fouille de données dans les bases de données de génomique." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GRENM017/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée aux tests statistiques, visant à comparer un vecteur de données numériques, indicées par l'ensemble des gènes du génome humain, à un certain ensemble de gènes, connus pour être associés par exemple à un type donné de cancer. Parmi les méthodes existantes, le test Gene Set Enrichment Analysis est le plus utilisé. Néanmoins, il a deux inconvénients. D'une part, le calcul des p-valeurs est coûteux et peu précis. D'autre part, il déclare de nombreux résultats significatifs, dont une majorité n'ont pas de sens biologique. Ces deux problèmes sont traités, par l'introduction de deux procédures statistiques nouvelles, les tests de Kolmogorov-Smirnov pondéré et doublement pondéré. Ces deux tests ont été appliqués à des données simulées et réelles, et leurs résultats comparés aux procédures existantes. Notre conclusion est que, au-delà leurs avantages mathématiques et algorithmiques, les tests proposés pourraient se révéler, dans de nombreux cas, plus informatifs que le test GSEA classique, et traiter efficacement les deux problèmes qui ont motivé leur construction
Our focus is on statistical testing methods, that compare a given vector of numeric values, indexed by all genes in the human genome, to a given set of genes, known to be associated to a particular type of cancer for instance. Among existing methods, Gene Set Enrichment Analysis is the most widely used. However it has several drawbacks. Firstly, the calculation of p-values is very much time consuming, and insufficiently precise. Secondly, like most other methods, it outputs a large number of significant results, the majority of which are not biologically meaningful. The two issues are addressed here, by two new statistical procedures, the Weighted and Doubly Weighted Kolmogorov-Smirnov tests. The two tests have been applied both to simulated and real data, and compared with other existing procedures. Our conclusion is that, beyond their mathematical and algorithmic advantages, the WKS and DWKS tests could be more informative in many cases, than the classical GSEA test and efficiently address the issues that have led to their construction
36

Kezouit, Omar Abdelaziz. "Bases de données relationnelles et analyse de données : conception et réalisation d'un système intégré." Paris 11, 1987. http://www.theses.fr/1987PA112130.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les utilisateurs de bases de données relationnelles ont de plus en plus souvent tendance à attendre des Systèmes de Gestion de Bases de Données (SGBD) des fonctionnalités qui aillent plus loin que l'organisation le stockage et la restitution d'un ensemble de données. D'un autre côté, les utilisateurs de l'analyse statistique multidimensionnelle, qui traitent des tableaux de données rectangulaires, ont de gros problèmes de gestion de leurs données et les outils dont ils disposaient jusqu'à présent manquaient souvent de souplesse, voire de possibilités. Pour répondre à cette préoccupation, cette thèse propose de rapprocher bases de données relationnelles et analyse statistique multidimensionnelle à travers la réalisation d'un système intégrant un SGBD relationnel et un système d'analyse de données, et de montrer par là même tout le bénéfice qui peut en être tiré du point de vue de l'interrogation des données. La première partie se propose de présenter les problèmes généraux naissant de l'intégration. Après une présentation des deux domaines et de certains travaux en bases de données statistiques, nous proposons une synthèse des notions de l'analyse statistique multidimensionnelle et des bases de données relationnelles. Ceci permettra de déboucher sur les spécifications d'un outil intégré de gestion et d'analyse des données et également de mettre en évidence un problème de cohérence particulier. Outre l'apport provenant de chaque part (gestion des données plus performante grâce au SGBD, interrogation statistique grâce au système d'analyse des données), des possibilités nouvelles naissent de l'intégration. Il s'agit principalement de la capacité d'effectuer des requêtes approximatives, que nous défroissons à cette occasion, sur une base de données et de la résolution dans certains cas du problème des données manquantes. La seconde partie est consacrée à la présentation d'une réalisation particulière. Nous avons pour cela intégré le SGBD relationnel PEPIN et le Système de classification automatique SICLA. Le prototype opérationnel permet ainsi de gérer une base de données relationnelle et de l'interroger statistiquement. Un exemple d'utilisation pour le traitement d'une enquête est donné.
37

Zelasco, José Francisco. "Gestion des données : contrôle de qualité des modèles numériques des bases de données géographiques." Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20232.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les modèles numériques de terrain, cas particulier de modèles numériques de surfaces, n'ont pas la même erreur quadratique moyenne en planimétrie qu'en altimétrie. Différentes solutions ont été envisagées pour déterminer séparément l'erreur en altimétrie et l'erreur planimétrique, disposant, bien entendu, d'un modèle numérique plus précis comme référence. La démarche envisagée consiste à déterminer les paramètres des ellipsoïdes d'erreur, centrées dans la surface de référence. Dans un premier temps, l'étude a été limitée aux profils de référence avec l'ellipse d'erreur correspondante. Les paramètres de cette ellipse sont déterminés à partir des distances qui séparent les tangentes à l'ellipse du centre de cette même ellipse. Remarquons que cette distance est la moyenne quadratique des distances qui séparent le profil de référence des points du modèle numérique à évaluer, c'est à dire la racine de la variance marginale dans la direction normale à la tangente. Nous généralisons à l'ellipsoïde de révolution. C'est le cas ou l'erreur planimétrique est la même dans toutes les directions du plan horizontal (ce n'est pas le cas des MNT obtenus, par exemple, par interférométrie radar). Dans ce cas nous montrons que le problème de simulation se réduit à l'ellipse génératrice et la pente du profil correspondant à la droite de pente maximale du plan appartenant à la surface de référence. Finalement, pour évaluer les trois paramètres d'un ellipsoïde, cas où les erreurs dans les directions des trois axes sont différentes (MNT obtenus par Interférométrie SAR), la quantité des points nécessaires pour la simulation doit être importante et la surface tr ès accidentée. Le cas échéant, il est difficile d'estimer les erreurs en x et en y. Néanmoins, nous avons remarqué, qu'il s'agisse de l'ellipsoïde de révolution ou non, que dans tous les cas, l'estimation de l'erreur en z (altimétrie) donne des résultats tout à fait satisfaisants
A Digital Surface Model (DSM) is a numerical surface model which is formed by a set of points, arranged as a grid, to study some physical surface, Digital Elevation Models (DEM), or other possible applications, such as a face, or some anatomical organ, etc. The study of the precision of these models, which is of particular interest for DEMs, has been the object of several studies in the last decades. The measurement of the precision of a DSM model, in relation to another model of the same physical surface, consists in estimating the expectancy of the squares of differences between pairs of points, called homologous points, one in each model which corresponds to the same feature of the physical surface. But these pairs are not easily discernable, the grids may not be coincident, and the differences between the homologous points, corresponding to benchmarks in the physical surface, might be subject to special conditions such as more careful measurements than on ordinary points, which imply a different precision. The generally used procedure to avoid these inconveniences has been to use the squares of vertical distances between the models, which only address the vertical component of the error, thus giving a biased estimate when the surface is not horizontal. The Perpendicular Distance Evaluation Method (PDEM) which avoids this bias, provides estimates for vertical and horizontal components of errors, and is thus a useful tool for detection of discrepancies in Digital Surface Models (DSM) like DEMs. The solution includes a special reference to the simplification which arises when the error does not vary in all horizontal directions. The PDEM is also assessed with DEM's obtained by means of the Interferometry SAR Technique
38

Ykhlef, Mourad. "Interrogation des données semistructurées." Bordeaux 1, 1999. http://www.theses.fr/1999BOR1A640.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous proposons dans cette these deux langages de requetes du type calcul (graph-fixpoint et graph-while) pour interroger des donnees semistructurees modelisees par des graphes etiquetes (db-graphes). Ces deux langages expriment respectivement des requetes dans les classes fixpoint et while. Nous montrons ainsi qu'ils sont plus puissants que les langages existants. Nous proposons aussi une extension du modele de representation des donnees semistructurees en considerant une structure plus generale qui est celle des graphes imbriques. Ceci permet de mieux rendre compte de la nature hierarchique des donnees semistructurees et de leur origine. Aussi, nous exploitons cette structure pour integrer les formulaires presents sur le web. Le langage de requetes imbrique ngraph est considere pour interroger des donnees provenant de plusieurs sources qui sont integrees via le web.
39

Ykhlef, Mourad. "Interrogation des données semistructurées." Bordeaux 1, 1999. http://www.theses.fr/1999BOR10670.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous proposons dans cette these deux langages de requetes du type calcul (graph-fixpoint et graph-while) pour interroger des donnees semistructurees modelisees par des graphes etiquetes (db-graphes). Ces deux langages expriment respectivement des requetes dans les classes fixpoint et while. Nous montrons ainsi qu'ils sont plus puissants que les langages existants. Nous proposons aussi une extension du modele de representation des donnees semistructurees en considerant une structure plus generale qui est celle des graphes imbriques. Ceci permet de mieux rendre compte de la nature hierarchique des donnees semistructurees et de leur origine. Aussi, nous exploitons cette structure pour integrer les formulaires presents sur le web. Le langage de requetes imbrique ngraph est considere pour interroger des donnees provenant de plusieurs sources qui sont integrees via le web.
40

Jomier, Geneviève. "Bases de données relationnelles : le système PEPIN et ses extensions." Paris 5, 1989. http://www.theses.fr/1989PA05S008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse concerne le SGBD relationnel PEPIN et un certain nombre de travaux auxquels il a donné lieu. Ce système a été conçu pour une implantation sur un ensemble de micro-ordinateurs interconnectés par un réseau local de manière à réaliser un système réparti composé de serveurs de base de données et de sites d'accès faiblement couplés. L'architecture en couches du logiciel gérant une base monofichier, a permis de réaliser un système très souple dans ses fonctions, aisément adaptable à différents domaines d'application par ajoût, suppression, modification ou adaptation de fonctions internes ou extérieures au système, très facilement portable sur différents systèmes d'exploitation et évolutifs. L'atomocité des transactions est assurée par un mécanisme original et particulièrement performant d'espace fantôme. Celui-ci permet la réalisation de validations en deux phases, d'abandons et de reprises de transactions en cas de panne ayant détruit le contenu de la mémoire centrale très rapide. À la suite de la description du système sont présentés des travaux faisant le lien entre base de données et logique, bases de données et analyse des données, base de données relationnelles et orientation-objet. Ces travaux ont donné lieu à des extensions du système de référence. Le système PEPIN a été utilisé par de nombreuses équipes de recherche, et aussi par des industriels, pour le développement de nouveaux prototypes dans des domaines très divers, en finance et à l'étranger, ainsi que pour l'enseignement des bases de données dans des universités et écoles d'ingénieurs.
41

Fallouh, Fouad. "Données complexes et relation universelle avec inclusions : une aide à la conception et à l'interrogation des bases de données." Lyon 1, 1994. http://www.theses.fr/1994LYO10217.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Notre travail est a la frontiere des modeles semantiques de donnees et des donnees complexes ; il repose sur le modele relation universelle avec inclusions. Dans cette these nous montrons d'abord que les dependances d'inclusion permettent de definir des contraintes d'integrite plus generales que l'integrite referentielle concernant une, deux ou plus de deux relations et nous presentons comment les controler dans les sgbd relationnels actuels. La suite de la these s'est attachee a cumuler les avantages du modele relation universelle avec inclusions et des donnees complexes. Nous voulons recuperer la simplicite de description lors d'une conception par donnees complexes et leur adaptation aux traitements prevus. Nous donnons le principe de l'editeur graphique, appele lacsi-complexe, que nous avons construit et developpe en utilisant l'atelier de genie logiciel graphtalk. Cet editeur est capable de capter simplement la connaissance de l'analyste ou de l'utilisateur, de profiter de la faculte visionnaire d'utilisateurs ou d'administrateurs d'applications et de reprendre l'acquit de fichiers ou de bases de donnees non relationnelles existantes. Lacsi-complexe permet de specifier un schema de donnees appele foret complexe qui est: ? un ensemble de donnees complexes avec des sommets values ou non, des arcs totalement ou partiellement definis, monovalues ou multivalues, des cles et des attributs de rupture, complete par ? des dependances fonctionnelles, des composantes de jointure et des dependances d'inclusion. Il en deduit, en vue d'une implantation relationnelle, un graphe semantique normalise. Pour cela il represente les structures de liste, d'ensemble ordonne et d'amas, en s'aidant d'attributs rang et identifiant. Cependant ainsi la semantique des traitements susceptible d'etre representee par les donnees complexes disparait. Nous montrons que le modele foret complexe s'il peut, par duplication d'attributs a l'interieur d'une donnee complexe ou par attributs communs entre donnees complexes, representer la semantique des donnees, perd de sa lisibilite. En consequence, nous proposons un schema de donnees compact et quasi-unique intermediaire entre le graphe semantique normalise et la foret complexe: le graphe semantique normalise arbore. Ce graphe est un ensemble de donnees complexes sans attributs non racines dupliques et liees par des dependances d'inclusion. Il est une aide a la conception des bases de donnees oriente objet. Le graphe semantique normalise arbore est aussi un support privilegie pour l'interrogation graphique. En effet, nous etendons l'interface d'interrogation ruitalk, reposant sur le graphe semantique normalise, aux donnees complexes. Nous adjoignons aussi un mecanisme de jointures implicites
42

Jacob, Stéphane. "Protection cryptographique des bases de données : conception et cryptanalyse." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00738272.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente une étude approfondie de la protection cryptographique des bases de données. Elle aborde tous les aspects de ce domaine : la législation l'encadrant, les produits commerciaux et " open-source " offrant ce type de service, et les travaux effectués par les communautés de cryptographie et de base de données. Cette étude se focalise notamment sur les systèmes d'information qui contiennent des données hautement sensibles. Dans ce contexte, nous avons étudié la sécurité de plusieurs propositions. En particulier, nous avons effectué une cryptanalyse de l'algorithme de chiffrement Fast Comparison Encryption (FCE) proposé par Ge et Zdonik en 2007, ainsi que d'une variante suggérée par les auteurs en réaction à notre première cryptanalyse. Ces deux attaques ont l'avantage d'être pratiques, c'est-à-dire qu'elles s'exécutent en temps raisonnable sur un PC standard. Ces travaux nous ont également conduit à proposer des façons sûres de protéger les bases de données en utilisant des algorithmes dont la sécurité a été éprouvée par la communauté cryptographique. Cela permet d'avoir des solutions robustes, à défaut d'être parfaites, pour protéger des données sensibles.
43

Coulon, Cedric. "Réplication Préventive dans une grappe de bases de données." Phd thesis, Université de Nantes, 2006. http://tel.archives-ouvertes.fr/tel-00481299.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans une grappe de bases de données, la réplication préventive peut fournir une cohérence forte sans les limitations d'une réplication synchrone. Dans cette thèse, nous présentons une solution complète pour la réplication préventive qui supporte les configurations multimaîtres et partielles, où les bases de données sont partiellement répliquées sur différents noeuds. Pour augmenter le débit des transactions, nous proposons une optimisation qui élimine le délai d'attente pour l'ordonnancement en contrepartie d'un petit nombre d'abandon des transactions et nous introduisons le rafraîchissement parallèle des copies. Nous décrivons des expérimentations à grande échelle de notre algorithme basées sur notre prototype (RepDB*) sur une grappe de 64 noeuds utilisant le SGBD PostgreSQL. Nos résultats utilisant le banc d'essai TPC-C montrent que notre approche dispose d'un excellent passage à l'échelle et d'une excellente amélioration du débit.
44

Collet, Christine. "Les formulaires complexes dans les bases de données multimédia." Phd thesis, Grenoble 1, 1987. http://tel.archives-ouvertes.fr/tel-00325851.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un modèle de formulaires complexes et les opérations associes sont présentes. Il s'attache à la classe des modèles de données relationnelles "non sons première forme normale". Il offre un cadre formel pour décrire et traiter la structure, la dynamique et la présentation des objets d'une application comme des formulaires
45

Bouganim, Luc. "Sécurisation du Contrôle d'Accès dans les Bases de Données." Habilitation à diriger des recherches, Université de Versailles-Saint Quentin en Yvelines, 2006. http://tel.archives-ouvertes.fr/tel-00308620.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Verlaine, Lionel. "Optimisation des requêtes dans une machine bases de données." Paris 6, 1986. http://www.theses.fr/1986PA066532.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
CCette thèse propose des solutions optimisant l'évaluation de questions et la jointure. Ces propositions sont étudiées et mises en œuvre à partir du SGBD Sabrina issu du projet SABRE sur matériel Carrousel à la SAGEM. L'évaluation de questions permet d'optimiser le niveau logique du traitement d'une requête. La décomposition la plus pertinente est établie en fonction d'heuristiques simples. L'algorithme de jointure propose utilise des mécanismes minimisant à la fois le nombre d'entrées/sorties disque et le nombre de comparaisons. Il admet un temps d'exécution proportionnel au nombre de tuples. L'ordonnancement de jointures est résolu par un algorithme original de jointure multi-relations et par une méthode d'ordonnancement associée permettant un haut degré de parallélisme.
47

Jault, Claude. "Méthodologie de la conception des bases de données relationnelles." Paris 9, 1989. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1989PA090011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse analyse les différentes méthodes de conception de bases de données relationnelles et, compte tenu de leurs insuffisances, propose une nouvelle méthode. Le 1er chapitre présente les concepts : schémas et modèles conceptuels et logiques, liens entre entités, cardinalités des liaisons, concepts du modèle relationnel (relations, dépendances, clefs primaires et étrangères), normalisation (avec la démonstration de la non inclusion de la 4ème forme normale dans la 3ème), contraintes d'intégrité (de domaine, de relation, de référence), valeurs nulles, et un nouveau type de contraintes, les contraintes entre liens. Le 2ème chapitre expose les différentes méthodes existantes qui peuvent être réparties en trois groupes. Celles qui utilisent le modèle entités-associations : les versions américaine et française de ce modèle (avec leurs extensions), la méthode Axial, la méthode Remora ; celles qui n'utilisent pas de schéma conceptuel : approche de la relation universelle, approche de Codd et date, approche par intégration des vues ; et la méthode IA (NIAM) qui utilise les réseaux sémantiques. Le 3ème chapitre expose la méthode entités-liens-relations élaborée dans cette thèse. Elle s'appuie sur un modèle conceptuel représentant les entités et leurs liens, avec les contraintes d'intégrité entre ces liens. Elle procède en trois phases : l'approche conceptuelle globale, centrée sur les entités et les liens (1:n et 1:1, les liens m:n étant transformes en 2 liens 1:n) ; l'approche conceptuelle détaillée, qui définit les attributs et les domaines sémantiques, normalise les entités, examine les dépendances non permanentes et les contraintes entre liens; l'approche logique, qui déduit le schéma relationnel, contrôle sa normalité, définit les contraintes d'intégrité et résout les inter-blocages référentiels. Le 4ème chapitre illustre la méthode entités-liens-relations par un cas concret
This thesis analyses the different relational data base design methods and, because of their insufficiencies, propose a new method. The first chapter presents the concepts: conceptual and logical schemas and models, links between entities, connection cardinalities, relational model concepts (relations, dependencies, primary and foreign keys), normalization (with the demonstration of the 4th normal form not included into the 3rd), integrity constraints (domain, relation, reference), null values, and a new type of constraints, the constraints between links. The second chapter gives an account of the different methods which can be dispatched in three groups. Those which utilize the entity-relationship model: the American and French model-versions (with their extensions), the axial method, the remora method; those which don't utilize conceptual schema: universal relation approach, godd and date approach, view integration approach; and the IA method (NIAM) using the semantic networks. The third chapter exposes the entity-link-relation method, elaborated in this thesis. It is supported by a conceptual model representing the entities and their links, with the integrity constraints between these links. It proceeds in three phases: the total conceptual approach, centered on entities and links (1:n and 1:1, the links m:n converted to two links 1:n) ; the detail conceptual approach, which defines the attributes and the semantic domains, normalizes entities, examines no-permanent dependencies and the link-constraints ; the logical approach, which gives the relational schema, controls its normality, defines integrity constraints and solves referential deadlocks. The fourth chapter gives one concrete case of the entity-link-relation method
48

Fansi, Janvier. "Sécurité des bases de données XML (eXtensible Markup Language)." Pau, 2007. http://www.theses.fr/2007PAUU3007.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
XML est devenu le standard de représentation et d'échange de données sur Internet. Puisque Internet est un réseau public, les entreprises et organismes qui se servent de XML ont besoin de mécanismes de protection des données XML contre les accès non autorisés. C'est ainsi que plusieurs travaux se sont intéressés à la protection de XML. Ceux-ci peuvent être classés en deux grandes catégories, à savoir celles qui procèdent par matérialisation des vues et celles qui opèrent par réécriture des requêtes. Dans cette thèse, nous montrons les limites des approches qui procèdent par matérialisation des vues à travers le développement d'un prototype de base de données XML basé sur l'une de ces approches. Par la suite, nous proposons une technique de protection des documents XML par réécriture des requêtes. Nous prouvons sa correction et montrons qu'elle est plus efficace que les approches concurrentes. Enfin, nous étendons notre proposition afin de prendre en compte le contrôle des accès en écriture aux bases de données XML
XML has emerged as the de facto standard for representing and exchanging information on the Internet. As Internet is a public network, corporations and organizations which use XML need mechanisms to protect XML data against unauthorised access. Thus, several schemes for XML access control have been proposed. They can be classified in two major categories: views materialization and queries rewriting techniques. In this thesis, we point out the drawbacks of views materialization approaches through the development of a prototype of secured XML database based on one of those approaches. Afterwards, we propose a technique aimed at securing XML by means of queries rewriting. We prove its correctness and show that it is more efficient than competing works. Finally, we extend our proposal in order to controlling the updating of XML databases
49

Hammiche, Samira. "Approximation de requêtes dans les bases de données multimédia." Lyon 1, 2007. http://www.theses.fr/2007LYO10080.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Grison, Thierry. "Intégration de schémas de bases de données entité-association." Dijon, 1994. http://www.theses.fr/1994DIJOS005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'essor des fédérations de bases de données a réactualisé les besoins en méthodes d'intégration de schémas. Nous proposons une nouvelle approche pour le traitement des correspondances inter-schémas, approche fondée sur les idées de partition et de règles de déduction. Par ailleurs pour faciliter la détection des correspondances nous avons pensé enrichir, par des définitions, les schémas à intégrer en donnant la possibilité aux utilisateurs de décrire la sémantique de leurs concepts. Nous développons enfin une nouvelle méthode d'intégration de schémas dont l'objectif est de tirer un profit maximum des informations présentes dans les schémas (dont les définitions de concepts) et de minimiser le nombre nécessaire de comparaisons de concepts

До бібліографії