Dissertationen zum Thema „Bases de données relationnelles – Gestion“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Bases de données relationnelles – Gestion.

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Bases de données relationnelles – Gestion" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Kerhervé, Brigitte. „Vues relationnelles : implantation dans les systèmes de gestion de bases de données centralisés et répartis“. Paris 6, 1986. http://www.theses.fr/1986PA066090.

Der volle Inhalt der Quelle
Annotation:
Nous décrivons les choix qui ont été faits dans le prototype SABRE. Nous analysons par la suite l'implantation de vues concrètes qui correspondent à la matérialisation des vues relationnelles. Nous montrons que ces vues concrètes permettent de définir un nouveau type de SGBD réparti où la définition et le stockage des données sont faits en fonction des interrogations sur les sites distants, de manière à maximiser les interrogations locales. Nous décrivons et analysons les mécanismes nécessaires à l'implantation d'un tel type de SGBD réparti par vues concrètes, notamment du point de vue des mises à jour.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Lagrange, Jean-Philippe. „Ogre : un système expert pour la génération de requêtes relationnelles“. Paris 9, 1992. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1992PA090035.

Der volle Inhalt der Quelle
Annotation:
Le but du travail présenté ici est d'affranchir le développeur de programmes d'application de la nécessité de construire ses requêtes en fonction du schéma logique de la base de données. La démarche retenue est de proposer un langage d'interrogation ne faisant référence qu'au schéma conceptuel, le système assurant la construction des requêtes au SGBD à partir de spécifications écrites dans ce langage. Par ailleurs, un des objectifs vises, par opposition aux travaux antérieurs, est d'imposer le moins de contraintes possible pour le schéma logique (relationnel) et pour le schéma conceptuel associe. Pour cela on propose: une mise en correspondance souple entre le schéma relationnel et un schéma conceptuel exprime en fonction d'un modèle d'une grande puissance d'expression; de faire assurer la génération des requetés par un système à base de connaissances, qui s'appuie sur des connaissances relatives à la base de données, une méta-base, et sur des connaissances déductives, des règles d'analyse et de génération des requêtes. On trouvera ici une analyse de l'état de l'art dans le domaine des interfaces de requêtes, une définition du modèle conceptuel er#+, et du langage de requête de ogre, et une description des trois principaux modules du système: constitution de la méta-base, analyse et reformulation des spécifications et enfin génération des requêtes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Jomier, Geneviève. „Bases de données relationnelles : le système PEPIN et ses extensions“. Paris 5, 1989. http://www.theses.fr/1989PA05S008.

Der volle Inhalt der Quelle
Annotation:
Cette thèse concerne le SGBD relationnel PEPIN et un certain nombre de travaux auxquels il a donné lieu. Ce système a été conçu pour une implantation sur un ensemble de micro-ordinateurs interconnectés par un réseau local de manière à réaliser un système réparti composé de serveurs de base de données et de sites d'accès faiblement couplés. L'architecture en couches du logiciel gérant une base monofichier, a permis de réaliser un système très souple dans ses fonctions, aisément adaptable à différents domaines d'application par ajoût, suppression, modification ou adaptation de fonctions internes ou extérieures au système, très facilement portable sur différents systèmes d'exploitation et évolutifs. L'atomocité des transactions est assurée par un mécanisme original et particulièrement performant d'espace fantôme. Celui-ci permet la réalisation de validations en deux phases, d'abandons et de reprises de transactions en cas de panne ayant détruit le contenu de la mémoire centrale très rapide. À la suite de la description du système sont présentés des travaux faisant le lien entre base de données et logique, bases de données et analyse des données, base de données relationnelles et orientation-objet. Ces travaux ont donné lieu à des extensions du système de référence. Le système PEPIN a été utilisé par de nombreuses équipes de recherche, et aussi par des industriels, pour le développement de nouveaux prototypes dans des domaines très divers, en finance et à l'étranger, ainsi que pour l'enseignement des bases de données dans des universités et écoles d'ingénieurs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Kezouit, Omar Abdelaziz. „Bases de données relationnelles et analyse de données : conception et réalisation d'un système intégré“. Paris 11, 1987. http://www.theses.fr/1987PA112130.

Der volle Inhalt der Quelle
Annotation:
Les utilisateurs de bases de données relationnelles ont de plus en plus souvent tendance à attendre des Systèmes de Gestion de Bases de Données (SGBD) des fonctionnalités qui aillent plus loin que l'organisation le stockage et la restitution d'un ensemble de données. D'un autre côté, les utilisateurs de l'analyse statistique multidimensionnelle, qui traitent des tableaux de données rectangulaires, ont de gros problèmes de gestion de leurs données et les outils dont ils disposaient jusqu'à présent manquaient souvent de souplesse, voire de possibilités. Pour répondre à cette préoccupation, cette thèse propose de rapprocher bases de données relationnelles et analyse statistique multidimensionnelle à travers la réalisation d'un système intégrant un SGBD relationnel et un système d'analyse de données, et de montrer par là même tout le bénéfice qui peut en être tiré du point de vue de l'interrogation des données. La première partie se propose de présenter les problèmes généraux naissant de l'intégration. Après une présentation des deux domaines et de certains travaux en bases de données statistiques, nous proposons une synthèse des notions de l'analyse statistique multidimensionnelle et des bases de données relationnelles. Ceci permettra de déboucher sur les spécifications d'un outil intégré de gestion et d'analyse des données et également de mettre en évidence un problème de cohérence particulier. Outre l'apport provenant de chaque part (gestion des données plus performante grâce au SGBD, interrogation statistique grâce au système d'analyse des données), des possibilités nouvelles naissent de l'intégration. Il s'agit principalement de la capacité d'effectuer des requêtes approximatives, que nous défroissons à cette occasion, sur une base de données et de la résolution dans certains cas du problème des données manquantes. La seconde partie est consacrée à la présentation d'une réalisation particulière. Nous avons pour cela intégré le SGBD relationnel PEPIN et le Système de classification automatique SICLA. Le prototype opérationnel permet ainsi de gérer une base de données relationnelle et de l'interroger statistiquement. Un exemple d'utilisation pour le traitement d'une enquête est donné.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Coussoulet, Jean-Pierre. „Conception et réalisation d'un système relationnel documentaire : Campus-doc“. Nice, 1988. http://www.theses.fr/1988NICE4233.

Der volle Inhalt der Quelle
Annotation:
Les deux prototypes présentés, bâtis à part du système de gestion de bases de données relationnel Campus, intègrent les fonctionnalités suivantes : 1) gestion de thesaurus; 2) recherche de documents sur données analytiques et/ou signalétiques par requêtes booléennes complexes. Les différences entre ces deux systèmes résident dans leur conception : Minid'oc utilise simplement le modèle relationnel, Campus-doc l'enrichit par intégration de nouveaux types d'entrées
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Baujoin, Corinne. „Analyse et optimisation d’un système de gestion de bases de données hiérarchique-relationnel : proposition d’une interface d’interrogation“. Compiègne, 1985. http://www.theses.fr/1985COMPI209.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Exbrayat, Matthieu. „Evaluation parallèle de requêtes relationnelles sur le réseau de stations : le système ENKIDU“. Lyon, INSA, 1999. http://theses.insa-lyon.fr/publication/1999ISAL0003/these.pdf.

Der volle Inhalt der Quelle
Annotation:
Les Systèmes de Gestion de Bases de Données (SGBD) parallèles constituent la réponse classique aux besoins de hautes performances des utilisateurs de bases de données relationnelles. De tels systèmes sont d'une grande complexité et leur coût, ainsi que celui des machines utilisées, s'en trouvent particulièrement élevés. Or de nombreuses classes d'applications, telle l'interrogation de documents en ligne, caractérisées par une forte utilisation en "lecture seule", n'exploitent qu'une faible part des possibilités de tels SGBD (les gestions de cohérence et de transactions y étant très peu sollicitées). Aussi proposons-nous une approche alternative dans le cadre de telles bases de données. Cette approche s'appuie sur le développement d'une extension parallèle, appelée évaluateur parallèle de requêtes relationnelles, et fonctionnant sur un réseau de stations de travail. L'évaluateur de requêtes se connecte à un SGBD et en extrait les données souhaitées afin de les exploiter de façon parallèle sur un réseau de stations. Cet évaluateur offre ainsi des fonctionnalités de stockage et d'interrogation de données similaires à celles d'un SGBD parallèle. Ce mémoire introduit une architecture d'évaluateur parallèle, et se penche sur la gestion des données et des requêtes dans ce cadre. Nos propositions sont étayées par la présentation du prototype d'évaluateur parallèle ENKIDU développé durant notre thèse, et de mesures effectuées sur ce prototype. Nous proposons enfin de généraliser la notion d'extension parallèle comme applicable à d'autres domaines de l'informatique
The need for high performances management of relational data bases is nowadays mostly satisfied by using Parallel Data Bases Management Systems (P-DBMS). Unfortunately, the huge complexity of such systems leads to prohibitive prices. Numerous applications, such as on-line document querying, only exploit a restricted subset of the abilities offered by a parallel DBMS ( owing to the fact that coherency and transaction management are not much used). Considering this fact we propose an innovative approach to handle such « read-most » data bases. This approach is based on a parallel extension, called parallel relational queries evaluator, working over a network of workstations. This query evaluator connects itself to a DBMS, from which it extracts data in order to exploit it in a parallel way on the network of workstations. The storing and querying functions offered by this evaluator are by this way similar to the ones of a parallel DBMS. In this document we propose an architecture of the parallel relational queries evaluator, handling both data and queries management. We then introduce the ENKIDU prototype, which has been developed in order to implement our concepts. We also expose a set of tests and measurements, conducted over ENKJDU and highlighting [ts viability and efficiency. Finally, we propose to generalise the parallel extension concept, which appears to be portable to several other fields of computer science
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Bavueza, Munsana Dia Lemfu. „Ravir : un système de coopération des bases de données hétérogènes“. Montpellier 2, 1987. http://www.theses.fr/1987MON20265.

Der volle Inhalt der Quelle
Annotation:
L'objectif est de creer une base unique qui represente toutes les bases qui cooperent. Cette base est decrite dans un modele relationnel. Dans un premier temps, toutes les bases de donnees non relationnelles sont traduites en bases de donnees virtuelles relationnelles ou bdvl. Ensuite, toutes les bdvl et les bases de donnees relationnelles sont integrees pour creer la base unique appelee base de donnees virtuelle globale ou bdvg
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Pauthe, Patricia. „Ever, un éditeur de v-relations“. Paris 11, 1985. http://www.theses.fr/1985PA112209.

Der volle Inhalt der Quelle
Annotation:
EVER est l’éditeur de V-relations de la machine base de données VERSO. C’est un éditeur plein écran, utilisant un gestionnaire de fenêtres pour permettre d’éditer plusieurs V-relations en parallèle. EVER est écrit en C et tourne sous SMX 4. 3 sur sm90. Cette thèse est l’étude et l’application d’une méthodologie pour la conception de l’interface d’un logiciel informatique. La partie application de cette étude est la réalisation de l’éditeur EVER. Cette partie contient donc une description détaillée d’EVAR ainsi que l’implémentation de ses principales structures de données
EVER is the interface of the DBMS VERSO. EVER is a full screen V-relation editor. It is window oriented to process V-relations together. EVER is written in the C language and is developed on a SM90 running SMX 4. 3. This thesis presents a method to concept the interface of a software. The application of this method is the editor EVER. A comprehensive description of the editor and the implementation of its main data structures are given
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Souza, De Oliveira Roberto. „Méthode d'élaboration d'un benchmark pour les SGBD relationnels“. Toulouse, ENSAE, 1987. http://www.theses.fr/1987ESAE0012.

Der volle Inhalt der Quelle
Annotation:
L'étude de la charge d'un système, de ses performances et de ses algorithmes de base s'appuie fortement sur l'application d'outils mathématiques. En ce qui concerne les Systemes de Gestion de Base de Données Relationnels (SGBDR), l'analyse des données fournit des outils qui s'avèrent très importants dans l'évolution de telles études. À partir de l'application des méthodes de classification aux attributs appartenant aux relations du schéma d'une base, la charge du SGBDR (due à cette base) est définie en fonction des représentations des opérandes (attributs, groupes d'attributs, relations) composant ses requêtes. L'emploi de cette méthode à une base de données réelle évoluant avec le temps a été faite et la synthèse des résultats obtenus y est étudiée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Taladoire, Gilles. „Conception et réalisation d'un moteur relationnel documentaire multimédia“. Nice, 1990. http://www.theses.fr/1990NICE4366.

Der volle Inhalt der Quelle
Annotation:
Après avoir détecté des insuffisances dans les systèmes documentaires existants, nous avons voulu développer un système performant dans ce domaine. La première partie, destinée aux lecteurs qui ne sont pas spécialistes en logiciels documentaires, cherche à faire le point sur le marché des logiciels documentaires multimédia. Nous nous intéressons à la définition d'un système documentaire ainsi qu'aux supports multimédia disponibles puis au marché français de ces logiciels. La deuxième partie présente les différentes approches sur les systèmes documentaires effectuées en recherche. La troisième partie présente SOPHIADOC, le prototype développé, d'abord sur un plan théorique avec les différents types et opérateurs utilisés ainsi que la méthode d'accès aux données, puis la validation pratique avec l'implantation des différents types et méthodes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Djennaoui, Mohand-Said. „Structuration des données dans le cadre d'un système de gestion de bases de connaissances“. Lyon, INSA, 1992. http://www.theses.fr/1992ISAL0077.

Der volle Inhalt der Quelle
Annotation:
La déduction et la structuration des informations sont des caractéristiques essentielles pour la nouvelle génération des Systèmes de Gestion de Bases de Données (appelés communément Systèmes de Gestion de Bases de Connaissances((SGBC) EPSILON est un SGBC basé sur l'intégration de la programmation logique (PROLOG) et des Bases de Données Relationnelles. Il permet d'utiliser les données stockées dans une Base de Données comme des faits PROLOG- et de façon transparente à l'uti1isateur. Cette thèse décrit l'enrichissement de ce système en le dotant de mécanismes de structuration de données dans le sens des relations NF2 (relations imbriquées). L'utilisateur peut définir des vues externes basées sur un modèle NF2. Au niveau interne, les relations restent compatibles avec le modèle relationnel classique. Sans remettre en cause le noyau d'EPSILON, nous avons ajouté les éléments suivants : • Un méta-interprète d'un langage de programmation logique incluant des constructeurs d'ensemble et de tuple. Un traducteur rendant transparent l'utilisation du méta-interprête précédent • un méta-interprète permettant d'interprêter des requêtes SQL qui manipulent des relations imbriquées
Both the deduction and the structuration of the information are essential features for the new generation of DBMS (namely Knowledge Base management System : KBMS). EPSILON is KBMS integration (combining) logic programming (PROLOG) and relational databases ; It allows to use data stored in the data bases as prolog's facts and with user transparency. This work descibes the system's enriching by endowing it with structuration mechanisms in the sens of NF2 relations (Nested relations). The user can define external views based on a NF2 model. At the internal level, the relations remain compatible with the traditional relational model. Around the EPSILON kermel, we have designed and developed: - A meta-interpreter of logic based language including sets and tuples constructors. - A translater which allows to use the met-interpreter in a transparency way. - A meta-interpreter which allows to handle SQL request relation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Nasser, Bassem. „Organisation virtuelle : gestion de politique de contrôle d'accès inter domaines“. Toulouse 3, 2006. http://www.theses.fr/2006TOU30286.

Der volle Inhalt der Quelle
Annotation:
Les besoins de collaboration entre organisations et les facilités technologiques donnent aujourd'hui naissance à une nouvelle forme d'organisation et de coopération que l'on nomme « Virtuelle ». Contrairement aux organisations traditionnelles, les frontières de l'organisation virtuelle restent ambiguës. Ces frontières sont définies par la stratégie de chacune des organisations pour réaliser les tâches qui lui sont confiées. La concrétisation du concept d'organisation virtuelle passe forcément par la définition d'une politique de sécurité qui précise « qui a le droit de faire quoi aussi bien au niveau utilisateur-ressource qu'au niveau administration ». Le travail dans cette thèse répond aux questions suivantes. Comment définir une politique de contrôle d'accès transorganisationnelle ? Comment spécifier une politique de contrôle d'accès propre à chaque collaboration tout en respectant l'autorité de chaque organisation sur ses utilisateurs et ressources ? Comment minimiser l'effet de la structure interne de l'organisation membre sur la coopération dans l'OV ? Pour modéliser la politique de contrôle d'accès abstraite nous nous sommes appuyés sur le modèle OrBAC qui intègre aussi la notion d'organisation. Nous avons été amenés à étendre ce modèle en exprimant les relations inter-organisationnelles. Par ailleurs, nous avons défini les entités qu'il faut rajouter à AdOrBAC, le modèle d'administration d'OrBAC, pour permettre la gestion de ces nouvelles relations. Finalement, nous avons analysé les aspects de déploiement de l'organisation virtuelle selon notre modèle. Nous proposons une architecture pour l'authentification et l'autorisation en s'appuyant sur la complémentarité de deux solutions : Shibboleth et Permis
Information technology offers a flexible support on which new organisational and collaboration structures, called Virtual Organisation (VO), can be built. Contrary to a classical organisation, the VO doesn't have a physical presence where its boundaries are flexible and even fuzzy, defined by its constituent members. These boundaries are defined within each organisation according to its strategy on how its services should be supplied. The deployment of the “Virtual Organisation” requires the definition of a security policy that indicates “who can do what” at the user-resource level as well as the administration level. This research work treats access control issues within the VO mainly addressing how to define a trans-organisational access control policy, how to specify a collaboration access control policy where entities (users and resources) are managed by independent partner organisations, and how to dissociate the partner internal structure from the VO structure to support multiple VOs simultaneously. For an unambiguous specification of access control policy, formal security models are of particular interest where formal tools may serve to reason about and verify the policy coherence. We argue that OrBAC (Organisation Based Access Control model) is an appropriate model for the VO environment. The major contribution of this thesis constitutes a new access control and administration model for virtual organisations on the top of OrBAC. A prototype is implemented to validate the proposal. The prototype integrates “Identity Federation” notion (using Shibboleth) and authorization infrastructure (using modified PERMIS) for enforcing access control within a Virtual Organisation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Léonard, Michel. „Conception d'une structure de données dans les environnements de bases de données“. Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00327370.

Der volle Inhalt der Quelle
Annotation:
Étude de bases de données ayant des structures complexes avec l'objectif de rendre plus efficace le processus de leur conception et de leur réalisation, de les faire évoluer et d'améliorer leur compréhension autant par leur utilisateurs que par leurs responsables
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Chachaty-Doummar, Carla. „Parallélisation de requêtes dans un système de gestion de bases de données relationnelles étendues /“. Paris : École nationale supérieure des télécommunications, 1991. http://catalogue.bnf.fr/ark:/12148/cb35585868m.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Youssefi, Abdelhakim El. „Conception et réalisation d'un système de gestion de base de données suivant un modèle objet : sgbd saad“. Valenciennes, 1989. https://ged.uphf.fr/nuxeo/site/esupversions/15cd2400-18e9-4918-bb42-2da410672996.

Der volle Inhalt der Quelle
Annotation:
Proposition d'un modelé objet reposant sur des concepts simples et puissants (classe, bien, agrégation, héritage) qui font de ce modelé un bon outil de modélisation : le monde réel peut être représenté de manière naturelle et intuitive. Les fonctionnalités du système de gestion de base de données SAAD développés autour du modèle proposé sont ensuite décrites. L'implantation du système en langage ADA est présentée ainsi qu'une architecture multi-utilisateur utilisant le parallélisme ADA.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Moalla, Samir. „Interfaces pour les systèmes de gestion de bases de données relationnelles application à une base de données d'images“. Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37599822r.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Kim, Myung-Joon. „Études sur l'approche base de données pour la gestion d'objets issus du développement de logiciel“. Nancy 1, 1986. http://www.theses.fr/1986NAN10072.

Der volle Inhalt der Quelle
Annotation:
Les travaux menés se divisent en trois étapes progressives : 1) Étude de la base de données relationnelle et intégration des applications de base de données relationnelle dans le langage LTR-3 à l'aide de la notion de type abstrait de données ; 2) Études approfondies sur le modèle entité-association et proposition d'une méthode de transformation du modèle entité-association au modèle relationnel ; 3) Première description d'un système de gestion d'objets basé sur le modèle entité-association avec la spécification de ses fonctions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Kerhervé, Brigitte. „Vues relationnelles implantation dans les systèmes de gestion de bases de données centralisés et répartis“. Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37598673v.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Bosco, Michel. „Contribution à la spécification et à la conception de systèmes d'information intelligents pour le génie logiciel“. Toulouse, ENSAE, 1988. http://www.theses.fr/1988ESAE0004.

Der volle Inhalt der Quelle
Annotation:
Les logiciels sont fréquemment, aujourd'hui, des ensembles d'outils, des "ateliers" dont l'aspect intégré est un point fort: Cette intégration, est, le plus souvent, obtenue par l'utilisation d'un Système d'Information qui supporte les informations partagées par les outils. Nos travaux ont consisté à examiner quelles étaient aujourd'hui les lacunes des logiciels proposés pour construire des Systèmes d'Information et de définir certains concepts qu'il fallait leur ajouter. Nous avons aussi réalisé un prototype qui les implémente, en nous appuyant sur un système de gestion de bases de données relationnelles, un langage logique (Prolog), et un système de gestion de fichiers. Ce travail a pris le nom d'Impish, et s'inscrit dans le cadre du projet ESPRIT P938, "Integrated Management Process Workbench", dont l'objectif est de réaliser un atelier de gestion de projets logiciels.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Maranzana, Roland. „Intégration des fonctions de conception et de fabrication autour d'une base de données relationnelle“. Valenciennes, 1988. https://ged.uphf.fr/nuxeo/site/esupversions/c2b1155d-a9f8-446e-b064-3b228bf8511b.

Der volle Inhalt der Quelle
Annotation:
Après avoir exposé les raisons qui conduisent à préconiser l'emploi d'un système de gestion de base de données dans les systèmes de CFAO, le modèle de données relationnel est présenté de façon détaillée. Une méthode pour obtenir un schéma relationnel de bonne qualité est décrite et utilise le modèle sémantique OLE. La mise en œuvre du système de modélisation et l'élaboration des différents interfaces et opérateurs nécessaires à la manipulation des informations sont ensuite abordées. Elles montrent les problèmes posés par le SGBD relationnel et proposent des solutions.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Loubier, Éloïse. „Analyse et visualisation de données relationnelles par morphing de graphe prenant en compte la dimension temporelle“. Toulouse 3, 2009. http://thesesups.ups-tlse.fr/2264/.

Der volle Inhalt der Quelle
Annotation:
Avec la mondialisation, l'entreprise doit faire face aux menaces de plus en plus fortes de la concurrence et à l'accélération des flux d'information. Pour cela, elle est amenée à rester continuellement informée des innovations, des stratégies de la concurrence et de l'état du marché tout en gardant la maîtrise de son environnement. Le développement d'Internet et la globalisation ont à la fois renforcé cette exigence, et fourni les moyens de collecter l'information qui, une fois synthétisée, prend souvent une forme relationnelle. Pour analyser le relationnel, le recours à la visualisation par des graphes apporte un réel confort aux utilisateurs, qui, de façon intuitive, peuvent s'approprier une forme de connaissance difficile à appréhender autrement. Nos travaux conduisent à l'élaboration des techniques graphiques permettant la compréhension des activités humaines, de leurs interactions mais aussi de leur évolution, dans une perspective décisionnelle. Nous concevons un outil alliant simplicité d'utilisation et précision d'analyse se basant sur deux types de visualisations complémentaires : statique et dynamique. L'aspect statique de notre modèle de visualisation repose sur un espace de représentation, dans lequel les préceptes de la théorie des graphes sont appliqués. Le recours à des sémiologies spécifiques telles que le choix de formes de représentation, de granularité, de couleurs significatives permet une visualisation plus juste et plus précise de l'ensemble des données. L'utilisateur étant au cœur de nos préoccupations, notre contribution repose sur l'apport de fonctionnalités spécifiques, qui favorisent l'identification et l'analyse détaillée de structures de graphes. Nous proposons des algorithmes qui permettent de cibler le rôle des données au sein de la structure, d'analyser leur voisinage, tels que le filtrage, le k-core, la transitivité, de retourner aux documents sources, de partitionner le graphe ou de se focaliser sur ses spécificités structurelles. Une caractéristique majeure des données stratégiques est leur forte évolutivité. Or l'analyse statistique ne permet pas toujours d'étudier cette composante, d'anticiper les risques encourus, d'identifier l'origine d'une tendance, d'observer les acteurs ou termes ayant un rôle décisif au cœur de structures évolutives. Le point majeur de notre contribution pour les graphes dynamiques représentant des données à la fois relationnelles et temporelles, est le morphing de graphe. L'objectif est de faire ressortir les tendances significatives en se basant sur la représentation, dans un premier temps, d'un graphe global toutes périodes confondues puis en réalisant une animation entre les visualisations successives des graphes attachés à chaque période. Ce procédé permet d'identifier des structures ou des événements, de les situer temporellement et d'en faire une lecture prédictive. Ainsi notre contribution permet la représentation des informations, et plus particulièrement l'identification, l'analyse et la restitution des structures stratégiques sous jacentes qui relient entre eux et à des moments donnés les acteurs d'un domaine, les mots-clés et concepts qu'ils utilisent
With word wide exchanges, companies must face increasingly strong competition and masses of information flows. They have to remain continuously informed about innovations, competition strategies and markets and at the same time they have to keep the control of their environment. The Internet development and globalization reinforced this requirement and on the other hand provided means to collect information. Once summarized and synthesized, information generally is under a relational form. To analyze such a data, graph visualization brings a relevant mean to users to interpret a form of knowledge which would have been difficult to understand otherwise. The research we have carried out results in designing graphical techniques that allow understanding human activities, their interactions but also their evolution, from the decisional point of view. We also designed a tool that combines ease of use and analysis precision. It is based on two types of complementary visualizations: statics and dynamics. The static aspect of our visualization model rests on a representation space in which the precepts of the graph theory are applied. Specific semiologies such as the choice of representation forms, granularity, and significant colors allow better and precise visualizations of the data set. The user being a core component of our model, our work rests on the specification of new types of functionalities, which support the detection and the analysis of graph structures. We propose algorithms which make it possible to target the role of the data within the structure, to analyze their environment, such as the filtering tool, the k-core, and the transitivity, to go back to the documents, and to give focus on the structural specificities. One of the main characteristics of strategic data is their strong evolution. However the statistical analysis does not make it possible to study this component, to anticipate the incurred risks, to identify the origin of a trend, and to observe the actors or terms having a decisive role in the evolution structures. With regard to dynamic graphs, our major contribution is to represent relational and temporal data at the same time; which is called graph morphing. The objective is to emphasize the significant tendencies considering the representation of a graph that includes all the periods and then by carrying out an animation between successive visualizations of the graphs attached to each period. This process makes it possible to identify structures or events, to locate them temporally, and to make a predictive reading of it. Thus our contribution allows the representation of advanced information and more precisely the identification, the analysis, and the restitution of the underlying strategic structures which connect the actors of a domain, the key words, and the concepts they use; this considering the evolution feature
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Faget, Zoé. „Un modèle pour la gestion des séquences temporelles synchronisées : Application aux données musicales symboliques“. Phd thesis, Université Paris Dauphine - Paris IX, 2011. http://tel.archives-ouvertes.fr/tel-00676537.

Der volle Inhalt der Quelle
Annotation:
La première partie de ma thèse est la description d'un modèle algébrique pour la gestion des séquences temporelles synchronisées. Ce modèle est une extension du modèle relationnel classique auquel on ajoute un type nouveau, le type séquence temporelle. L'algèbre relationnelle est augmentée de trois opérateurs dédiés à ce nouveau type. Ces opérateurs permettent de retrouver toutes les opérations classiquement conduites sur des séquences temporelles. Le langage utilisateur correspondant est exposé, ainsi que de nombreux exemples, puisés notamment dans le domaine de la gestion des partitions symboliques. La seconde partie est la description d'un index permettant de réaliser plusieurs types de recherches dans des partitions symboliques (exacte, transposée, avec ou sans rythme et approchée). Il repose notamment sur la notion de signature algébrique. Dans la dernière partie, je décris une plateforme dédiée à la gestion du contenu musical symbolique qui est une application des deux précédentes parties.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Loubier, Eloïse. „Analyse et visualisation de données relationnelles par morphing de graphe prenant en compte la dimension temporelle“. Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00423655.

Der volle Inhalt der Quelle
Annotation:
Avec la mondialisation, l'entreprise doit faire face aux menaces de plus en plus fortes de la concurrence et à l'accélération des flux d'information. Pour cela, elle est amenée à rester continuellement informée des innovations, des stratégies de la concurrence et de l'état du marché tout en gardant la maîtrise de son environnement. Le développement d'Internet et la globalisation ont à la fois renforcé cette exigence, et fourni les moyens de collecter l'information qui, une fois synthétisée, prend souvent une forme relationnelle. Pour analyser le relationnel, le recours à la visualisation par des graphes apporte un réel confort aux utilisateurs, qui, de façon intuitive, peuvent s'approprier une forme de connaissance difficile à appréhender autrement.
Nos travaux conduisent à l'élaboration des techniques graphiques permettant la compréhension des activités humaines, de leurs interactions mais aussi de leur évolution, dans une perspective décisionnelle. Nous concevons un outil alliant simplicité d'utilisation et précision d'analyse se basant sur deux types de visualisations complémentaires : statique et dynamique.
L'aspect statique de notre modèle de visualisation repose sur un espace de représentation, dans lequel les préceptes de la théorie des graphes sont appliqués. Le recours à des sémiologies spécifiques telles que le choix de formes de représentation, de granularité, de couleurs significatives permet une visualisation plus juste et plus précise de l'ensemble des données. L'utilisateur étant au cœur de nos préoccupations, notre contribution repose sur l'apport de fonctionnalités spécifiques, qui favorisent l'identification et l'analyse détaillée de structures de graphes. Nous proposons des algorithmes qui permettent de cibler le rôle des données au sein de la structure, d'analyser leur voisinage, tels que le filtrage, le k-core, la transitivité, de retourner aux documents sources, de partitionner le graphe ou de se focaliser sur ses spécificités structurelles.
Une caractéristique majeure des données stratégiques est leur forte évolutivité. Or l'analyse statistique ne permet pas toujours d'étudier cette composante, d'anticiper les risques encourus, d'identifier l'origine d'une tendance, d'observer les acteurs ou termes ayant un rôle décisif au cœur de structures évolutives.
Le point majeur de notre contribution pour les graphes dynamiques représentant des données à la fois relationnelles et temporelles, est le morphing de graphe. L'objectif est de faire ressortir les tendances significatives en se basant sur la représentation, dans un premier temps, d'un graphe global toutes périodes confondues puis en réalisant une animation entre les visualisations successives des graphes attachés à chaque période. Ce procédé permet d'identifier des structures ou des événements, de les situer temporellement et d'en faire une lecture prédictive.
Ainsi notre contribution permet la représentation des informations, et plus particulièrement l'identification, l'analyse et la restitution des structures stratégiques sous jacentes qui relient entre eux et à des moments donnés les acteurs d'un domaine, les mots-clés et concepts qu'ils utilisent.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Guillot, Bernard. „Réalisation d'un outil autonome pour l'écriture et l'interrogation de systèmes de gestion de bases de données et de connaissances sur une machine multiprocesseur : évolution du concept de bases de données vers la manipulation d'objets image et graphique“. Compiègne, 1986. http://www.theses.fr/1986COMPI219.

Der volle Inhalt der Quelle
Annotation:
La mise en œuvre d’un système MUMPS autonome sur la machine multimicroprocesseur SM90 nous a permis de dégager certaines fonctionnalités, associées aux niveaux conceptuel et interne des SGBD, qui s’avèrent particulièrement utiles comme outils pour l’écriture de SGBD. Le noyau principal de ces outils réside dans l’intégration d’une organisation hiérarchique et dynamique de données dans le langage MUMPS accessible à partir de la notion de variable globale. La modélisation des informations permet l’usage du système MUMPS dans un contexte de base de données relationnelles et en logique : l’espace de stockage directement accessible à travers le langage est celui des disques du système. Une extension du langage est proposée sous la forme d’une fonction pour l’interrogation et le parcours de l’espace global. Nous montrons une utilisation de l’espace global en déduction dans le cadre d’une interrogation basée sur la logique. La représentation de faits élémentaires, de règles dans une base de connaissances s’expriment à travers la notion de variable globale. L’adjonction de potentialités graphiques au systèmes MUMPS par l’apport d’un coprocesseur spécialisé permet d’envisager la réalisation d’interfaces graphiques de haut niveau. Enfin nous montrons que l’évolution du concept de base de données est lié à sa capacité à manipuler de nouveaux types d’objets, principalement les types graphique et image.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Collet, Christine. „Les formulaires complexes dans les bases de données multimédia“. Phd thesis, Grenoble 1, 1987. http://tel.archives-ouvertes.fr/tel-00325851.

Der volle Inhalt der Quelle
Annotation:
Un modèle de formulaires complexes et les opérations associes sont présentes. Il s'attache à la classe des modèles de données relationnelles "non sons première forme normale". Il offre un cadre formel pour décrire et traiter la structure, la dynamique et la présentation des objets d'une application comme des formulaires
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Castillo, Reitz Maria. „Etude d'un système d'extraction et présentation de résumés pour les bases de données“. Montpellier 2, 1994. http://www.theses.fr/1994MON20277.

Der volle Inhalt der Quelle
Annotation:
Ce travail traite de la creation et la representation de resumes d'information issues d'une base de donnees. Deux etapes cles sont particulierement examinees: la premiere concerne l'extraction proprement dite d'un resume qui resulte en general d'un processus d'agregation de donnees brutes. La seconde releve de la presentation de l'information resumee, i. E. Sa mise en forme. Nous avons developpe une application appelee ove (observatoire de la vie etudiante) exploitee par la cellule d'information de l'universite de montpellier ii pour repondre aux demandes du ministere de l'education nationale. Un de ses objectifs est la definition d'un langage qui puisse definir et representer aisement des donnees resumees selon une forme multidimensionnelle ou graphique. Un modele du systeme ove a ete elabore ; il definit la notion de resume et caracterise precisement les operations realisees par l'application. Ce modele se base sur une approche fonctionnelle typee d'un modele relationnel etendu, notamment par une operation d'agregation par filtrage ou les relations a attributs calcules
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Granier, Jacques. „Un système d'ingénierie assisté par ordinateur pour la conception des équipements d'irrigation : une application réalisée en langage SNARX“. Montpellier 2, 1990. http://www.theses.fr/1990MON20156.

Der volle Inhalt der Quelle
Annotation:
Les connaissances mises en uvre pour la realisation d'un projet d'irrigation font appel aux sciences de l'ingenieur dans differents domaines (agronomie, hydraulique, technologie du materiel, economie). La simulation d'un processus de conception au cours duquel interviennent plusieurs specialistes de differentes disciplines a exige la definition d'un langage a regles de production (snarx), la construction d'un moteur d'inferences, et l'assemblage des connaissances de facon a en permettre une utilisation intelligente et interactive
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Verlaine, Lionel. „Optimisation des requêtes dans une machine bases de données“. Paris 6, 1986. http://www.theses.fr/1986PA066532.

Der volle Inhalt der Quelle
Annotation:
CCette thèse propose des solutions optimisant l'évaluation de questions et la jointure. Ces propositions sont étudiées et mises en œuvre à partir du SGBD Sabrina issu du projet SABRE sur matériel Carrousel à la SAGEM. L'évaluation de questions permet d'optimiser le niveau logique du traitement d'une requête. La décomposition la plus pertinente est établie en fonction d'heuristiques simples. L'algorithme de jointure propose utilise des mécanismes minimisant à la fois le nombre d'entrées/sorties disque et le nombre de comparaisons. Il admet un temps d'exécution proportionnel au nombre de tuples. L'ordonnancement de jointures est résolu par un algorithme original de jointure multi-relations et par une méthode d'ordonnancement associée permettant un haut degré de parallélisme.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Liu, Rutian. „Semantic services for assisting users to augment data in the context of analytic data sources“. Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS208.

Der volle Inhalt der Quelle
Annotation:
La production de collections de données analytiques est une tendance importante et a dépassé le cadre des technologies traditionnelles de production d'information et de données. Les collections de données analytiques sont maintenant directement créées par les utilisateurs (experts, data scientists). Malgré l'apparition des nouvelles technologies "big data" et d'outils de préparation de données agiles, l'intégration et l'enrichissement de schémas analytiques avec des attributs provenant d'autres sources de données reste une tâche difficile qui nécessite une bonne connaissance des schémas de données manipulées. Cette thèse présente une nouvelle solution pour compléter des schémas de données analytiques avec des attributs provenant d'autres sources de données sémantiquement liées : -Nous introduisons les graphes d'attributs comme une nouvelle façon concise et naturelle pour représenter les dépendances fonctionnelles littérales sur des attributs de dimensions hiérarchiques et pour déduire des identificateurs uniques de dimensions et de tables de faits. -Nous donnons des définitions formelles d'augmentation de schémas, de complément de schémas et de requête de fusion dans le contexte des données analytiques. Nous introduisons ensuite plusieurs opérations de réduction pour éviter la multiplication de lignes dans la table de données augmentée. -Nous définissons des critères formels de qualité et des algorithmes pour contrôler l'exactitude, la non-ambiguïté et l'exhaustivité des augmentations et des compléments de schéma générés. -Nous décrivons l'implémentation de notre solution au sein de la plate-forme SAP HANA et fournissons une description détaillée de nos algorithmes. -Nous évaluons la performance de nos algorithmes et analysons l'efficacité de notre approche avec deux scénarios d'application
The production of analytic datasets is a significant big data trend and has gone well beyond the scope of traditional IT-governed dataset development. Analytic datasets are now created by data scientists and data analysts using bigdata frameworks and agile data preparation tools. However, it still remains difficult for a data analyst to start from a dataset at hand and customize it with additional attributes coming from other existing datasets. This thesis presents a new solution for business users and data scientists who want to augment the schema of analytic datasets with attributes coming from other semantically related datasets : We introduce attribute graphs as a novel concise and natural way to represent literal functional dependencies over hierarchical dimension level types to infer unique dimension and fact table identifiers We give formal definitions for schema augmentation, schema complement, and merge query in the context of analytic tables. We then introduce several reduction operations to enforce schema complements when schema augmentation yields a row multiplication in the augmented dataset. We define formal quality criteria and algorithms to control the correctness, non-ambiguity, and completeness of generated schema augmentations and schema complements. We describe the implementation of our solution as a REST service within the SAP HANA platform and provide a detailed description of our algorithms. We evaluate the performance of our algorithms to compute unique identifiers in dimension and fact tables and analyze the effectiveness of our REST service using two application scenarios
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Kamel, Michel. „Patrons organisationnels et techniques pour la sécurisation des organisations virtuelles“. Toulouse 3, 2008. http://thesesups.ups-tlse.fr/326/.

Der volle Inhalt der Quelle
Annotation:
Une Organisation Virtuelle (OV) est une alliance temporaire d'organisations, autour d'une structure réseau, où la mutualisation de ressources permet d'atteindre un objectif commun. Des méthodes et des outils pour supporter l'interconnexion des Systèmes d'Information (SI) des partenaires sont nécessaires. La réalisation de cette interconnexion pose des défis sécuritaires à la fois d'ordre organisationnel et technique. L'hétérogénéité des pratiques et des architectures adoptées dans les domaines de sécurité des organisations traditionnelles constitue un verrou dès qu'il y a lieu d'interconnecter ces domaines pour former une OV. Nous avons traité la problématique de construction d'OVs aux niveaux technique et organisationnel. Du point de vue technique, nous avons défini des solutions de contrôle d'accès distribué assurant les services d'authentification et d'autorisation au sein du réseau collaboratif tout en laissant à chacune des organisations le contrôle total sur ses ressources. Ainsi, nous proposons des solutions intégrant à la fois les concepts de la gestion de privilèges et de la fédération d'identité. Toutefois, la mise en œuvre de ces aspects purement techniques est conditionnée par l'importance des écarts entre les niveaux de maturité sécuritaire des membres de l'OV. Ainsi, nous avons adopté ISO 27000 et le concept de niveau de maturité pour concevoir un modèle d'évaluation du niveau de maturité sécuritaire. A partir de ce modèle, nous avons développé l'outil nécessaire à l'évaluation des pratiques sécuritaires permettant de situer le niveau de confiance porté à un partenaire. Ces résultats ont été expérimentés dans le cadre du projet européen VIVACE
A Virtual Organization (VO) is a temporary alliance of enterprises that come together to share skills and resources in order to better respond to business opportunities and whose cooperation is supported by computer networks. Methods and tools are needed to support the interconnection of the partners' Information Systems (IS). The realization of this interconnection poses organizational and technical security challenges. The heterogeneity of the practices and the architectures adopted by traditional organizations makes this interconnection a hard task to realize. We have addressed the issues of building VOs on technical and organizational levels. Technically, we have defined distributed access control solutions providing the authentication and authorization services within the collaborative network while allowing each organization to keep total control on its own resources. Thus, we propose solutions integrating Privilege Management Infrastructures and identity federation. However, the implementation of these technical solutions depends on the maturity levels of the security practices deployed by the different partners. Thus, we adopted the ISO 27000 standards and the maturity level concept to define a model for assessing security maturity levels. Based on this model, we developed a tool for assessing the security practices of each partner which allows to quantify the level of trust that we can have in this partner. Our technical solutions and tool were evaluated within the context of the VIVACE European project
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Mouaddib, Noureddine. „Gestion des informations nuancées : une proposition de modèle et de méthode pour l'identification nuancée d'un phénomène“. Nancy 1, 1989. http://www.theses.fr/1989NAN10475.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente une solution globale au problème de l'identification d'un phénomène ou d'un objet mal défini dans un domaine d'application décrit par des connaissances nuancées. Cette solution comprend trois éléments: un modèle de représentation des connaissances nuancées, une méthode de détermination des objets ressemblant au phénomène à identifier, un processus d'identification dans un système possédant une base de données multimédia. Le modèle de représentation des connaissances présente les particularités suivantes: une ou plusieurs nuances, exprimées en langue naturelle, peuvent être associés à chacune des valeurs prise par un caractère d'un objet, à chaque domaine de définition discret de caractère peut être associé un micro-thésaurus dont les liens (généricité, synonymie, opposition) peuvent être munis de coefficients exprimant certaines distances sémantiques entre les termes, des poids d'importance ou de confiance peuvent être associés à chaque caractère aussi bien dans la description des objets de référence que dans la description du phénomène à identifier. La méthode d'identification repose sur la théorie des possibilités dont nous avons assoupli l'application en diminuant le nombre de fonctions caractéristiques à fournir, par le spécialiste du domaine d'application, grâce à l'introduction d'heuristiques permettant soit de les générer à partir des micro-thérausus soit de les calculer à partir d'autres déjà définies par composition ou par transformation. Le processus d'identification permet une identification interactive et progressive au cours de laquelle alternent des phases de filtrage, d'affichage de résultats, d'observation d'images et de consultation de textes. En cas d'échec, nous proposons une stratégie de retour-arrière qui s'appuie sur les poids des caractères.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Desbiens, Michel. „La planification et la gestion d'un environnement d'apprentissage à l'aide d'une base de données relationnelles où les apprenants en quête de sens s'approprient leur formation à l'ordre secondaire“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0016/MQ55580.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Boughanem, Mohand. „Les systèmes de recherche d'informations d'un modèle classique à un modèle connexioniste“. Toulouse 3, 1992. http://www.theses.fr/1992TOU30222.

Der volle Inhalt der Quelle
Annotation:
Les travaux de recherche presentes dans ce memoire s'inscrivent dans le cadre des systemes de recherche documentaire et ont un double objectif. Le premier consiste a la realisation d'un systeme de recherche d'informations textuelles volumineuses, recolte, utilisant le langage naturel comme source d'informations et comme moyen d'interrogation. Notre contribution a alors permis: la construction d'un modele de representation et d'organisation des informations, la mise en uvre d'une procedure d'interrogation qui permet la collaboration de methodes de recherches en langage quasi naturel et de methodes de recherches multi-criteres. Le second objectif rentre dans le cadre du developpement des systemes dynamiques de recherche d'informations. Notre but est la realisation d'un systeme de recherche d'informations base sur les reseaux neuro-mimetiques. Le modele que nous proposons, presente les caracteristiques suivantes: il est construit suivant une architecture a trois couches interconnectees, pour modeliser l'ensemble de la connaissance documentaire. Elle est en effet constituee d'une couche de requetes et d'une couche de documents connectees a une couche de termes d'indexation; il permet de realiser deux fonctions. La premiere est la recherche d'informations. Le reseau offre a l'utilisateur des moyens, lors de l'interrogation de la base de documents, pour reformuler automatiquement les requetes et pour selectionner les documents susceptibles de repondre a sa demande. Cette tache est realisee par un processus d'activation/propagation pour lequel nous avons propose des regles d'activation/propagation inter-couches et intra-couches. La seconde fonction est le mecanisme d'apprentissage et de restructuration de la base. Il consiste, d'une facon generale, a modifier les liens entre les differentes cellules du reseau
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Jault, Claude. „Méthodologie de la conception des bases de données relationnelles“. Paris 9, 1989. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1989PA090011.

Der volle Inhalt der Quelle
Annotation:
Cette thèse analyse les différentes méthodes de conception de bases de données relationnelles et, compte tenu de leurs insuffisances, propose une nouvelle méthode. Le 1er chapitre présente les concepts : schémas et modèles conceptuels et logiques, liens entre entités, cardinalités des liaisons, concepts du modèle relationnel (relations, dépendances, clefs primaires et étrangères), normalisation (avec la démonstration de la non inclusion de la 4ème forme normale dans la 3ème), contraintes d'intégrité (de domaine, de relation, de référence), valeurs nulles, et un nouveau type de contraintes, les contraintes entre liens. Le 2ème chapitre expose les différentes méthodes existantes qui peuvent être réparties en trois groupes. Celles qui utilisent le modèle entités-associations : les versions américaine et française de ce modèle (avec leurs extensions), la méthode Axial, la méthode Remora ; celles qui n'utilisent pas de schéma conceptuel : approche de la relation universelle, approche de Codd et date, approche par intégration des vues ; et la méthode IA (NIAM) qui utilise les réseaux sémantiques. Le 3ème chapitre expose la méthode entités-liens-relations élaborée dans cette thèse. Elle s'appuie sur un modèle conceptuel représentant les entités et leurs liens, avec les contraintes d'intégrité entre ces liens. Elle procède en trois phases : l'approche conceptuelle globale, centrée sur les entités et les liens (1:n et 1:1, les liens m:n étant transformes en 2 liens 1:n) ; l'approche conceptuelle détaillée, qui définit les attributs et les domaines sémantiques, normalise les entités, examine les dépendances non permanentes et les contraintes entre liens; l'approche logique, qui déduit le schéma relationnel, contrôle sa normalité, définit les contraintes d'intégrité et résout les inter-blocages référentiels. Le 4ème chapitre illustre la méthode entités-liens-relations par un cas concret
This thesis analyses the different relational data base design methods and, because of their insufficiencies, propose a new method. The first chapter presents the concepts: conceptual and logical schemas and models, links between entities, connection cardinalities, relational model concepts (relations, dependencies, primary and foreign keys), normalization (with the demonstration of the 4th normal form not included into the 3rd), integrity constraints (domain, relation, reference), null values, and a new type of constraints, the constraints between links. The second chapter gives an account of the different methods which can be dispatched in three groups. Those which utilize the entity-relationship model: the American and French model-versions (with their extensions), the axial method, the remora method; those which don't utilize conceptual schema: universal relation approach, godd and date approach, view integration approach; and the IA method (NIAM) using the semantic networks. The third chapter exposes the entity-link-relation method, elaborated in this thesis. It is supported by a conceptual model representing the entities and their links, with the integrity constraints between these links. It proceeds in three phases: the total conceptual approach, centered on entities and links (1:n and 1:1, the links m:n converted to two links 1:n) ; the detail conceptual approach, which defines the attributes and the semantic domains, normalizes entities, examines no-permanent dependencies and the link-constraints ; the logical approach, which gives the relational schema, controls its normality, defines integrity constraints and solves referential deadlocks. The fourth chapter gives one concrete case of the entity-link-relation method
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Smine, Hatem. „Outils d'aide à la conception : des bases de données relationnelles aux bases d'objets complexes“. Nice, 1988. http://www.theses.fr/1988NICE4213.

Der volle Inhalt der Quelle
Annotation:
Cette thèse comporte deux parties : un outil d'aide à la conception de bases de données pour non spécialistes et la conception d'objets complexes. On propose un outil intégrant un système expert d'assistance sémantique d'un utilisateur profane pour la construction de son schéma conceptuel. Les dialogues à base de questions-réponses sont simples et riches. Pour la conception d'objets complexes, on définit un réseau sémantique associé au modèle de données B-relationnel et on introduit le concept de chemin de structure dans le réseau. On étudie les questions de modélisation et de manipulation d'objets complexes. On propose un outil d'aide à la conception de schéma B-relationnel avec pour supports des dialogues de langage naturel et le langage B-SQL
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Tsatcha, Dieudonné. „Contribution à l'extraction et à la représentation des connaissances de l'environnement maritime : proposition d'une architecture dédiée aux applications de navigation“. Thesis, Brest, 2014. http://www.theses.fr/2014BRES0118/document.

Der volle Inhalt der Quelle
Annotation:
De nos jours, les applications informatiques autonomes sont au centre de grandes préoccupations de la recherche scientifique. Ces dernières sont destinées initialement à des systèmes d'aide à la décision dans des environnements contraints et dynamiques, communément appelés environnements complexes. Elles peuvent dès à présent, à l'aide des avancées de la recherche, permettre de construire et déduire leurs connaissances propres afin d'interagir en temps réel avec leur environnement. Cependant, elles sont confrontées à la difficulté d'avoir une modélisation fidèle du monde réel et des entités qui le composent. L'un des principaux objectifs de nos recherches est de capturer et modéliser la sémantique associée aux entités spatio-temporelles afin d'enrichir leur expressivité dans les SIG ou les systèmes d'aide à la décision. Un service de routage maritime dynamique a été déployé en exploitant cette modélisation. Cet algorithme a été démontré comme optimal en termes d'espace mémoire et de temps de calcul. La sémantique capturée se compose de l'affordance et de la saillance visuelle de l'entité spatiale. Les connaissances associées à cette sémantique sont par la suite représentées par une ontologie computationnelle qui intègre des approches spatio-temporelles. Ces connaissances sont soit déduites du savoir de l'expert du domaine, soit extraites de gros volumes de données textuelles en utilisant des techniques de traitement automatique du langage. L'ontologie computationnelle proposée nous a permis de définir un algorithme de routage maritime dynamique (fonction des évènements ou objets présents dans l'environnement) fondé sur une heuristique itérative monocritère de plus courte distance et bidirectionnelle. L'algorithme BIDA* proposé s'applique sur un graphe itératif qui est une conceptualisation d'une grille hexagonale itérative recouvrant la zone de navigation. Cet algorithme permet aussi la gestion de différents niveaux de résolution. Toujours dans l'initiative de produire un modèle aussi proche que possible du monde réel, l'algorithme BIDA* a été enrichi des stratégies multicritères afin de prendre en compte les différentes contraintes de la navigation maritime. Les contraintes globales et locales auxquelles nous nous sommes intéressés sont la profondeur des eaux, la distance de navigation et la direction de navigation. Le modèle proposé permet ainsi d'enrichir les capacités cognitives des utilisateurs évoluant dans les environnements maritimes et peut aussi être utilisé pour construire des systèmes complètement autonomes explorant ces environnements. Un prototype expérimental de navigation intelligente mettant en oeuvre cette modélisation et proposant un service de routage maritime a été développé dans le cadre de cette thèse
No
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Grison, Thierry. „Intégration de schémas de bases de données entité-association“. Dijon, 1994. http://www.theses.fr/1994DIJOS005.

Der volle Inhalt der Quelle
Annotation:
L'essor des fédérations de bases de données a réactualisé les besoins en méthodes d'intégration de schémas. Nous proposons une nouvelle approche pour le traitement des correspondances inter-schémas, approche fondée sur les idées de partition et de règles de déduction. Par ailleurs pour faciliter la détection des correspondances nous avons pensé enrichir, par des définitions, les schémas à intégrer en donnant la possibilité aux utilisateurs de décrire la sémantique de leurs concepts. Nous développons enfin une nouvelle méthode d'intégration de schémas dont l'objectif est de tirer un profit maximum des informations présentes dans les schémas (dont les définitions de concepts) et de minimiser le nombre nécessaire de comparaisons de concepts
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Redouane, Abdelkader. „Outil de conception et d'administration des bases de données relationnelles parallèles“. La Rochelle, 2000. http://www.theses.fr/2000LAROS037.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous abordons le problème d'optimisation du placement de données sur disques pour une architecture parallèle à mémoire distribuée. Le placement de données sur plusieurs disques permet d'augmenter la bande passante en e/s en exploitant au maximum le parallélisme des opérations de lecture/écriture d'une ou plusieurs relations. Dans le domaine des bases de données relationnelles parallèles, le placement de données a été largement étudié pour les architectures à mémoire distribuée et différentes stratégies de placement ont été développées. Pour chaque relation, ce placement peut être réalisé soit par une répartition de la relation sur tous les nuds (un nud est constitué d'un processeur, d'une mémoire et d'un ou plusieurs disques), soit par une répartition sur un sous-ensemble de nuds. Un mauvais placement de données sur les disques peut augmenter le cout de communication entre les nuds et par conséquent dégrader les performances du système. Actuellement, le placement sur disque et la réorganisation périodique de ce placement sont à la charge de l'administrateur. Nous proposons un évaluateur de placement de données sur disques dans un environnement d'exécution parallèle, pour une architecture à mémoire distribuée. Il permet d'estimer le cout d'un placement de données dans un environnement multi-utilisateurs. Cet évaluateur s'appuie sur un modèle de cout. Nous étendons le modèle de cout proposé dans Zait 94 Zait 95 et nous validons ce modèle à l'aide d'études expérimentales connues. Cette extension consiste à prendre en compte les couts d'accès en lecture ou en écriture aux données sur disque, d'intégrer de nouvelles fonctions de cout pour certaines opérations relationnelles et les couts de communication lorsqu'une saturation éventuelle du réseau est engendrée. Finalement, toute exécution concurrente des transactions induit des conflits d'accès aux ressources processeurs et données. Nous les modélisons par un cout moyen d'attente pour accéder à la ressource partagée. Afin d'évaluer la charge du système lors de l'exécution concurrente, nous proposons un modèle stochastique de files d'attente. Nous avons réalisé plusieurs séries d'expériences. Cette expérimentation nous permet d'une part de valider notre évaluateur de placements et d'autre part d'obtenir le placement de moindre cout.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Lafaye, Julien. „Tatouage des bases de données avec préservation de contraintes“. Paris, CNAM, 2007. http://www.theses.fr/2007CNAM0576.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous traitons du tatouage de bases de données. Le tatouage est une technique de dissimulation d'une information dans un contenu numérique, de manière robuste et discrète. L'application la plus connue du tatouage et qui constitue également l'objet principal de cette thèse est la protection des titulaires des droits sur ces contenus. Cette thèse est articulée en trois parties relativement indépendantes. La première présente une nouvelle technique de tatouage de bases de données relationnelles. L'originalité de la méthode proposée est de permettre d'introduire une signature dans une base de données relationnelles, tout en respectant un certain nombre de contraintes, prédéfinies dans une syntaxe proche de SQL. Dans une deuxième partie, nous traitons les problématiques du tatouage des flux XML et des données géographiques vectorielles. Nous y proposons deux méthodes de tatouage avec préservation de contraintes. La première permet d'introduire une marque dans un flux XML tout en en respectant le type. La seconde se concentre quant à elle sur la préservation des régularités naturellement présentes dans les formes des objets géographiques. Dans la troisième partie, nous étudions la problématique originale de la complexité d'obtenir des algorithmes de tatouage optimaux relativement à la pertinence de la détection et à la robustesse des marques insérées. Nous montrons que cette complexité est très élevée et en identifions les facteurs responsables
This thesis deals with databases watermarking. Watermarking is an information hiding method which enables to embed marks within digital contents. The first application of digital watermarking is copyright protection, which is also the main focus of this thesis. It is divided into three independent parts. In the first one, we present a novel watermarking method for numerical databases which permits to embed digital watermarks in relational tables while preserving the results of queries, previously defined using a language similar to SQL. In a second part, we consider XML streams and geographical databases. We introduce two novel constraint-preserving watermarking algorithms for these data types. For XML streams, our contribution is a watermarking scheme which translates the original content into a watermarked one with the same type. For geographical databases, we propose an algorithm which embeds the watermark without altering the shapes of the geographical objects. In the third part, we investigate the computational complexity of obtaining optimal watermarking schemes. We show that this task is highly intractable and identify the features responsible for it
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Audet, Érick. „Réingénérie des bases de données relationnelles pour la découverte d'informations décisionnelles“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape7/PQDD_0015/MQ48902.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Jumaa, Hossam Aldin. „Automatisation de la médiation entre XML et des bases de données relationnelles“. Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0120/these.pdf.

Der volle Inhalt der Quelle
Annotation:
XML has rapidly emerged as a de facto standard for data exchange among modern information systems. It offers simple and flexible means to exchange data among applications. In the meanwhile, relational databases are still the most used data storage technology in almost all information systems because of their unique features of scalability, reliability and performance. Thus, a crucial issue in the data management is to bring together the flexibility of the XML model for data exchange and the performance of the relational model for data storage and retrieval. However, the automation of bi-directional data exchange between the two remains a challenging task. In this dissertation, we present a novel mediation approach to automate data exchange between XML and relational data sources independently of the adopted data structures in the two data models. We first propose a generic mediation framework for the data exchange between any XML document and any existing relational database. The architecture of our proposed framework is based on the development of generic components, which will ease the setup of specific interfaces adapted to any XML source and any target relational database. The mediator components are independent of any application domain, and need to be customized only once for each couple of source and target data storage formats. Hence, our mediator provides automatic and coherent updates of any relational database from any data embedded in XML documents. It also allows to retrieve data from any relational database and to publish them into XML documents (or messages) structured according to a requested interchange format. The transformation from a Relational Model to XML represents a main key component of the proposed mediator. Thus, we proposed a methodology and devised two algorithms to efficiently and automatically transform the relational schema of a relational database management system into an XML schema. Our transformation methodology preserves the integrity constraints of the relational schema and avoids any data redundancy. It has been designed in order to preserve the hierarchical representation of the relational schema, which is particularly important for the generation of correct SQL updates and queries in the proposed mediation framework. Another key component is the automation of the SQL generation. Therefore, we devised a generic methodology and algorithms to automate the SQL queries generation that are required to update or retrieve data to/from the relational databases. Our proposed framework has been successfully applied and tested in the healthcare domain between an XML representation of SCP-ECG, an open format ISO standard communications protocol embedding bio-signals and related metadata, and an European relational reference model including these data. The mediation automation is especially relevant in this field where electrocardiograms (ECG) are the main investigation for the detection of cardiovascular diseases, and need to be quickly and transparently exchanged between health systems, in particular emergency, whereas the SCP-ECG protocol has numerous legacy implementations since most of the sections and of the data fields are not mandatory
XML offre des moyens simples et flexibles pour l'échange de données entre applications et s'est rapidement imposé comme standard de fait pour l'échange de données entre les systèmes d'information. Par ailleurs, les bases de données relationnelles constituent aujourd’hui encore la technologie la plus utilisée pour stocker les données, du fait notamment de leur capacité de mise à l’échelle, de leur fiabilité et de leur performance. Combiner la souplesse du modèle XML pour l'échange de données et la performance du modèle relationnel pour l’archivage et la recherche de données constitue de ce fait une problématique majeure. Cependant, l'automatisation des échanges de données entre les deux reste une tâche difficile. Dans cette thèse, nous présentons une nouvelle approche de médiation dans le but d’automatiser l'échange de données entre des documents XML et des bases de données relationnelles de manière indépendante des schémas de représentation des données sources et cibles. Nous proposons tout d’abord un modèle d’architecture de médiation générique des échanges. Pour faciliter la configuration d’interfaces spécifiques, notre architecture est basée sur le développement de composants génériques, adaptés à n'importe quelle source XML et n'importe quelle base de données relationnelle cible. Ces composants sont indépendants de tout domaine d'application, et ne seront personnalisés qu’une seule fois pour chaque couple de formats de données sources et de stockage cible. Ainsi notre médiateur permettra la mise à jour automatique et cohérente de toute base de données relationnelle à partir de données XML. Il permettra aussi de récupérer automatiquement et efficacement les données d'une base de données relationnelle et de les publier dans des documents XML (ou messages) structurés selon le format d'échange demandé. La transformation en XML Schema d'un modèle relationnel constitue l’un des éléments clé de notre médiateur. Nous proposons une méthodologie basée sur deux algorithmes successifs : l’un de stratification des relations en différents niveaux en fonction des dépendances fonctionnelles existant entre les relations et les clés des relations, le deuxième de transformation automatique du modèle relationnel en XML Schema à partir de la définition d’un ensemble de fragments types d’encodage XML des relations, des attributs, des clés et des contraintes référentielles. La méthodologie proposée préserve les contraintes d'intégrité référentielles du schéma relationnel et élimine toute redondance des données. Elle a été conçue pour conserver la représentation hiérarchique des relations, ce qui est particulièrement important pour la génération de requêtes SQL correctes et la mise à jour cohérente des données. Notre approche a été appliquée et testée avec succès dans le domaine médical pour automatiser l’échange de données entre une représentation XML du protocole de communication standard SCP-ECG, une norme ISO décrivant un format ouvert de représentation de bio-signaux et métadonnées associées, et un modèle relationnel européen de référence qui inclut notamment l’archivage de ces données. L'automatisation de la médiation est particulièrement pertinente dans ce domaine où les électrocardiogrammes (ECG) constituent le principal moyen d’investigation pour la détection des maladies cardio-vasculaires et doivent être échangés rapidement et de manière transparente entre les différents systèmes de santé, en particulier en cas d'urgence, sachant que le protocole SCP-ECG a de nombreuses implémentations puisque la plupart des sections et des champs de données sont optionnels
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Abiteboul, Serge. „Cocktail de dépendances“. Paris 11, 1985. http://www.theses.fr/1985PA112262.

Der volle Inhalt der Quelle
Annotation:
Présentation et comparaison des différentes méthodes de spécification de contraintes d'intégrité dans les bases de données. Insistance particulière sur les approches nouvelles. Cinq grandes approches de spécification de dépendances sont distinguées. La première, la plus classique, utilise la logique des prédicats du premier ordre. La seconde est algébrique, et consiste à exprimer une dépendance comme une inclusion entre deux requêtes. Dans la troisième approche, les états légaux de la base sont les états accessibles en utilisant des mises à jour permises. La quatrième (approche synthétique) est fondée sur le concept de famille dépendance. La dernière approche consiste à intégrer la sémantique à l'intérieur même du modèle de données.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Nachouki, Jalal. „Une approche pour l'inter-opérabilité de bases de données relationnelles géographiquement dispersées“. Toulouse 3, 1990. http://www.theses.fr/1990TOU30055.

Der volle Inhalt der Quelle
Annotation:
Cette these presente une nouvelle approche, appelee multibase de donnees reparties (mbdr), qui permet l'inter-operabilite d'un ensemble de bases de donnees relationnelles geographiquement dispersees. La methode de conception proposee est une methode ascendante. Elle suppose que les bases de donnees inter-operables qui sont localisees sur un meme site constituent une multibase de donnees selon l'approche multibase de donnees introduite par litwin a l'inria. Les multibases de donnees sur les sites participant au reseau sont regroupees dans une structure mbdr. Cette structure donne a l'utilisateur l'impression qu'il manipule une multibase de donnees. Dans l'approche multibase de donnees reparties, un site est constitue par un ou plusieurs ordinateurs sur lesquels est implantee une multibase de donnees. L'interet de cette approche reside dans l'optimisation du traitement des requetes destinees a manipuler plusieurs bases de donnees implantees sur des sites distincts. En effet dans notre approche les bases de donnees inter-operables sur un site peuvent etre manipulees conjointement grace a un systeme de gestion de multibase de donnees
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Barbar, Aziz. „Extraction de schémas objet pour la rétro-conception de bases de données relationnelles“. Nice, 2002. http://www.theses.fr/2002NICE5762.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Bechchi, Mounir. „Réponses approchées de résultat de requêtes par classification dans des bases de données volumineuses et distribuées“. Nantes, 2009. http://www.theses.fr/2009NANT2033.

Der volle Inhalt der Quelle
Annotation:
Les utilisateurs des bases de données doivent faire face au problème de surcharge d’information lors de l’interrogation de leurs données, qui se traduit par un nombre de réponses trop élevé à des requêtes exploratoires. Pour remédier à ce problème, nous proposons un algorithme efficace et rapide, appelé ESRA (Explore-Select-Rearrange Algorithm), qui utilise les résumés SAINTETIQ pré-calculés sur l’ensemble des données pour regrouper les réponses à une requête utilisateur en un ensemble de classes (ou résumés) organisées hiérarchiquement. Chaque classe décrit un sous-ensemble de résultatsdont les propriétés sont voisines. L’utilisateur pourra ainsi explorer la hiérarchie pour localiser les données qui l’intéressent et en écarter les autres. Les résultats expérimentaux montrent que l’algorithme ESRA est efficace et fournit des classes bien formées (i. E. , leur nombre reste faible et elles sont bien séparées). Cependant, le modèle SAINTETIQ, utilisé par l’algorithme ESRA, exige que les données soient disponibles sur le serveur des résumés. Cette hypothèse rend inapplicable l’algorithme ESRA dans des environnements distribués où il est souvent impossible ou peu souhaitable de rassembler toutes les données sur un même site. Pour remédier à ce problème, nous proposons une collection d’algorithmes qui combinent deux résumés générés localement et de manière autonome sur deux sites distincts pour en produire un seul résumant l’ensemble des données distribuées, sans accéder aux données d’origine. Les résultats expérimentaux montrent que ces algorithmes sont aussi performants que l’approche centralisée (i. E. , SAINTETIQ appliqué aux données après regroupement sur un même site) et produisent des hiérarchies très semblables en structure et en qualité à celles produites par l’approche centralisée
Database systems are increasingly used for interactive and exploratory data retrieval. In such retrievals, users queries often result in too many answers, so users waste significant time and efforts sifting and sorting through these answers to find the relevant ones. In this thesis, we first propose an efficient and effective algorithm coined Explore-Select-Rearrange Algorithm (ESRA), based on the SAINTETIQ model, to quickly provide users with hierarchical clustering schemas of their query results. SAINTETIQ is a domain knowledge-based approach that provides multi-resolution summaries of structured data stored into a database. Each node (or summary) of the hierarchy provided by ESRA describes a subset of the result set in a user-friendly form based on domain knowledge. The user then navigates through this hierarchy structure in a top-down fashion, exploring the summaries of interest while ignoring the rest. Experimental results show that the ESRA algorithm is efficient and provides well-formed (tight and clearly separated) and well-organized clusters of query results. The ESRA algorithm assumes that the summary hierarchy of the queried data is already built using SAINTETIQ and available as input. However, SAINTETIQ requires full access to the data which is going to be summarized. This requirement severely limits the applicability of the ESRA algorithm in a distributed environment, where data is distributed across many sites and transmitting the data to a central site is not feasible or even desirable. The second contribution of this thesis is therefore a solution for summarizing distributed data without a prior “unification” of the data sources. We assume that the sources maintain their own summary hierarchies (local models), and we propose new algorithms for merging them into a single final one (global model). An experimental study shows that our merging algorithms result in high quality clustering schemas of the entire distributed data and are very efficient in terms of computational time
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Dib, Saker. „L'interrogation des bases de données relationnelles assistée par le graphe sémantique normalisé“. Lyon 1, 1993. http://www.theses.fr/1993LYO10122.

Der volle Inhalt der Quelle
Annotation:
Dans ce travail nous proposons une interface d'interrogation graphique des bases de donnees: ruitalk. Le schema de la base est modelise par un graphe semantique normalise. Ce graphe est le schema de donnees dans le modele relation universelle avec inclusions (rui). Il herite de la rigueur du modele relationnel de donnees et est plus riche semantiquement qu'un diagramme entite-association. Il visualise un certain nombre de rapprochements naturels entre tables d'une base de donnees: multiarcs de dependance d'inclusion (di) et arcs d'attributs communs univoques. Nous completons ce graphe en explicitant tous les rapprochements possibles entre relations du graphe semantique: aretes d'attributs communs, eclatements de di entre les relations normalisees. Nous montrons aussi que des attributs compatibles sont a la source de liens semantiques entre relations supplementaires. Ruitalk reste convival et ergonomique bien que le nombre de liens de jointures possibles entre relations peut etre grand. En effet, il ne genere pas simultanement tous ces liens, mais il affiche un graphe d'interrogation evolutif, accompagnant l'avancement de l'utilisateur dans le processus d'expression d'une question. Ce graphe visualise, en plus du graphe semantique normalise binaire, pour le sommet designe par l'utilisateur, ses liens avec chaque autre sommet. L'utilisateur est assiste au maximum dans la formulation de ses requetes par ruitalk. Il a a tout moment devant les yeux le schema des donnees. Pour definir le graphe de sa requete, il n'a qu'a designer les colonnes a projeter et les liens du graphe d'interrogation evolutif representant une jointure. Il peut aussi facilement specifier des predicats de selection et des sous-requetes. Il est constamment guide par le support graphique de ruitalk
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Correa, Beltran William. „Découverte et exploitation de proportions analogiques dans les bases de données relationnelles“. Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S110/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous nous intéressons aux proportions analogiques dans le contexte des bases de données relationnelles. Les proportions analogiques permettent de lier quatre éléments dans une relation du type ''A est à B ce que C est à D''. Par exemple, « Paris est à la France ce que Rome est à l'Italie ». Nous avons étudié le problème de la prédiction de valeurs manquantes dans une base de données en utilisant les proportions analogiques. Un algorithme de classification fondé sur les proportions analogiques a été modifié afin de résoudre ce problème. Puis, nous avons étudié les propriétés des éléments appartenant à l'ensemble d'apprentissage des classificateurs analogiques fréquemment exploités pour calculer la prédiction. Ceci nous a permis de réduire considérablement la taille de cet ensemble par élimination des éléments peu pertinents et par conséquent, de diminuer les temps d'exécution de ces classificateurs. La deuxième partie de la thèse a pour objectif de découvrir de nouveaux patrons basés sur la relation d'analogie, i.e., des parallèles, dans les bases de données. Nous avons montré qu'il est possible d'extraire ces patrons en s'appuyant sur des approches de clustering. Les clusters produits par de telles techniques présentent aussi un intérêt pour l'évaluation de requêtes recherchant des patrons d'analogie dans les bases de données. Dans cette perspective, nous avons proposé d'étendre le langage de requêtes SQL pour pouvoir trouver des quadruplets d'une base de données satisfaisant une proportion analogique. Nous avons proposé différentes stratégies d'évaluation pour de telles requêtes, et avons comparé expérimentalementleurs performances
In this thesis, we are interested in the notion of analogical proportions in a relational database context. An analogical proportion is a statement of the form “A is to B as C is to D”, expressing that the relation beween A and B is the same as the relation between C and D. For instance, one may say that “Paris is to France as Rome is to Italy”. We studied the problem of imputing missing values in a relational database by means of analogical proportions. A classification algorithm based on analogical proportions has been modified in order to impute missing values. Then, we studied how analogical classifiers work in order to see if their processing could be simplified. We showed how some typeof analogical proportions is more useful than the others when performing classification. We then proposed an algorithm using this information, which allowed us to considerably reduce the size of the training set used by the analogical classificationalgorithm, and hence to reduce its execution time. In the second part of this thesis, we payed a particular attention to the mining of combinations of four tuples bound by an analogical relationship. For doing so, we used several clustering algorithms, and we proposed some modifications to them, in order tomake each obtained cluster represent a set of analogical proportions. Using the results of the clustering algorithms, we studied how to efficiently retrieve the analogical proportions in a database by means of queries. For doing so, we proposed to extend the SQL query language in order to retrieve from a database the quadruples of tuples satisfying an analogical proportion. We proposed severalquery evaluation strategies and experimentally compared their performances
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Benchkron, Said Soumia. „Bases de données et logiciels intégrés“. Paris 9, 1985. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1985PA090025.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Kabbaj, Younnes el. „MATHUS, un éditeur de relations : contribution à la manipulation des bases de données relationnelles“. Paris 11, 1986. http://www.theses.fr/1986PA112279.

Der volle Inhalt der Quelle
Annotation:
MATHUS est un éditeur, multi-fenêtres et plein écran, de relations. Il sert d'interface utilisateur pour !e SGBD PEPIN. Il y est proposé une façon originale d'interroger une base de données. L'interrogation repose sur le parcours des données et leur marquage pour repérer les données recherchées. Nous présentons dans cette thèse les fonctionnalités de MATHUS et son implémentation. Nous présentons aussi la troisième version du SGBD PEPIN. Nous l'avons développé pour pouvoir lmplémenter MATHUS
Mathus is a full-screen relational editor. It is used as a user interface of the PEPIN data base management system. It offers a new way to query a data base. The user browses through relations and marks the data he is interested in. In this thesis the functionalities and the implementation of MATHUS are presented. The PEPIN's third version developed to make possible the imp!ementation of MATHUS, is also described
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie