Siga este enlace para ver otros tipos de publicaciones sobre el tema: Base de données SEER.

Tesis sobre el tema "Base de données SEER"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Base de données SEER".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Li, Honghao. "Interpretable biological network reconstruction from observational data". Electronic Thesis or Diss., Université Paris Cité, 2021. http://www.theses.fr/2021UNIP5207.

Texto completo
Resumen
Cette thèse porte sur les méthodes basées sur des contraintes. Nous présentons comme exemple l’algorithme PC, pour lequel nous proposons une modification qui garantit la cohérence des ensembles de séparation, utilisés pendant l’étape de reconstruction du squelette pour supprimer les arêtes entre les variables conditionnellement indépendantes, par rapport au graphe final. Elle consiste à itérer l’algorithme d’apprentissage de structure tout en limitant la recherche des ensembles de séparation à ceux qui sont cohérents par rapport au graphe obtenu à la fin de l’itération précédente. La contrainte peut être posée avec une complexité de calcul limitée à l’aide de la décomposition en block-cut tree du squelette du graphe. La modification permet d’augmenter le rappel au prix de la précision des méthodes basées sur des contraintes, tout en conservant une performance globale similaire ou supérieure. Elle améliore également l’interprétabilité et l’explicabilité du modèle graphique obtenu. Nous présentons ensuite la méthode basée sur des contraintes MIIC, récemment développée, qui adopte les idées du cadre du maximum de vraisemblance pour améliorer la robustesse et la performance du graphe obtenu. Nous discutons les caractéristiques et les limites de MIIC, et proposons plusieurs modifications qui mettent l’accent sur l’interprétabilité du graphe obtenu et l’extensibilité de l’algorithme. En particulier, nous mettons en œuvre l’approche itérative pour renforcer la cohérence de l’ensemble de séparation, nous optons pour une règle d’orientation conservatrice et nous utilisons la probabilité d’orientation de MIIC pour étendre la notation des arêtes dans le graphe final afin d’illustrer différentes relations causales. L’algorithme MIIC est appliqué à un ensemble de données d’environ 400 000 dossiers de cancer du sein provenant de la base de données SEER, comme benchmark à grande échelle dans la vie réelle
This thesis is focused on constraint-based methods, one of the basic types of causal structure learning algorithm. We use PC algorithm as a representative, for which we propose a simple and general modification that is applicable to any PC-derived methods. The modification ensures that all separating sets used during the skeleton reconstruction step to remove edges between conditionally independent variables remain consistent with respect to the final graph. It consists in iterating the structure learning algorithm while restricting the search of separating sets to those that are consistent with respect to the graph obtained at the end of the previous iteration. The restriction can be achieved with limited computational complexity with the help of block-cut tree decomposition of the graph skeleton. The enforcement of separating set consistency is found to increase the recall of constraint-based methods at the cost of precision, while keeping similar or better overall performance. It also improves the interpretability and explainability of the obtained graphical model. We then introduce the recently developed constraint-based method MIIC, which adopts ideas from the maximum likelihood framework to improve the robustness and overall performance of the obtained graph. We discuss the characteristics and the limitations of MIIC, and propose several modifications that emphasize the interpretability of the obtained graph and the scalability of the algorithm. In particular, we implement the iterative approach to enforce separating set consistency, and opt for a conservative rule of orientation, and exploit the orientation probability feature of MIIC to extend the edge notation in the final graph to illustrate different causal implications. The MIIC algorithm is applied to a dataset of about 400 000 breast cancer records from the SEER database, as a large-scale real-life benchmark
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Dehainsala, Hondjack. "Explicitation de la sémantique dans lesbases de données : Base de données à base ontologique et le modèle OntoDB". Phd thesis, Université de Poitiers, 2007. http://tel.archives-ouvertes.fr/tel-00157595.

Texto completo
Resumen
Une ontologie de domaine est une représentation de la sémantique des concepts d'un domaine
en termes de classes et de propriétés, ainsi que des relations qui les lient. Avec le développement de
modèles d'ontologies stables dans différents domaines, OWL dans le domaine duWeb sémantique,
PLIB dans le domaine technique, de plus en plus de données (ou de métadonnées) sont décrites par référence à ces ontologies. La taille croissante de telles données rend nécessaire de les gérer au sein de bases de données originales, que nous appelons bases de données à base ontologique (BDBO), et qui possèdent la particularité de représenter, outre les données, les ontologies qui en définissent le sens. Plusieurs architectures de BDBO ont ainsi été proposées au cours des dernières années. Les chémas qu'elles utilisent pour la représentation des données sont soit constitués d'une unique table de triplets de type (sujet, prédicat, objet), soit éclatés en des tables unaires et binaires respectivement pour chaque classe et pour chaque propriété. Si de telles représentations permettent une grande flexibilité dans la structure des données représentées, elles ne sont ni susceptibles de passer à grande échelle lorsque chaque instance est décrite par un nombre significatif de propriétés, ni adaptée à la structure des bases de données usuelles, fondée sur les relations n-aires. C'est ce double inconvénient que vise à résoudre le modèle OntoDB. En introduisant des hypothèses de typages qui semblent acceptables dans beaucoup de domaine d'application, nous proposons une architecture de BDBO constituée de quatre parties : les deux premières parties correspondent à la structure usuelle des bases de données : données reposant sur un schéma logique de données, et méta-base décrivant l'ensemble de la structure de tables.
Les deux autres parties, originales, représentent respectivement les ontologies, et le méta-modèle
d'ontologie au sein d'un méta-schéma réflexif. Des mécanismes d'abstraction et de nomination permettent respectivement d'associer à chaque donnée le concept ontologique qui en définit le sens, et d'accéder aux données à partir des concepts, sans se préoccuper de la représentation des données. Cette architecture permet à la fois de gérer de façon efficace des données de grande taille définies par référence à des ontologies (données à base ontologique), mais aussi d'indexer des bases de données usuelles au niveau connaissance en leur adjoignant les deux parties : ontologie et méta-schéma. Le modèle d'architecture que nous proposons a été validé par le développement d'un prototype opérationnel implanté sur le système PostgreSQL avec le modèle d'ontologie PLIB. Nous présentons également une évaluation comparative de nos propositions aux modèles présentés antérieurement.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Bounar, Boualem. "Génération automatique de programmes sur une base de données en réseau : couplage PROLOG-Base de données en réseau". Lyon 1, 1986. http://www.theses.fr/1986LYO11703.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

El, Khalil Firas. "Sécurité de la base de données cadastrales". Thesis, Polynésie française, 2015. http://www.theses.fr/2015POLF0001/document.

Texto completo
Resumen
Le contrôle d'agrégation dit Quantity Based Aggregation (QBA) est lié au contrôle de l'inférence dans les bases de données et a rarement été traité par la communauté scientifique. Considérons un ensemble S formé de N éléments. L'agrégation d'éléments de l'ensemble S n'est considérée comme étant confidentielle qu'à partir d'un certain seuil k, avec k < N. Le but du contrôle QBA est donc de garantir que le nombre d'éléments de S délivrés à un utilisateur reste toujours inférieur à k. Dans cette thèse, nous traitons du problème du contrôle QBA dans les bases de données cadastrales. Ce travail répond à un besoin du service des affaires foncières de la Polynésie française. La politique de sécurité qu'il nous a été demandé d'implanter donne le droit à chaque utilisateur de connaître le propriétaire de n'importe quelle parcelle. Cette permission est toutefois limitée par les interdictions suivantes: l'utilisateur ne doit jamais arriver à connaître 1- tous les propriétaires dans une région donnée, et 2- toutes les parcelles appartenant au même propriétaire. Chacune de ces interdictions correspond, de manière évidente, à un problème de type QBA. Dans cette thèse, nous développons d'abord un modèle pour assurer la première interdiction, ensuite nous montrons comment adapter notre modèle à la seconde interdiction. Nous présentons, en outre, une implémentation de notre modèle pour les bases de données relationnelles
Quantity Based Aggregation (QBA) controls closely related to inference control database and has been rarely addressed by the scientific community. Let us consider a set S of N elements. The aggregation of k elements, at most, out of N is not considered sensitive, while the aggregation of mor than k out of N elements is considered sensitive and should be prevented. The role of QBA control is to make sure the number of disclosed elements of S is less than or equal to k, where k
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Dehainsala, Hondjack. "Explicitation de la sémantique dans les bases de données : base de données à base ontologique et le modèle OntoDB". Poitiers, 2007. http://www.theses.fr/2007POIT2270.

Texto completo
Resumen
Une base de données à base ontologique (BDBO) est une base de données qui permet de représenter à la fois des données et l’ontologie qui en définit le sens. On propose dans cette thèse un modèle d’architecture de BDBO, appelé OntoDB, qui présente deux caractéristiques originales. D’une part, comme dans les bases de données usuelles, chaque entité est associée à un schéma logique qui définit la structure commune de toutes ses instances. Notre approche permet donc d’ajouter, a posteriori, une ontologie à une base de données existante pour indexer sémantiquement son contenu. D’autre part, le méta-modèle (réflexif) du modèle d’ontologie est lui-même représenté. Cela permet de supporter les évolutions du modèle d’ontologie. OntoDB a été validé par un prototype. Le prototype a fait l’objet d’une évaluation de performance qui a montré que l’approche proposée permettrait de gérer des données de grande taille et supporter beaucoup mieux le passage à l'échelle que les approches existantes
An Ontology–Based DataBase (OBDB) is a database which allows to store both data and ontologies that define data meaning. In this thesis, we propose a new architecture model for OBDB, called OntoDB. This model has two main original features. First, like usual databases, each stored entity is associated with a logical schema which define the structure of all its instances. Thus, our approach provides for adding ontology to existing database for semantic indexation of its content. Second, meta-model of the ontology model is also represented in the same database. This allows to support change and evolution of ontology models. The OntoDB model has been validated by a prototype. Performance evaluation of this prototype has been done and has shown that our approach allows to manage very large data and supports scalability much better than the previously proposed approaches
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Lemaire, Pierre. "Base de données informatique : application aux leucémies aigue͏̈s". Paris 5, 1997. http://www.theses.fr/1997PA05P039.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Kindombi, Lola Ndontoni. "Communications interactives avec une machine base de données". Paris 11, 1985. http://www.theses.fr/1985PA112379.

Texto completo
Resumen
Ce rapport présente une contribution à la réalisation d’un système construit selon le modèle d’interconnexion des systèmes ouverts défini par l’ISO (International Standard Organisation), en insistant sur la Couche Présentation et la Couche Application. La Couche Application comprend : a) un système de gestion de bases de données, centralisé sur une Machine Base de Données (le DORSAL32), utilisant les notions d’ "activités" et d’ "images internes des utilisateurs" pour contrôler les sollicitations externes ; b) un ensemble de "Gérants de Terminaux" en interaction avec le système de gestion de bases de données, offrant à l’utilisateur final une interface souple et indépendante des caractéristiques du terminal utilisé. La Couche Présentation, extensible, est constituée : a) d’une sous-couche de "Présentations Spécifiques" par "image de présentation" ; b) d’une sous-couche de "Présentation Basique" utilisant les fonctions de la Couche Session pour offrir une connexion-présentation découpée en "phases" séquentielles, chaque "phase" étant définie comme support d’exécution d’une Présentation Spécifique. Le système réalisé a été mis en exploitation sous le moniteur MMT2 sur le MITRA-525.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Hsu, Lung-Cheng. "Pbase : une base de données déductive en Prolog". Compiègne, 1988. http://www.theses.fr/1988COMPD126.

Texto completo
Resumen
Ce travail présente un SGBD (Système de Gestion de Base de Données) couplant PROLOG II et VAX RMS (Record Management System). Les LDD (Langage de Définition de Données) et le LMD (Langage de Manipulation des Données) sont implantés en PROLOG et la gestion du stockage et de la recherche des enregistrements correspondant aux faits est déléguée à RMS. L'organisation indexée est adoptée pour fournir un temps de réponse satisfaisant. Une interface écrite en PASCAL assure la communication entre PROLOG et RMS. L'intérêt de PBASE est qu'il peut fonctionner comme un SGBD général ou bien qu'il peut coopérer avec un système expert pour gérer des faits volumineux stockés en mémoire secondaire. L'ouverture vers VAX RDB (Relational DataBase) est aussi possible. Bien que PBASE s'applique aussi bien aux relations normalisées que celles non-normalisées, un module de normalisation est inclus afin d'éviter les problèmes créés par la redondance de données
This thesis describes a relational database system coupling PROLOG II and VAX RMS (Record Management Services). The SQL-like DDL (Data Definition Language) and DML (Data Manipulation Language) are implemented in PROLOG and the management of storage and research of fact record is delegated to RMS. The indexed file organization is adopted to provide a satisfactory response time. An interface written in PASCAL is called to enable the communication between PROLOG and RMS. Once the interface is established, access to the database is transparent. No precompilation is requiert. PBASE can be used as a general DBMS or it can cooperate with an expert system (Our SQL translation module can be considered as such) to manage the voluminous facts stored in the secondary memory. It can also cooperate with VAX RDB (Relational DataBase) to constitute a powerful deductive database. Although PBASE works for normalized relations as well as non-normalized ones, a normalization module is included to avoid the problems caused by the redundancy of data
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Fankam, Nguemkam Chimène. "OntoDB2 : un système flexible et efficient de base de données à base ontologique pour le web sémantique et les données techniques". Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aéronautique, 2009. https://tel.archives-ouvertes.fr/tel-00452533.

Texto completo
Resumen
Le besoin d'expliciter la sémantique des données dans différents domaines scientifiques (biologie, médecine, géographie, ingénierie, etc. ) s'est traduit par la définition de données faisant référence à des ontologies, encore appelées données à base ontologique. Avec la multiplication des ontologies de domaine, et le volume important de données à manipuler, est apparu le besoin de systèmes susceptibles de gérer des données à base ontologique de grande taille. De tels systèmes sont appelés des systèmes de gestion de Bases de Données à Base Ontologique (BDBO). Les principales limitations des systèmes de gestion de BDBO existants sont (1) leur rigidité, due à la prise en compte des constructions d'un unique formalisme d'expression d'ontologies, (2) l'absence de support pour les données non standard (spatiales, temporelles, etc. ) et, (3) leur manque d'efficacité pour gérer efficacement les données de grande taille. Nous proposons dans cette thèse un nouveau système de gestion de BDBO permettant (1) de supporter des ontologies basées sur différents formalismes d'ontologies, (2) l'extension de son formalisme d'ontologie pour répondre aux besoins spécifiques des applications, et (3) une gestion originale des données facilitant le passage à grande échelle. Le système que nous proposons dans cette thèse, ontodb2, se fonde sur l'existence d'un ensemble de constructions communes aux différents formalismes d'expression d'ontologies, susceptible de constituer une ontologie noyau, et sur les techniques de gestion des modèles pour permettre l'extension flexible de ce noyau. Nous proposons également une approche originale de gestion des données à base ontologique. Cette approche part du fait que les données à base ontologique peuvent se classifier en données canoniques (instances de classes primitives) et noncanoniques (instances de classes définies). Les instances de classes définies peuvent, sous certaines hypothèses, s'exprimer en termes d'instances de classes primitives. Nous proposons donc de ne représenter que les données canoniques, en transformant sous certaines conditions, toute donnée non-canonique en donnée canonique. Enfin, nous proposons d'exploiter l'interpréteur de requêtes ontologiques pour permettre (1) l'accès aux données non-canoniques ainsi transformées et, (2) d'indexer et pré-calculer les raisonnements en se basant sur les mécanismes du SGBD support. L'ensemble de ces propositions est validé (1) à travers une implémentation sur le SGBD PostgreSQL basée sur les formalismes d'ontologies PLIB, RDFS et OWL Lite, (2) des tests de performances sur des ensembles de données issus de la géographie et du Web
The need to represent the semantics of data in various scientific fields (medicine, geography, engineering, etc…) has resulted in the definition of data referring to ontologies, also called ontology-based data. With the proliferation of domain ontologies, and the increasing volume of data to handle, has emerge the need to define systems capable of managing large size of ontology-based data. Such systems are called Ontology Based DataBase (OBDB) Management Systems. The main limitations of existing OBDB systems are (1) their rigidity, (2) lack of support for non standard data (spatial, temporal, etc…) and (3) their lack of effectiveness to manage large size data. In this thesis, we propose a new OBDB called OntoDB2, allowing (1) the support of ontologies based on different ontology models, (2) the extension of its model to meet specific applications requirements, and (3) an original management of ontology-based data facilitating scalability. Onto DB2 is based on the existence of a kernel ontology, and model-based techniques to enable a flexible extension of this kernel. We propose to represent only canonical data by transforming, under certain conditions, any given non-canonical data to its canonical representation. We propose to use the ontology query language to (1) to access non-canonical data thereby transform and, (2) index and pre-calculate the reasoning operations by using the mechanisms of the underlying DBMS
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Jouzier, Cécile. "Constitution d'une base de données d'histoire médico-pharmaceutique bordelaise". Bordeaux 2, 2000. http://www.theses.fr/2000BOR2P107.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Devulder, Grégory. "Base de données de séquences, phylogénie et identification bactérienne". Lyon 1, 2004. http://www.theses.fr/2004LYO10164.

Texto completo
Resumen
Les méthodes conventionnelles d'identification et de caractérisation des micro-organismes reposent sur des critères biochimiques ou phénotypiques. Ces méthodes éprouvées et performantes pour l'identification d'un grand nombre d'espèces, présentent toutefois des performances limitées pour l'identification de certaines espèces. L'objectivité de l'information contenue dans les séquences d'ADN et l'augmentation importante des séquences contenues dans les bases de données ouvrent de nouvelles perspectives liées à l'utilisation des méthodes moléculaires dans le cadre de l'identification bactérienne. Les différentes étapes indispensables à l'identification moléculaire peuvent être longues et fastidieuses. Leur automatisation était donc indispensable. Nous avons développé BIBI (Bio Informatic Bacterial Identification) un environnement d'identification bactérien à partir des séquences d'ADN. Accessible sur internet (http://pbil. Univ-lyon1. Fr/bibi), et utilisable quel que soit le domaine d'activité, ce programme garantit un temps de réponse constant et une universalité des résultats. Pour accroître la pertinence du résultat, nous avons également mis en place des banques de séquences adaptées à l'identification bactérienne. Associées à BIBI, ces bases taxinomiquement propres ont pour vocation d'assister l'utilisateur dans le processus d'identification
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Ould, Yahia Sabiha. "Interrogation multi-critères d'une base de données spatio-temporelles". Troyes, 2005. http://www.theses.fr/2005TROY0006.

Texto completo
Resumen
Les travaux décrits dans cette thèse s'inscrivent dans le cadre du projet interrégional intitulé CAractérisation Symbolique de SItuations de ConduitE (CASSICE) qui regroupe plusieurs équipes de chercheurs. L'objectif du projet CASSICE est l'automatisation et l'alimentation d'une base de données de situations de conduite. Cela comprend notamment la reconnaissance des manoeuvres. Ces manoeuvres réalisées par le conducteur sont détectées à partir des données issues de capteurs installés sur un véhicule expérimental en situation de conduite réelle. Il s'agit dans cette thèse de proposer une interface permettant à un expert psychologue une analyse des comportements du conducteur mis en évidence par la base de données. Le projet CASSICE permet l'accès à une base de données à représentation continue, numériques ou symboliques, associées à des images. Le langage d'interrogation doit être le plus proche possible des critères de recherche employés par les experts psychologues. Ces fonctionnalités sont proposées dans le système CIBAM (Construction et Interrogation d'une BAse de données Multimédia) qui utilise une méthode d'indexation et d'interrogation multi-critères d'une base de données représentant une situation dynamique
The study of the human behavior in driving situations is of primary importance for the improvement of drivers security. This study is complex because of the numerous situations in which the driver may be involved. The objective of the CASSICE project (Symbolic Characterization of Driving Situations) is to elaborate a tool in order to simplify the analysis task of the driver's behavior. In this paper, we will mainly take an interest in the indexation and querying of a multimedia database including the numerical data and the video sequences relating to a type of driving situations. We will put the emphasis on the queries to this database. They are often complex because they are formulated according to criteria depending on time, space and they use terms of the natural language
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Vachey, Françoise. "Les suffixes toponymiques français : atlas et base de données". Nancy 2, 1999. http://www.theses.fr/1999NAN21036.

Texto completo
Resumen
L'étude des suffixes toponymiques occupe une place insignifiante dans les recherches toponymiques. Mais que recouvre donc la notion de "suffixe" ? En principe, les toponymes retenus sont constitués d'un segment de base suivi d'un autre élément qui se suffit à lui-même et ainsi appelé "suffixe", mais quelquefois la frontière est ténue car certains suffixes s'apparentent à des substantifs et ont une signification propre en dehors du terme auxquels ils se rattachent, c'est notamment le cas du suffixe déterminatif -olalos signifiant "clairière" en gaulois. Notre propos porte sur les communes de France ainsi que sur les hameaux et lieux-dits lorsqu'ils sont significatifs et apportent à notre recherche une précision supplémentaire. Cette thèse se matérialise sous forme de trois volumes : - une base de données - un atlas - un volume explicatif. Nous nous sommes attachés à inventorier dans une base de données les noms des lieux français suffixés en -(i)acus répondant à ces critères. Nous en avons dénombré 1545, cette base de données se veut avant tout un outil de travail pour les chercheurs, elle n'est en aucune mesure exhaustive, et peut, à tout moment être enrichie de nouveaux toponymes. La rédaction et la composition de l'atlas par suffixes obéissent à plusieurs motivations : créer un ouvrage permettant d'avoir des repères dans l'espace et une visualisation des noms de lieux suffixés. Tenter de synthétiser des connaissances éparses concernant les suffixes toponymiques et par la présentation cartographique, les rendre plus proches de notre vécu. Le volume explicatif, quant à lui, se propose de recenser les principaux suffixes toponymiques et d'expliquer leurs fonctionnements sous divers éclairages : étymologiques, sémantiques, syntagmatiques. . . L'onomastique n'est pas une science sclérosée, l'influence dialectale y est prépondérante dans l'évolution des formes, ainsi ce travail vivra par les remarques que ne manqueront pas de faire les onomasticiens et les dialectologues, observations qui nous permettront soit de compléter notre information, soit de redresser des erreurs d'interprétations.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Ploquin, Catherine. "LAB langage d'analyse associé à une base de données". Bordeaux 1, 1985. http://www.theses.fr/1985BOR10534.

Texto completo
Resumen
Le lab est un langage d'analyse faisant partie d'un atelier de genie logiciel. L'outil associe possede deux fonctions principales: stockage d'informations relatives au logiciel dans une base de donnees, et passage automatique du langage d'analyse a differents langages de programmation. Ce travail presente certaines recherches et realisations recentes en genie logiciel:. Gestion du logiciel et des differentes versions (sccs et make sous unix). Modularite (notion de package dans le langage ada). Conception descendante par raffinements successifs (langage pdl integre dans l'atelier vulcain). Passage automatique d'un langage d'analyse a un langage de programmation (atelier softpen). Il montre ensuite comment l'outil developpe integre ces differents concepts permettant de realiser de bons logiciels tout en reduisant les couts de developpement
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Bec, Xavier. "Une base de données pour les effets spéciaux numériques". Paris 8, 2000. http://www.theses.fr/2000PA081818.

Texto completo
Resumen
Le developpement d'une base de donnees performante est primordial dans la conception d'effets speciaux numeriques. Posseder sa propre base de donnees c'est avoir la possibilite de l'adapter rapidement aux exigences de la production ou au rythme des innovations et surtout de presenter des effets toujours plus spectaculaires pour le cinema et la publicite. Dans cette these, une nouvelle base de donnees concue chez buf compagnie est presentee. Elle s'appuie sur une organisation particulierement efficace et evolutive, notamment grace a l'utilisation d'un langage de commandes specifique. Les interets qu'apportent ce langage sont multiples : il offre a l'utilisateur des solutions pour la prise en charge d'animations ou de phenomenes complexes et pour la gestion de scenes lourdes ou de taches repetitives. Les contraintes liees a la production conduisent souvent a l'elaboration de solutions simples mais toutes aussi performantes. De nouvelles formulations sont proposees pour la manipulation de l'animation (notamment a l'aide de courbes et de volumes de deformation) et pour la construction de modeles geometriques sophistiques. Une solution elegante est enfin presentee pour la simulation dela fumee en synthese d'images. Elle s'appuie sur l'utilisation du langage de commandes et met en avant l'interet de la base de donnees presentee.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Abdelhédi, Fatma. "Conception assistée d’entrepôts de données et de documents XML pour l’analyse OLAP". Thesis, Toulouse 1, 2014. http://www.theses.fr/2014TOU10005/document.

Texto completo
Resumen
Aujourd’hui, les entrepôts de données constituent un enjeu majeur pour les applications décisionnelles au sein des entreprises. Les sources d’un entrepôt, c’est à dire l’origine des données qui l’alimentent, sont diverses et hétérogènes : fichiers séquentiels, feuilles de tableur, bases de données relationnelles, documents du Web. La complexité est telle que les logiciels du marché ne répondent que partiellement aux attentes des décideurs lorsque ceux-ci souhaitent analyser les données. Nos travaux s’inscrivent donc dans le contexte des systèmes décisionnels qui intègrent tous types de données (principalement extraites de bases de données relationnelles et de bases de documents XML) et qui sont destinés à des décideurs. Ils visent à proposer des modèles, des méthodes et des outils logiciels pour élaborer et manipuler des entrepôts de données. Nos travaux ont plus précisément porté sur deux problématiques complémentaires : l’élaboration assistée d’un entrepôt de données ainsi que la modélisation et l’analyse OLAP de documents XML
Today, data warehouses are a major issue for business intelligence applications within companies. Sources of a warehouse, i.e. the origin of data that feed, are diverse and heterogeneous sequential files, spreadsheets, relational databases, Web documents. The complexity is such that the software on the market only partially meets the needs of decision makers when they want to analyze the data. Therefore, our work is within the decision support systems context that integrate all data types (mainly extracted from relational databases and XML documents databases) for decision makers. They aim to provide models, methods and software tools to elaborate and manipulate data warehouses. Our work has specifically focused on two complementary issues: aided data warehouse and modeling and OLAP analysis of XML documents
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Grignard, Arnaud. "Modèles de visualisation à base d'agents". Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066268.

Texto completo
Resumen
Ce mémoire part du constat que la visualisation est le parent pauvre de l'approche de modélisation à base d'agents: peu citée, peu mise en avant, elle constitue néanmoins, pour beaucoup de modélisateurs, non seulement leur premier point d'entrée vers la construction de modèles, mais aussi une façon de plus en plus prégnante, de concevoir, vérifier, voire valider des modèles de systèmes complexes. Le domaine de la modélisation à base d'agents, longtemps peu structuré, est en train de progressivement s'organiser en termes de méthodologies de conception, de communication, de description. Le succès du protocole ODD est là pour en témoigner: face à des demandes de représentation de systèmes de plus en plus complexes, les modélisateurs ont besoin de mettre de l'ordre dans leurs façons de modéliser et ils y parviennent. Cependant, il est étonnant de constater qu'aucune place n'est réservée dans ODD, ni dans aucune autre méthodologie approchante, à la façon de visualiser le modèle décrit ou à concevoir. Pour beaucoup de théoriciens de la modélisation, cette étape n'existe tout simplement pas, ou, si elle existe, est considérée comme le lointain produit dérivé d'un modèle déjà conçu, vérifié et validé. Pourtant, l'étude des pratiques de la modélisation à base d'agents révèle tout le contraire: l'aller-retour entre l'écriture et la visualisation d'un modèle fait partie intégrante du quotidien de nombreux chercheurs, comme en témoigne le succès de la plate-forme NetLogo. Cette visualisation, partie d'une démarche intégrée, permet de façon intuitive de vérifier et raffiner aussi bien les comportements individuels des agents que les structures collectives ou émergentes attendues. Poussée à l'extrême, cette pratique se rencontre aussi dans les démarches de modélisation et/ou simulation participative, où la visualisation du modèle sert de médiation entre acteurs et de support aux tâches, collectives, de modélisation. Absente des propositions méthodologiques, la visualisation de modèles à base d'agents se retrouve donc essentiellement délimitée et structurée par des pratiques individuelles, parfois partagées sous la forme de préceptes , mais rarement généralisables au-delà de la conception d'un modèle. Il existe pourtant des façons de visualiser, des manières de chercher à faire ressortir une information spécifique, des méthodes à suivre pour étudier visuellement une abstraction…
Information visualization is the study of interactive visual representations of abstract data to reinforce human cognition. It is very closely associated with data mining issues which allow to explore, understand and analyze phenomena, systems or data masses whose complexity continues to grow today. However, most existing visualization techniques are not suited to the exploration and understanding of datasets that consist of a large number of individual data from heterogeneous sources that share many properties with what are commonly called "complex systems". The reason is often the use of monolithic and centralized approaches. This situation is reminiscent of the modeling of complex systems (social sciences, chemistry, ecology, and many other fields) before progress represented by the generalization of agent-based approaches twenty years ago. In this thesis, I defend the idea that the same approach can be applied with the same success to the field of information visualization. By starting from the now commonly accepted idea that the agent-based models offer appropriate representations the complexity of a real system, I propose to use an approach based on the definition of agent-based visualization models to facilitate visual representation of complex data and to provide innovative support which allows to explore, programmatically and visually, their underlying dynamics. Just like their software counterparts, agent-based visualization models are composed of autonomous graphical entities that can interact and organize themselves, learn from the data they process and as a result adapt their behavior and visual representations. By providing a user the ability to describe visualization tasks in this form, my goal is to allow them to benefit from the flexibility, modularity and adaptability inherent in agent-based approaches. These concepts have been implemented and experimented on the GAMA modeling and simulation platform in which I developed a 3D immersive environment offering the user different point of views and way to interact with agents. Their implementation is validated on models chosen for their properties, supports a linear progression in terms of complexity, allowing us to highlight the concepts of flexibility, modularity and adaptability. Finally, I demonstrate through the particular case of data visualization, how my approach allows, in real time, to represent, to clarify, or even discover their dynamics and how that progress in terms of visualization can contributing,in turn, to improve the modeling of complex systems
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Pineau, Nicolas. "La performance en analyse sensorielle : une approche base de données". Phd thesis, Université de Bourgogne, 2006. http://tel.archives-ouvertes.fr/tel-00125171.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Gagnon, Bertrand. "Gestion d'information sur les procédés thermiques par base de données". Thesis, McGill University, 1986. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=65447.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Folio, Patrice. "Etablissement d'une base de données protéomique de Listeria monocytogenes EGDe". Clermont-Ferrand 2, 2003. http://www.theses.fr/2003CLF21478.

Texto completo
Resumen
Listeria monocytogenes, bactérie pathogène d'origine alimentaire, représente l'un des principaux risques sanitaires de la filière agro-alimentaire. Ce risque est accentué par sa capacité à coloniser les surfaces et à former des communautés bactériennes organisées, résistantes et persistantes, les biofilms. Ces structures représentent ainsi une source non négligeable de (re)contamination des produits alimentaires. Maîtriser le risque biofilm représente donc un enjeu économique et hygiénique important et passe en partie par la compréhension des phénomènes physiologiques et moléculaires qui sont associés à leur formation. Afin de caractériser le phénotype biofilm chez un microorgansime, deux approches utilisant les technologies des puces à ADN et de l'électrophorèse bidimentionnelle ont été menées. En préalable à cette thématique, il s'est avéré intéressant de créer une banque de gels d'électrophorèses bidimensionnelles obtenus pour différentes conditions de culture de L. Monocytogenes EGDe, support indispensable à toutes les études protéomiques comparatives. Environ 1300 spots protéiques différents ont ainsi pu être résolus et 126 protéines correspondant à 201 spots différents ont été identifiées(http://www. Clermont. Inra. Fr/proteome/index. Htm). Dans les conditions utilisées, la souche EGDe adhère rapidement à l'acier inoxydable et forme des biofilms denses après 7 jours de contact. Le développement sous forme d'un biofilm statique induit des modifications d'expression rapides et importantes (environ 15% du protéone et 8% du transcriptome après 2 heures d'adhésion). Ces cellules sont caractérisées par un état physiologique particulier marqué par l'induction d'une réponse générale au stress et par la répression de déterminants génétiques impliqués notamment dans la division cellulaire, la réplication de l'ADN, la biosynthèse d'ARN et des protéines. Il semble enfin qu'un certain nombre de gènes codant des protéines de la surface cellulaire, tels que flaA et inIH, et des gènes de fonction inconnue soient impliqués dans les étapes précoces de formation du biofilm che L monocytogenes. Ils représentent ainsi autant de voies intéressantes pour des études fonctionnelles ultéieures ou encore des cibles pour l'élaboration de nouveaux moyens de lutte contre ces biofilms
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Persyn, Emmanuel. "Base de données informatiques sur la première guerre du Golfe". Lille 3, 2003. http://www.theses.fr/2003LIL30018.

Texto completo
Resumen
Cette thèse est présentée sur deux supports. Le CD-Rom contient la base de données sur la guerre du Golfe de 1991. Celle-ci retrace la chronologie détaillée depuis l'invasion du Koweit, en août 1990, jusqu'au cessez-le-feu en février 1991. Elle se caractérise par de multiples entrées qui permettent de découvrir les événements, les lieux, les personnages et les ouvrages parus sur la question. Le volume dactylographié présente la méthodologie appliquée pour la constitution de cette base de données, le conflit et son influence sur les relations israélo-palestiniennes
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Tahir, Hassane. "Aide à la contextualisation de l’administration de base de données". Paris 6, 2013. http://www.theses.fr/2013PA066789.

Texto completo
Resumen
La complexité des tâches d'administration de bases de données nécessite le développement d'outils pour assister les experts DBA. A chaque apparition d’un incident, l'administrateur de base de données (DBA) est la première personne blâmée. La plupart des DBAs travaillent sous de fortes contraintes d'urgence et ont peu de chance d'être proactif. Ils doivent être constamment prêts à analyser et à corriger les défaillances en utilisant un grand nombre de procédures. En outre, ils réajustent en permanence ces procédures et élaborent des pratiques qui permettent de gérer une multitude de situations spécifiques qui diffèrent de la situation générique par quelques éléments contextuels et l'utilisation de méthodes plus adaptées. Ces pratiques doivent être adaptées à ces éléments de contexte pour résoudre le problème donné. L'objectif de cette thèse est d'utiliser le formalisme des graphes contextuels pour améliorer les procédures d'administration de base de données. La thèse montre également l'intérêt de l'utilisation des graphes contextuels pour capturer ces pratiques en vue de permettre leur réutilisation dans les contextes du travail. Jusqu'à présent, cette amélioration est réalisée par le DBA grâce à des pratiques qui adaptent les procédures au contexte dans lequel les tâches doivent être exécutées et les incidents apparaissent. Ce travail servira de base pour la conception et la mise en œuvre d'un Système d’Aide Intelligent Basée sur le Contexte (SAIBC) et qui sera utilisé par les DBAs
The complexity of database administration tasks requires the development of tools for supporting database experts. When problems occur, the database administrator (DBA) is frequently the first person blamed. Most DBAs work in a fire-fighting mode and have little opportunity to be proactive. They must be constantly ready to analyze and correct failures based on a large set of procedures. In addition, they are continually readjusting these procedures and developing practices to manage a multitude of specific situations that differ from the generic situation by some few contextual elements. These practices have to deal with these contextual elements in order to solve the problem at hand. This thesis aims to use Contextual Graphs formalism in order to improve existing procedures used in database administration. The thesis shows also the benefits of using Contextual Graphs to capture user practices in order to be reused in the working contexts. Up to now, this improvement is achieved by a DBA through practices that adapt procedures to the context in which tasks should be performed and the incidents appear. This work will be the basis for designing and implementing a Context-Based Intelligent Assistant System (CBIAS) for supporting DBAs
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Treger, Michèle. "Spécification et implantation d'une base de données des contacts intermoléculaires". Université Louis Pasteur (Strasbourg) (1971-2008), 1991. http://www.theses.fr/1991STR13089.

Texto completo
Resumen
Nous avons specifie et implante une base de donnees relationnelle des contacts inter et intramoleculaires dans les cristaux de macromolecules biologiques, calcules a partir des donnees contenues dans la protein data bank. Nous avons modelise les regions de contact, les interactions entre regions et les interactions entre atomes par des objets mathematiques, ce qui a permis d'obtenir une definition precise des regions, avec une preuve d'existence et d'unicite. Des specifications ont ete ecrites a plusieurs niveaux (algebriques, par pre- et post-conditions) jusqu'a la programmation. La base de donnees que nous avons creee, les programmes de mises a jour et de traitements des donnees que nous avons developpes constituent un outil d'investigation pour une etude systematique des regions de contact et permettent leur representation tridimensionnelle sur ecran graphique
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

État-Le, Blanc Marie-Sylvie d'. "Une base de données sédimentologiques : structure, mise en place, applications". Bordeaux 1, 1986. http://www.theses.fr/1986BOR10565.

Texto completo
Resumen
La base de donnees est construite sur le modele relationnel, elle utilise le logiciel rdb de digital. Sa structure permet de stocker les donnees relatives a une mission oceanographique et a tous les prelevements et analyses qui s'y rattachent. Les programmes d'acces sont ecrits en fortran 77 ainsi que le programme de calcul des parametres granulometriques, la consultation se fait grace au logiciel datatrieve (digital). L'application de ce travail est faite avec les donnees de la mission misedor
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Peerbocus, Mohamed Ally. "Gestion de l'évolution spatiotemporelle dans une base de données géographiques". Paris 9, 2001. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2001PA090055.

Texto completo
Resumen
Cette thèse traite de la mise à jour des bases de données géographiques, en particulier pour des applications cartographiques. Cette opération est complexe, souvent longue, en particulier lorsqu'il est nécessaire de représenter la nature dynamique des entités géographiques. Dans cette thèse, une nouvelle approche, appelée l'approche des cartes spatio-temporelles documentées, CSD, est proposée pour la mise à jour des bases de données géographiques et la gestion de l'évolution spatio-temporelle. Les changements géographiques sont étudiés selon trois perspectives : monde réel, carte et bases de données. L'approche CSD permet aux utilisateurs d'avoir accès à des versions passées ou alternatives d'une carte, de comparer les différentes versions d'un objet géographique, d'identifier les changements et de comprendre les raisons de ces changements, en particulier dans le contexte d'échange de données entre producteurs et clients. De plus, cette approche permet d'offrir une histoire documentée de l'évolution des objets géographiques. Par ailleurs, L'approche CSD assure la non-duplication des données dans la base de données géographiques. L'approche CSD permet de prendre en compte d'autres besoins des utilisateurs du domaine géographique : 1. Elle peut aider à la gestion des transactions de longue durée dans le processus de mise à jour des bases de données géographiques. 2. Elle peut être un outil efficace pour la gestion de l'information géographique dans des projets : des versions de carte peuvent être créées à la demande montrant les différentes étapes du projet, voire les alternatives. 3. Elle peut servir à organiser une équipe autour d'un projet en permettant aux différents intervenants de travailler sur différentes versions du projet et ensuite permettre leur fusion. 4. Elle peut être utile comme un outil de prévention dans la gestion des risques en permettant aux spécialistes de suivre l'évolution de limites de zones à risque.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Curé, Olivier. "Relations entre bases de données et ontologies dans le cadre du web des données". Habilitation à diriger des recherches, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00843284.

Texto completo
Resumen
Ce manuscrit présente mon intérêt pour la conception des méthodes et algorithmes nécessaires pour la réalisation d'applications avancées pour le web sémantique. Cette extension du web actuel vise à autoriser l'intégration et le partage de données entre organismes et applications. Une conséquence directe du succès de cette approche permettrait de considérer le web comme une base de données globale contenant les données stockées sur toutes les machines connectées. Cet aspect s'exprime bien dans le site web dédié à l'activité web sémantique du W3C, qui déclare que le web sémantique est un web des données. Ainsi, ce web des données permettra de soumettre des requêtes structurées sur tous les ensembles de données connectés, et de récupérer des résultats pertinents provenant de sources diverses et hétérogènes. Une question essentielle liée à cette hétérogénéité concerne la notion de sémantique. Dans le contexte du web sémantique, elle est généralement traitée avec des ontologies et les opérations de médiation associées. Ma recherche s'ancrent dans ces thématiques et ce manuscrit vise à présenter quelques unes de mes recherches et résultats, ainsi qu'à décrire certaines des applications que j'ai conçues et implémentées
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

De, Vlieger P. "Création d'un environnement de gestion de base de données " en grille ". Application à l'échange de données médicales". Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2011. http://tel.archives-ouvertes.fr/tel-00654660.

Texto completo
Resumen
La problématique du transport de la donnée médicale, de surcroît nominative, comporte de nombreuses contraintes, qu'elles soient d'ordre technique, légale ou encore relationnelle. Les nouvelles technologies, issues particulièrement des grilles informatiques, permettent d'offrir une nouvelle approche au partage de l'information. En effet, le développement des intergiciels de grilles, notamment ceux issus du projet européen EGEE, ont permis d'ouvrir de nouvelles perspectives pour l'accès distribué aux données. Les principales contraintes d'un système de partage de données médicales, outre les besoins en termes de sécurité, proviennent de la façon de recueillir et d'accéder à l'information. En effet, la collecte, le déplacement, la concentration et la gestion de la donnée, se fait habituellement sur le modèle client-serveur traditionnel et se heurte à de nombreuses problématiques de propriété, de contrôle, de mise à jour, de disponibilité ou encore de dimensionnement des systèmes. La méthodologie proposée dans cette thèse utilise une autre philosophie dans la façon d'accéder à l'information. En utilisant toute la couche de contrôle d'accès et de sécurité des grilles informatiques, couplée aux méthodes d'authentification robuste des utilisateurs, un accès décentralisé aux données médicales est proposé. Ainsi, le principal avantage est de permettre aux fournisseurs de données de garder le contrôle sur leurs informations et ainsi de s'affranchir de la gestion des données médicales, le système étant capable d'aller directement chercher la donnée à la source. L'utilisation de cette approche n'est cependant pas complètement transparente et tous les mécanismes d'identification des patients et de rapprochement d'identités (data linkage) doivent être complètement repensés et réécris afin d'être compatibles avec un système distribué de gestion de bases de données. Le projet RSCA (Réseau Sentinelle Cancer Auvergne - www.e-sentinelle.org) constitue le cadre d'application de ce travail. Il a pour objectif de mutualiser les sources de données auvergnates sur le dépistage organisé des cancers du sein et du côlon. Les objectifs sont multiples : permettre, tout en respectant les lois en vigueur, d'échanger des données cancer entre acteurs médicaux et, dans un second temps, offrir un support à l'analyse statistique et épidémiologique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

De, Vlieger Paul. "Création d'un environnement de gestion de base de données "en grille" : application à l'échange de données médicales". Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2011. http://tel.archives-ouvertes.fr/tel-00719688.

Texto completo
Resumen
La problématique du transport de la donnée médicale, de surcroît nominative, comporte de nombreuses contraintes, qu'elles soient d'ordre technique, légale ou encore relationnelle. Les nouvelles technologies, issues particulièrement des grilles informatiques, permettent d'offrir une nouvelle approche au partage de l'information. En effet, le développement des intergiciels de grilles, notamment ceux issus du projet européen EGEE, ont permis d'ouvrir de nouvelles perspectives pour l'accès distribué aux données. Les principales contraintes d'un système de partage de données médicales, outre les besoins en termes de sécurité, proviennent de la façon de recueillir et d'accéder à l'information. En effet, la collecte, le déplacement, la concentration et la gestion de la donnée, se fait habituellement sur le modèle client-serveur traditionnel et se heurte à de nombreuses problématiques de propriété, de contrôle, de mise à jour, de disponibilité ou encore de dimensionnement des systèmes. La méthodologie proposée dans cette thèse utilise une autre philosophie dans la façon d'accéder à l'information. En utilisant toute la couche de contrôle d'accès et de sécurité des grilles informatiques, couplée aux méthodes d'authentification robuste des utilisateurs, un accès décentralisé aux données médicales est proposé. Ainsi, le principal avantage est de permettre aux fournisseurs de données de garder le contrôle sur leurs informations et ainsi de s'affranchir de la gestion des données médicales, le système étant capable d'aller directement chercher la donnée à la source.L'utilisation de cette approche n'est cependant pas complètement transparente et tous les mécanismes d'identification des patients et de rapprochement d'identités (data linkage) doivent être complètement repensés et réécris afin d'être compatibles avec un système distribué de gestion de bases de données. Le projet RSCA (Réseau Sentinelle Cancer Auvergne - www.e-sentinelle.org) constitue le cadre d'application de ce travail. Il a pour objectif de mutualiser les sources de données auvergnates sur le dépistage organisé des cancers du sein et du côlon. Les objectifs sont multiples : permettre, tout en respectant les lois en vigueur, d'échanger des données cancer entre acteurs médicaux et, dans un second temps, offrir un support à l'analyse statistique et épidémiologique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Grignard, Arnaud. "Modèles de visualisation à base d'agents". Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066268/document.

Texto completo
Resumen
Ce mémoire part du constat que la visualisation est le parent pauvre de l'approche de modélisation à base d'agents: peu citée, peu mise en avant, elle constitue néanmoins, pour beaucoup de modélisateurs, non seulement leur premier point d'entrée vers la construction de modèles, mais aussi une façon de plus en plus prégnante, de concevoir, vérifier, voire valider des modèles de systèmes complexes. Le domaine de la modélisation à base d'agents, longtemps peu structuré, est en train de progressivement s'organiser en termes de méthodologies de conception, de communication, de description. Le succès du protocole ODD est là pour en témoigner: face à des demandes de représentation de systèmes de plus en plus complexes, les modélisateurs ont besoin de mettre de l'ordre dans leurs façons de modéliser et ils y parviennent. Cependant, il est étonnant de constater qu'aucune place n'est réservée dans ODD, ni dans aucune autre méthodologie approchante, à la façon de visualiser le modèle décrit ou à concevoir. Pour beaucoup de théoriciens de la modélisation, cette étape n'existe tout simplement pas, ou, si elle existe, est considérée comme le lointain produit dérivé d'un modèle déjà conçu, vérifié et validé. Pourtant, l'étude des pratiques de la modélisation à base d'agents révèle tout le contraire: l'aller-retour entre l'écriture et la visualisation d'un modèle fait partie intégrante du quotidien de nombreux chercheurs, comme en témoigne le succès de la plate-forme NetLogo. Cette visualisation, partie d'une démarche intégrée, permet de façon intuitive de vérifier et raffiner aussi bien les comportements individuels des agents que les structures collectives ou émergentes attendues. Poussée à l'extrême, cette pratique se rencontre aussi dans les démarches de modélisation et/ou simulation participative, où la visualisation du modèle sert de médiation entre acteurs et de support aux tâches, collectives, de modélisation. Absente des propositions méthodologiques, la visualisation de modèles à base d'agents se retrouve donc essentiellement délimitée et structurée par des pratiques individuelles, parfois partagées sous la forme de préceptes , mais rarement généralisables au-delà de la conception d'un modèle. Il existe pourtant des façons de visualiser, des manières de chercher à faire ressortir une information spécifique, des méthodes à suivre pour étudier visuellement une abstraction…
Information visualization is the study of interactive visual representations of abstract data to reinforce human cognition. It is very closely associated with data mining issues which allow to explore, understand and analyze phenomena, systems or data masses whose complexity continues to grow today. However, most existing visualization techniques are not suited to the exploration and understanding of datasets that consist of a large number of individual data from heterogeneous sources that share many properties with what are commonly called "complex systems". The reason is often the use of monolithic and centralized approaches. This situation is reminiscent of the modeling of complex systems (social sciences, chemistry, ecology, and many other fields) before progress represented by the generalization of agent-based approaches twenty years ago. In this thesis, I defend the idea that the same approach can be applied with the same success to the field of information visualization. By starting from the now commonly accepted idea that the agent-based models offer appropriate representations the complexity of a real system, I propose to use an approach based on the definition of agent-based visualization models to facilitate visual representation of complex data and to provide innovative support which allows to explore, programmatically and visually, their underlying dynamics. Just like their software counterparts, agent-based visualization models are composed of autonomous graphical entities that can interact and organize themselves, learn from the data they process and as a result adapt their behavior and visual representations. By providing a user the ability to describe visualization tasks in this form, my goal is to allow them to benefit from the flexibility, modularity and adaptability inherent in agent-based approaches. These concepts have been implemented and experimented on the GAMA modeling and simulation platform in which I developed a 3D immersive environment offering the user different point of views and way to interact with agents. Their implementation is validated on models chosen for their properties, supports a linear progression in terms of complexity, allowing us to highlight the concepts of flexibility, modularity and adaptability. Finally, I demonstrate through the particular case of data visualization, how my approach allows, in real time, to represent, to clarify, or even discover their dynamics and how that progress in terms of visualization can contributing,in turn, to improve the modeling of complex systems
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Ponchateau, Cyrille. "Conception et exploitation d'une base de modèles : application aux data sciences". Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2018. http://www.theses.fr/2018ESMA0005/document.

Texto completo
Resumen
Les sciences expérimentales font régulièrement usage de séries chronologiques, pour représenter certains des résultats expérimentaux, qui consistent en listes chronologiques de valeurs (indexées par le temps), généralement fournies par des capteurs reliés à un système (objet de l’expérience). Ces séries sont analysées dans le but d’obtenir un modèle mathématique permettant de décrire les données et ainsi comprendre et expliquer le comportement du système étudié. De nos jours, les technologies de stockage et analyse de séries chronologiques sont nombreuses et matures, en revanche, quant au stockage et à la gestion de modèles mathématiques et leur mise en lien avec des données numériques expérimentales, les solutions existantes sont à la fois récentes, moins nombreuses et moins abouties. Or,les modèles mathématiques jouent un rôle essentiel dans l’interprétation et la validation des résultats expérimentaux. Un système de stockage adéquat permettrait de faciliter leur gestion et d’améliorer leur ré-utilisabilité. L’objectif de ce travail est donc de développer une base de modèles permettant la gestion de modèle mathématiques et de fournir un système de « requête par les données », afin d’aider à retrouver/reconnaître un modèle à partir d’un profil numérique expérimental. Dans cette thèse, je présente donc la conception (de la modélisation des données, jusqu’à l’architecture logicielle) de la base de modèles et les extensions qui permettent de réaliser le système de « requête par les données ». Puis, je présente le prototype de la base de modèle que j’ai implémenté, ainsi que les résultats obtenus à l’issu des tests de ce-dernier
It is common practice in experimental science to use time series to represent experimental results, that usually come as a list of values in chronological order (indexed by time) and generally obtained via sensors connected to the studied physical system. Those series are analyzed to obtain a mathematical model that allow to describe the data and thus to understand and explain the behavio rof the studied system. Nowadays, storage and analyses technologies for time series are numerous and mature, but the storage and management technologies for mathematical models and their linking to experimental numerical data are both scarce and recent. Still, mathematical models have an essential role to play in the interpretation and validation of experimental results. Consequently, an adapted storage system would ease the management and re-usability of mathematical models. This work aims at developing a models database to manage mathematical models and provide a “query by data” system, to help retrieve/identify a model from an experimental time series. In this work, I will describe the conception (from the modeling of the system, to its software architecture) of the models database and its extensions to allow the “query by data”. Then, I will describe the prototype of models database,that I implemented and the results obtained by tests performed on the latter
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Devogele, Thomas. "Processus d'intégration et d'appariement de bases de données géographiques : application à une base de données routières multi-échelles". Versailles-St Quentin en Yvelines, 1997. https://tel.archives-ouvertes.fr/tel-00085113.

Texto completo
Resumen
Les phénomènes du monde réel sont actuellement représentés dans les bases de données géographiques (bdg) sous différentes formes. La réutilisation de telles bdg nécessite un processus d'intégration afin de fédérer l'information provenant de différentes sources. L'objectif de cette thèse est de définir un processus d'intégration de bdg en mode vecteur a deux dimensions dans une base multi-représentations. Il propose l'extension d'un processus d'intégration a trois phases (pre-intégration, déclaration, intégration). L'extension est fondée sur une taxonomie des conflits d'intégration entre bdg et sur l'ajout d'un processus d'appariement géométrique et topologique. Ce processus a été mis en oeuvre sur les trois principales bases de données de l'ign pour le thème routier dans la région de Lagny. Etant donnée la complexité des phénomènes géographiques, plusieurs modélisations des phénomènes peuvent entre définies. La taxonomie des conflits d'intégration de bdg effectue une structuration de ces différences en six catégories de conflits qui ont été traitées dans le processus d'intégration. Certains conflits sont pris en compte dans la phase de pre-intégration. D'autres font l'objet d'un traitement spécifique : extension du langage de déclaration des correspondances, ajout d'opérations de résolution de ce conflit. Le processus d'appariement consiste à identifier les données représentant le même phénomène du monde réel. Un processus d'appariement a été développé pour les données de types routières à différentes échelles. Les résultats obtenus font apparaître un taux de correspondance de l'ordre de 90%. Un processus générique en a été déduit afin de guider la conception des processus d'appariement concernant d'autres types de données. Cette thèse apporte donc un cadre général et détaillé pour l'intégration de bdg et contribue ainsi à l'essor d'applications multi -représentations et de l'interopérabilité entre les bdg en adaptant ces processus à des bdg réparties sur un réseau.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Jean, Stéphane. "OntoQL, un langage d'exploitation des bases de données à base ontologique". Phd thesis, Université de Poitiers, 2007. http://tel.archives-ouvertes.fr/tel-00201777.

Texto completo
Resumen
Nous appelons Bases de Données à Base Ontologique (BDBO), les bases de données qui contiennent à la fois des données et des ontologies qui en décrivent la sémantique. Dans le contexte du Web Sémantique, de nombreuses BDBO associées à des langages qui permettent d'interroger les données et les ontologies qu'elles contiennent sont apparues. Conçus pour permettre la persistance et l'interrogation des données Web, ces BDBO et ces langages sont spécifiques aux modèles d'ontologies Web, ils se focalisent sur les ontologies conceptuelles et ils ne prennent pas en compte la structure relationnelle inhérente à des données contenues dans une base de données. C'est ce triple problème que vise à résoudre le langage OntoQL proposé dans cette thèse. Ce langage répond au triple problème évoqué précédemment en présentant trois caractéristiques essentielles qui le distinguent des autres langages proposés : (1) le langage OntoQL est indépendant d'un modèle d'ontologies particulier. En effet, ce langage est basé sur un noyau commun aux différents modèles d'ontologies et des instructions de ce langage permettent de l'étendre, (2) le langage OntoQL exploite la couche linguistique qui peut être associée à une ontologie conceptuelle pour permettre d'exprimer des instructions dans différentes langues naturelles et (3) le langage OntoQL est compatible avec le langage SQL, permettant ainsi d'exploiter les données au niveau logique d'une BDBO, et il étend ce langage pour permettre d'accéder aux données au niveau ontologique indépendamment de la représentation logique des données tout en permettant d'en manipuler la structure.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Kratky, Andreas. "Les auras numériques : pour une poétique de la base de données". Thesis, Paris 1, 2013. http://www.theses.fr/2013PA010561/document.

Texto completo
Resumen
La base de données est un outil omniprésent dans nos vies, qui est impliquée dans un grand nombre de nos activités quotidiennes. Conçue comme système technique destiné à rendre la gastion des informations plus efficace, et comme support de stockage privilégié, la base de données, avec son utilisation dans de multiples contextes, a acquis une importance dont les implications esthétiques et politiques vont au-delà des questions techniques.La recherche à la fois théorique et pratique étudie la base de données comme un moyen expressif et poétique de création, et met en évidence ses caractères spécifiques, notamment la discrédisation des données et leur mise en relation flexible. Le terme d'aura utilisé par Walter Benjamin pour analyser les transformations de l'expérience esthétique engendrées par la rationalité industrielle et la technique à la fin du dix-neuvième siècle, est reconsidérée afin de formuler une poétique de la base de données. La partie pratique de notre recherche comporte deux projets interactifs fondés sur les principes poétiques élaborés au cours de cette thèse
Database are ubiquitous in our lives and play an important rôle in many aspects of our daily activities. Conceived as a technical support to facilitate the efficient management of information and as the preferred means of storage, the database has gained a level of importance with aesthetic and political implications that go far beyond purely technical questions.Both theorical and practical in its approach, our research investigates the database as a means of expressive and poetic creation and reveals its specific character, in particular the discretization of data and the establishment of flexible relationships between them. In order to develop a poetics of the database we will reconsider the term « aura », which was utilized by walter Benjamin to analyse the transformations of the nature of aesthetic experience brought about by industrial rationalisation and technology at the end of the nineteenth century. The practical part of our research consists of two interactive projects based on the poetic principles elaborated in context of this dissertation
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Alfonso, Espinosa-Oviedo Javier. "Coordination fiable de services de données à base de politiques active". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-01011464.

Texto completo
Resumen
Nous proposons une approche pour ajouter des propriétés non-fonctionnelles (traitement d'exceptions, atomicité, sécurité, persistance) à des coordinations de services. L'approche est basée sur un Modèle de Politiques Actives (AP Model) pour représenter les coordinations de services avec des propriétés non-fonctionnelles comme une collection de types. Dans notre modèle, une coordination de services est représentée comme un workflow compose d'un ensemble ordonné d'activité. Chaque activité est en charge d'implante un appel à l'opération d'un service. Nous utilisons le type Activité pour représenter le workflow et ses composants (c-à-d, les activités du workflow et l'ordre entre eux). Une propriété non-fonctionnelle est représentée comme un ou plusieurs types de politiques actives, chaque politique est compose d'un ensemble de règles événement-condition-action qui implantent un aspect d'un propriété. Les instances des entités du modèle, politique active et activité peuvent être exécutées. Nous utilisons le type unité d'exécution pour les représenter comme des entités dont l'exécution passe par des différents états d'exécution en exécution. Lorsqu'une politique active est associée à une ou plusieurs unités d'exécution, les règles vérifient si l'unité d'exécution respecte la propriété non-fonctionnelle implantée en évaluant leurs conditions sur leurs états d'exécution. Lorsqu'une propriété n'est pas vérifiée, les règles exécutant leurs actions pour renforcer les propriétés en cours d'exécution. Nous avons aussi proposé un Moteur d'exécution de politiques actives pour exécuter un workflow orientés politiques actives modélisé en utilisant notre AP Model. Le moteur implante un modèle d'exécution qui détermine comment les instances d'une AP, une règle et une activité interagissent entre elles pour ajouter des propriétés non-fonctionnelles (NFP) à un workflow en cours d'exécution. Nous avons validé le modèle AP et le moteur d'exécution de politiques actives en définissant des types de politiques actives pour adresser le traitement d'exceptions, l'atomicité, le traitement d'état, la persistance et l'authentification. Ces types de politiques actives ont été utilisés pour implanter des applications à base de services fiables, et pour intégrer les données fournies par des services à travers des mashups.
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Dubois, Jean-Christophe. "Vers une interrogation en langage naturel d'une base de données image". Nancy 1, 1998. http://www.theses.fr/1998NAN10044.

Texto completo
Resumen
Les premiers travaux présentés dans ce mémoire se sont déroulés dans le cadre d'un projet qui avait pour objectif la réalisation d'un système d'aide vocal permettant à une standardiste malvoyante d'accéder à toutes les informations contenues dans la base de données d'une entreprise. Nous avons mené une étude spécifique afin de concevoir une procédure d'accès tolérant aux fautes d'orthographe lors d'une interrogation par nom. Le système effectue une comparaison entre les transcriptions phonétiques des noms de la base de données et celles du nom épelé. Ces transcriptions sont réalisées en trois étapes : phonémisation, détection d'ilots de confiance et codage en classes phonétiques. Le second volet de nos travaux a porté sur l'emploi du langage naturel (LN) dans l'énonciation des requêtes soumises aux systèmes de recherche d'information (SRI). Le but est d'utiliser la richesse du LN pour améliorer les qualités de recherche d'un SRI. Pour cela, nous avons développé un mode de représentation permettant de modéliser l'intention du locuteur. Cette représentation s'effectue à l'aide d'une structure hiérarchisée appelée schéma d'intention du locuteur (SIL) et constituée de quadruplets. Un quadruplet est composé d'un domaine au sein duquel une axiologie met en opposition deux sous-ensembles : les éléments du domaine sur lesquels portent l'intérêt de l'utilisateur et le reste du domaine. Des mécanismes ont été définis afin d'effectuer des opérations liées aux changements de focalisation de l'utilisateur et notamment la transposition d'axiologies et la généralisation de caractéristiques. La structure des SIL autorise une étude en contexte des énoncés faits en LN ce qui permet une analyse plus fine des connecteurs, des expressions référentielles ou de la négation. Nous nous sommes attachés à montrer dans cette thèse comment des techniques issues du traitement du LN pouvaient contribuer à l'amélioration des performances des SRI en terme de pertinence
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Da, Costa David. "Visualisation et fouille interactive de données à base de points d'intérêts". Tours, 2007. http://www.theses.fr/2007TOUR4021.

Texto completo
Resumen
Dans ce travail de thèse, nous présentons le problème de la visualisation et la fouille de données. Nous remarquons généralement que les méthodes de visualisation sont propres aux types de données et qu'il est nécessaire de passer beaucoup de temps à analyser les résultats afin d'obtenir une réponse satisfaisante sur l'aspect de celle-ci. Nous avons donc développé une méthode de visualisation basée sur des points d'intérêts. Cet outil visualise tous types de données et est générique car il utilise seulement une mesure de similarité. Par ailleurs ces méthodes doivent pouvoir traiter des grands volumes de données. Nous avons aussi cherché à améliorer les performances de nos algorithmes de visualisation, c'est ainsi que nous sommes parvenus à représenter un million de données. Nous avons aussi étendu notre outil à la classification non supervisée de données. La plupart des méthodes actuelles de classificatoin non supervisée de données fonctionnent de manière automatique, l'utilisateur n'est que peu impliqué dans le processus. Nous souhaitons impliquer l'utilisateur de manière plus significative dans le processus de la classification pour améliorer sa compréhension des données
In this thesis, we present the problem of the visual data mining. We generally notice that it is specific to the types of data and that it is necessary to spend a long time to analyze the results in order to obtain an answer on the aspect of data. In this thesis, we have developed an interactive visualization environment for data exploration using points of interest. This tool visualizes all types of data and is generic because it uses only one similarity measure. These methods must be able to deal with large data sets. We also sought to improve the performances of our visualization algorithms, thus we managed to represent one million data. We also extended our tool to the data clustering. Most existing data clustering methods work in an automatic way, the user is not implied iin the process. We try to involve more significantly the user role in the data clustering process in order to improve his comprehensibility of the data results
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Rolbert, Monique. "Résolution des formes pronominales dans l'interface d'interrogation d'une base de données". Aix-Marseille 2, 1989. http://www.theses.fr/1989AIX22018.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Pinasseau, Marianne. "Elaboration d'une base de données bibliographique sur les eaux minérales embouteillées". Bordeaux 2, 1999. http://www.theses.fr/1999BOR2P012.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Espinosa, Oviedo Javier Alfonso. "Coordination fiable de services de données à base de politiques actives". Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM022/document.

Texto completo
Resumen
Nous proposons une approche pour ajouter des propriétés non-fonctionnelles (traitement d'exceptions, atomicité, sécurité, persistance) à des coordinations de services. L'approche est basée sur un Modèle de Politiques Actives (AP Model) pour représenter les coordinations de services avec des propriétés non-fonctionnelles comme une collection de types. Dans notre modèle, une coordination de services est représentée comme un workflow compose d'un ensemble ordonné d'activité. Chaque activité est en charge d'implante un appel à l'opération d'un service. Nous utilisons le type Activité pour représenter le workflow et ses composants (c-à-d, les activités du workflow et l'ordre entre eux). Une propriété non-fonctionnelle est représentée comme un ou plusieurs types de politiques actives, chaque politique est compose d'un ensemble de règles événement-condition-action qui implantent un aspect d'un propriété. Les instances des entités du modèle, politique active et activité peuvent être exécutées. Nous utilisons le type unité d'exécution pour les représenter comme des entités dont l'exécution passe par des différents états d'exécution en exécution. Lorsqu'une politique active est associée à une ou plusieurs unités d'exécution, les règles vérifient si l'unité d'exécution respecte la propriété non-fonctionnelle implantée en évaluant leurs conditions sur leurs états d'exécution. Lorsqu'une propriété n'est pas vérifiée, les règles exécutant leurs actions pour renforcer les propriétés en cours d'exécution. Nous avons aussi proposé un Moteur d'exécution de politiques actives pour exécuter un workflow orientés politiques actives modélisé en utilisant notre AP Model. Le moteur implante un modèle d'exécution qui détermine comment les instances d'une AP, une règle et une activité interagissent entre elles pour ajouter des propriétés non-fonctionnelles (NFP) à un workflow en cours d'exécution. Nous avons validé le modèle AP et le moteur d'exécution de politiques actives en définissant des types de politiques actives pour adresser le traitement d'exceptions, l'atomicité, le traitement d'état, la persistance et l'authentification. Ces types de politiques actives ont été utilisés pour implanter des applications à base de services fiables, et pour intégrer les données fournies par des services à travers des mashups
We propose an approach for adding non-functional properties (exception handling, atomicity, security, persistence) to services' coordinations. The approach is based on an Active Policy Model (AP Model) for representing services' coordinations with non-functional properties as a collection of types. In our model, a services' coordination is represented as a workflow composed of an ordered set of activities, each activity in charge of implementing a call to a service' operation. We use the type Activity for representing a workflow and its components (i.e., the workflow' activities and the order among them). A non-functional property is represented as one or several Active Policy types, each policy composed of a set of event-condition-action rules in charge of implementing an aspect of the property. Instances of active policy and activity types are considered in the model as entities that can be executed. We use the Execution Unit type for representing them as entities that go through a series of states at runtime. When an active policy is associated to one or several execution units, its rules verify whether each unit respects the implemented non-functional property by evaluating their conditions over their execution unit state, and when the property is not verified, the rules execute their actions for enforcing the property at runtime. We also proposed a proof of concept Active Policy Execution Engine for executing an active policy oriented workflow modelled using our AP Model. The engine implements an execution model that determines how AP, Rule and Activity instances interact among each other for adding non-functional properties (NFPs) to a workflow at execution time. We validated the AP Model and the Active Policy Execution Engine by defining active policy types for addressing exception handling, atomicity, state management, persistency and authentication properties. These active policy types were used for implementing reliable service oriented applications, and mashups for integrating data from services
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Jouis, Christophe. "Contributions à la conceptualisation et à la Modélisation des connaissances à partir d'une analyse linguistique de textes : réalisation d'un prototype : le système SEEK". Paris, EHESS, 1993. http://www.theses.fr/1993EHES0051.

Texto completo
Resumen
Nous presentons un modele linguistique et informatique de comprehension d'unites linguistiques inserees dans leur contexte. Ce modele se presente sous la forme de systemes a base de connaissances d'exploration contextuelle qui recherchent des indices linguistiques dans les textes. Nous montrons qu'il est possible de construire des representations semantiques en n'effectuant qu'une analyse morpho-syntaxique superficielle et en utilisant le contexte d'une unite linguistique examinee. Les informations contextuelles dont nous avons besoin expriment un savoir linguistique sans faire appel a des connaissances sur le monde externe. Nous presentons dans le detail une application informatique de ce modele : seek. Il s'agit d'un outil d'aide a l'analyse et a la description conceptuelle d'un domaine d'expertise (recherche des relations statiques entre entites conceptuelles extraites de compte-rendus d'expertise). Cette derniere application est integree dans un atelier de genie cognitif associe a metodac, une methodologie d'acquisition et de modelisation des connaissances
We present a linguistic and computer model the aim of which is the understanding of linguistic items inserted in their context. This model is constituted by knowledge based systems of contextual exploration which consists in seeking linguistic clues in texts. It is shown that nothing else than a basic morpho-syntactical analysis and the use of the context of an examined linguistic item is required to build semantic representations. These contextual data express a knowledge of the language without using any other knowledge of the world. We present in details a program based on this model : seek. It is a help tool for knowledge extraction forme texts in natural language. This latter has been integrated in a workshop of cognitive engineering associated to a methodology of knowledge acquisition and modelling called metodac
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Toumani, Farouk. "Le raisonnement taxinomique dans les modèles conceptuels de données : application à la retro-conception des bases de données relationnelles". Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0051.

Texto completo
Resumen
Les logiques terminologiques, en tant que formalismes modernes de représentation des connaissances, suscitent actuellement beaucoup d'intérêt dans la communauté des bases de données. Elles permettent le développement de nouveaux modèles de données dotés de la capacité de raisonnement taxinomique. Cependant, ces formalismes s'avèrent peu adapté la représentation conceptuelle des bases de données ou l’accent doit être m1s sur la description précise et naturelle de l’univers du discours. Dans la première partie de ce travail, nous présentons une évaluation des logiques terminologiques en mettant en regard les caractéristiques de ces formalismes avec les exigences de la modélisation conceptuelle. Nous montrons que les logiques terminologiques ne permettent pas une modélisation directe de l'univers du discours et que les représentations proposées par ces formalismes souffrent du problème de la surcharge sémantique. Nous proposons ensuite le modèle qui résulte d’une formalisation d’un modèle sémantique, en l'occurrence un modèle entité-association (E / A), à l’aide d'une logique terminologique. Nous montrons qu'il y a une équivalence entre les schémas E/A et les schémas TERM par rapport à la mesure de la capacité d’information. Ce résultat permet de ramener le raisonnement sur un schéma E/A à un raisonnement sur le schéma TERM qui lui est équivalent. Comme application de ce travail, nous proposons d'utiliser le modèle TER. M dans un processus de rétro-conception de bases de données relationnelles. Celui-ci permet la construction automatique des schémas conceptuels, tout en assurant leur correction (consistance et minimaliste). Il offre également la possibilité de raisonner sur les schémas conceptuels pour les faire évoluer de manière incrémentale ou pour les enrichir en découvrant de nouvelles connaissances qui étaient implicites
Terrninological logics, as modem knowledge representation formalisms, are acknowledged to be one of the most promising artificial intelligence techniques in database applications. They allow the development of new data models equipped with taxonomic reasoning ability. However, these languages turned out to be inadequate in conceptual modelling area where emphasis must be put on the accurate and natural desc1iption of the universe of discourse. In this work, we first examine the features of terminological logics with respect to the requirements of conceptual modelling. We show that terminological logics do not support direct mode/ling requirement and constructs in these formalisms are semantically overloaded. Then we propose a model, called as a formalization of a semantic model, namely an Entity Relationship (E/R) model, using terminological logics. We demonstrate that E/R schemas and schemas are equivalent with respect to their formation capacity measure. This result ensure that the reasoning on an E/R schema can be reduced to a reasoning on its equivalent M schemas. As an application of this work, we propose to use in a relational database reverse engineering process in order to support automatic construction and enrichment of conceptual schemas and to maintain their correctness (consistency and minimality)
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Verlaine, Lionel. "Optimisation des requêtes dans une machine bases de données". Paris 6, 1986. http://www.theses.fr/1986PA066532.

Texto completo
Resumen
CCette thèse propose des solutions optimisant l'évaluation de questions et la jointure. Ces propositions sont étudiées et mises en œuvre à partir du SGBD Sabrina issu du projet SABRE sur matériel Carrousel à la SAGEM. L'évaluation de questions permet d'optimiser le niveau logique du traitement d'une requête. La décomposition la plus pertinente est établie en fonction d'heuristiques simples. L'algorithme de jointure propose utilise des mécanismes minimisant à la fois le nombre d'entrées/sorties disque et le nombre de comparaisons. Il admet un temps d'exécution proportionnel au nombre de tuples. L'ordonnancement de jointures est résolu par un algorithme original de jointure multi-relations et par une méthode d'ordonnancement associée permettant un haut degré de parallélisme.
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Brahimi, Lahcene. "Données de tests non fonctionnels de l'ombre à la lumière : une approche multidimensionnelle pour déployer une base de données". Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2017. http://www.theses.fr/2017ESMA0009/document.

Texto completo
Resumen
Le choix d'un système de gestion de bases de données (SGBD) et de plateforme d'exécution pour le déploiement est une tâche primordiale pour la satisfaction des besoins non-fonctionnels(comme la performance temporelle et la consommation d'énergie). La difficulté de ce choix explique la multitude de tests pour évaluer la qualité des bases de données (BD) développées.Cette évaluation se base essentiellement sur l'utilisation des métriques associées aux besoins non fonctionnels. En effet, une mine de tests existe couvrant toutes les phases de cycle de vie de conception d'une BD. Les tests et leurs environnements sont généralement publiés dans des articles scientifiques ou dans des sites web dédiés comme le TPC (Transaction Processing Council).Par conséquent, cette thèse contribue à la capitalisation et l'exploitation des tests effectués afin de diminuer la complexité du processus de choix. En analysant finement les tests, nous remarquons que chaque test porte sur les jeux de données utilisés, la plateforme d'exécution, les besoins non fonctionnels, les requêtes, etc. Nous proposons une démarche de conceptualisation et de persistance de toutes .ces dimensions ainsi que les résultats de tests. Cette thèse a donné lieu aux trois contributions. (1) Une conceptualisation basée sur des modélisations descriptive,prescriptive et ontologique pour expliciter les différentes dimensions. (2) Le développement d'un entrepôt de tests multidimensionnel permettant de stocker les environnements de tests et leurs résultats. (3) Le développement d'une méthodologie de prise de décision basée sur un système de recommandation de SGBD et de plateformes
Choosing appropriate database management systems (DBMS) and/or execution platforms for given database (DB) is complex and tends to be time- and effort-intensive since this choice has an important impact on the satisfaction of non-functional requirements (e.g., temporal performance or energy consumption). lndeed, a large number of tests have been performed for assessing the quality of developed DB. This assessment often involves metrics associated with non-functional requirement. That leads to a mine of tests covering all life-cycle phases of the DB's design. Tests and their environments are usually published in scientific articles or specific websites such as Transaction Processing Council (TPC). Therefore, this thesis bas taken a special interest to the capitalization and the reutilization of performed tests to reduce and mastery the complexity of the DBMS/platforms selection process. By analyzing the test accurately, we identify that tests concem: the data set, the execution platform, the addressed non-functional requirements, the used queries, etc. Thus, we propose an approach of conceptualization and persistence of all dimensions as well as the results of tests. Conseguently, this thesis leads to the following contributions. (1) The design model based on descriptive, prescriptive and ontological concepts to raise the different dimensions. (2) The development of a multidimensional repository to store the test environments and their results. (3) The development of a decision making methodology based on a recommender system for DBMS and platforms selection
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Dârlea, Georgiana-Lavinia. "Un système de classification supervisée à base de règles implicatives". Chambéry, 2010. http://www.theses.fr/2010CHAMS001.

Texto completo
Resumen
Le travail de recherche de la thèse concerne la classification supervisée de données et plus particulièrement l'apprentissage semi-automatique de classifieurs à base de règles floues graduelles. Le manuscrit de la thèse présente une description de la problématique de classification ainsi que les principales méthodes de classification déjà développées, afin de placer la méthode proposée dans le contexte général de la spécialité. Ensuite, les travaux de la thèse sont présentés: la définition d'un cadre formel pour la représentation d'un classifieur élémentaire à base de règles floues graduelles dans un espace 2D, la spécification d'un algorithme d'apprentissage de classifieurs élémentaires à partir de données, la conception d'un système multi-dimensionel de classification multi-classes par combinaison de classifieurs élémentaires. L'implémentation de l'ensemble des fonctionnalités est ensuite détaillée, puis finalement les développements réalisés sont utilisés pour deux applications en imagerie: analyse de la qualité des produits industriels par tomographie, classification en régions d'intérêt d'images satellitaires radar
This PhD thesis presents a series of research works done in the field of supervised data classification more precisely in the domain of semi-automatic learning of fuzzy rules-based classifiers. The prepared manuscript presents first an overview of the classification problem, and also of the main classification methods that have already been implemented and certified in order to place the proposed method in the general context of the domain. Once the context established, the actual research work is presented: the definition of a formal background for representing an elementary fuzzy rule-based classifier in a bi-dimensional space, the description of a learning algorithm for these elementary classifiers for a given data set and the conception of a multi-dimensional classification system which is able to handle multi-classes problems by combining the elementary classifiers. The implementation and testing of all these functionalities and finally the application of the resulted classifier on two real-world digital image problems are finally presented: the analysis of the quality of industrial products using 3D tomographic images and the identification of regions of interest in radar satellite images
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Abecassis, Eric. "Yooda : un système de gestion de base de données orienté objet adapté à la distribution". Paris 6, 1995. http://www.theses.fr/1995PA066819.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Vallès-Parlangeau, Nathalie. "Recherche d'événements articulatoires pertinents pour l'annotation automatique de la base de données multisensorielles ACCOR". Toulouse 3, 1998. http://www.theses.fr/1998TOU30295.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Le, Thanh Nhan. "Contribution à l'étude de la généralisation et de l'association dans une base de données relationnelle : Les ISO-dépendances et le modèle B-relationnel". Nice, 1986. http://www.theses.fr/1986NICE4014.

Texto completo
Resumen
Définition dans le modèle relationnel de CDD, d'un type de dépendance et d'une approche de décomposition par "projection/division". Extension sémantique du modèle: le modèle B-relationnel. Etude formelle des nouvelles structures de données et des opérateurs
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Jacques, Julien. "Contribution à l'apprentissage statistique à base de modèles génératifs pour données complexes". Habilitation à diriger des recherches, Université des Sciences et Technologie de Lille - Lille I, 2012. http://tel.archives-ouvertes.fr/tel-00761184.

Texto completo
Resumen
Ce mémoire synthétise les activités de recherche que j'ai menées de 2005 à 2012, sur la thématique de l'apprentissage statistique des données complexes, abordée par le biais de modèles probabilistes paramétriques génératifs. Plusieurs types de données complexes sont considérées. Les données issues de populations différentes ont été abordées en proposant des modèles de lien paramétriques entre populations, permettant d'adapter les modèles statistiques d'une population vers l'autre, en évitant une lourde collecte de nouvelles données. Les données de rang, définissant un classement d'objets selon un ordre de préférence, les données ordinales, qui sont des données qualitatives ayant des modalités ordonnées, et les données fonctionnelles, où l'observation statistique consiste en une ou plusieurs courbes, ont également été étudies. Pour ces trois types de données, des modèles génératifs probabilistes ont été définis et utilisés en classification automatique de données multivariées. Enfin les données de grande dimension, que l'on rencontre lorsque le nombre de variables du problème dépasse celui des observations, ont été étudiées dans un cadre de régression. Deux approches, fruits de deux thèses de doctorat que je co-encadre, sont proposés: l'une utilisant des algorithmes d'optimisation combinatoire pour explorer de façon efficace l'espace des variables, et l'autre définissant un modèle de régression regroupant ensemble les variables ayant un effet similaire.
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Peltier, Caroline. "L'analyse statistique du profil sensoriel revisitée par une approche base de données". Thesis, Dijon, 2015. http://www.theses.fr/2015DIJOS084/document.

Texto completo
Resumen
Lors d’une épreuve d’analyse sensorielle, des sujets préalablement entrainés dégustent desproduits et les notent à l’aide de différents descripteurs afin d’établir des profils descriptifs.De nombreuses méthodes statistiques (ACP, ANOVA…) permettent d’analyser les donnéesobtenues, afin notamment d’obtenir des résultats sur les performances des sujets, et dereprésenter les produits sur des cartes.Durant ce travail de thèse, ces méthodes statistiques ont été revisitées par l’exploitationd’un grand nombre de jeux de données issus de la SensoBase (base de données contenantplus de 1000 jeux de données de profil sensoriel). Différentes méthodes de cartographie etd’analyse des performances des sujets ont ainsi été comparées, puis des améliorations ontété proposées. La prise en compte du scaling (tendance d’un sujet à disperser ses notes plus–ou moins- que le panel) et l’adaptation de cartes à des modèles statistiques spécifiques ontété tout particulièrement étudiées.Ce travail a abouti à la documentation de certaines pratiques de l’analyse sensorielle et àl’établissement de recommandations à destination des animateurs de panel. Les différentesméthodes proposées dans cette thèse ont été implémentées sous R (librairies CVAPack,MAMCAP, MultiMAM), et sont donc directement utilisables par tout animateur de panel.Tous ces outils sont transposables dans d’autres domaines scientifiques utilisant l’êtrehumain comme instrument de mesure (psychologie, économie..)
During a sensory evaluation, trained subjects taste and score products on differentdescriptors in order to obtain a descriptive profile of these products. The data are thenanalyzed by several statistical methods (PCA, ANOVA…) in order to monitor the subjectperformances and map the product space.This work aims to revisit these statistical methods thanks to the analysis of a large number ofdatasets of sensory profiling data from the SensoBase (a database containing more than athousand of datasets). Different statistical methods of mapping and analysis ofperformances were compared, then improved. We mainly focused on the so-called scalingeffect (tendency of the subject to spread his scores more or less than the panel) and onmaps related to specific statistical models.This works led to some findings about sensory analysis and recommendations for panelleaders. Furthermore, different statistical tools (R packages such as CVAPack, MAMCAP andMultiMAM) were offered. These tools could also be useful in other scientific fields usinghuman beings as a measurement instrument (psychology, economics, marketing,… )
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Feuillard, Vincent. "Analyse d'une base de données pour la calibration d'un code de calcul". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00809048.

Texto completo
Resumen
Cette recherche s'insère dans le contexte général de la calibration, en vue d'applications industrielles. Son objectif est d'évaluer la qualité d'une base de données, représentant la manière dont celle-ci occupe, au mieux des objectifs recherchés, son domaine de variation. Le travail réalisé ici fournit une synthèse des outils mathématiques et algorithmiques permettant de réaliser une telle opération. Nous proposons en outre des techniques de sélection ou d'importation de nouvelles observations permettant d'améliorer la qualité globale des bases de données. Les méthodes élaborées permettent entre autres d'identifier des défauts dans la structure des données. Leurs applications sont illustrées dans le cadre de l'évaluation de paramètres fonctionnels, dans un contexte d'estimation par fonctions orthogonales.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía