Segui questo link per vedere altri tipi di pubblicazioni sul tema: Base de données historiques.

Tesi sul tema "Base de données historiques"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Base de données historiques".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Dumenieu, Bertrand. "Un système d'information géographique pour le suivi d'objets historiques urbains à travers l'espace et le temps". Paris, EHESS, 2015. http://www.theses.fr/2015EHES0157.

Testo completo
Abstract (sommario):
Les systèmes d'information géographiques (SIG) sont aujourd'hui fréquemment utilisés en sciences sociales et notamment en histoire pour leurs capacités de visualisation, de partage et de stockage de données historiques spatialisées. Ils ouvrent ainsi aux chercheurs en histoire des perspectives de croisement d'informations et d'analyse à grande échelle, non seulement de l'évolution de phénomènes spatialisés, mais aussi des interactions entre ces phénomènes et les transformations de l'espace. La représentation d'un espace en transformation au sein d'un SIG implique notamment la création et la manipulation de données spatio-temporelles. Créées à partir des sources d'informations sur l'espace ancien disponibles, celles-ci sont généralement hétérogènes et imparfaites. Les SIG existants ne permettent pas de modéliser et d'intégrer aisément des données hétérogènes et imparfaites au sein de bases de données spatio-temporelles. Nous proposons une approche d'intégration de données géographiques hétérogènes et imparfaites sur l'espace urbain ancien au sein d'un modèle de données spatio-temporelles permettant l'analyse des transformations de cet espace. Ces données sont saisies à partir de plans topographiques. Au travers de plusieurs étapes, allant de l'analyse des sources cartographiques utilisées à un processus semi-automatique d'intégration de données spatio-temporelles, nous proposons une approche générique permettant d'instancier une base de données spatio-temporelles à partir de cartes historiques. Celle-ci est finalement appliquée à la création d'une base de données sur le réseau des rues de Paris des XVIIIe et XIXe siècles à partir de plans topographiques de la capitale
Geographic information systems (GIS) are increasingly used for leading historical studies because of their ability to display, store and share geo-historical data. They provide an opportunity for exploring and analyzing spatialized phenomena and the interactions between such phenomena and spatial dynamics. To achieve this goal, GIS have to manage spatio-temporal data describing the transformations of geographical entities. These data are also highly imperfect since knowledge about the past is only available through imprecise or uncertain historical sources such as maps. To date, no GIS is able to integrate, manage and analyze such imperfect data. In this thesis, we focus on the integration of spatio-temporal data about urban space extracted from historical topographic maps on the city of Paris. We propose a process that allows to create spatio-temporal graphs from geohistorical vector data extracted from georeferenced maps of the city. After the analysis of the maps and the measure of their spatial and temporal imperfections, we propose a spatio-temporal model named geohistorical graph and a semi-automatic spatio-temporal data matching process able to build such graphs from vector data extracted from old topographic maps. Our method is tested and validated on the street networks of Paris extracted from maps covering the period from the late XVIIIth century to the late XlXth century
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Casallas-Gutiérrez, Rubby. "Objets historiques et annotations pour les environnements logiciels". Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00004982.

Testo completo
Abstract (sommario):
Dans un environnement guidé par les procédés de fabrication de logiciel (EGPFL), la gestion de l'information est un problème complexe qui doit concilier deux besoins: gérer le produit logiciel et gérer les procédés de fabrication. Outre la grande quantité d'entités diverses et fortement interdépendantes, la gestion du produit doit prendre en compte l'aspect évolutif et les facteurs de variation du logiciel, ainsi que la nature coopérative des activités de fabrication des logiciels. La gestion des procédés recouvre la modélisation, l'exécution, l'évaluation et la supervision des procédés. Diverses informations doivent alors être prises en compte: la trace d'exécution des procédés, les événements survenus dans l'environnement et les mesures de qualité. Nous proposons les objets historiques annotés pour gérer l'information d'un EGPFL. L'objet historique constitue la notion de base d'un modèle à objets historique permettant de représenter à la fois les entités logicielles et leur évolution. La notion d'annotation vient, quant à elle, enrichir ce modèle pour permettre d'introduire des informations qui dénotent des faits (notes, mesures, observations, etc) pouvant être ponctuellement associés aux entités de l'EGPFL. Un langage de requêtes est défini afin d'accéder aux différentes informations. Grâce à ce langage, l'EGPFL dispose d'un service puissant pour rassembler, à partir de la base d'objets, les diverses informations nécessaires à l'évaluation et au contrôle des procédés de fabrication. Nous proposons également d'exploiter les possibilités offertes par notre modèle pour définir des événements et, éventuellement, en conserver un historique. Les événements permettent d'identifier des situations liant des informations provenant aussi bien de l'état courant que des états passés de l'EGPFL. C'est pourquoi la définition d'un événement peut comporter des conditions exprimées dans le langage de requêtes. L'emploi d'annotations permet d'enregistrer les occurences d'événements, ainsi qu'une partie de l'état du système. Une implantation du modèle est proposée dans le système Adèle
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Bui, Quang Ngoc. "Aspects dynamiques et gestion du temps dans les systèmes de bases de données généralisées". Grenoble INPG, 1986. https://theses.hal.science/tel-00321849.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Janbain, Imad. "Apprentissage Ρrοfοnd dans l'Ηydrοlοgie de l'Estuaire de la Seine : Recοnstructiοn des Dοnnées Ηistοriques et Ρrévisiοn Ηydraulique". Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMR033.

Testo completo
Abstract (sommario):
Cette thèse de doctorat explore l’application des algorithmes d’apprentissage profond (Deep Learning - DL) pour relever les défis hydrologiques dans le bassin de la Seine, le deuxième plus long fleuve de France. Le régime hydraulique complexe de la Seine, influencé par les précipitations variables, les affluents, les interventions humaines et les fluctuations des marées, constitue un cadre idéal pour l’utilisation de techniques computationnelles avancées. Les modèles DL, notamment les réseaux neuronaux récurrents et les mécanismes d’attention, ont été choisis pour leur capacité à capturer les dépendances temporelles à long terme dans les séries chronologiques, surpassant ainsi les modèles traditionnels d’apprentissage machine (ML), tout en nécessitant moins de calibration manuelle que les modèles à base physique. La recherche se concentre sur le développement de méthodologies personnalisées pour améliorer l’efficacité du DL et optimiser son application face aux défis spécifiques du bassin de la Seine. Ces défis incluent la compréhension et la gestion des interactions complexes dans la zone d’étude, la gestion des limitations des données, le comblement des lacunes de données, la reconstruction et la projection des bases de données historiques manquantes, cruciales pour analyser les fluctuations du niveau d’eau en réponse à des variables telles que les changements climatiques, ainsi que la prédiction des événements d’inondations, notamment les crues extrêmes.Nos contributions, détaillées à travers quatre articles, illustrent l’efficacité du DL dans divers défis hydrologiques et applications : le comblement des lacunes des données de niveau d’eau sur plusieurs mois dans les enregistrements horaires, la reconstruction historique des paramètres de qualité de l’eau sur une période de plus de 15 ans dans le passé, l’analyse des interactions entre les stations, ainsi que la prédiction des événements de crue extrême à grande échelle (jusqu’à 7 jours à l’avance dans les données quotidiennes) et à petite échelle (jusqu’à 24 heures dans les données horaires).Les techniques proposées, telles que l’approche de décomposition Mini-Look-Back, les stratégies automatisées de reconstruction historique, les fonctions de perte personnalisées et l’ingénierie des caractéristiques approfondie, mettent en lumière la polyvalence et l’efficacité des modèles DL pour surmonter les limitations des données et surpasser les méthodes traditionnelles. La recherche souligne l’importance de l’interprétabilité en plus de la précision de la prédiction, offrant ainsi des informations sur la dynamique complexe de la Seine.Ces résultats mettent en évidence les potentialités du DL et des méthodologies développées dans les applications hydrologiques, tout en suggérant une applicabilité plus large à travers divers domaines traitant des séries chronologiques de données
This PhD thesis explores the application of deep learning (DL) algorithms to address hydrological challenges in the Seine River basin, France’s second longest river. The Seine’s intricate hydraulic regime, shaped by variable rainfall, tributaries, human interventions, and tidal fluctuations, presents an ideal scenario for advanced computational techniques. DL models, particularly recurrent-based neural networks and attention mechanisms, were chosen for their ability to capture long-term temporal dependencies in time series data, outperforming traditional machine learning (ML) models and their reduced need for manual calibration compared to physical-based models.The research focuses on developing custom methodologies to enhance DL efficiency and optimize its application to specific challenges within the Seine River Basin. Key challenges include addressing complex interactions within the study area, predicting extreme flood events, managing data limitations, and reconstructing missing historical databases crucial for analyzing water level fluctuations in response to variables such as climatic changes. The objective is to uncover insights, bridge data gaps, and enhance flood prediction accuracy, particularly for extreme events, thereby advancing smarter water management solutions.Detailed across four articles, our contributions showcase the effectiveness of DL in various hydrological challenges and applications: filling missing water level data gaps that may span several months in hourly records, projecting water quality parameters over 15 years in the past, analyzing station interactions, and predicting extreme flood events on both large (up to 7 days ahead in daily data) and small scales (up to 24 hours in hourly data).Proposed techniques such as the Mini-Look-Back decomposition approach, automated historical reconstruction strategies, custom loss functions, and extensive feature engineering highlight the versatility and efficacy of DL models in overcoming data limitations and outperforming traditional methods. The research emphasizes interpretability alongside prediction accuracy, providing insights into the complex dynamics of hydrological systems. These findings underscore the potential of DL and the developed methodologies in hydrological applications while suggesting broader applicability across various fields dealing with time series data
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Mechkour, Mourad. "Emir2 : un modèle étendu de présentation et de correspondance d'images pour la recherche d'informations : application a un corpus d'images historiques". Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10201.

Testo completo
Abstract (sommario):
La définition d'un modèle de documents et d'un modèle de correspondance sont les deux problèmes clé dans le développement d'un système de recherche d'informations. Nous tentons dans le cadre de cette thèse d'apporter des solutions originales à ces deux problèmes pour le cas des documents images, et qui peuvent être généralisées à d'autres types de média. Nous avons donc défini un modèle étendu (EMIR2) qui permet de décrire le contenu des images et de fournir une fonction qui mesure la similarité entre deux images. Dans EMIR2 une image est considérée à la fois comme un objet complexe et multifacettes. Ainsi chaque image est décrite par l'association d'un ensemble de vues dans une structure homogène regroupant les facettes jugées pertinentes pour son contenu. Dans EMIR2 nous considérons essentiellement la vue physique et la vue logique, qui regroupe une vue structurelle, une vue spatiale, une vue perceptive, et des vues symboliques. Ce modèle d'image et son langage de requête ont été formalisé en utilisant un formalisme mathématique. Le modèle de correspondance permet de comparer deux images, dont une pouvant représenter une requête, et d'estimer la valeur mesurant le degré de similarité entre elles. La fonction de correspondance développée est basée sur une extension du modèle logique de recherche d'information. Les éléments de base sont décrits dans un formalisme qui est une extension du formalisme des graphes conceptuels de Sowa
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Cauvin-Hardy, Clémence. "Optimisation de la gestion du patrimoine culturel et historique à l’aide des méthodologies avancées d’inspection". Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC057.

Testo completo
Abstract (sommario):
La thèse porte sur l’optimisation de la gestion du patrimoine culturel et historique à l'aide des méthodologies avancées d'inspection tout en s’appuyant sur le projet HeritageCare.La réponse à cette problématique est posée en cinq chapitres : (1) un état de l’art des méthodologies de gestion préventive, du projet HeritageCare et de l’identification de l’état de dégradation, (2) la mise en place de la méthodologie générale de la gestion préventive décomposée en quatre étapes (l’anamnèse, le diagnostic, la thérapie et le contrôle), (3) la proposition de modèles d’agrégation (4), les résultats de l’application de la démarche de gestion préventive et enfin (5) ceux de l’application des modèles. Ces derniers permettent de hiérarchiser les bâtis sur la base de 37 critères organisés en sous critères et indicateurs, de mettre en évidence la prise de décision des propriétaires sur la base de matrice de criticité combinant les valeurs des indicateurs, de déterminer la durée de vie résiduelle des bâtis sur la base de courbes d’altérations, de proposer et de hiérarchiser des actions de maintenance en s’appuyant sur une base de données développée. La méthodologie est illustrée par son application à quatorze bâtis représentant le patrimoine culturel et historique français
The objective of the thesis is to optimize the management of cultural and historical building heritage using advanced inspection methodologies with HeritageCare project.The answer to this problem is detailed in five chapters: (1) a state of the art of preventive management methodologies, the HeritageCare project and the identification of the state of degradation, (2) the implementation of the general methodology on preventive management is decomposed into 4 steps (anamnesis, diagnosis, therapy and control), (3) proposal of aggregation models (4), results of the application of the management approach preventive and finally (5) the application of models. These make it possible to prioritize the buildings on the basis of 37 criteria organized into sub-criteria and indicators, highlight the decision-making of the owners on the basis of a criticality matrix combining the values ​​of the indicators, determine the useful life of the buildings with the deterioration curves, propose and prioritize maintenance actions based on a developed database.The methodology is illustrated by its application on fourteen buildings representing the French cultural and historical heritage
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Pellen, Nadine. "Hasard, coïncidence, prédestination… et s’il fallait plutôt regarder du côté de nos aïeux ? : analyse démographique et historique des réseaux généalogiques et des structures familiales des patients atteints de mucoviscidose en Bretagne". Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS004S.

Testo completo
Abstract (sommario):
La population à la base de l’étude est constituée de malades atteints de mucoviscidose, diagnostiqués au plan clinique et ayant vécu en Bretagne au cours de ces cinquante dernières années. Leurs ascendances, reconstruites avec le soutien des centres de généalogie, rassemblent plus de 250 000 apparentés. Les caractéristiques génétiques et généalogiques des patients étant ainsi connues, l’objectif de la thèse était de prendre appui sur cette base de données généalogiques afin d’examiner si les comportements démographiques du passé peuvent expliquer la fréquence et la répartition de la mucoviscidose observées aujourd’hui en Bretagne. Les porteurs partageant une mutation identique sont apparentés. Les lieux de vie de leurs ancêtres communs ont été cartographiés. Ils indiquent une répartition différentielle selon les mutations portées. Ces apparentements génétiques permettent de tracer le chemin emprunté par le gène pour arriver jusqu’à nous. Au niveau des ancêtres, l’examen des unions a révélé des âges au mariage précoces, notamment pour les femmes, des remariages fréquents, notamment pour les hommes, révélateurs de pratiques matrimoniales fécondes augmentant la probabilité de transmission génétique. De plus, la stabilité géographique constatée au moment des noces ne semble pas avoir favorisé la diversité génétique. De plus nous avons calculé qu’il existerait un avantage sélectif à être porteur sain en termes d’espérance de vie. La consanguinité, souvent évoquée pour expliquer la fréquence du nombre de malades atteints de mucoviscidose en Bretagne, n’a pas été un élément déterminant dans la présente étude. En effet, seulement 0,8 % des malades sont nés d’une union entre parents cousins ou petits-cousins. Au niveau des ancêtres, c’est à partir de la 7e génération que la proportion de paires d’individus apparentés augmente. Ainsi, plus que la consanguinité, c’est l’endogamie qui tend à perpétuer le degré d’homogénéité génétique. La présence d’un gène délétère associé à une forte fécondité, une population peu mobile au marché matrimonial restreint ainsi qu’un avantage sélectif des porteurs sains, permettent d’expliquer la fréquence et la répartition de la mucoviscidose à la pointe de la Bretagne aujourd’hui. Cette étude participe au développement de la connaissance historique, géographique et sociale de la maladie au travers de la succession des générations. Elle présente une approche collective de la mutation et non plus individuelle ; elle a aussi un effet de prospective en tant qu’outil pour le dépistage et les soignants
The population at the root of this study is composed of patients clinically diagnosed as suffering from cystic fibrosis and having lived in Brittany some time in the course of the past fifty years. Their ancestry was traced back with the help of genealogy centres and brought together more than 250 000 kinspeople. The resulting data base, built up from these patients’ genetic and genealogical characteristics, was then used to study how the demographic patterns of the past could explain the frequency and geographical distribution of cystic fibrosis as it appears in today’s Brittany. The carriers who share the same CF mutation are kindreds. The mapping of their common ancestors’ living places shows a differential distribution, depending on specific CF mutations. These genetic relatednesses enable us to trace back the route followed by the CF gene. At the ancestors’ level, we observed marital unions at an early age, particularly for women, and frequent remarriage, particularly for men. As a consequence, married couples were prolific, thus allowing more genetic transmissions. And the geographical stability that prevailed at the time of the wedding does not seem to produce genetic diversity. Moreover, we reckoned that in terms of life expectancy there might be some selective advantage to being a healthy carrier. Inbreeding - a cause frequently referred to as an explanation for the large number of CF affected patients in Brittany - was in no way a key factor in this study. Only 0,8 % were born from first or second cousin unions. At the ancestors’ level, we must go back to the 7th generation to see a higher proportion of close kinship. Therefore, more often than consanguinity, endogamy tends to carry on a certain degree of genetic homogeneity. CF frequency of occurrence and its Breton distribution today can be accounted for by the presence of a harmful gene combined with high fertility, a relatively settled population with a limited availability of possible partners, and the selective advantage this harmful gene was for healthy carriers. This study helps to increase historical, geographical and social knowledge of CF throughout successive generations. Lt enables us to have a collective more than individual approach of the CF mutation. Lt also has t a prospective effect as a tool for the testing center and the staff
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Spéry, Laurent. "Historique et mise à jour de données géographiques : application au cadastre français". Avignon, 1999. http://www.theses.fr/1999AVIG1020.

Testo completo
Abstract (sommario):
Le travail présenté est relatif au vaste problème de l'historique et de la mise à jour de données géographiques. Dans cette problématique nous nous sommes plus particulièrement attachés aux opérations d'intégration de données livrées par un producteur à la suite de changements du domaine de référence, au sein d'une application utilisateur. Le domaine visé concerne l'information cadastrale, dans de nombreux pays cette information a fonction de donnée de référence dans de nombreuses applications de type gestion du territoire car les limites de la propriété y figurent. La confrontation avec les pratiques existantes, dans le contexte spécifique de l'informatisation du plan cadastral français nous amène a proposer, pour l'utilisateur une démarche basée sur la détection a priori des modifications que le producteur a effectuées. Il s'agit de limiter l'opération d'intégration aux seuls objets modifiés en les extrayant des données livrées. La démarche s'appuie sur des indicateurs de changement : identifiant et métadonnées d'actualité et de généalogie
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Eckert, Nicolas. "Couplage données historiques - modélisation numérique pour la prédétermination des avalanches : une approche bayésienne". Phd thesis, AgroParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003404.

Testo completo
Abstract (sommario):
Cette thèse s'intéresse au problème de la prédétermination des avalanches par couplage entre modélisation numérique et données historiques. L'assemblage s'effectue grâce au formalisme bayésien hiérarchique. La modélisation stochastique, l'inférence du modèle et la prédiction des aléas de référence sont clairement distinguées. L'échelle d'étude est tout d'abord celle d'un site avalancheux. Trois jeux d'hypothèses correspondant à différents compromis entre disponibilité des données et description de la propagation de l'avalanche sont proposés. L'incertitude liée à la méconnaissance du phénomène est combinée avec sa variabilité intrinsèque pour obtenir la loi de probabilité prédictive de la période de retour associée à n'importe quelle distance d'arrêt. Les distributions des autres variables caractérisant l'aléa sont également étudiées. Une analyse de sensibilité aux différentes hypothèses de modélisation est proposée. La prédétermination des fréquences avalancheuses sur des sites peu documentés et en contexte non stationnaire est ensuite traitée à l'échelle communale avec un modèle spatio-temporel. Celui-ci permet de quantifier les variations des occurrences avalancheuses dans les Alpes françaises au cours des soixante dernières années. Enfin, le problème du dimensionnement d'un ouvrage de protection est abordé. Le modèle stochastique est complété par les effets sur l'écoulement avalancheux d'une digue verticale et par une fonction de coût permettant l'optimisation de la hauteur de l'ouvrage. Le risque bayésien permet de ne pas séparer inférence et décision en prenant en compte l'erreur d'estimation pour le dimensionnement.
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Frau, Roberto. "Utilisation des données historiques dans l'analyse régionale des aléas maritimes extrêmes : la méthode FAB". Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1051/document.

Testo completo
Abstract (sommario):
La protection des zones littorales contre les agressions naturelles provenant de la mer, et notamment contre le risque de submersion marine, est essentielle pour sécuriser les installations côtières. La prévention de ce risque est assurée par des protections côtières qui sont conçues et régulièrement vérifiées grâce généralement à la définition du concept de niveau de retour d’un événement extrême particulier. Le niveau de retour lié à une période de retour assez grande (de 1000 ans ou plus) est estimé par des méthodes statistiques basées sur la Théorie des Valeurs Extrêmes (TVE). Ces approches statistiques sont appliquées à des séries temporelles d’une variable extrême observée et permettent de connaître la probabilité d’occurrence de telle variable. Dans le passé, les niveaux de retour des aléas maritimes extrêmes étaient estimés le plus souvent à partir de méthodes statistiques appliquées à des séries d’observation locales. En général, les séries locales des niveaux marins sont observées sur une période limitée (pour les niveaux marins environ 50 ans) et on cherche à trouver des bonnes estimations des extrêmes associées à des périodes de retour très grandes. Pour cette raison, de nombreuses méthodologies sont utilisées pour augmenter la taille des échantillons des extrêmes et réduire les incertitudes sur les estimations. En génie côtier, une des approches actuellement assez utilisées est l’analyse régionale. L’analyse régionale est indiquée par Weiss (2014) comme une manière très performante pour réduire les incertitudes sur les estimations des événements extrêmes. Le principe de cette méthodologie est de profiter de la grande disponibilité spatiale des données observées sur différents sites pour créer des régions homogènes. Cela permet d’estimer des lois statistiques sur des échantillons régionaux plus étendus regroupant tous les événements extrêmes qui ont frappé un ou plusieurs sites de la région (...) Cela ainsi que le caractère particulier de chaque événement historique ne permet pas son utilisation dans une analyse régionale classique. Une méthodologie statistique appelée FAB qui permet de réaliser une analyse régionale tenant en compte les données historiques est développée dans ce manuscrit. Élaborée pour des données POT (Peaks Over Threshold), cette méthode est basée sur une nouvelle définition d’une durée d’observation, appelée durée crédible, locale et régionale et elle est capable de tenir en compte dans l’analyse statistique les trois types les plus classiques de données historiques (données ponctuelles, données définies par un intervalle, données au-dessus d’une borne inférieure). En plus, une approche pour déterminer un seuil d’échantillonnage optimal est définie dans cette étude. La méthode FAB est assez polyvalente et permet d’estimer des niveaux de retour soit dans un cadre fréquentiste soit dans un cadre bayésien. Une application de cette méthodologie est réalisée pour une base de données enregistrées des surcotes de pleine mer (données systématiques) et 14 surcotes de pleine mer historiques collectées pour différents sites positionnés le long des côtes françaises, anglaises, belges et espagnoles de l’Atlantique, de la Manche et de la mer du Nord. Enfin, ce manuscrit examine la problématique de la découverte et de la validation des données historiques
The protection of coastal areas against the risk of flooding is necessary to safeguard all types of waterside structures and, in particular, nuclear power plants. The prevention of flooding is guaranteed by coastal protection commonly built and verified thanks to the definition of the return level’s concept of a particular extreme event. Return levels linked to very high return periods (up to 1000 years) are estimated through statistical methods based on the Extreme Value Theory (EVT). These statistical approaches are applied to time series of a particular extreme variable observed and enables the computation of its occurrence probability. In the past, return levels of extreme coastal events were frequently estimated by applying statistical methods to time series of local observations. Local series of sea levels are typically observed in too short a period (for sea levels about 50 years) in order to compute reliable estimations linked to high return periods. For this reason, several approaches are used to enlarge the size of the extreme data samples and to reduce uncertainties of their estimations. Currently, one of the most widely used methods in coastal engineering is the Regional Analysis. Regional Analysis is denoted by Weiss (2014) as a valid means to reduce uncertainties in the estimations of extreme events. The main idea of this method is to take advantage of the wide spatial availability of observed data in different locations in order to form homogeneous regions. This enables the estimation of statistical distributions of enlarged regional data samples by clustering all extreme events occurred in one or more sites of the region. Recent investigations have highlighted the importance of using past events when estimating extreme events. When historical data are available, they cannot be neglected in order to compute reliable estimations of extreme events. Historical data are collected from different sources and they are identified as data that do not come from time series. In fact, in most cases, no information about other extreme events occurring before and after a historical observation is available. This, and the particular nature of each historical data, do not permit their use in a Regional Analysis. A statistical methodology that enables the use of historical data in a regional context is needed in order to estimate reliable return levels and to reduce their associated uncertainties. In this manuscript, a statistical method called FAB is developed enabling the performance of a Regional Analysis using historical data. This method is formulated for POT (Peaks Over Threshold) data. It is based on the new definition of duration of local and regional observation period (denominated credible duration) and it is able to take into account all the three typical kinds of historical data (exact point, range and lower limit value). In addition, an approach to identify an optimal sampling threshold is defined in this study. This allows to get better estimations through using the optimal extreme data sample in the FAB method.FAB method is a flexible approach that enables the estimation of return levels both in frequentist and Bayesian contexts. An application of this method is carried out for a database of recorded skew surges (systematic data) and for 14 historical skew surges recovered from different sites located on French, British, Belgian and Spanish coasts of the Atlantic Ocean, the English Channel and the North Sea. Frequentist and Bayesian estimations of skew surges are computed for each homogeneous region and for every site. Finally, this manuscript explores the issues surrounding the finding and validation of historical data
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Dehainsala, Hondjack. "Explicitation de la sémantique dans lesbases de données : Base de données à base ontologique et le modèle OntoDB". Phd thesis, Université de Poitiers, 2007. http://tel.archives-ouvertes.fr/tel-00157595.

Testo completo
Abstract (sommario):
Une ontologie de domaine est une représentation de la sémantique des concepts d'un domaine
en termes de classes et de propriétés, ainsi que des relations qui les lient. Avec le développement de
modèles d'ontologies stables dans différents domaines, OWL dans le domaine duWeb sémantique,
PLIB dans le domaine technique, de plus en plus de données (ou de métadonnées) sont décrites par référence à ces ontologies. La taille croissante de telles données rend nécessaire de les gérer au sein de bases de données originales, que nous appelons bases de données à base ontologique (BDBO), et qui possèdent la particularité de représenter, outre les données, les ontologies qui en définissent le sens. Plusieurs architectures de BDBO ont ainsi été proposées au cours des dernières années. Les chémas qu'elles utilisent pour la représentation des données sont soit constitués d'une unique table de triplets de type (sujet, prédicat, objet), soit éclatés en des tables unaires et binaires respectivement pour chaque classe et pour chaque propriété. Si de telles représentations permettent une grande flexibilité dans la structure des données représentées, elles ne sont ni susceptibles de passer à grande échelle lorsque chaque instance est décrite par un nombre significatif de propriétés, ni adaptée à la structure des bases de données usuelles, fondée sur les relations n-aires. C'est ce double inconvénient que vise à résoudre le modèle OntoDB. En introduisant des hypothèses de typages qui semblent acceptables dans beaucoup de domaine d'application, nous proposons une architecture de BDBO constituée de quatre parties : les deux premières parties correspondent à la structure usuelle des bases de données : données reposant sur un schéma logique de données, et méta-base décrivant l'ensemble de la structure de tables.
Les deux autres parties, originales, représentent respectivement les ontologies, et le méta-modèle
d'ontologie au sein d'un méta-schéma réflexif. Des mécanismes d'abstraction et de nomination permettent respectivement d'associer à chaque donnée le concept ontologique qui en définit le sens, et d'accéder aux données à partir des concepts, sans se préoccuper de la représentation des données. Cette architecture permet à la fois de gérer de façon efficace des données de grande taille définies par référence à des ontologies (données à base ontologique), mais aussi d'indexer des bases de données usuelles au niveau connaissance en leur adjoignant les deux parties : ontologie et méta-schéma. Le modèle d'architecture que nous proposons a été validé par le développement d'un prototype opérationnel implanté sur le système PostgreSQL avec le modèle d'ontologie PLIB. Nous présentons également une évaluation comparative de nos propositions aux modèles présentés antérieurement.
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Bounar, Boualem. "Génération automatique de programmes sur une base de données en réseau : couplage PROLOG-Base de données en réseau". Lyon 1, 1986. http://www.theses.fr/1986LYO11703.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
13

El, Khalil Firas. "Sécurité de la base de données cadastrales". Thesis, Polynésie française, 2015. http://www.theses.fr/2015POLF0001/document.

Testo completo
Abstract (sommario):
Le contrôle d'agrégation dit Quantity Based Aggregation (QBA) est lié au contrôle de l'inférence dans les bases de données et a rarement été traité par la communauté scientifique. Considérons un ensemble S formé de N éléments. L'agrégation d'éléments de l'ensemble S n'est considérée comme étant confidentielle qu'à partir d'un certain seuil k, avec k < N. Le but du contrôle QBA est donc de garantir que le nombre d'éléments de S délivrés à un utilisateur reste toujours inférieur à k. Dans cette thèse, nous traitons du problème du contrôle QBA dans les bases de données cadastrales. Ce travail répond à un besoin du service des affaires foncières de la Polynésie française. La politique de sécurité qu'il nous a été demandé d'implanter donne le droit à chaque utilisateur de connaître le propriétaire de n'importe quelle parcelle. Cette permission est toutefois limitée par les interdictions suivantes: l'utilisateur ne doit jamais arriver à connaître 1- tous les propriétaires dans une région donnée, et 2- toutes les parcelles appartenant au même propriétaire. Chacune de ces interdictions correspond, de manière évidente, à un problème de type QBA. Dans cette thèse, nous développons d'abord un modèle pour assurer la première interdiction, ensuite nous montrons comment adapter notre modèle à la seconde interdiction. Nous présentons, en outre, une implémentation de notre modèle pour les bases de données relationnelles
Quantity Based Aggregation (QBA) controls closely related to inference control database and has been rarely addressed by the scientific community. Let us consider a set S of N elements. The aggregation of k elements, at most, out of N is not considered sensitive, while the aggregation of mor than k out of N elements is considered sensitive and should be prevented. The role of QBA control is to make sure the number of disclosed elements of S is less than or equal to k, where k
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Dehainsala, Hondjack. "Explicitation de la sémantique dans les bases de données : base de données à base ontologique et le modèle OntoDB". Poitiers, 2007. http://www.theses.fr/2007POIT2270.

Testo completo
Abstract (sommario):
Une base de données à base ontologique (BDBO) est une base de données qui permet de représenter à la fois des données et l’ontologie qui en définit le sens. On propose dans cette thèse un modèle d’architecture de BDBO, appelé OntoDB, qui présente deux caractéristiques originales. D’une part, comme dans les bases de données usuelles, chaque entité est associée à un schéma logique qui définit la structure commune de toutes ses instances. Notre approche permet donc d’ajouter, a posteriori, une ontologie à une base de données existante pour indexer sémantiquement son contenu. D’autre part, le méta-modèle (réflexif) du modèle d’ontologie est lui-même représenté. Cela permet de supporter les évolutions du modèle d’ontologie. OntoDB a été validé par un prototype. Le prototype a fait l’objet d’une évaluation de performance qui a montré que l’approche proposée permettrait de gérer des données de grande taille et supporter beaucoup mieux le passage à l'échelle que les approches existantes
An Ontology–Based DataBase (OBDB) is a database which allows to store both data and ontologies that define data meaning. In this thesis, we propose a new architecture model for OBDB, called OntoDB. This model has two main original features. First, like usual databases, each stored entity is associated with a logical schema which define the structure of all its instances. Thus, our approach provides for adding ontology to existing database for semantic indexation of its content. Second, meta-model of the ontology model is also represented in the same database. This allows to support change and evolution of ontology models. The OntoDB model has been validated by a prototype. Performance evaluation of this prototype has been done and has shown that our approach allows to manage very large data and supports scalability much better than the previously proposed approaches
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Lemaire, Pierre. "Base de données informatique : application aux leucémies aigue͏̈s". Paris 5, 1997. http://www.theses.fr/1997PA05P039.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Kindombi, Lola Ndontoni. "Communications interactives avec une machine base de données". Paris 11, 1985. http://www.theses.fr/1985PA112379.

Testo completo
Abstract (sommario):
Ce rapport présente une contribution à la réalisation d’un système construit selon le modèle d’interconnexion des systèmes ouverts défini par l’ISO (International Standard Organisation), en insistant sur la Couche Présentation et la Couche Application. La Couche Application comprend : a) un système de gestion de bases de données, centralisé sur une Machine Base de Données (le DORSAL32), utilisant les notions d’ "activités" et d’ "images internes des utilisateurs" pour contrôler les sollicitations externes ; b) un ensemble de "Gérants de Terminaux" en interaction avec le système de gestion de bases de données, offrant à l’utilisateur final une interface souple et indépendante des caractéristiques du terminal utilisé. La Couche Présentation, extensible, est constituée : a) d’une sous-couche de "Présentations Spécifiques" par "image de présentation" ; b) d’une sous-couche de "Présentation Basique" utilisant les fonctions de la Couche Session pour offrir une connexion-présentation découpée en "phases" séquentielles, chaque "phase" étant définie comme support d’exécution d’une Présentation Spécifique. Le système réalisé a été mis en exploitation sous le moniteur MMT2 sur le MITRA-525.
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Hsu, Lung-Cheng. "Pbase : une base de données déductive en Prolog". Compiègne, 1988. http://www.theses.fr/1988COMPD126.

Testo completo
Abstract (sommario):
Ce travail présente un SGBD (Système de Gestion de Base de Données) couplant PROLOG II et VAX RMS (Record Management System). Les LDD (Langage de Définition de Données) et le LMD (Langage de Manipulation des Données) sont implantés en PROLOG et la gestion du stockage et de la recherche des enregistrements correspondant aux faits est déléguée à RMS. L'organisation indexée est adoptée pour fournir un temps de réponse satisfaisant. Une interface écrite en PASCAL assure la communication entre PROLOG et RMS. L'intérêt de PBASE est qu'il peut fonctionner comme un SGBD général ou bien qu'il peut coopérer avec un système expert pour gérer des faits volumineux stockés en mémoire secondaire. L'ouverture vers VAX RDB (Relational DataBase) est aussi possible. Bien que PBASE s'applique aussi bien aux relations normalisées que celles non-normalisées, un module de normalisation est inclus afin d'éviter les problèmes créés par la redondance de données
This thesis describes a relational database system coupling PROLOG II and VAX RMS (Record Management Services). The SQL-like DDL (Data Definition Language) and DML (Data Manipulation Language) are implemented in PROLOG and the management of storage and research of fact record is delegated to RMS. The indexed file organization is adopted to provide a satisfactory response time. An interface written in PASCAL is called to enable the communication between PROLOG and RMS. Once the interface is established, access to the database is transparent. No precompilation is requiert. PBASE can be used as a general DBMS or it can cooperate with an expert system (Our SQL translation module can be considered as such) to manage the voluminous facts stored in the secondary memory. It can also cooperate with VAX RDB (Relational DataBase) to constitute a powerful deductive database. Although PBASE works for normalized relations as well as non-normalized ones, a normalization module is included to avoid the problems caused by the redundancy of data
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Matonda, Sakala Igor. "Le bassin de l'Inkisi à l'époque du royaume Kongo: confrontation des données historiques, archéologiques et linguistiques". Doctoral thesis, Universite Libre de Bruxelles, 2017. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/250381.

Testo completo
Abstract (sommario):
La thèse porte sur l'histoire du royaume Kongo à travers la région du bassin de l'Inkisi. L'étude, à travers une approche alliant l'archéologie, l'histoire et la linguistique historique, essaye d'apporter une nouvelle lecture du rôle du bassin de l'Inkisi dans l'évolution de cette entité politique. Certains auteurs ont affirmé que la rivière Inkisi était la frontière de cette entité au 16e siècle. Par une analyse systématiques des cartes historiques et des sources primaires, j'ai pu montrer que sa frontière n'était pas l'Inkisi mais allait jusuq'au Kwango dès cette époque. Cela m'a conduit à souligner que le bassin de l'Inkisi faisait partie du coeur du royaume Kongo et même à ces origines. Mon étude a aussi porté sur la question de la démographie de ce royaume. Nous avons pu souligner que pour estimer la population de ce royaume il fallait considérer à la fois les statistiques de baptêmes et les estimations anciens. Notre étude à aussi mis en lumière que l'une des sources historique considérée à ce jour comme une source primaire, l'oeuvre de Pigafetta, recelait en réalité une nouvelle historiographie déformant une série de réalités de ce royaume. Notre travail apporte donc un renouvellement de connaissances sur une série de questions liés à cet ancien royaume. Un nouvelle histoire de ce royaume Kongo est désormais à envisager. Une autre partie importante de la thèse a été d'approcher ces mbanza à travers l'archéologie. Une série de prospections, de sondages et de fouilles se sont concentrées le long de la rivière Inkisi afin de dresser la carte archéologique de cette région. Certains sites importants ont livré des artefacts qui nous ont permis de mieux connaître la culture matérielle de cette région.
Doctorat en Histoire, histoire de l'art et archéologie
info:eu-repo/semantics/nonPublished
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Rajab, Ali. "Le Maroc et l'affaire du Sahara occidental : les données historiques, politiques, économiques et juridiques du problème". Lyon 2, 1989. http://www.theses.fr/1989LYO20013.

Testo completo
Abstract (sommario):
L'etude du maroc et de l'affaire du territoire du sahara occidental de 1956 a 1975 est a envisager dans ses aspects historiques, politiques, economiques et juridiques. Un long developpement est consacre a l'histoire lointaine du territoire du sahara occidental, c'est-a-dire depuis la conquete arabe au debut du viiie siecle jusqu'a la penetration et l'intervention militaire europeenne au cours du xixe siecle s'agissant egalement des donnees politiques, economiques et juridiques de la question, une longue analyse politique et juridique leur a ete consacree. Il s'agit en outre, des conflits frontaliers et territoriaux entre les etats interesses par le probleme du territoire du sahara occidental. Une longue analyse juridique et historique relative aux diverses conventions, actes, traites et accords internationaux qui ont ete passes avec les differentes puissances coloniales europeennes a ete faite. Et les diverses theses des differentes parties concernees par le probleme saharien occidental ont fait l'objet d'une analyse critique. Enfin, une etude historique a ete consacree aux deux dernieres dynasties marocaines a savoir la dynastie saadienne (xvie siecle) et la dynastie alaouite (xviie siecle) afin de montrer et de preciser les arguments des droits historiques et religieux du maroc et leurs fondements en ce qui concerne le territoire du sahara occidental.
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Fankam, Nguemkam Chimène. "OntoDB2 : un système flexible et efficient de base de données à base ontologique pour le web sémantique et les données techniques". Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aéronautique, 2009. https://tel.archives-ouvertes.fr/tel-00452533.

Testo completo
Abstract (sommario):
Le besoin d'expliciter la sémantique des données dans différents domaines scientifiques (biologie, médecine, géographie, ingénierie, etc. ) s'est traduit par la définition de données faisant référence à des ontologies, encore appelées données à base ontologique. Avec la multiplication des ontologies de domaine, et le volume important de données à manipuler, est apparu le besoin de systèmes susceptibles de gérer des données à base ontologique de grande taille. De tels systèmes sont appelés des systèmes de gestion de Bases de Données à Base Ontologique (BDBO). Les principales limitations des systèmes de gestion de BDBO existants sont (1) leur rigidité, due à la prise en compte des constructions d'un unique formalisme d'expression d'ontologies, (2) l'absence de support pour les données non standard (spatiales, temporelles, etc. ) et, (3) leur manque d'efficacité pour gérer efficacement les données de grande taille. Nous proposons dans cette thèse un nouveau système de gestion de BDBO permettant (1) de supporter des ontologies basées sur différents formalismes d'ontologies, (2) l'extension de son formalisme d'ontologie pour répondre aux besoins spécifiques des applications, et (3) une gestion originale des données facilitant le passage à grande échelle. Le système que nous proposons dans cette thèse, ontodb2, se fonde sur l'existence d'un ensemble de constructions communes aux différents formalismes d'expression d'ontologies, susceptible de constituer une ontologie noyau, et sur les techniques de gestion des modèles pour permettre l'extension flexible de ce noyau. Nous proposons également une approche originale de gestion des données à base ontologique. Cette approche part du fait que les données à base ontologique peuvent se classifier en données canoniques (instances de classes primitives) et noncanoniques (instances de classes définies). Les instances de classes définies peuvent, sous certaines hypothèses, s'exprimer en termes d'instances de classes primitives. Nous proposons donc de ne représenter que les données canoniques, en transformant sous certaines conditions, toute donnée non-canonique en donnée canonique. Enfin, nous proposons d'exploiter l'interpréteur de requêtes ontologiques pour permettre (1) l'accès aux données non-canoniques ainsi transformées et, (2) d'indexer et pré-calculer les raisonnements en se basant sur les mécanismes du SGBD support. L'ensemble de ces propositions est validé (1) à travers une implémentation sur le SGBD PostgreSQL basée sur les formalismes d'ontologies PLIB, RDFS et OWL Lite, (2) des tests de performances sur des ensembles de données issus de la géographie et du Web
The need to represent the semantics of data in various scientific fields (medicine, geography, engineering, etc…) has resulted in the definition of data referring to ontologies, also called ontology-based data. With the proliferation of domain ontologies, and the increasing volume of data to handle, has emerge the need to define systems capable of managing large size of ontology-based data. Such systems are called Ontology Based DataBase (OBDB) Management Systems. The main limitations of existing OBDB systems are (1) their rigidity, (2) lack of support for non standard data (spatial, temporal, etc…) and (3) their lack of effectiveness to manage large size data. In this thesis, we propose a new OBDB called OntoDB2, allowing (1) the support of ontologies based on different ontology models, (2) the extension of its model to meet specific applications requirements, and (3) an original management of ontology-based data facilitating scalability. Onto DB2 is based on the existence of a kernel ontology, and model-based techniques to enable a flexible extension of this kernel. We propose to represent only canonical data by transforming, under certain conditions, any given non-canonical data to its canonical representation. We propose to use the ontology query language to (1) to access non-canonical data thereby transform and, (2) index and pre-calculate the reasoning operations by using the mechanisms of the underlying DBMS
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Jouanne, François. "Mesure de la déformation actuelle des Alpes occidentales et du Jura par comparaison de données géodésiques historiques". Phd thesis, Chambéry, 1994. http://tel.archives-ouvertes.fr/tel-00723714.

Testo completo
Abstract (sommario):
La chaîne des Alpes est encore en formation. Sa sismicité étant modérée, la déformation actuelle y est soit faible, soit en grande partie asismique. Pour mieux comprendre la tectonique actuelle du sud du Jura et du nord des Alpes occidentales, nous utilisons des comparaisons de nivellements pour obtenir les mouvements verticaux actuels et de triangulations pour mesurer les mouvements horizontaux. Les déplacements verticaux reflètent principalement la tectonique actuelle de la région, ceux liés au rebond post-glaciaire étant négligeables. La bonne correlation entre la répartition des tendances régionales des mouvements verticaux et la position des principales rampes de chevauchement montre que les déplacements verticaux traduisent l'activité de ces accidents. Pour estimer les taux de déplacement horizontal sur ces rampes, une inversion d'un profil de taux de déplacement vertical est réalisée. On obtient une vitesse de déplacement de 6 mm/an sur le chevauchement crustal de Belledonne, de 4mm/an sur le chevauchement de socle du Jura interne (Haute Chaîne) sur le soubassement du Jura externe et de 4 mm/an pour le déplacement de la couverture du Jura externe sur ce soubassement. Dans la région étudiée, le chevauchement crustal le plus externe est donc localisé entre Jura interne et Jura externe. Ce résultat est conforté par la comparaison de triangulations réalisée. Cette dernière a nécessité le développement de différents tests statistiques (test de Fischer, ellipses de confiance, calcul d'erreur sur les tenseurs de taux de déformation) qui établissent tous la présence d'une déformation importante et significative dans le Jura externe. Celle-ci est caractérisée par les tenseurs de taux de déformations qui montrent une compression proche de la direction E-W et un taux de raccourcissement de 5 mm/an. La déformation horizontale des Bauges apparaît très faible au regard de la précision des mesures. Cependant, le déplacement d'un point, au nord d'Annecy, indique une forte extension E-W de la cluse d'Annecy, résultat qui demande à être confirmé. Ainsi, par deux méthodes indépendantes, il est établi que le Jura est le front actuellement actif de la partie nord des Alpes occidentales. La déformation du Jura est caractérisée par le jeu du chevauchement du socle du Jura interne sur le Jura externe avec une vitesse de 4 à 5 mm/an.
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Michel, Franck. "Intégrer des sources de données hétérogènes dans le Web de données". Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4002/document.

Testo completo
Abstract (sommario):
Le succès du Web de Données repose largement sur notre capacité à atteindre les données stockées dans des silos invisibles du web. Dans les 15 dernières années, des travaux ont entrepris d’exposer divers types de données structurées au format RDF. Dans le même temps, le marché des bases de données (BdD) est devenu très hétérogène avec le succès massif des BdD NoSQL. Celles-ci sont potentiellement d’importants fournisseurs de données liées. Aussi, l’objectif de cette thèse est de permettre l’intégration en RDF de sources de données hétérogènes, et notamment d'alimenter le Web de Données avec les données issues des BdD NoSQL. Nous proposons un langage générique, xR2RML, pour décrire le mapping de sources hétérogènes vers une représentation RDF arbitraire. Ce langage étend des travaux précédents sur la traduction de sources relationnelles, CSV/TSV et XML en RDF. Sur cette base, nous proposons soit de matérialiser les données RDF, soit d'évaluer dynamiquement des requêtes SPARQL sur la base native. Dans ce dernier cas, nous proposons une approche en deux étapes : (i) traduction d’une requête SPARQL en une requête pivot, abstraite, en se basant sur le mapping xR2RML ; (ii) traduction de la requête abstraite en une requête concrète, prenant en compte les spécificités du langage de requête de la BdD cible. Un souci particulier est apporté à l'optimisation des requêtes, aux niveaux abstrait et concret. Nous démontrons l’applicabilité de notre approche via un prototype pour la populaire base MongoDB. Nous avons validé la méthode dans un cas d’utilisation réel issu du domaine des humanités numériques
To a great extent, the success of the Web of Data depends on the ability to reach out legacy data locked in silos inaccessible from the web. In the last 15 years, various works have tackled the problem of exposing various structured data in the Resource Description Format (RDF). Meanwhile, the overwhelming success of NoSQL databases has made the database landscape more diverse than ever. NoSQL databases are strong potential contributors of valuable linked open data. Hence, the object of this thesis is to enable RDF-based data integration over heterogeneous data sources and, in particular, to harness NoSQL databases to populate the Web of Data. We propose a generic mapping language, xR2RML, to describe the mapping of heterogeneous data sources into an arbitrary RDF representation. xR2RML relies on and extends previous works on the translation of RDBs, CSV/TSV and XML into RDF. With such an xR2RML mapping, we propose either to materialize RDF data or to dynamically evaluate SPARQL queries on the native database. In the latter, we follow a two-step approach. The first step performs the translation of a SPARQL query into a pivot abstract query based on the xR2RML mapping of the target database to RDF. In the second step, the abstract query is translated into a concrete query, taking into account the specificities of the database query language. Great care is taken of the query optimization opportunities, both at the abstract and the concrete levels. To demonstrate the effectiveness of our approach, we have developed a prototype implementation for MongoDB, the popular NoSQL document store. We have validated the method using a real-life use case in Digital Humanities
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Jouzier, Cécile. "Constitution d'une base de données d'histoire médico-pharmaceutique bordelaise". Bordeaux 2, 2000. http://www.theses.fr/2000BOR2P107.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Devulder, Grégory. "Base de données de séquences, phylogénie et identification bactérienne". Lyon 1, 2004. http://www.theses.fr/2004LYO10164.

Testo completo
Abstract (sommario):
Les méthodes conventionnelles d'identification et de caractérisation des micro-organismes reposent sur des critères biochimiques ou phénotypiques. Ces méthodes éprouvées et performantes pour l'identification d'un grand nombre d'espèces, présentent toutefois des performances limitées pour l'identification de certaines espèces. L'objectivité de l'information contenue dans les séquences d'ADN et l'augmentation importante des séquences contenues dans les bases de données ouvrent de nouvelles perspectives liées à l'utilisation des méthodes moléculaires dans le cadre de l'identification bactérienne. Les différentes étapes indispensables à l'identification moléculaire peuvent être longues et fastidieuses. Leur automatisation était donc indispensable. Nous avons développé BIBI (Bio Informatic Bacterial Identification) un environnement d'identification bactérien à partir des séquences d'ADN. Accessible sur internet (http://pbil. Univ-lyon1. Fr/bibi), et utilisable quel que soit le domaine d'activité, ce programme garantit un temps de réponse constant et une universalité des résultats. Pour accroître la pertinence du résultat, nous avons également mis en place des banques de séquences adaptées à l'identification bactérienne. Associées à BIBI, ces bases taxinomiquement propres ont pour vocation d'assister l'utilisateur dans le processus d'identification
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Ould, Yahia Sabiha. "Interrogation multi-critères d'une base de données spatio-temporelles". Troyes, 2005. http://www.theses.fr/2005TROY0006.

Testo completo
Abstract (sommario):
Les travaux décrits dans cette thèse s'inscrivent dans le cadre du projet interrégional intitulé CAractérisation Symbolique de SItuations de ConduitE (CASSICE) qui regroupe plusieurs équipes de chercheurs. L'objectif du projet CASSICE est l'automatisation et l'alimentation d'une base de données de situations de conduite. Cela comprend notamment la reconnaissance des manoeuvres. Ces manoeuvres réalisées par le conducteur sont détectées à partir des données issues de capteurs installés sur un véhicule expérimental en situation de conduite réelle. Il s'agit dans cette thèse de proposer une interface permettant à un expert psychologue une analyse des comportements du conducteur mis en évidence par la base de données. Le projet CASSICE permet l'accès à une base de données à représentation continue, numériques ou symboliques, associées à des images. Le langage d'interrogation doit être le plus proche possible des critères de recherche employés par les experts psychologues. Ces fonctionnalités sont proposées dans le système CIBAM (Construction et Interrogation d'une BAse de données Multimédia) qui utilise une méthode d'indexation et d'interrogation multi-critères d'une base de données représentant une situation dynamique
The study of the human behavior in driving situations is of primary importance for the improvement of drivers security. This study is complex because of the numerous situations in which the driver may be involved. The objective of the CASSICE project (Symbolic Characterization of Driving Situations) is to elaborate a tool in order to simplify the analysis task of the driver's behavior. In this paper, we will mainly take an interest in the indexation and querying of a multimedia database including the numerical data and the video sequences relating to a type of driving situations. We will put the emphasis on the queries to this database. They are often complex because they are formulated according to criteria depending on time, space and they use terms of the natural language
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Vachey, Françoise. "Les suffixes toponymiques français : atlas et base de données". Nancy 2, 1999. http://www.theses.fr/1999NAN21036.

Testo completo
Abstract (sommario):
L'étude des suffixes toponymiques occupe une place insignifiante dans les recherches toponymiques. Mais que recouvre donc la notion de "suffixe" ? En principe, les toponymes retenus sont constitués d'un segment de base suivi d'un autre élément qui se suffit à lui-même et ainsi appelé "suffixe", mais quelquefois la frontière est ténue car certains suffixes s'apparentent à des substantifs et ont une signification propre en dehors du terme auxquels ils se rattachent, c'est notamment le cas du suffixe déterminatif -olalos signifiant "clairière" en gaulois. Notre propos porte sur les communes de France ainsi que sur les hameaux et lieux-dits lorsqu'ils sont significatifs et apportent à notre recherche une précision supplémentaire. Cette thèse se matérialise sous forme de trois volumes : - une base de données - un atlas - un volume explicatif. Nous nous sommes attachés à inventorier dans une base de données les noms des lieux français suffixés en -(i)acus répondant à ces critères. Nous en avons dénombré 1545, cette base de données se veut avant tout un outil de travail pour les chercheurs, elle n'est en aucune mesure exhaustive, et peut, à tout moment être enrichie de nouveaux toponymes. La rédaction et la composition de l'atlas par suffixes obéissent à plusieurs motivations : créer un ouvrage permettant d'avoir des repères dans l'espace et une visualisation des noms de lieux suffixés. Tenter de synthétiser des connaissances éparses concernant les suffixes toponymiques et par la présentation cartographique, les rendre plus proches de notre vécu. Le volume explicatif, quant à lui, se propose de recenser les principaux suffixes toponymiques et d'expliquer leurs fonctionnements sous divers éclairages : étymologiques, sémantiques, syntagmatiques. . . L'onomastique n'est pas une science sclérosée, l'influence dialectale y est prépondérante dans l'évolution des formes, ainsi ce travail vivra par les remarques que ne manqueront pas de faire les onomasticiens et les dialectologues, observations qui nous permettront soit de compléter notre information, soit de redresser des erreurs d'interprétations.
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Ploquin, Catherine. "LAB langage d'analyse associé à une base de données". Bordeaux 1, 1985. http://www.theses.fr/1985BOR10534.

Testo completo
Abstract (sommario):
Le lab est un langage d'analyse faisant partie d'un atelier de genie logiciel. L'outil associe possede deux fonctions principales: stockage d'informations relatives au logiciel dans une base de donnees, et passage automatique du langage d'analyse a differents langages de programmation. Ce travail presente certaines recherches et realisations recentes en genie logiciel:. Gestion du logiciel et des differentes versions (sccs et make sous unix). Modularite (notion de package dans le langage ada). Conception descendante par raffinements successifs (langage pdl integre dans l'atelier vulcain). Passage automatique d'un langage d'analyse a un langage de programmation (atelier softpen). Il montre ensuite comment l'outil developpe integre ces differents concepts permettant de realiser de bons logiciels tout en reduisant les couts de developpement
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Bec, Xavier. "Une base de données pour les effets spéciaux numériques". Paris 8, 2000. http://www.theses.fr/2000PA081818.

Testo completo
Abstract (sommario):
Le developpement d'une base de donnees performante est primordial dans la conception d'effets speciaux numeriques. Posseder sa propre base de donnees c'est avoir la possibilite de l'adapter rapidement aux exigences de la production ou au rythme des innovations et surtout de presenter des effets toujours plus spectaculaires pour le cinema et la publicite. Dans cette these, une nouvelle base de donnees concue chez buf compagnie est presentee. Elle s'appuie sur une organisation particulierement efficace et evolutive, notamment grace a l'utilisation d'un langage de commandes specifique. Les interets qu'apportent ce langage sont multiples : il offre a l'utilisateur des solutions pour la prise en charge d'animations ou de phenomenes complexes et pour la gestion de scenes lourdes ou de taches repetitives. Les contraintes liees a la production conduisent souvent a l'elaboration de solutions simples mais toutes aussi performantes. De nouvelles formulations sont proposees pour la manipulation de l'animation (notamment a l'aide de courbes et de volumes de deformation) et pour la construction de modeles geometriques sophistiques. Une solution elegante est enfin presentee pour la simulation dela fumee en synthese d'images. Elle s'appuie sur l'utilisation du langage de commandes et met en avant l'interet de la base de donnees presentee.
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Abdelhédi, Fatma. "Conception assistée d’entrepôts de données et de documents XML pour l’analyse OLAP". Thesis, Toulouse 1, 2014. http://www.theses.fr/2014TOU10005/document.

Testo completo
Abstract (sommario):
Aujourd’hui, les entrepôts de données constituent un enjeu majeur pour les applications décisionnelles au sein des entreprises. Les sources d’un entrepôt, c’est à dire l’origine des données qui l’alimentent, sont diverses et hétérogènes : fichiers séquentiels, feuilles de tableur, bases de données relationnelles, documents du Web. La complexité est telle que les logiciels du marché ne répondent que partiellement aux attentes des décideurs lorsque ceux-ci souhaitent analyser les données. Nos travaux s’inscrivent donc dans le contexte des systèmes décisionnels qui intègrent tous types de données (principalement extraites de bases de données relationnelles et de bases de documents XML) et qui sont destinés à des décideurs. Ils visent à proposer des modèles, des méthodes et des outils logiciels pour élaborer et manipuler des entrepôts de données. Nos travaux ont plus précisément porté sur deux problématiques complémentaires : l’élaboration assistée d’un entrepôt de données ainsi que la modélisation et l’analyse OLAP de documents XML
Today, data warehouses are a major issue for business intelligence applications within companies. Sources of a warehouse, i.e. the origin of data that feed, are diverse and heterogeneous sequential files, spreadsheets, relational databases, Web documents. The complexity is such that the software on the market only partially meets the needs of decision makers when they want to analyze the data. Therefore, our work is within the decision support systems context that integrate all data types (mainly extracted from relational databases and XML documents databases) for decision makers. They aim to provide models, methods and software tools to elaborate and manipulate data warehouses. Our work has specifically focused on two complementary issues: aided data warehouse and modeling and OLAP analysis of XML documents
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Bernard, Guillaume. "Détection et suivi d’événements dans des documents historiques". Electronic Thesis or Diss., La Rochelle, 2022. http://www.theses.fr/2022LAROS032.

Testo completo
Abstract (sommario):
Les campagnes actuelles de numérisation de documents historiques issus de fonds documentaires du monde entier ouvrent de nouvelles voies aux historiens, historiennes et spécialistes des sciences sociales. La compréhension des événements du passé se renouvelle par l’analyse de ces grands volumes de données historiques : découdre le fil des événements, tracer de fausses informations sont, entre autres, des possibilités offertes par les sciences du numérique. Cette thèse s’intéresse à ces articles de presse historique et propose, à travers deux stratégies que tout oppose, deux processus d’analyse répondant à la problématique de suivi des événements dans la presse. Un cas d’utilisation simple est celui d’une équipe de recherche en humanités numériques qui s’intéresse à un événement particulier du passé. Ses membres cherchent à découvrir tous les documents de presse qui s’y rapportent. L’analyse manuelle des articles est irréalisable dans un temps contraint. En publiant à la fois algorithmes, jeux de données et analyses, cette thèse est un premier jalon vers la publication d’outils plus sophistiqués. Nous permettons à tout individu de fouiller les fonds de presse ancienne à la recherche d’événements, et pourquoi pas, renouveler certaines de nos connaissances historiques
Current campaigns to digitise historical documents from all over the world are opening up new avenues for historians and social science researchers. The understanding of past events is renewed by the analysis of these large volumes of historical data: unravelling the thread of events, tracing false information are, among other things, possibilities offered by the digital sciences. This thesis focuses on these historical press articles and suggests, through two opposing strategies, two analysis processes that address the problem of tracking events in the press. A simple use case is for instance a digital humanities researcher or an amateur historian who is interested in an event of the past and seeks to discover all the press documents related to it. Manual analysis of articles is not feasible in a limited time. By publishing algorithms, datasets and analyses, this thesis is a first step towards the publication of more sophisticated tools allowing any individual to search old press collections for events, and why not, renew some of our historical knowledge
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Boleda, Mario. "Démographie historique des Andes : évaluation de certaines méthodes d'estimation du régime démographique à l'époque moderne". Lyon 2, 2003. http://theses.univ-lyon2.fr/documents/lyon2/2003/boleda_m.

Testo completo
Abstract (sommario):
Des estimations de la dynamique démographique des populations du passé se font couramment par des méthodes mises au point pour être appliquées lorsque les renseignements nécessaires font défaut. Dans cette thèse l'on propose, justement, de tester de façon empirique certaines de ces méthodes. Il s'agit des modèles de populations stables et quasi-stables (Coale & Demeny, 1966), ainsi que de la méthode présentée par Ronald Lee (inverse projection) qui est la base du logiciel POPULATE élaboré par Robert Mc Caa et H. Pérez Brignoli. Or ces procédés ressortent mal évaluées. Ils souffrent de biais très forts. Qu'est-ce que le chercheur peut faire dans ce cas ? Et bien, le recours à ce genre de méthodes restera pour le moment inévitable, en attendant que de meilleures procédures voient le jour. Le chercheur peut, cependant, employer les facteurs de correction que nous avons calculé grâce à l'étude menée sur la population canadienne sous régime français (1608-1760)
Demographic dynamics estimations on historical population are frequently done by methods designed to be applied when data are lacking or incomplete. In this thesis, it is proposed an empirical test for several of these methods: the stable and quasi-stable models, that were elaborated by Coale & Demeny (1966) and the inverse projection designed by R. Lee as it is included in the POPULATE solution, a software produced by Robert McCaa and H Pérez Brignoli. Methods appeared to be seriously biaised. Differences between direct mesures and estimates coming from the tested methods were much larger than expected. Researchers are going to be using these techniques in the next future, waiting for a new and better procedure. Researchers can now apply the correction factors that we obtained from our experimental study based on the Quebec population
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Grignard, Arnaud. "Modèles de visualisation à base d'agents". Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066268.

Testo completo
Abstract (sommario):
Ce mémoire part du constat que la visualisation est le parent pauvre de l'approche de modélisation à base d'agents: peu citée, peu mise en avant, elle constitue néanmoins, pour beaucoup de modélisateurs, non seulement leur premier point d'entrée vers la construction de modèles, mais aussi une façon de plus en plus prégnante, de concevoir, vérifier, voire valider des modèles de systèmes complexes. Le domaine de la modélisation à base d'agents, longtemps peu structuré, est en train de progressivement s'organiser en termes de méthodologies de conception, de communication, de description. Le succès du protocole ODD est là pour en témoigner: face à des demandes de représentation de systèmes de plus en plus complexes, les modélisateurs ont besoin de mettre de l'ordre dans leurs façons de modéliser et ils y parviennent. Cependant, il est étonnant de constater qu'aucune place n'est réservée dans ODD, ni dans aucune autre méthodologie approchante, à la façon de visualiser le modèle décrit ou à concevoir. Pour beaucoup de théoriciens de la modélisation, cette étape n'existe tout simplement pas, ou, si elle existe, est considérée comme le lointain produit dérivé d'un modèle déjà conçu, vérifié et validé. Pourtant, l'étude des pratiques de la modélisation à base d'agents révèle tout le contraire: l'aller-retour entre l'écriture et la visualisation d'un modèle fait partie intégrante du quotidien de nombreux chercheurs, comme en témoigne le succès de la plate-forme NetLogo. Cette visualisation, partie d'une démarche intégrée, permet de façon intuitive de vérifier et raffiner aussi bien les comportements individuels des agents que les structures collectives ou émergentes attendues. Poussée à l'extrême, cette pratique se rencontre aussi dans les démarches de modélisation et/ou simulation participative, où la visualisation du modèle sert de médiation entre acteurs et de support aux tâches, collectives, de modélisation. Absente des propositions méthodologiques, la visualisation de modèles à base d'agents se retrouve donc essentiellement délimitée et structurée par des pratiques individuelles, parfois partagées sous la forme de préceptes , mais rarement généralisables au-delà de la conception d'un modèle. Il existe pourtant des façons de visualiser, des manières de chercher à faire ressortir une information spécifique, des méthodes à suivre pour étudier visuellement une abstraction…
Information visualization is the study of interactive visual representations of abstract data to reinforce human cognition. It is very closely associated with data mining issues which allow to explore, understand and analyze phenomena, systems or data masses whose complexity continues to grow today. However, most existing visualization techniques are not suited to the exploration and understanding of datasets that consist of a large number of individual data from heterogeneous sources that share many properties with what are commonly called "complex systems". The reason is often the use of monolithic and centralized approaches. This situation is reminiscent of the modeling of complex systems (social sciences, chemistry, ecology, and many other fields) before progress represented by the generalization of agent-based approaches twenty years ago. In this thesis, I defend the idea that the same approach can be applied with the same success to the field of information visualization. By starting from the now commonly accepted idea that the agent-based models offer appropriate representations the complexity of a real system, I propose to use an approach based on the definition of agent-based visualization models to facilitate visual representation of complex data and to provide innovative support which allows to explore, programmatically and visually, their underlying dynamics. Just like their software counterparts, agent-based visualization models are composed of autonomous graphical entities that can interact and organize themselves, learn from the data they process and as a result adapt their behavior and visual representations. By providing a user the ability to describe visualization tasks in this form, my goal is to allow them to benefit from the flexibility, modularity and adaptability inherent in agent-based approaches. These concepts have been implemented and experimented on the GAMA modeling and simulation platform in which I developed a 3D immersive environment offering the user different point of views and way to interact with agents. Their implementation is validated on models chosen for their properties, supports a linear progression in terms of complexity, allowing us to highlight the concepts of flexibility, modularity and adaptability. Finally, I demonstrate through the particular case of data visualization, how my approach allows, in real time, to represent, to clarify, or even discover their dynamics and how that progress in terms of visualization can contributing,in turn, to improve the modeling of complex systems
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Pineau, Nicolas. "La performance en analyse sensorielle : une approche base de données". Phd thesis, Université de Bourgogne, 2006. http://tel.archives-ouvertes.fr/tel-00125171.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Gagnon, Bertrand. "Gestion d'information sur les procédés thermiques par base de données". Thesis, McGill University, 1986. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=65447.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Folio, Patrice. "Etablissement d'une base de données protéomique de Listeria monocytogenes EGDe". Clermont-Ferrand 2, 2003. http://www.theses.fr/2003CLF21478.

Testo completo
Abstract (sommario):
Listeria monocytogenes, bactérie pathogène d'origine alimentaire, représente l'un des principaux risques sanitaires de la filière agro-alimentaire. Ce risque est accentué par sa capacité à coloniser les surfaces et à former des communautés bactériennes organisées, résistantes et persistantes, les biofilms. Ces structures représentent ainsi une source non négligeable de (re)contamination des produits alimentaires. Maîtriser le risque biofilm représente donc un enjeu économique et hygiénique important et passe en partie par la compréhension des phénomènes physiologiques et moléculaires qui sont associés à leur formation. Afin de caractériser le phénotype biofilm chez un microorgansime, deux approches utilisant les technologies des puces à ADN et de l'électrophorèse bidimentionnelle ont été menées. En préalable à cette thématique, il s'est avéré intéressant de créer une banque de gels d'électrophorèses bidimensionnelles obtenus pour différentes conditions de culture de L. Monocytogenes EGDe, support indispensable à toutes les études protéomiques comparatives. Environ 1300 spots protéiques différents ont ainsi pu être résolus et 126 protéines correspondant à 201 spots différents ont été identifiées(http://www. Clermont. Inra. Fr/proteome/index. Htm). Dans les conditions utilisées, la souche EGDe adhère rapidement à l'acier inoxydable et forme des biofilms denses après 7 jours de contact. Le développement sous forme d'un biofilm statique induit des modifications d'expression rapides et importantes (environ 15% du protéone et 8% du transcriptome après 2 heures d'adhésion). Ces cellules sont caractérisées par un état physiologique particulier marqué par l'induction d'une réponse générale au stress et par la répression de déterminants génétiques impliqués notamment dans la division cellulaire, la réplication de l'ADN, la biosynthèse d'ARN et des protéines. Il semble enfin qu'un certain nombre de gènes codant des protéines de la surface cellulaire, tels que flaA et inIH, et des gènes de fonction inconnue soient impliqués dans les étapes précoces de formation du biofilm che L monocytogenes. Ils représentent ainsi autant de voies intéressantes pour des études fonctionnelles ultéieures ou encore des cibles pour l'élaboration de nouveaux moyens de lutte contre ces biofilms
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Persyn, Emmanuel. "Base de données informatiques sur la première guerre du Golfe". Lille 3, 2003. http://www.theses.fr/2003LIL30018.

Testo completo
Abstract (sommario):
Cette thèse est présentée sur deux supports. Le CD-Rom contient la base de données sur la guerre du Golfe de 1991. Celle-ci retrace la chronologie détaillée depuis l'invasion du Koweit, en août 1990, jusqu'au cessez-le-feu en février 1991. Elle se caractérise par de multiples entrées qui permettent de découvrir les événements, les lieux, les personnages et les ouvrages parus sur la question. Le volume dactylographié présente la méthodologie appliquée pour la constitution de cette base de données, le conflit et son influence sur les relations israélo-palestiniennes
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Tahir, Hassane. "Aide à la contextualisation de l’administration de base de données". Paris 6, 2013. http://www.theses.fr/2013PA066789.

Testo completo
Abstract (sommario):
La complexité des tâches d'administration de bases de données nécessite le développement d'outils pour assister les experts DBA. A chaque apparition d’un incident, l'administrateur de base de données (DBA) est la première personne blâmée. La plupart des DBAs travaillent sous de fortes contraintes d'urgence et ont peu de chance d'être proactif. Ils doivent être constamment prêts à analyser et à corriger les défaillances en utilisant un grand nombre de procédures. En outre, ils réajustent en permanence ces procédures et élaborent des pratiques qui permettent de gérer une multitude de situations spécifiques qui diffèrent de la situation générique par quelques éléments contextuels et l'utilisation de méthodes plus adaptées. Ces pratiques doivent être adaptées à ces éléments de contexte pour résoudre le problème donné. L'objectif de cette thèse est d'utiliser le formalisme des graphes contextuels pour améliorer les procédures d'administration de base de données. La thèse montre également l'intérêt de l'utilisation des graphes contextuels pour capturer ces pratiques en vue de permettre leur réutilisation dans les contextes du travail. Jusqu'à présent, cette amélioration est réalisée par le DBA grâce à des pratiques qui adaptent les procédures au contexte dans lequel les tâches doivent être exécutées et les incidents apparaissent. Ce travail servira de base pour la conception et la mise en œuvre d'un Système d’Aide Intelligent Basée sur le Contexte (SAIBC) et qui sera utilisé par les DBAs
The complexity of database administration tasks requires the development of tools for supporting database experts. When problems occur, the database administrator (DBA) is frequently the first person blamed. Most DBAs work in a fire-fighting mode and have little opportunity to be proactive. They must be constantly ready to analyze and correct failures based on a large set of procedures. In addition, they are continually readjusting these procedures and developing practices to manage a multitude of specific situations that differ from the generic situation by some few contextual elements. These practices have to deal with these contextual elements in order to solve the problem at hand. This thesis aims to use Contextual Graphs formalism in order to improve existing procedures used in database administration. The thesis shows also the benefits of using Contextual Graphs to capture user practices in order to be reused in the working contexts. Up to now, this improvement is achieved by a DBA through practices that adapt procedures to the context in which tasks should be performed and the incidents appear. This work will be the basis for designing and implementing a Context-Based Intelligent Assistant System (CBIAS) for supporting DBAs
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Treger, Michèle. "Spécification et implantation d'une base de données des contacts intermoléculaires". Université Louis Pasteur (Strasbourg) (1971-2008), 1991. http://www.theses.fr/1991STR13089.

Testo completo
Abstract (sommario):
Nous avons specifie et implante une base de donnees relationnelle des contacts inter et intramoleculaires dans les cristaux de macromolecules biologiques, calcules a partir des donnees contenues dans la protein data bank. Nous avons modelise les regions de contact, les interactions entre regions et les interactions entre atomes par des objets mathematiques, ce qui a permis d'obtenir une definition precise des regions, avec une preuve d'existence et d'unicite. Des specifications ont ete ecrites a plusieurs niveaux (algebriques, par pre- et post-conditions) jusqu'a la programmation. La base de donnees que nous avons creee, les programmes de mises a jour et de traitements des donnees que nous avons developpes constituent un outil d'investigation pour une etude systematique des regions de contact et permettent leur representation tridimensionnelle sur ecran graphique
Gli stili APA, Harvard, Vancouver, ISO e altri
39

État-Le, Blanc Marie-Sylvie d'. "Une base de données sédimentologiques : structure, mise en place, applications". Bordeaux 1, 1986. http://www.theses.fr/1986BOR10565.

Testo completo
Abstract (sommario):
La base de donnees est construite sur le modele relationnel, elle utilise le logiciel rdb de digital. Sa structure permet de stocker les donnees relatives a une mission oceanographique et a tous les prelevements et analyses qui s'y rattachent. Les programmes d'acces sont ecrits en fortran 77 ainsi que le programme de calcul des parametres granulometriques, la consultation se fait grace au logiciel datatrieve (digital). L'application de ce travail est faite avec les donnees de la mission misedor
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Peerbocus, Mohamed Ally. "Gestion de l'évolution spatiotemporelle dans une base de données géographiques". Paris 9, 2001. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2001PA090055.

Testo completo
Abstract (sommario):
Cette thèse traite de la mise à jour des bases de données géographiques, en particulier pour des applications cartographiques. Cette opération est complexe, souvent longue, en particulier lorsqu'il est nécessaire de représenter la nature dynamique des entités géographiques. Dans cette thèse, une nouvelle approche, appelée l'approche des cartes spatio-temporelles documentées, CSD, est proposée pour la mise à jour des bases de données géographiques et la gestion de l'évolution spatio-temporelle. Les changements géographiques sont étudiés selon trois perspectives : monde réel, carte et bases de données. L'approche CSD permet aux utilisateurs d'avoir accès à des versions passées ou alternatives d'une carte, de comparer les différentes versions d'un objet géographique, d'identifier les changements et de comprendre les raisons de ces changements, en particulier dans le contexte d'échange de données entre producteurs et clients. De plus, cette approche permet d'offrir une histoire documentée de l'évolution des objets géographiques. Par ailleurs, L'approche CSD assure la non-duplication des données dans la base de données géographiques. L'approche CSD permet de prendre en compte d'autres besoins des utilisateurs du domaine géographique : 1. Elle peut aider à la gestion des transactions de longue durée dans le processus de mise à jour des bases de données géographiques. 2. Elle peut être un outil efficace pour la gestion de l'information géographique dans des projets : des versions de carte peuvent être créées à la demande montrant les différentes étapes du projet, voire les alternatives. 3. Elle peut servir à organiser une équipe autour d'un projet en permettant aux différents intervenants de travailler sur différentes versions du projet et ensuite permettre leur fusion. 4. Elle peut être utile comme un outil de prévention dans la gestion des risques en permettant aux spécialistes de suivre l'évolution de limites de zones à risque.
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Curé, Olivier. "Relations entre bases de données et ontologies dans le cadre du web des données". Habilitation à diriger des recherches, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00843284.

Testo completo
Abstract (sommario):
Ce manuscrit présente mon intérêt pour la conception des méthodes et algorithmes nécessaires pour la réalisation d'applications avancées pour le web sémantique. Cette extension du web actuel vise à autoriser l'intégration et le partage de données entre organismes et applications. Une conséquence directe du succès de cette approche permettrait de considérer le web comme une base de données globale contenant les données stockées sur toutes les machines connectées. Cet aspect s'exprime bien dans le site web dédié à l'activité web sémantique du W3C, qui déclare que le web sémantique est un web des données. Ainsi, ce web des données permettra de soumettre des requêtes structurées sur tous les ensembles de données connectés, et de récupérer des résultats pertinents provenant de sources diverses et hétérogènes. Une question essentielle liée à cette hétérogénéité concerne la notion de sémantique. Dans le contexte du web sémantique, elle est généralement traitée avec des ontologies et les opérations de médiation associées. Ma recherche s'ancrent dans ces thématiques et ce manuscrit vise à présenter quelques unes de mes recherches et résultats, ainsi qu'à décrire certaines des applications que j'ai conçues et implémentées
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Grignard, Arnaud. "Modèles de visualisation à base d'agents". Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066268/document.

Testo completo
Abstract (sommario):
Ce mémoire part du constat que la visualisation est le parent pauvre de l'approche de modélisation à base d'agents: peu citée, peu mise en avant, elle constitue néanmoins, pour beaucoup de modélisateurs, non seulement leur premier point d'entrée vers la construction de modèles, mais aussi une façon de plus en plus prégnante, de concevoir, vérifier, voire valider des modèles de systèmes complexes. Le domaine de la modélisation à base d'agents, longtemps peu structuré, est en train de progressivement s'organiser en termes de méthodologies de conception, de communication, de description. Le succès du protocole ODD est là pour en témoigner: face à des demandes de représentation de systèmes de plus en plus complexes, les modélisateurs ont besoin de mettre de l'ordre dans leurs façons de modéliser et ils y parviennent. Cependant, il est étonnant de constater qu'aucune place n'est réservée dans ODD, ni dans aucune autre méthodologie approchante, à la façon de visualiser le modèle décrit ou à concevoir. Pour beaucoup de théoriciens de la modélisation, cette étape n'existe tout simplement pas, ou, si elle existe, est considérée comme le lointain produit dérivé d'un modèle déjà conçu, vérifié et validé. Pourtant, l'étude des pratiques de la modélisation à base d'agents révèle tout le contraire: l'aller-retour entre l'écriture et la visualisation d'un modèle fait partie intégrante du quotidien de nombreux chercheurs, comme en témoigne le succès de la plate-forme NetLogo. Cette visualisation, partie d'une démarche intégrée, permet de façon intuitive de vérifier et raffiner aussi bien les comportements individuels des agents que les structures collectives ou émergentes attendues. Poussée à l'extrême, cette pratique se rencontre aussi dans les démarches de modélisation et/ou simulation participative, où la visualisation du modèle sert de médiation entre acteurs et de support aux tâches, collectives, de modélisation. Absente des propositions méthodologiques, la visualisation de modèles à base d'agents se retrouve donc essentiellement délimitée et structurée par des pratiques individuelles, parfois partagées sous la forme de préceptes , mais rarement généralisables au-delà de la conception d'un modèle. Il existe pourtant des façons de visualiser, des manières de chercher à faire ressortir une information spécifique, des méthodes à suivre pour étudier visuellement une abstraction…
Information visualization is the study of interactive visual representations of abstract data to reinforce human cognition. It is very closely associated with data mining issues which allow to explore, understand and analyze phenomena, systems or data masses whose complexity continues to grow today. However, most existing visualization techniques are not suited to the exploration and understanding of datasets that consist of a large number of individual data from heterogeneous sources that share many properties with what are commonly called "complex systems". The reason is often the use of monolithic and centralized approaches. This situation is reminiscent of the modeling of complex systems (social sciences, chemistry, ecology, and many other fields) before progress represented by the generalization of agent-based approaches twenty years ago. In this thesis, I defend the idea that the same approach can be applied with the same success to the field of information visualization. By starting from the now commonly accepted idea that the agent-based models offer appropriate representations the complexity of a real system, I propose to use an approach based on the definition of agent-based visualization models to facilitate visual representation of complex data and to provide innovative support which allows to explore, programmatically and visually, their underlying dynamics. Just like their software counterparts, agent-based visualization models are composed of autonomous graphical entities that can interact and organize themselves, learn from the data they process and as a result adapt their behavior and visual representations. By providing a user the ability to describe visualization tasks in this form, my goal is to allow them to benefit from the flexibility, modularity and adaptability inherent in agent-based approaches. These concepts have been implemented and experimented on the GAMA modeling and simulation platform in which I developed a 3D immersive environment offering the user different point of views and way to interact with agents. Their implementation is validated on models chosen for their properties, supports a linear progression in terms of complexity, allowing us to highlight the concepts of flexibility, modularity and adaptability. Finally, I demonstrate through the particular case of data visualization, how my approach allows, in real time, to represent, to clarify, or even discover their dynamics and how that progress in terms of visualization can contributing,in turn, to improve the modeling of complex systems
Gli stili APA, Harvard, Vancouver, ISO e altri
43

De, Vlieger P. "Création d'un environnement de gestion de base de données " en grille ". Application à l'échange de données médicales". Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2011. http://tel.archives-ouvertes.fr/tel-00654660.

Testo completo
Abstract (sommario):
La problématique du transport de la donnée médicale, de surcroît nominative, comporte de nombreuses contraintes, qu'elles soient d'ordre technique, légale ou encore relationnelle. Les nouvelles technologies, issues particulièrement des grilles informatiques, permettent d'offrir une nouvelle approche au partage de l'information. En effet, le développement des intergiciels de grilles, notamment ceux issus du projet européen EGEE, ont permis d'ouvrir de nouvelles perspectives pour l'accès distribué aux données. Les principales contraintes d'un système de partage de données médicales, outre les besoins en termes de sécurité, proviennent de la façon de recueillir et d'accéder à l'information. En effet, la collecte, le déplacement, la concentration et la gestion de la donnée, se fait habituellement sur le modèle client-serveur traditionnel et se heurte à de nombreuses problématiques de propriété, de contrôle, de mise à jour, de disponibilité ou encore de dimensionnement des systèmes. La méthodologie proposée dans cette thèse utilise une autre philosophie dans la façon d'accéder à l'information. En utilisant toute la couche de contrôle d'accès et de sécurité des grilles informatiques, couplée aux méthodes d'authentification robuste des utilisateurs, un accès décentralisé aux données médicales est proposé. Ainsi, le principal avantage est de permettre aux fournisseurs de données de garder le contrôle sur leurs informations et ainsi de s'affranchir de la gestion des données médicales, le système étant capable d'aller directement chercher la donnée à la source. L'utilisation de cette approche n'est cependant pas complètement transparente et tous les mécanismes d'identification des patients et de rapprochement d'identités (data linkage) doivent être complètement repensés et réécris afin d'être compatibles avec un système distribué de gestion de bases de données. Le projet RSCA (Réseau Sentinelle Cancer Auvergne - www.e-sentinelle.org) constitue le cadre d'application de ce travail. Il a pour objectif de mutualiser les sources de données auvergnates sur le dépistage organisé des cancers du sein et du côlon. Les objectifs sont multiples : permettre, tout en respectant les lois en vigueur, d'échanger des données cancer entre acteurs médicaux et, dans un second temps, offrir un support à l'analyse statistique et épidémiologique.
Gli stili APA, Harvard, Vancouver, ISO e altri
44

De, Vlieger Paul. "Création d'un environnement de gestion de base de données "en grille" : application à l'échange de données médicales". Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2011. http://tel.archives-ouvertes.fr/tel-00719688.

Testo completo
Abstract (sommario):
La problématique du transport de la donnée médicale, de surcroît nominative, comporte de nombreuses contraintes, qu'elles soient d'ordre technique, légale ou encore relationnelle. Les nouvelles technologies, issues particulièrement des grilles informatiques, permettent d'offrir une nouvelle approche au partage de l'information. En effet, le développement des intergiciels de grilles, notamment ceux issus du projet européen EGEE, ont permis d'ouvrir de nouvelles perspectives pour l'accès distribué aux données. Les principales contraintes d'un système de partage de données médicales, outre les besoins en termes de sécurité, proviennent de la façon de recueillir et d'accéder à l'information. En effet, la collecte, le déplacement, la concentration et la gestion de la donnée, se fait habituellement sur le modèle client-serveur traditionnel et se heurte à de nombreuses problématiques de propriété, de contrôle, de mise à jour, de disponibilité ou encore de dimensionnement des systèmes. La méthodologie proposée dans cette thèse utilise une autre philosophie dans la façon d'accéder à l'information. En utilisant toute la couche de contrôle d'accès et de sécurité des grilles informatiques, couplée aux méthodes d'authentification robuste des utilisateurs, un accès décentralisé aux données médicales est proposé. Ainsi, le principal avantage est de permettre aux fournisseurs de données de garder le contrôle sur leurs informations et ainsi de s'affranchir de la gestion des données médicales, le système étant capable d'aller directement chercher la donnée à la source.L'utilisation de cette approche n'est cependant pas complètement transparente et tous les mécanismes d'identification des patients et de rapprochement d'identités (data linkage) doivent être complètement repensés et réécris afin d'être compatibles avec un système distribué de gestion de bases de données. Le projet RSCA (Réseau Sentinelle Cancer Auvergne - www.e-sentinelle.org) constitue le cadre d'application de ce travail. Il a pour objectif de mutualiser les sources de données auvergnates sur le dépistage organisé des cancers du sein et du côlon. Les objectifs sont multiples : permettre, tout en respectant les lois en vigueur, d'échanger des données cancer entre acteurs médicaux et, dans un second temps, offrir un support à l'analyse statistique et épidémiologique.
Gli stili APA, Harvard, Vancouver, ISO e altri
45

Ponchateau, Cyrille. "Conception et exploitation d'une base de modèles : application aux data sciences". Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2018. http://www.theses.fr/2018ESMA0005/document.

Testo completo
Abstract (sommario):
Les sciences expérimentales font régulièrement usage de séries chronologiques, pour représenter certains des résultats expérimentaux, qui consistent en listes chronologiques de valeurs (indexées par le temps), généralement fournies par des capteurs reliés à un système (objet de l’expérience). Ces séries sont analysées dans le but d’obtenir un modèle mathématique permettant de décrire les données et ainsi comprendre et expliquer le comportement du système étudié. De nos jours, les technologies de stockage et analyse de séries chronologiques sont nombreuses et matures, en revanche, quant au stockage et à la gestion de modèles mathématiques et leur mise en lien avec des données numériques expérimentales, les solutions existantes sont à la fois récentes, moins nombreuses et moins abouties. Or,les modèles mathématiques jouent un rôle essentiel dans l’interprétation et la validation des résultats expérimentaux. Un système de stockage adéquat permettrait de faciliter leur gestion et d’améliorer leur ré-utilisabilité. L’objectif de ce travail est donc de développer une base de modèles permettant la gestion de modèle mathématiques et de fournir un système de « requête par les données », afin d’aider à retrouver/reconnaître un modèle à partir d’un profil numérique expérimental. Dans cette thèse, je présente donc la conception (de la modélisation des données, jusqu’à l’architecture logicielle) de la base de modèles et les extensions qui permettent de réaliser le système de « requête par les données ». Puis, je présente le prototype de la base de modèle que j’ai implémenté, ainsi que les résultats obtenus à l’issu des tests de ce-dernier
It is common practice in experimental science to use time series to represent experimental results, that usually come as a list of values in chronological order (indexed by time) and generally obtained via sensors connected to the studied physical system. Those series are analyzed to obtain a mathematical model that allow to describe the data and thus to understand and explain the behavio rof the studied system. Nowadays, storage and analyses technologies for time series are numerous and mature, but the storage and management technologies for mathematical models and their linking to experimental numerical data are both scarce and recent. Still, mathematical models have an essential role to play in the interpretation and validation of experimental results. Consequently, an adapted storage system would ease the management and re-usability of mathematical models. This work aims at developing a models database to manage mathematical models and provide a “query by data” system, to help retrieve/identify a model from an experimental time series. In this work, I will describe the conception (from the modeling of the system, to its software architecture) of the models database and its extensions to allow the “query by data”. Then, I will describe the prototype of models database,that I implemented and the results obtained by tests performed on the latter
Gli stili APA, Harvard, Vancouver, ISO e altri
46

Devogele, Thomas. "Processus d'intégration et d'appariement de bases de données géographiques : application à une base de données routières multi-échelles". Versailles-St Quentin en Yvelines, 1997. https://tel.archives-ouvertes.fr/tel-00085113.

Testo completo
Abstract (sommario):
Les phénomènes du monde réel sont actuellement représentés dans les bases de données géographiques (bdg) sous différentes formes. La réutilisation de telles bdg nécessite un processus d'intégration afin de fédérer l'information provenant de différentes sources. L'objectif de cette thèse est de définir un processus d'intégration de bdg en mode vecteur a deux dimensions dans une base multi-représentations. Il propose l'extension d'un processus d'intégration a trois phases (pre-intégration, déclaration, intégration). L'extension est fondée sur une taxonomie des conflits d'intégration entre bdg et sur l'ajout d'un processus d'appariement géométrique et topologique. Ce processus a été mis en oeuvre sur les trois principales bases de données de l'ign pour le thème routier dans la région de Lagny. Etant donnée la complexité des phénomènes géographiques, plusieurs modélisations des phénomènes peuvent entre définies. La taxonomie des conflits d'intégration de bdg effectue une structuration de ces différences en six catégories de conflits qui ont été traitées dans le processus d'intégration. Certains conflits sont pris en compte dans la phase de pre-intégration. D'autres font l'objet d'un traitement spécifique : extension du langage de déclaration des correspondances, ajout d'opérations de résolution de ce conflit. Le processus d'appariement consiste à identifier les données représentant le même phénomène du monde réel. Un processus d'appariement a été développé pour les données de types routières à différentes échelles. Les résultats obtenus font apparaître un taux de correspondance de l'ordre de 90%. Un processus générique en a été déduit afin de guider la conception des processus d'appariement concernant d'autres types de données. Cette thèse apporte donc un cadre général et détaillé pour l'intégration de bdg et contribue ainsi à l'essor d'applications multi -représentations et de l'interopérabilité entre les bdg en adaptant ces processus à des bdg réparties sur un réseau.
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Jean, Stéphane. "OntoQL, un langage d'exploitation des bases de données à base ontologique". Phd thesis, Université de Poitiers, 2007. http://tel.archives-ouvertes.fr/tel-00201777.

Testo completo
Abstract (sommario):
Nous appelons Bases de Données à Base Ontologique (BDBO), les bases de données qui contiennent à la fois des données et des ontologies qui en décrivent la sémantique. Dans le contexte du Web Sémantique, de nombreuses BDBO associées à des langages qui permettent d'interroger les données et les ontologies qu'elles contiennent sont apparues. Conçus pour permettre la persistance et l'interrogation des données Web, ces BDBO et ces langages sont spécifiques aux modèles d'ontologies Web, ils se focalisent sur les ontologies conceptuelles et ils ne prennent pas en compte la structure relationnelle inhérente à des données contenues dans une base de données. C'est ce triple problème que vise à résoudre le langage OntoQL proposé dans cette thèse. Ce langage répond au triple problème évoqué précédemment en présentant trois caractéristiques essentielles qui le distinguent des autres langages proposés : (1) le langage OntoQL est indépendant d'un modèle d'ontologies particulier. En effet, ce langage est basé sur un noyau commun aux différents modèles d'ontologies et des instructions de ce langage permettent de l'étendre, (2) le langage OntoQL exploite la couche linguistique qui peut être associée à une ontologie conceptuelle pour permettre d'exprimer des instructions dans différentes langues naturelles et (3) le langage OntoQL est compatible avec le langage SQL, permettant ainsi d'exploiter les données au niveau logique d'une BDBO, et il étend ce langage pour permettre d'accéder aux données au niveau ontologique indépendamment de la représentation logique des données tout en permettant d'en manipuler la structure.
Gli stili APA, Harvard, Vancouver, ISO e altri
48

Kratky, Andreas. "Les auras numériques : pour une poétique de la base de données". Thesis, Paris 1, 2013. http://www.theses.fr/2013PA010561/document.

Testo completo
Abstract (sommario):
La base de données est un outil omniprésent dans nos vies, qui est impliquée dans un grand nombre de nos activités quotidiennes. Conçue comme système technique destiné à rendre la gastion des informations plus efficace, et comme support de stockage privilégié, la base de données, avec son utilisation dans de multiples contextes, a acquis une importance dont les implications esthétiques et politiques vont au-delà des questions techniques.La recherche à la fois théorique et pratique étudie la base de données comme un moyen expressif et poétique de création, et met en évidence ses caractères spécifiques, notamment la discrédisation des données et leur mise en relation flexible. Le terme d'aura utilisé par Walter Benjamin pour analyser les transformations de l'expérience esthétique engendrées par la rationalité industrielle et la technique à la fin du dix-neuvième siècle, est reconsidérée afin de formuler une poétique de la base de données. La partie pratique de notre recherche comporte deux projets interactifs fondés sur les principes poétiques élaborés au cours de cette thèse
Database are ubiquitous in our lives and play an important rôle in many aspects of our daily activities. Conceived as a technical support to facilitate the efficient management of information and as the preferred means of storage, the database has gained a level of importance with aesthetic and political implications that go far beyond purely technical questions.Both theorical and practical in its approach, our research investigates the database as a means of expressive and poetic creation and reveals its specific character, in particular the discretization of data and the establishment of flexible relationships between them. In order to develop a poetics of the database we will reconsider the term « aura », which was utilized by walter Benjamin to analyse the transformations of the nature of aesthetic experience brought about by industrial rationalisation and technology at the end of the nineteenth century. The practical part of our research consists of two interactive projects based on the poetic principles elaborated in context of this dissertation
Gli stili APA, Harvard, Vancouver, ISO e altri
49

Alfonso, Espinosa-Oviedo Javier. "Coordination fiable de services de données à base de politiques active". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-01011464.

Testo completo
Abstract (sommario):
Nous proposons une approche pour ajouter des propriétés non-fonctionnelles (traitement d'exceptions, atomicité, sécurité, persistance) à des coordinations de services. L'approche est basée sur un Modèle de Politiques Actives (AP Model) pour représenter les coordinations de services avec des propriétés non-fonctionnelles comme une collection de types. Dans notre modèle, une coordination de services est représentée comme un workflow compose d'un ensemble ordonné d'activité. Chaque activité est en charge d'implante un appel à l'opération d'un service. Nous utilisons le type Activité pour représenter le workflow et ses composants (c-à-d, les activités du workflow et l'ordre entre eux). Une propriété non-fonctionnelle est représentée comme un ou plusieurs types de politiques actives, chaque politique est compose d'un ensemble de règles événement-condition-action qui implantent un aspect d'un propriété. Les instances des entités du modèle, politique active et activité peuvent être exécutées. Nous utilisons le type unité d'exécution pour les représenter comme des entités dont l'exécution passe par des différents états d'exécution en exécution. Lorsqu'une politique active est associée à une ou plusieurs unités d'exécution, les règles vérifient si l'unité d'exécution respecte la propriété non-fonctionnelle implantée en évaluant leurs conditions sur leurs états d'exécution. Lorsqu'une propriété n'est pas vérifiée, les règles exécutant leurs actions pour renforcer les propriétés en cours d'exécution. Nous avons aussi proposé un Moteur d'exécution de politiques actives pour exécuter un workflow orientés politiques actives modélisé en utilisant notre AP Model. Le moteur implante un modèle d'exécution qui détermine comment les instances d'une AP, une règle et une activité interagissent entre elles pour ajouter des propriétés non-fonctionnelles (NFP) à un workflow en cours d'exécution. Nous avons validé le modèle AP et le moteur d'exécution de politiques actives en définissant des types de politiques actives pour adresser le traitement d'exceptions, l'atomicité, le traitement d'état, la persistance et l'authentification. Ces types de politiques actives ont été utilisés pour implanter des applications à base de services fiables, et pour intégrer les données fournies par des services à travers des mashups.
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Dubois, Jean-Christophe. "Vers une interrogation en langage naturel d'une base de données image". Nancy 1, 1998. http://www.theses.fr/1998NAN10044.

Testo completo
Abstract (sommario):
Les premiers travaux présentés dans ce mémoire se sont déroulés dans le cadre d'un projet qui avait pour objectif la réalisation d'un système d'aide vocal permettant à une standardiste malvoyante d'accéder à toutes les informations contenues dans la base de données d'une entreprise. Nous avons mené une étude spécifique afin de concevoir une procédure d'accès tolérant aux fautes d'orthographe lors d'une interrogation par nom. Le système effectue une comparaison entre les transcriptions phonétiques des noms de la base de données et celles du nom épelé. Ces transcriptions sont réalisées en trois étapes : phonémisation, détection d'ilots de confiance et codage en classes phonétiques. Le second volet de nos travaux a porté sur l'emploi du langage naturel (LN) dans l'énonciation des requêtes soumises aux systèmes de recherche d'information (SRI). Le but est d'utiliser la richesse du LN pour améliorer les qualités de recherche d'un SRI. Pour cela, nous avons développé un mode de représentation permettant de modéliser l'intention du locuteur. Cette représentation s'effectue à l'aide d'une structure hiérarchisée appelée schéma d'intention du locuteur (SIL) et constituée de quadruplets. Un quadruplet est composé d'un domaine au sein duquel une axiologie met en opposition deux sous-ensembles : les éléments du domaine sur lesquels portent l'intérêt de l'utilisateur et le reste du domaine. Des mécanismes ont été définis afin d'effectuer des opérations liées aux changements de focalisation de l'utilisateur et notamment la transposition d'axiologies et la généralisation de caractéristiques. La structure des SIL autorise une étude en contexte des énoncés faits en LN ce qui permet une analyse plus fine des connecteurs, des expressions référentielles ou de la négation. Nous nous sommes attachés à montrer dans cette thèse comment des techniques issues du traitement du LN pouvaient contribuer à l'amélioration des performances des SRI en terme de pertinence
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia