Thèses sur le sujet « Bases de données atmosphérique »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Bases de données atmosphérique.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Bases de données atmosphérique ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Wu, Yue. « Détermination spectroscopique automatique de paramètres atmosphériques stellaires ». Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10116.

Texte intégral
Résumé :
Les études Galactiques nécessitent de grands échantillons d'étoiles dont la masse, l'âge, les abondances, la vitesse et la distance sont connues. Les observations spectroscopiques permettent de mesurer certains de ces paramètres et les autres sont soit déterminés par d'autres moyens, ou dérivés par le calcul. Le besoin d'échantillons statistiquement représentatifs a motivé la construction d'instruments, et la réalisation de grands relevés comme le SDSS, LAMOST et GAIA... Ces projets génèrent une énorme quantité de données que les méthodes d'analyse interactives traditionnelles ne peuvent pas gérer. Cela a motivé des efforts pour concevoir des méthodes automatiques. Mon travail a commencé dans ce contexte, et les objectifs étaient de développer et tester une méthode automatique, puis de l'appliquer à des spectres stellaires à moyenne résolution. La thèse comporte quatre sections : 1. Je présente le package informatique ULySS, et en particulier son application à la détermination des paramètres atmosphériques des étoiles. 2. Nous avons utilisé ULySS pour déterminer les paramètres atmosphériques des 1273 étoiles de la bibliothèque CFLIB. 3. Nous avons appliqué la même méthode sur des observations obtenus pendant la mise en service de LAMOST et nous avons préparé une base de données de spectres de références pour les relevés futurs avec cet instrument. 4. Nous avons cherché des étoiles présumées pauvres en métaux (MP) en se servant des données de vérification scientifique de LAMOST. Cette étude contribue à l'étude des étoiles MP dans la Voie Lactée et montre la faisabilité de ces recherches avec LAMOST et ULySS
Galactic studies require large samples of stars with known mass, age, abundance, spatial velocity and distance etc. Spectroscopic observations allow ones to measure some of these parameters and to derive the others. The need for statistically representative samples motivated the construction of instruments and the realization of large surveys like SDSS, LAMOST and GAIA... These projects bring an enormous quantity of data that the traditional interactive spectral analysis methods cannot handle. This triggered efforts to design automatic methods. My work started in this context, and the goals were to develop and test an automatic method and to apply it to medium resolution stellar spectra. The thesis contains four sections: 1. The ULySS package, and in particular its application to the determination of the atmospheric parameters of stars is presented. 2. We used ULySS to determine the atmospheric parameters of the 1273 stars of the CFLIB library. 3. We applied the same method on LAMOST commissioning observations and we prepared stellar spectral templates for the future surveys. 4. We searched new metal-poor (hearafter MP) stellar candidates from LAMOST commissioning observations. The result of these MP star candidates is a prelude to the feasibility of LAMOST's capability on searching and enlarging the sample of MP stars in the Milky Way
Styles APA, Harvard, Vancouver, ISO, etc.
2

Provençal, Simon, et Simon Provençal. « Évaluation et application de MERRAero, une réanalyse des aérosols atmosphériques développée par la NASA ». Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27860.

Texte intégral
Résumé :
La Modern-Era Retrospective Analysis for Research and Application (MERRA) est une réanalyse développée par le Global Modeling and Assimilation Office (GMAO) à la National Aeronautics and Space Administration (NASA) aux États-Unis qui intègre des données observées et des données modélisées pour reproduire une base de données complète dans le temps et l'espace de plusieurs variables atmosphériques (température, vitesse et direction du vent, humidité, pressions, etc.) depuis 1979. Afin de reproduire une analyse intégrée du système terrestre, le GMAO effectue d'autres réanalyses en parallèle : une réanalyse des océans (MERRAOcean), une réanalyse de la surface solide de la Terre (MERRALand) et une réanalyse de la composition de l'atmosphère (MERRAero), cette dernière constituant le sujet central de cette thèse. La 1ère version de MERRAero intègre des données de la profondeur optique des aérosols (AOD) mesurée par MODIS-Terra et MODIS-Aqua, en orbite autour de la Terre depuis 2000 et 2002 respectivement, et les données d'un modèle de chimie atmosphérique qui simule la concentration de cinq espèces dominantes d'aérosols, soit les particules de sulfate, de carbone organique, de carbone noir, de poussière et de sel de mer. La réanalyse reproduit donc la concentration de ces cinq espèces d'aérosols partout sur la Terre, avec une résolution de 0,5º de latitude, 0,625º de longitude et 72 niveaux en altitude, à une fréquence horaire, en plus de leur contribution individuelle à l'AOD totale. Une reconstruction peut ensuite être appliquée pour obtenir la concentration totale des matières particulaires, un contaminant couramment pris en compte pour évaluer la qualité de l'air. MERRAero constitue une avancée importante dans l'étude de la composition atmosphérique à l'échelle globale. Elle met à la disposition de la communauté scientifique un outil novateur qui lui permet d'étudier une vaste gamme de problèmes liées à la pollution atmosphérique qu'aucun réseau de surveillance ne peut accomplir, particulièrement dans les régions dépourvues de toute surveillance fiable. MERRAero doit cependant traverser un processus d'évaluation rigoureux avant d'être jugée apte à accomplir ses fonctions. Certaines de ses capacités ont déjà été évaluées à certains endroits, notamment sa simulation de l'AOD au-dessus de certaines régions du monde et sa simulation de la concentration des oxydes de soufre aux États-Unis. L'objectif de cette thèse est de poursuivre les travaux d'évaluation avec une emphase sur la concentration des différentes espèces d'aérosols simulées à la surface par MERRAero dans plusieurs régions du monde. Une fois que l'évaluation ait été jugée favorable, MERRAero a ensuite été appliquée à une étude sur la pollution urbaine de l'air à l'échelle globale. La concentration de plusieurs espèces d'aérosols simulée par MERRAero à la surface depuis 2003 a été comparée à des données d'observations provenant de différents réseaux de surveillance autour du monde : le Interagency Monitoring of Protected Visual Environments (IMPROVE) aux États-Unis, le European Monitoring and Evaluation Programme (EMEP) en Europe, celui du Ministère de la protection environnementale en Israël et celui de l'Administration de la protection environnementale à Taïwan. Plusieurs indicateurs statistiques ont été calculés, et des analyses spatiales et temporelles ont été effectuées pour évaluer l'exactitude de MERRAero, identifier ses lacunes importantes et formuler des recommandations pour améliorer ses versions subséquentes. L'évaluation aux É.-U. et en Europe en milieu rural a démontré que MERRAero reproduit bien la concentration des particules de sulfate et de carbone d'origine anthropique. La concentration des particules de carbone d'origine naturelle, provenant notamment des feux de forêt, a cependant été largement surestimée, causant ainsi un biais important en été. MERRAero a surestimé aussi la concentration des particules de sable de sources lointaines, telles que le Sahara et les déserts en l'Asie de l'Est qui affectent légèrement la composition des aérosols aux É.-U. L'évaluation a reproduit des résultats favorables en milieu urbain malgré la résolution de MERRAero qui ne capture pas toutes les sources d'aérosols, causant ainsi des fluctuations saisonnières non conformes aux observations. L'évaluation a reproduit des résultats très favorables en Israël. Sa proximité au Sahara et aux déserts du Moyen-Orient suggère que MERRAero simule très bien la concentration des particules de sable d'origine locale. À Taïwan, MERRAero a reproduit la concentration des aérosols généralement bien à l'exception des mois d'hiver, lorsque Taïwan est le plus affecté par l'advection de pollution d'origine chinoise.
La Modern-Era Retrospective Analysis for Research and Application (MERRA) est une réanalyse développée par le Global Modeling and Assimilation Office (GMAO) à la National Aeronautics and Space Administration (NASA) aux États-Unis qui intègre des données observées et des données modélisées pour reproduire une base de données complète dans le temps et l'espace de plusieurs variables atmosphériques (température, vitesse et direction du vent, humidité, pressions, etc.) depuis 1979. Afin de reproduire une analyse intégrée du système terrestre, le GMAO effectue d'autres réanalyses en parallèle : une réanalyse des océans (MERRAOcean), une réanalyse de la surface solide de la Terre (MERRALand) et une réanalyse de la composition de l'atmosphère (MERRAero), cette dernière constituant le sujet central de cette thèse. La 1ère version de MERRAero intègre des données de la profondeur optique des aérosols (AOD) mesurée par MODIS-Terra et MODIS-Aqua, en orbite autour de la Terre depuis 2000 et 2002 respectivement, et les données d'un modèle de chimie atmosphérique qui simule la concentration de cinq espèces dominantes d'aérosols, soit les particules de sulfate, de carbone organique, de carbone noir, de poussière et de sel de mer. La réanalyse reproduit donc la concentration de ces cinq espèces d'aérosols partout sur la Terre, avec une résolution de 0,5º de latitude, 0,625º de longitude et 72 niveaux en altitude, à une fréquence horaire, en plus de leur contribution individuelle à l'AOD totale. Une reconstruction peut ensuite être appliquée pour obtenir la concentration totale des matières particulaires, un contaminant couramment pris en compte pour évaluer la qualité de l'air. MERRAero constitue une avancée importante dans l'étude de la composition atmosphérique à l'échelle globale. Elle met à la disposition de la communauté scientifique un outil novateur qui lui permet d'étudier une vaste gamme de problèmes liées à la pollution atmosphérique qu'aucun réseau de surveillance ne peut accomplir, particulièrement dans les régions dépourvues de toute surveillance fiable. MERRAero doit cependant traverser un processus d'évaluation rigoureux avant d'être jugée apte à accomplir ses fonctions. Certaines de ses capacités ont déjà été évaluées à certains endroits, notamment sa simulation de l'AOD au-dessus de certaines régions du monde et sa simulation de la concentration des oxydes de soufre aux États-Unis. L'objectif de cette thèse est de poursuivre les travaux d'évaluation avec une emphase sur la concentration des différentes espèces d'aérosols simulées à la surface par MERRAero dans plusieurs régions du monde. Une fois que l'évaluation ait été jugée favorable, MERRAero a ensuite été appliquée à une étude sur la pollution urbaine de l'air à l'échelle globale. La concentration de plusieurs espèces d'aérosols simulée par MERRAero à la surface depuis 2003 a été comparée à des données d'observations provenant de différents réseaux de surveillance autour du monde : le Interagency Monitoring of Protected Visual Environments (IMPROVE) aux États-Unis, le European Monitoring and Evaluation Programme (EMEP) en Europe, celui du Ministère de la protection environnementale en Israël et celui de l'Administration de la protection environnementale à Taïwan. Plusieurs indicateurs statistiques ont été calculés, et des analyses spatiales et temporelles ont été effectuées pour évaluer l'exactitude de MERRAero, identifier ses lacunes importantes et formuler des recommandations pour améliorer ses versions subséquentes. L'évaluation aux É.-U. et en Europe en milieu rural a démontré que MERRAero reproduit bien la concentration des particules de sulfate et de carbone d'origine anthropique. La concentration des particules de carbone d'origine naturelle, provenant notamment des feux de forêt, a cependant été largement surestimée, causant ainsi un biais important en été. MERRAero a surestimé aussi la concentration des particules de sable de sources lointaines, telles que le Sahara et les déserts en l'Asie de l'Est qui affectent légèrement la composition des aérosols aux É.-U. L'évaluation a reproduit des résultats favorables en milieu urbain malgré la résolution de MERRAero qui ne capture pas toutes les sources d'aérosols, causant ainsi des fluctuations saisonnières non conformes aux observations. L'évaluation a reproduit des résultats très favorables en Israël. Sa proximité au Sahara et aux déserts du Moyen-Orient suggère que MERRAero simule très bien la concentration des particules de sable d'origine locale. À Taïwan, MERRAero a reproduit la concentration des aérosols généralement bien à l'exception des mois d'hiver, lorsque Taïwan est le plus affecté par l'advection de pollution d'origine chinoise.
Malgré les lacunes identifiées, dans l'ensemble, l'évaluation a reproduit des résultats jugés suffisamment favorables pour que MERRAero soit appliquée dans une multitude de problématiques, notamment à l'étude de la pollution urbaine de l'air à l'échelle globale. Cette analyse a démontré l'impact que les politiques environnementales et la récession économique des dernières années ont eu sur la pollution atmosphérique des villes d'Amérique du Nord, d'Europe et d'Asie de l'Est. Même l'air des villes chinoises, lesquelles sont aux prises avec de sérieux problèmes de pollution depuis plusieurs années, s'est amélioré grâce à une initiative du gouvernement à réduire les émissions de contaminants atmosphériques. Les villes de l'Inde et du Bangladesh sont les seules à avoir vu leur situation se détériorer, due à une forte urbanisation et industrialisation. La qualité de l'air des villes d'Amérique du Sud et d'Afrique subsaharienne s'est aussi améliorée par un ralentissement des activités de déforestation au cours des dix dernières années, particulièrement dans la forêt amazonienne.
Malgré les lacunes identifiées, dans l'ensemble, l'évaluation a reproduit des résultats jugés suffisamment favorables pour que MERRAero soit appliquée dans une multitude de problématiques, notamment à l'étude de la pollution urbaine de l'air à l'échelle globale. Cette analyse a démontré l'impact que les politiques environnementales et la récession économique des dernières années ont eu sur la pollution atmosphérique des villes d'Amérique du Nord, d'Europe et d'Asie de l'Est. Même l'air des villes chinoises, lesquelles sont aux prises avec de sérieux problèmes de pollution depuis plusieurs années, s'est amélioré grâce à une initiative du gouvernement à réduire les émissions de contaminants atmosphériques. Les villes de l'Inde et du Bangladesh sont les seules à avoir vu leur situation se détériorer, due à une forte urbanisation et industrialisation. La qualité de l'air des villes d'Amérique du Sud et d'Afrique subsaharienne s'est aussi améliorée par un ralentissement des activités de déforestation au cours des dix dernières années, particulièrement dans la forêt amazonienne.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Oudot, Charlotte. « Spectroscopie de la vapeur d'eau par Transformation de Fourier. Application aux régions d'intérêt atmosphérique ». Thesis, Reims, 2011. http://www.theses.fr/2011REIMS035/document.

Texte intégral
Résumé :
Le travail présenté dans ce mémoire concerne le cadre global de la connaissance de notre atmosphère. L'exploitation des spectres atmosphériques requiert une bonne connaissance des paramètres de raies des molécules qui la composent. En particulier de la vapeur qui en est l'absorbant principal. Des spectres ont été enregistrés avec le spectromètre par transformation de Fourier construit au laboratoire et ceux ci ont été traités en ajustement multi-spectres avec le logiciel MultiFiT. Ce travail se focalise sur la mesure précise des intensités de raie dans deux régions spectrales. A 10 µm, région d'intérêt atmosphérique pour l'instrument IASI, deux études sur les intensités sont présentées. Pour l'isotopologue principal de 1200 à 1400 cm-1, 300 transitions ont pu être mesurées et comparées aux données de la littérature. Le but de ce travail était de déterminer la meilleure base de données pour l'exploitation des spectres IASI. De 1000 à 2300 cm-1, les isotopologues H218O et HD18O ont été étudié à partir de spectres enrichis en 18O. Ce travail a permis de mesurer et d'attribuer un ensemble de 2500 transitions. Enfin ce mémoire propose une révision complète des intensités de la région 1.25µm, qui présentent un important problème dans les bases de données. 39 spectres ont été enregistrés pour cette région avec des échantillons d'eau naturelle. Plus de 11000 transitions ont pu être mesurées et sont comparées aux données de la littérature. Une partie de ces intensités, publiées en 2010, a été exploité par L. Tallis de l'université de Reading. Enfin ce mémoire présente le début d'une exploitation des coefficients d'élargissement obtenus dans la région de 1.25µm
The work presented in this manuscript concern the knowledge of our atmosphere. In fact, the analysis of atmospheric spectra needs a good understanding of atmospheric molecular species. In particular the water vapor plays a special role as the first absorbent of earth's atmosphere. Spectra were recorded by Fourier transform spectrometer designed in the laboratory and lines parameters fitted with multi-spectra procedure named MultiFiT. The spectroscopic studies focus on lines intensity measurements for two different spectral ranges. The first presented is 10 µm, were two studies have been done. For the H216O isotopologue in the 1200 – 1400 cm-1 range, 300 transitions were measured and compared with literature data. The aim of this work was to determine the best spectroscopic database for IASI recording analysis. In 1000 to 2300 cm-1, H218O and HD18O isotopologue were measured with enriched 18O spectra. Over 2500 transitions were measured and assigned. Also this manuscript presents a huge work done in the 1.25µm region. This range appears in database with an important discrepancy for line intensities. 39 spectra were recorded with water vapor sample in natural abundance. Over 11000 transitions were measured and assigned, comparison to literature data are also presented. A part of this work were published in 2010 and used by L.Tallis, form University of Reading, for atmospheric application. At the end of this manuscript is presented the first comparisons with calculated data done for self broadening coefficients in the 1.25µm region
Styles APA, Harvard, Vancouver, ISO, etc.
4

François, Stéphanie. « Etude du comportement atmosphérique des hydroperoxydes et des composés carbonylés : développement instrumental et études de terrain ». Aix-Marseille 1, 2004. http://www.theses.fr/2004AIX11015.

Texte intégral
Résumé :
En tant que source et puits de radicaux libres, le suivi des concentrations atmosphériques des hydroperoxydes et des composés carbonylés et l'intégration des données dans des modèles de simulation est aujourd'hui indispensable pour améliorer nos connaissances. L'objectif de ce travail a donc été de développer et d'automatiser des méthodes de prélèvement et d'analyse de ces composés afin de participer à 2 campagnes de terrain dans la région de Marseille (France) : ESCOMPTE et BOND. Ces campagnes ont pour objectifs de documenter par des mesures des bases de données utilisées par la suite pour contraindre des modèles de simulation. Les méthodes analytiques retenues pour réaliser ce travail sont pour les hydroperoxydes un piégeage en phase aqueuse par tube à écoulement et une analyse par CLHP/fluorescence (dérivation post-colonne, POPHA/péroxydase). Pour les composés carbonylés, les méthodes retenues sont un piégeage en phase liquide avec des chambres à brouillard contenant de la 2,4-DNPH et une analyse par CLHP/UV. Elles permettent respectivement la quantification de 7 hydroperoxydes (limites de détection de 10 - 100 pptv) et de 11 composés carbonylés (limites de détection inférieures à 0,54 ppbv). L'automatisation de ces méthodes a conduit au développement de collecteurs autonomes 24 heures et d'un analyseur en ligne d'hydroperoxydes. Les résultats de la campagne ESCOMPTE ont permis de discuter de l'impact de la production photochimique locale sur les concentrations atmosphériques des hydroperoxydes et des composés carbonylés. Les mesures d'hydroperoxydes effectuées pendant la campagne BOND ont été utilisées pour estimer les concentrations des radicaux peroxyles.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Lemasson, Loïc. « Vents et tempêtes sur le littoral de l'ouest de la France : variabilité, variation et conséquences morphologiques ». Rennes 2, 1999. http://www.theses.fr/1999REN20040.

Texte intégral
Résumé :
Au-delà d'un intérêt énergétique le vent mérite d'être étudié dans une optique purement climatologique. En effet, même s'il n'est pas un indicateur aussi évocateur que les températures ou les précipitations, sa force et sa direction sont le reflet des conditions météorologiques. La variabilité et la variation de cet indicateur rendent compte de la circulation atmosphérique et de ses modifications. Les résultats d'analyse de longues séries (1951-1996) sur la façade maritime de l'ouest de la France montrent des modifications de la vitesse moyenne, de la direction, de la fréquence et de la direction des tempêtes. Un suivi des situations synoptiques, durant la même période, au-dessus de la région d'étude montre une évolution quant au nombre et aux caractéristiques des situations cycloniques. Ces deux résultats sont conformes aux autres études menées sur des bases de données différentes. Ils s'accordent avec les conclusions sur les modifications de la circulation atmosphérique et les relations océan-atmosphère. Ces modifications ne sont pas sans conséquences sur le littoral. Depuis une quarantaine d'année ce dernier est en recul. A partir du milieu des années 70 le rythme du recul a changé : il s'accélère. Cette période correspond à un changement dans la climatologie du vent. Même si le facteur anthropique reste la première pression, il a été montré que le vent et les agents météo-marins ne sont pas étrangers à cette érosion
@Beyond an energetic interest wind must be studied as a climatologic factor. Even if it has a less impact as temperatures and rainfalls have on mankind, his speed and direction reflect the meteorological conditions. The variability and variation of this factor indicate the atmospheric circulation and her modification. The results of analyses for long series of data (1951-1996) on the West coasts of France show some evolution of the wind speed, of the main direction, of the storm frequency and of the storm direction. During the same time the synoptic situations over this country have an evolution : we detect more cyclonic situation and new characteristics of those situations. Those two results aren't different from results of others studies on the same subject. Those evolution have some impacts on the shoreline. Since forty years, the shoreline retreats and this retreat accelerates since the middle of the seventies. This period corresponds with the main change in the wind climatology for the last forty years. Even if the main actor of the coastal retreat are human actions, we demonstrate that the wind and the wave climate are still major elements of coastal erosion
Styles APA, Harvard, Vancouver, ISO, etc.
6

Babou, Yacine. « Transferts radiatifs dans les plasmas de mélanges CO2-N2 : base de données spectroscopiques, étude expérimentale et application aux rentrées atmosphériques ». Paris 11, 2007. http://www.theses.fr/2007PA112145.

Texte intégral
Résumé :
La détermination des transferts radiatifs trouve son intérêt dans de nombreuses applications industrielles et en particulier dans le secteur aérospatial. Le travail de thèse présenté dans ce manuscrit comporte trois volets distincts à la prédiction des transferts radiatifs dans les plasmas de mélanges CO2-N2 pour des applications de rentrées atmosphériques martiennes. Le premier volet est consacré au développement d’une base de données spectroscopiques haute résolution relatives au processus radiatifs participants au rayonnement des plasmas de mélanges de CO2-N2 entre 2000 K et 50000 K. Le travail est particulièrement focalisé sur les transitions lié-lié des molécules C2, CO, CO+ et CN pour lesquelles des données exhaustives restent encore disponibles. Le second volet est dédié à la mise en place et à l ‘exploitation d’un banc expérimental comprenant une source plasma à micro-ondes fonctionnant à pression atmosphérique. Un banc de diagnostics optiques par spectroscopie d’émission dans l’UV, le visible et le proche infrarouge est associé au banc expérimental. Les mesures des spectres d’émissions des plasmas de CO2 et de CO2(97%)-N2(3%), calibrées en absolu, ont été misent à profit en vue de vérifier l’hypothèse de l’ équilibre des modes vibrationnels et électroniques. La température obtenue pour les plasmas de CO2 et de CO2(97%)-N2(3%) est respectivement de 5400 K et 6500 K. Un modèle de propriétés radiatives compatible avec une description hors d’équilibre thermique et chimique du plasma est présenté dans le troisième volet. Une formulation appropriée à la description multi-température de l’état thermodynamique du plasma est en particulier adoptée. Ce modèle de rayonnement combiné aux bases de données spectroscopiques disponibles a été mis à profit pour prédire les transferts radiatifs lors de rentrées atmosphériques martienne et terrestre
The prediction of radiative transfers is required in many applications such as the re-entry of space vehicles in the atmosphere. The present work is articulated around three large axes devoted to the study of the radiation emitted from CO2-N2 plasmas for Martian atmospheric entry applications. The first part is dedicated to the construction of spectroscopic databases useful for high resolution radiation prediction of CO2-N2 mixtures for temperatures ranging from 2000 K to 50000 K. The work was especially focused on the construction of exhaustive data related to bound-bound radiative transitions of CO2, CO, CO+ and CN molecules. The second part is dedicated to the presentation and the exploitation of an experimental bench including a microwave plasma torch working at atmospheric pressure. Optical diagnostic benches for emission spectroscopy in the UV, visible and near infrared are used. Measured spectra for CO2 and CO2(97%)-N2(3%) plasmas, were analysed in order to characterise the thermodynamic state. The plasma was found at the equilibrium and the temperature of the CO2 and CO2(97%)-N2(3%) plasmas was found to be at 5400 K and 6500 K respectively. In the third part, a radiative properties model is developed suitable for the prediction of radiative in the framework of multi-temperature description of the thermodynamic state of the atmospheric entry plasma. This approach is combined with the available spectroscopic databases in order to predict radiative transfer for Mars and Earth atmospheric entry
Styles APA, Harvard, Vancouver, ISO, etc.
7

Decooninck, Anne-Sophie. « Modélisation par objets de systèmes complexes dans le cadre d'applications scientifiques spatiales : introduction de la notion de version dans un modèle objet multivue ». Toulouse, INPT, 1994. http://www.theses.fr/1994INPT091H.

Texte intégral
Résumé :
La specification et la conception de systemes spatiaux complexes font appel a des outils de modelisation et d'analyse dans le domaine du calcul scientifique. Chacun de ces outils utilise sa propre representation du systeme spatial, ce qui pose des problemes de coherence et de communication. Pour resoudre ces problemes, nous proposons d'utiliser un modele unique du systeme faisant appel a la technologie objet. Pour montrer la faisabilite et l'apport de l'introduction de cette technologie dans le calcul scientifique, nous avons elabore un modele objet des donnees manipulees au cours du processus de modelisation et d'analyse de systemes spatiaux mis en uvre lors de l'utilisation de l'environnement systema. Ce modele a ensuite ete prototype a l'aide d'une base de donnees objet. Ceci nous a permis de mettre en evidence les benefices apportes en matiere, d'une part d'accessibilite, de coherence, de partage et de reutilisation des informations, et d'autre part d'evolutivite des modeles de systemes spatiaux et des outils logiciels. La technologie objet ne permet cependant pas de proposer une representation multiple des modeles, ni de gerer l'historique des modifications des donnees. Afin de resoudre ce probleme de representation multiple de systemes complexes comportant des entites composites et evolutives, nous proposons d'introduire les notions de vue et de version dans le modele objet. La definition d'entites possedant des informations communes, en particulier la structure de decomposition hierarchique, et des informations specifiques, contenues dans des vues, qui sont accedees a travers des points de vue permet de proposer la representation multiple d'objets composites. De plus, le versionnage des entites et des vues definies sur celles-ci permet d'assurer le suivi de l'evolution de ces informations. Le modele abstrait que nous proposons est compose d'un modele statique permettant la definition sous divers formalismes des entites, vues et points de vue, et d'un ensemble d'operations mettant en uvre des mecanismes d'evolution des versions des entites et des vues
Styles APA, Harvard, Vancouver, ISO, etc.
8

Preiss, Nicolas. « Etude du 210Pb d'origine atmosphérique dans l'air, la neige, les sols et les sédiments : mesures, inventaires et interprétation à l'échelle globale ». Phd thesis, Grenoble 1, 1997. http://tel.archives-ouvertes.fr/tel-00765239.

Texte intégral
Résumé :
L'étude présentée ici concerne la répartition du 210Pb atmosphérique à l'échelle globale dans l'environnement. Ce travail débute par une étude expérimentale concernant les mesures de flux de dépôt atmosphérique de 210Pb dans les pluies, les sols et la neige. Une base de données a ensuite été construite en regroupant les mesures effectuées ces quatre dernières décennies. Celle-ci se focalise sur les concentrations de 210Pb dans l'air de surface et sur les flux de dépôt d'origine atmosphérique mesurés aux interfaces atmosphère-surface terrestre (collecteurs artificiels, sols et neige) et eau-sédiment. Cette base de données est ensuite exploitée. Les données de 210Pb atmosphérique sont analysées qualitativement en termes de transport (circulation atmosphérique) et de mécanismes de dépôt, et utilisées quantitativement pour la validation d'un modèle de circulation générale (GCM). En dernière partie, les données de flux de dépôt de 210Pb à l'interface eau-sédiment sont comparées statistiquement aux données de flux de dépôt atmosphérique. Cette comparaison est appliquée à l'étude des transferts entre l'atmosphère et les sédiments et permet ainsi de distinguer quatre différents types de réservoirs aquatiques.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Pascaud, Aude. « Déterminants des évolutions spatio-temporelles des retombées atmosphériques acidifiantes et eutrophisantes en France et élaboration d’un modèle de projection ». Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10105/document.

Texte intégral
Résumé :
Les polluants atmosphériques, qu’ils soient de sources naturelles ou anthropiques, peuvent être transformés et transportés sur de longues distances. Les retombées atmosphériques constituent des puits définitifs pour ces polluants atmosphériques. Ce travail de recherche s’inscrit dans le cadre du projet SESAME du programme PRIMEQUAL « Pollution longue distance ». Les objectifs sont d’identifier les déterminants de l’évolution des retombées atmosphériques acidifiantes et eutrophisantes et d’évaluer l’efficacité des politiques de réduction en vigueur. Les méthodologies reposent sur des approches statistiques appliquées à une compilation de bases de données issues de trois observatoires MERA, CATAENAT et BAPMoN. L’utilisation de procédures de consolidation et de comparaison a permis d’optimiser la base de données pour envisager des analyses descriptives en toute objectivité. La détermination de la composition chimique des espèces ioniques majeures a permis de distinguer les déterminants des contrastes géographiques et saisonniers de la chimie des retombées atmosphériques. L’étude des changements temporels annuels et saisonniers par la méthode de Sen Mann Kendall a mis en évidence des liens pouvant être linéaires ou non linéaires entre les évolutions de la composition chimique des retombées atmosphériques et leurs déterminants. L’expertise des déterminants a contribué à la création pas à pas d’un modèle statistique en vue de proposer des prévisions des retombées atmosphériques au site de mesure à l’horizon de quelques années (suivant différents scénarios climatiques). Des valeurs ponctuelles de dépassement de charges critiques et leur évolution face aux dépôts mesurés et projetés ont été évaluées. Enfin, la densité de sites a permis d’obtenir une spatialisation des retombées atmosphériques, qui a pu être comparée aux cartes de dépôts modélisées par le modèle EMEP
Atmospheric pollutants emitted by both natural and anthropogenic sources are precursors of secondary compounds such as acidic gases and aerosols, which can be transported over long distances. Atmospheric deposition is the ultimate sink for these pollutants and can lead to acidification and eutrophication issues. This research was conducted within the SESAME project as part of the PRIMEQUAL long distance pollution program. The objectives seek to identify determinants of atmospheric deposition changes and to evaluate policies of pollutant reductions. Statistical approaches were applied to measurement databases of three French networks: MERA, CATAENAT and BAPMoN. Several procedures were developed to consolidate and to compare the datasets for a descriptive analysis. Geographical and seasonal determinants were identified based on the chemistry of concentrations and deposition fluxes. The trends resulting from Sen Mann Kendall tests highlighted that the changes in chemical compositions of atmospheric deposition can be either linear or nonlinear with the identified determinants. The findings were used to develop a predictive model to forecast the deposition fluxes of sulfur and nitrogen species under different climate scenarios and over several decades. The exceedances of critical loads and their changes were evaluated from current and forecasted deposition fluxes. Finally, the density of measurement sites over the French area was strong enough to create maps of deposition fluxes, which were then compared to the EMEP model outputs
Styles APA, Harvard, Vancouver, ISO, etc.
10

Tchana, betnga Wilfried. « Développement d'instrumentation pour une spectroscopie simultanée THz et IR : application à l'équilibre de HONO ». Electronic Thesis or Diss., Université Paris Cité, 2023. http://www.theses.fr/2023UNIP7134.

Texte intégral
Résumé :
La mesure des concentrations d'espèces traces, susceptibles d'avoir un impact notable sur la santé, le climat ou la stabilité de la couche d'ozone constitue un véritable défi. Les prochaines missions spatiales, prévues à haute sensibilité (FORUM et IASI-NG), apporteront un progrès seulement si les paramètres spectraux nécessaires sont disponibles. Pour certaines espèces réactives, telles que l'acide nitreux (HONO) et l'acide hypobromeux (HOBr), les données spectroscopiques sont incomplètes ou quasiment inexistantes. Le défi dans cette thèse consiste à obtenir des paramètres spectroscopiques quantitatifs pour ces espèces. Pour atteindre cet objectif, un dispositif instrumental novateur impliquant l'utilisation simultanée de deux instruments, une expérience IR/THz, a été construit : une cellule thermostatée (200-350K) conçue en matériaux inertes, verre et téflon, est combinée à un spectromètre THz dans la région 0.1-1.1 THz et un spectromètre à Transformée de Fourier (FTS) à haute résolution (HR) dans le domaine IR. Le spectromètre THz permet de sélectionner plusieurs raies purement rotationnelles de la molécule cible pour la détermination de la pression partielle et le FTS la mesure simultanée du spectre rovibrationnel dans une fenêtre atmosphérique IR utilisable pour la quantification de l'espèce d'intérêt. La stratégie s'appuie donc sur le fait que les intensités des raies de rotation pure dépendent uniquement du moment dipolaire moléculaire, qui est connu avec précision à partir de mesures existantes par effet Stark. Dans le cas de HONO qui n'existe au laboratoire que sous la forme d'un équilibre avec H2O, NO et NO2, la méconnaissance de la pression partielle dans le mélange gazeux entraîne de sérieuses difficultés pour effectuer des mesures quantitatives. De plus, HONO possède deux formes isomériques et la hauteur de la barrière d'isomérisation entre le cis- et le trans-HONO DeltaCis-Trans est encore mal connue, ce qui affecte les positions et surtout les intensités de raies. Pour obtenir une valeur plus précise de cette barrière, des spectres ont été enregistrés à HR dans la gamme 50 - 200 cm-1, à 3 températures (240, 270 et 296 K), en utilisant le rayonnement synchrotron de la ligne AILES à SOLEIL. Des modélisations précises ont été effectuées et ont permis de déterminer la hauteur de la barrière DeltaCis-Trans = 95.8 ± 9.2 cm-1. Notre valeur est en bon accord avec la détermination précédente de Sironneau et al. (99 ± 25 cm-1) mais nous avons amélioré la précision d'un facteur 2.6. Nous avons utilisé cette nouvelle valeur de DeltaCis-Trans et les paramètres du moment dipolaire pour un calcul du spectre synthétique. Une liste de raies précise dans la région de l'IR lointain (0 - 200 cm-1) incluant les positions et intensités absolues a été compilée et s'est avérée plus robuste pour une meilleure détection de HONO dans les objets astrophysiques. Pour la détermination des intensités absolues dans la région IR moyen où HONO est actuellement détectée, des spectres simultanés IR/THz ont été enregistrés au LISA en utilisant l'instrumentation innovante développée durant cette thèse. Une première modélisation de ces spectres est présentée dans cette thèse et in fine, il en découlera une liste de raies pour HONO dans la région 730 - 920 cm-1 qui sera fourni à la communauté scientifique via les bases de données HITRAN et GEISA et exploitée dans l'analyse des observations satellitaires. Concernant HOBr, l'objectif sera de compiler une base de données spectroscopiques dans l'IR vers 8.6 um qui sera utilisée par IASI-NG et FORUM pour une détection et quantification dans l'atmosphère terrestre. Notons que HOBr joue un rôle important dans la chimie atmosphérique et n'existe au laboratoire que dans un mélange caractérisé par l'équilibre chimique : H2O + Br2O = 2(HOBr). La méthodologie et les outils expérimentaux développés durant cette thèse sont un atout pour la mise en oeuvre de ce projet qui, constitue les perspectives de ce travail
Measuring trace gases having a notable impact on human health, climate and the stability of the ozone layer constitutes an extremely important challenge. In the coming years, new, higher sensitivity satellite instruments will improve atmospheric sounding only if the necessary spectral parameters are available. For some species of atmospheric interest such as nitrous acid (HONO) and hypobromous acid (HOBr), spectroscopic data are incomplete or almost non-existent. The challenge in this thesis is to get quantitative spectroscopic parameters for these species. To achieve this objective, an innovative instrumental set-up involving the simultaneous use of two instruments, an IR/THz dual beam experiment, has been built: a thermostatically controlled cell (200-350K) made of inert materials, glass and Teflon, capable of accommodating a 0.1-1.1 THz spectrometer and coupled to a high resolution (HR) Fourier Transform spectrometer (FTS) in the IR range. The THz spectrometer allows to select rotational lines of the target molecule for partial pressure determination, and the FTS enables simultaneous measurement of the rovibrational spectrum in an IR atmospheric window for quantification of the species of interest. The adopted strategy relies on the fact that the intensities of the rotational spectra simply depend on the permanent dipole moment of the molecule of interest, determined with high accuracy from Stark effect measurements. In the case of HONO, which only exists in laboratory conditions in the form of an equilibrium mixture with other species like H2O, NO and NO2, the lack of knowledge of the partial pressure in the gas mixture leads to serious difficulties for quantitative measurements. In addition, HONO exists in two conformer forms, and the height of the conformer barrier between cis- and trans-HONO DeltaCis-Trans is still poorly known, which affects lines positions and especially lines intensities. To improve the determination of the energy difference between the ground vibrational state of the cis- and trans-HONO conformers of HONO, high resolution spectra were recorded in the 50-200 cm-1 spectral region at three different temperatures (240, 270 and 296 K), using the synchrotron radiation of the AILES beamline at SOLEIL. Precise modelling has been performed and were used to determine the height of the conformer barrier DeltaCis-Trans = 95.8 ± 9.2 cm-1. Our value is in good agreement with the previous determination by Sironneau et al (99 ± 25 cm-1), but we have improved the accuracy of this determination by a factor of 2.6. We used this new value of DeltaCis-Trans and the dipole moment parameters for a synthetic spectrum calculation. A precise line list in the far-IR region (0 - 200 cm-1), including positions and absolute lines intensities was generated and, proved to be more robust for an improved detection of HONO in astrophysical objects. To determine absolute intensities in the mid-IR region where HONO is currently detected, simultaneous IR/THz spectra were recorded at LISA using innovative instrumentation developed during this thesis. A first modelling of these spectra is presented in this thesis, and in fine will lead to a much more precise line list for HONO in the 730 - 920 cm-1 region, which will be provided to the scientific community via the HITRAN and GEISA databases and used in the analysis of satellite observations. Regarding HOBr, the aim will be to generate a spectroscopic database in the IR region around 8.6 um, to be used by IASI-NG and FORUM for detection and quantification in the Earth's atmosphere. HOBr plays an important role in atmospheric chemistry and, only exists in laboratory conditions in a mixture characterized by chemical equilibrium: H2O + Br2O = 2(HOBr). The methodology and experimental tools developed during this thesis will be an advantage for implementation of this project, which constitutes the outlook for this work
Styles APA, Harvard, Vancouver, ISO, etc.
11

Gross-Amblard, David. « Tatouage des bases de données ». Habilitation à diriger des recherches, Université de Bourgogne, 2010. http://tel.archives-ouvertes.fr/tel-00590970.

Texte intégral
Résumé :
Les techniques de tatouage de bases de données permettent la dissimulation d'information pertinente dans les n-uplets, comme par exemple l'identité du propriétaire des données. Les techniques de tatouage sont nombreuses dans le domaine multimédia, mais le tatouage des bases de données présente de nombreuses spécificités. Certaines d'entre elles sont traitées dans ce document : comment tatouer une base de données numérique tout en préservant le résultat de requêtes d'agrégat importantes, comment tatouer un flux structuré, comme un flux XML typé ou une partition musicale symbolique, comment tatouer une base de données géographiques.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Waller, Emmanuel. « Méthodes et bases de données ». Paris 11, 1993. http://www.theses.fr/1993PA112481.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
13

Castelltort, Arnaud. « Historisation de données dans les bases de données NoSQLorientées graphes ». Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20076.

Texte intégral
Résumé :
Cette thèse porte sur l'historisation des données dans les bases de données graphes. La problématique des données en graphes existe depuis longtemps mais leur exploitation par des moteurs de système de gestion de bases de données, principalement dans les moteurs NoSQL, est récente. Cette apparition est notamment liée à l'émergence des thématiques Big Data dont les propriétés intrinsèques, souvent décrites à l'aide des propriétés 3V (variété, volume, vélocité), ont révélé les limites des bases de données relationnelles classiques. L'historisation quant à elle, est un enjeu majeur des SI qui a été longtemps abordé seulement pour des raisons techniques de sauvegarde, de maintenance ou plus récemment pour des raisons décisionnelles (suites applicatives de Business Intelligence). Cependant, cet aspect s'avère maintenant prendre une place prédominante dans les applications de gestion. Dans ce contexte, les bases de données graphes qui sont de plus en plus utilisées n'ont que très peu bénéficié des apports récents de l'historisation. La première contribution consiste à étudier le nouveau poids des données historisées dans les SI de gestion. Cette analyse repose sur l'hypothèse selon laquelle les applications de gestion intègrent de plus en plus en leur sein les enjeux d'historisation. Nous discutons ce positionnement au regard de l'analyse de l'évolution des SI par rapport à cette problématique. La deuxième contribution vise, au-delà de l'étude de l'évolution des sytèmes d'information, à proposer un modèle innovant de gestion de l'historisation dans les bases de données NoSQL en graphes. Cette proposition consiste d'une part en l'élaboration d'un système unique et générique de représentation de l'historique au sein des BD NoSQL en graphes et d'autre part à proposer des modes d'interrogation (requêtes). Nous montrons qu'il est possible d'utiliser ce système aussi bien pour des requêtes simples (c'est-à-dire correspondant à ce que l'on attend en première intention d'un système d'historisation~: récupérer les précédentes versions d'une donnée) mais aussi de requêtes plus complexes qui permettent de tirer parti aussi bien de la notion d'historisation que des possibilités offertes par les bases de données graphes (par exemple, la reconnaissance de motifs dans le temps)
This thesis deals with data historization in the context of graphs. Graph data have been dealt with for many years but their exploitation in information systems, especially in NoSQL engines, is recent. The emerging Big Data and 3V contexts (Variety, Volume, Velocity) have revealed the limits of classical relational databases. Historization, on its side, has been considered for a long time as only linked with technical and backups issues, and more recently with decisional reasons (Business Intelligence). However, historization is now taking more and more importance in management applications.In this framework, graph databases that are often used have received little attention regarding historization. Our first contribution consists in studying the impact of historized data in management information systems. This analysis relies on the hypothesis that historization is taking more and more importance. Our second contribution aims at proposing an original model for managing historization in NoSQL graph databases.This proposition consists on the one hand in elaborating a unique and generic system for representing the history and on the other hand in proposing query features.We show that the system can support both simple and complex queries.Our contributions have been implemented and tested over synthetic and real databases
Styles APA, Harvard, Vancouver, ISO, etc.
14

Benchkron, Said Soumia. « Bases de données et logiciels intégrés ». Paris 9, 1985. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1985PA090025.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
15

Marie-Julie, Jean Michel. « Bases de données d'images- Calculateurs parallèles ». Paris 6, 2000. http://www.theses.fr/2000PA066593.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
16

Chicheportiche, Alexandre. « Données de base des ions atomiques et moléculaires de l'hélium et de l'argon pour l'optimisation des jets de plasmas froids utilisés dans le domaine biomédical ». Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2437/.

Texte intégral
Résumé :
L'utilisation des jets de plasmas froids à pression atmosphérique (PA) pour des applications biomédicales est un sujet de recherche relativement nouveau, et en plein essor. De nombreuses espèces actives (photons, radicaux, particules chargées, champ électrique etc. ) sont produites par ces dispositifs et sont à l'origine des effets biologiques observés. Un des défis principaux est alors de pouvoir en contrôler la production. Pour cela, des modèles physico-chimiques ont été développés mais requièrent, en données d'entrée, les coefficients de transport, souvent indisponibles dans la littérature, des ions affectant la cinétique du jet de plasma. Ce travail de thèse se concentre sur les jets de plasma à base d'hélium ou d'argon. Ainsi, les coefficients de transport des ions He+ et He2+ ainsi que Ar+ et Ar2+ ont été calculés dans leur gaz parent. La nouveauté concerne les ions moléculaires (He2+ et Ar2+), déterminant dans la dynamique des jets car très majoritairement présents à la PA. Les coefficients de transport sont intimement liés aux sections efficaces de collision et donc aux courbes de potentiel d'interaction ion-neutre. Pour le système d'interaction He+/He, une méthode quantique 1D sans approximation a été utilisée pour le calcul des sections efficaces de collision puis, une simulation Monte Carlo a permis d'obtenir les coefficients de transport dans les barres d'erreur expérimentale. Par contre, pour les ions moléculaires He2+, deux méthodes de calcul ont été utilisées : une méthode quantique 1D et une méthode, qualifiée d'hybride, associant formulations classique et quantique. Un compromis entre les deux méthodes a finalement permis d'obtenir des mobilités réduites avec un écart relatif moyen de 5% par rapport aux mesures, puis de les étendre aux champs élevés. Les coefficients de diffusion et les constantes de réaction, non-disponibles dans la littérature, ont également été calculés. Pour les jets de plasmas à base d'argon, les coefficients de transport des ions atomiques à l'état fondamental 2P3/2 et métastable 2P1/2 ont été calculés, à l'aide des sections efficaces quantiques, jusqu'à 1500 Td (1 Td = 10-17 V. Cm²) avec un écart relatif moyen inférieur à 0. 2% par rapport aux mesures. Enfin, pour les ions Ar2+, la méthode hybride a permis d'obtenir les sections efficaces de collision menant à des mobilités réduites avec un écart relatif moyen de 2% par rapport aux mesures et de calculer les coefficients de diffusion et constantes de réaction
The use of cold plasma jets at atmospheric pressure (AP) for biomedical applications is a hot research topic. Such devices produce many active species (photons, radicals, charged particles, electric field, etc. ) very useful for biomedical applications. The challenge for the plasma physics community is to tune such plasma devices to abundantly or selectively produce actives species beforehand identified for their biological effects. To reach this goal, physicochemical models have been developed but require, in input data, the transport coefficients (not always available in the literature) of ions affecting the kinetics of the plasma jet. In this thesis work we are interested in helium or argon plasma jets. Thus, transport coefficients of He+ and He2+ ions as Ar+ and Ar2+ ions have been calculated in their parent gas. The originality of the work concerns the molecular ions (He2+ and Ar2+) which play the main role in the plasma jet dynamics since they are overwhelmingly present at the AP. The transport coefficients are closely related to the collision cross sections and then to the ion-neutral interaction potential curves. For the He+/He interaction system, a 1D quantum method without approximation has been used for the collision cross section calculation and an optimized Monte Carlo code allowed us to obtained the transport coefficients in the experimental error bars. On the other side, for the molecular ions He2+, two calculation methods have been considered: a 1D quantum method and a hybrid method mixing classical and quantum formulations. A compromise between these two methods finally allowed us to obtain reduced mobilities with a mean relative deviation from experiments of 5% and to expand the latter to higher electric fields. Diffusion coefficients and reaction rates, not available in the literature, have been also calculated. For the argon plasma jet, the transport coefficients for atomic ions in the ground 2P3/2 state and metastable 2P1/2 state have been obtained, using quantum collision cross sections, up to 1500 Td (1 Td = 10-17 V. Cm²) with a mean relative deviation from measurements below 0. 2%. Finally, for Ar2+ ions, the hybrid method allowed us to obtain reduced mobilities with a mean relative deviation of 2% from experiments and to calculate the diffusion coefficients and reaction rates not available in the literature
Styles APA, Harvard, Vancouver, ISO, etc.
17

Voisard, Agnès. « Bases de données géographiques : du modèle de données à l'interface utilisateur ». Paris 11, 1992. http://www.theses.fr/1992PA112354.

Texte intégral
Résumé :
Les systemes d'information geographiques (sig) servent de support aux applications qui manipulent des donnees geographiques, telles que la planification urbaine, la regulation de la circulation, la gestion des ressources naturelles. Les problemes majeurs poses par la realisation de sig sont lies d'une part a la gestion d'un gros volume de donnees, d'autre part a la coexistence de deux types de donnees: la description des cartes (donnees alphanumeriques) et leur spatialite (geometrie et topologie). Les donnees spatiales posent de plus un double probleme car elles doivent etre manipulees par des operations specifiques et leur structuration est complexe et eminemment variable. Pour stocker, interroger et manipuler les donnees, les sig peuvent utiliser des systemes de gestion de bases de donnees (sgbd) dotes de fonctionnalites particulieres pour gerer des donnees spatiales. Notre travail a tout d'abord porte sur les problemes de modelisation de l'information geographique et a abouti a la proposition d'un modele original, base sur un modele a objets complexes, pour applications manipulant des cartes thematiques. Pour valider ce modele, nous avons implemente une maquette de sig au-dessus du prototype de sgrd oriente-objet o2. Cette experience nous a permis de degager des enseignements multiples. En particulier, la conception d'interfaces utilisateurs specifiques aux sig s'est averee etre une tache indispensable et complexe. Cette constatation a conduit a la proposition d'un modele d'interface pour concepteurs d'applications geographiques, premiere etape vers une boite a outils permettant de manipuler une large gamme d'applications geographiques. Les systemes d'information geographique et finalement les interfaces pour systemes d'information geographique sont les trois points auxquels nous nous interessons dans cette these
Styles APA, Harvard, Vancouver, ISO, etc.
18

Nguyen, Gia Toan. « Quelques fonctionnalités de bases de données avancées ». Habilitation à diriger des recherches, Grenoble 1, 1986. http://tel.archives-ouvertes.fr/tel-00321615.

Texte intégral
Résumé :
On utilise une méthode de représentation de l'information basée sur la logique des prédicats du premier ordre pour enrichir la représentation sémantique des données qui peuvent être stockées dans un ensemble de bases de données reparties. On définit ensuite une méthode originale d'évaluation de questions sur des données distribuées basée sur une décomposition dynamique des opérations. On propose enfin une nouvelle approche pour le contrôle des contraintes sémantiques dans une base de données. Elle est basée sur la notion de prototypes logiques d'objets formant un échantillon de la base de données.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Qian, Shunchu. « Restructuration de bases de données entité-association ». Dijon, 1995. http://www.theses.fr/1995DIJOS064.

Texte intégral
Résumé :
La conception de bases de données dans un contexte de modelés entité-association ou objet-oriente nécessite des outils qui permettent de spécifier à la fois des transformations au niveau des types (restructuration de schéma) et les transformations correspondantes au niveau des occurrences (réorganisation de base de données). Dans cette thèse nous présentons une algèbre de transformation de bases de données qui étend les travaux sur le modèle en définissant des opérateurs sémantiques de restructuration de schéma et de réorganisation de la base de données correspondante. La première étape de nos travaux est consacrée à la reformulation du modèle erc+ à l'aide de la théorie de graphe. Ce formalisme se prête mieux que la modélisation ensembliste original à la définition et a l'illustration des transformations sémantiques en fonction de transformations de graphes. La deuxième étape est consacrée à la définition d'une algèbre regroupant des opérateurs sur deux niveaux: les opérateurs de restructuration de schéma, qui agissent uniquement sur le schéma et les opérateurs de réorganisation de bases de données, qui propagent sur les données les effets de la restructuration de schéma. Il y a deux types d'opérateurs de restructuration de schéma: les opérateurs de base qui permettent l'ajout ou la suppression de nuds ou d'arcs et les opérateurs dérivés plus puissants qui sont définis par combinaison d'opérateurs de base ou dérives. La transformation au niveau des objets est faite par des opérateurs de réorganisation qui permettent de modifier des valeurs propriétés d'objets, de faire une extension (ajout d'un élément) ou une restriction (suppression d'éléments) de la base de données, de transformer la structure d'occurrences d'objet et de glisser, c'est à dire effectuer un héritage explicite, d'une relation ou un attribut à travers des arcs rôle ou lien de généralisation. Les opérateurs de l'algèbre de transformation constituent une base sur laquelle on peut construire plusieurs services très importants dans la gestion d'une base de données: définition de vues, intégration de schémas, évolution de schéma, traduction de schémas, normalisation de schémas, base de données repartie et optimisation des performances
Styles APA, Harvard, Vancouver, ISO, etc.
20

Gross-Amblard, David. « Approximation dans les bases de données contraintes ». Paris 11, 2000. http://www.theses.fr/2000PA112304.

Texte intégral
Résumé :
Le modèle des bases de données contraintes, introduit par Kanellakis, Kuper et Revesz [KKR95] permet la prise en compte d'informations géométriques, comme les données cartographiques. Les objets géométriques sont représentés comme la solution d'un système d'équations ou d'inéquations, sans limitation sur leur dimension. La compléxité en temps de l'évaluation des requêtes du premier ordre ou du volume est raisonnable lorsque la dimension des objets est fixe. Lorsque la dimension des objets est une variable du problème, cette complexité est prohibitive (globalement exponentielle dans la dimension). Dans cette thèse, nous nous intéressons à l'obtention d'algorithmes d'évaluation en temps polynomial dans la dimension, par des techniques d'approximation probabiliste. En étendant les travaux de Dyer, Frieze et Kannan [DFK91], nous obtenons : - un algorithme d'échantillonnage de points avec distribution presque uniforme dans l'ensemble défini par une requête du premier ordre ; - un algorithme estimant le volume et la forme de cet ensemble [GdR00]. Sous certaines conditions, le volume peut être estimé sans évaluation préalable de la requête. Nous considérons ensuite la robustesse des relations topologiques entre objets après utilisation d'algorithmes d'approximation. Enfin, nous présentons un prototype de base de données spatiales mettant en oeuvre certains de ces algorithmes probabilistes sur des données réelles.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Collobert, Ronan. « Algorithmes d'Apprentissage pour grandes bases de données ». Paris 6, 2004. http://www.theses.fr/2004PA066063.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
22

Bossy, Robert. « Édition coopérative de bases de données scientifiques ». Paris 6, 2002. http://www.theses.fr/2002PA066047.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
23

Valceschini-Deza, Nathalie. « Accès sémantique aux bases de données textuelles ». Nancy 2, 1999. http://www.theses.fr/1999NAN21021.

Texte intégral
Résumé :
Les besoins justifiant cette recherche sont ceux de l'analyse du contenu textuel, les banques de données textuelles étant de plus en plus nombreuses et volumineuses. Ce travail est une contribution au problème de l'accès sémantique aux bases de données électroniques. Les données à notre disposition sont une base de données à dominante sciences humaines comportant environ 3000 oeuvres : FRANTEXT. Pour utiliser cette base et les bases de données littéraires en général nous proposons un outil basé sur le test statistique de l'écart réduit. Ce type de méthode prend en entrée un mot (ou une expression, un chapitre, un roman) et fournit comme une liste de mots-résultats qui sont corrélés statistiquement au premier mot (ou mot-pôle). La sémantique différentielle sert d'appui théorique à ce travail. Ce choix est motivé par les raisons suivantes : - elle pose comme postulat que les structures textuelles varient en fonction des genres ; - elle propose des unités de sens au palier inférieur au mot : les sèmes. Ces sèmes permettent d'expliquer la cohérence textuelle et de lier les différents niveaux : de l'en-deça du mot au texte : - elle interprète les unités en contexte. Cela permet d'expliquer les variations de sens d'un mot. De par sa nature, elle est compatible avec le test de l'écart réduit. A l'aide de ces trois composantes (données, outil et théorie sémantique), nous avons défini des méthodologies d'interrogation des bases de données littéraires. Nous nous sommes surtout intéressé à la thématique des textes. Mais l'étude de phénomènes connexes a été abordée, par exemple la stéréotypie. L'utilisation des statistiques a été illustrée et accompagnée de méthodologies constituant des aides à l'interprétation. D'autres procédés et méthodologies ont été proposées en amont et en aval des tests statistiques notamment l'utilisation de patrons morpho-syntaxiques pour obtenir des sous-corpus cohérents d'un point de vue sémantique et aptes à subir un traitement statistique. Les applications de ce type de recherches sont les suivantes : - l'étude des oeuvres par le biais de vérifications d'hypothèses et d'intuitions ; - le développement de stratégies d'interrogations fiables, testables par des élèves dans un cadre d'enseignement ; - l'étude des comportements socio-culturels dans les différents genres textuels ; - la recherche d'informations sur les régularités et les différences des textes en vue de la réalisation d'une typologie des genres textuels.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Souihli, Asma. « Interrogation des bases de données XML probabilistes ». Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0046/document.

Texte intégral
Résumé :
XML probabiliste est un modèle probabiliste pour les bases de données incertaines semi-structurées, avec des applications telles que l'intégration incertaine de données, l'extraction d'informations ou le contrôle probabiliste de versions. Nous explorons dans cette thèse une solution efficace pour l'évaluation des requêtes tree-pattern avec jointures sur ces documents, ou, plus précisément, pour l'approximation de la probabilité d'une requête booléenne sur un document probabiliste. L'approche repose sur, d'une part, la production de la provenance probabiliste de la requête posée, et, d'autre part, la recherche d'une stratégie optimale pour estimer la probabilité de cette provenance. Cette deuxième partie s'inspire des approches des optimiseurs de requêtes: l'exploration de différents plans d'évaluation pour différentes parties de la formule et l'estimation du coût de chaque plan, suivant un modèle de coût établi pour les algorithmes de calcul utilisés. Nous démontrons l'efficacité de cette approche sur des jeux de données utilisés dans des travaux précédents sur l'interrogation des bases de données XML probabilistes, ainsi que sur des données synthétiques
Probabilistic XML is a probabilistic model for uncertain tree-structured data, with applications to data integration, information extraction, or uncertain version control. We explore in this dissertation efficient algorithms for evaluating tree-pattern queries with joins over probabilistic XML or, more specifically, for approximating the probability of each item of a query result. The approach relies on, first, extracting the query lineage over the probabilistic XML document, and, second, looking for an optimal strategy to approximate the probability of the propositional lineage formula. ProApproX is the probabilistic query manager for probabilistic XML presented in this thesis. The system allows users to query uncertain tree-structured data in the form of probabilistic XML documents. It integrates a query engine that searches for an optimal strategy to evaluate the probability of the query lineage. ProApproX relies on a query-optimizer--like approach: exploring different evaluation plans for different parts of the formula and predicting the cost of each plan, using a cost model for the various evaluation algorithms. We demonstrate the efficiency of this approach on datasets used in a number of most popular previous probabilistic XML querying works, as well as on synthetic data. An early version of the system was demonstrated at the ACM SIGMOD 2011 conference. First steps towards the new query solution were discussed in an EDBT/ICDT PhD Workshop paper (2011). A fully redesigned version that implements the techniques and studies shared in the present thesis, is published as a demonstration at CIKM 2012. Our contributions are also part of an IEEE ICDE
Styles APA, Harvard, Vancouver, ISO, etc.
25

Souihli, Asma. « Interrogation des bases de données XML probabilistes ». Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0046.

Texte intégral
Résumé :
XML probabiliste est un modèle probabiliste pour les bases de données incertaines semi-structurées, avec des applications telles que l'intégration incertaine de données, l'extraction d'informations ou le contrôle probabiliste de versions. Nous explorons dans cette thèse une solution efficace pour l'évaluation des requêtes tree-pattern avec jointures sur ces documents, ou, plus précisément, pour l'approximation de la probabilité d'une requête booléenne sur un document probabiliste. L'approche repose sur, d'une part, la production de la provenance probabiliste de la requête posée, et, d'autre part, la recherche d'une stratégie optimale pour estimer la probabilité de cette provenance. Cette deuxième partie s'inspire des approches des optimiseurs de requêtes: l'exploration de différents plans d'évaluation pour différentes parties de la formule et l'estimation du coût de chaque plan, suivant un modèle de coût établi pour les algorithmes de calcul utilisés. Nous démontrons l'efficacité de cette approche sur des jeux de données utilisés dans des travaux précédents sur l'interrogation des bases de données XML probabilistes, ainsi que sur des données synthétiques
Probabilistic XML is a probabilistic model for uncertain tree-structured data, with applications to data integration, information extraction, or uncertain version control. We explore in this dissertation efficient algorithms for evaluating tree-pattern queries with joins over probabilistic XML or, more specifically, for approximating the probability of each item of a query result. The approach relies on, first, extracting the query lineage over the probabilistic XML document, and, second, looking for an optimal strategy to approximate the probability of the propositional lineage formula. ProApproX is the probabilistic query manager for probabilistic XML presented in this thesis. The system allows users to query uncertain tree-structured data in the form of probabilistic XML documents. It integrates a query engine that searches for an optimal strategy to evaluate the probability of the query lineage. ProApproX relies on a query-optimizer--like approach: exploring different evaluation plans for different parts of the formula and predicting the cost of each plan, using a cost model for the various evaluation algorithms. We demonstrate the efficiency of this approach on datasets used in a number of most popular previous probabilistic XML querying works, as well as on synthetic data. An early version of the system was demonstrated at the ACM SIGMOD 2011 conference. First steps towards the new query solution were discussed in an EDBT/ICDT PhD Workshop paper (2011). A fully redesigned version that implements the techniques and studies shared in the present thesis, is published as a demonstration at CIKM 2012. Our contributions are also part of an IEEE ICDE
Styles APA, Harvard, Vancouver, ISO, etc.
26

Ripoche, Hugues. « Une construction interactive d'interprétations de données : application aux bases de données de séquences génétiques ». Montpellier 2, 1995. http://www.theses.fr/1995MON20248.

Texte intégral
Résumé :
L'objectif de cette these est de faciliter l'interpretation de grands ensembles de donnees, c'est-a-dire d'extraire des connaissances a partir de donnees. Nous avons utilise deux domaines complementaires: bases de donnees (objet) et apprentissage automatique. Dans une premiere etape, nous proposons d'extraire des descripteurs a partir d'ensembles de donnees de reference, puis d'utiliser ces descripteurs pour interpreter de nouvelles donnees (non encore caracterisees). Dans une seconde etape, une classification construite a partir de donnees interpretees par des descripteurs peut etre critiquee par une methode d'analyse specifique, ce qui conduit en retour a une revision des donnees et des descripteurs. Une application a ete menee dans le cadre de l'analyse de sequences genetiques (proteines) en utilisant des motifs proteiques comme descripteurs, des treillis de concept comme methode de classification et l'alignement multiple de sequences pour la critique
Styles APA, Harvard, Vancouver, ISO, etc.
27

Benzine, Mehdi. « Combinaison sécurisée des données publiques et sensibles dans les bases de données ». Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0024.

Texte intégral
Résumé :
La protection des données sensibles est une problématique majeure dans le monde des bases de données. Plusieurs solutions logicielles et matérielles ont été proposées pour assurer une sécurité optimale lors du stockage et de la manipulation de ces données. Il est également nécessaire de sécuriser les opérations mettant en relation des données sensibles avec des données publiques. Pour cala, nous avons mis en place une architecture de stockage et d'interrogation offrant cette sécurité. Cette architecture est composée d'un serveur central regroupant les données publiques et d'un serveur sécurisé stockant les données privées. Ce serveur sécurisé est constitué (i) d'un microcontrôleur sécurisé associé à (ii) une mémoire persistante, de grande capacité, de type Flash NAND. Les requêtes mêlant données publiques et sensibles sont scinder en deux sous-requêtes, l'une portant sur les données publiques, l'autre sur les données sensibles. Chaque sous-requête est exécutée sur le serveur contenant les données appropriées. Enfin, le résultat de la sous-requête sur données publiques est envoyé au serveur sécurisé qui se charge de construire le résultat final en toute sécurité. Cette architecture résolvant les problèmes de sécurité introduit néanmoins de sévères problèmes de performances dues aux caractéristiques physiques du serveur sécurisé (peu de RAM, asymétrie des coûts de lecture et d'écriture. . . ) qu'il est impératif de résoudre par des techniques d'optimisation de requêtes
Protection of sensitive data is a major issue in the databases field. Many software and hardware solutions have been designed to protect data when stored and during query processing. Moreover, it is also necessary to provide a secure manner to combine sensitive data with public data. To achieve this goal, we designed a new storage and processing architecture. Our solution combines a main server that stores public data and a secure server dedicated to the storage and processing of sensitive data. The secure server is a hardware token which is basically a combination of (i) a secured microcontroller and (ii) a large external NAND Flash memory. The queries which combine public and sensitive data are split in two sub queries, the first one deals with the public data, the second one deals with the sensitive data. Each sub query is processed on the server storing the corresponding data. Finally, the data obtained by the computation of the sub query on public data is sent to the secure server to be mixed with the result of the computation on sensitive data. For security reasons, the final result is built on the secure server. This architecture resolves the security problems, because all the computations dealing with sensitive data are done by the secure server, but brings performance problems (few RAM, asymmetric cost of read/write operations. . . ). These problems will be solved by different strategies of query optimization
Styles APA, Harvard, Vancouver, ISO, etc.
28

Léonard, Michel. « Conception d'une structure de données dans les environnements de bases de données ». Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00327370.

Texte intégral
Résumé :
Étude de bases de données ayant des structures complexes avec l'objectif de rendre plus efficace le processus de leur conception et de leur réalisation, de les faire évoluer et d'améliorer leur compréhension autant par leur utilisateurs que par leurs responsables
Styles APA, Harvard, Vancouver, ISO, etc.
29

Smine, Hatem. « Outils d'aide à la conception : des bases de données relationnelles aux bases d'objets complexes ». Nice, 1988. http://www.theses.fr/1988NICE4213.

Texte intégral
Résumé :
Cette thèse comporte deux parties : un outil d'aide à la conception de bases de données pour non spécialistes et la conception d'objets complexes. On propose un outil intégrant un système expert d'assistance sémantique d'un utilisateur profane pour la construction de son schéma conceptuel. Les dialogues à base de questions-réponses sont simples et riches. Pour la conception d'objets complexes, on définit un réseau sémantique associé au modèle de données B-relationnel et on introduit le concept de chemin de structure dans le réseau. On étudie les questions de modélisation et de manipulation d'objets complexes. On propose un outil d'aide à la conception de schéma B-relationnel avec pour supports des dialogues de langage naturel et le langage B-SQL
Styles APA, Harvard, Vancouver, ISO, etc.
30

Sahri, Soror. « Conception et implantation d'un système de bases de données distribuée & ; scalable : SD-SQL Server ». Paris 9, 2006. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2006PA090013.

Texte intégral
Résumé :
Le thème de recherche de cette thèse concerne la conception et l’implantation d’un système de gestion de bases de données distribuées et scalables (ang. Scalable Distributed Database System, SD-DBS) que nous avons appelé SD-SQL Server. SD-SQL Server implémente une nouvelle architecture de SGBD relationnel. Une base de SD-SQL Server, dite base scalable, grandit par la partition dynamique, scalable et distribuée de ses tables, dites scalables aussi. La partition et son évolution sont invisibles de l’usager/application. A l’heure actuelle, SD-SQL Server est le seul SGBD à offrir cette possibilité à notre connaissance. Les autres SGBDs connus, n’offrent au mieux que le partitionnement statique, nécessitant des réorganisations périodiques globales. Leur maniement est en général complexe et peu apprecié des usagers. Nos tables scalables sont organisées en segments d’une structure de données distribuée et scalable (SDDS). Chaque segment est placé sur un nœud lié de SQL Server. A l’heure actuelle, SQL Server supporte 250 nœuds liés, permettant à une table scalable de croître autant. L'expansion dynamique résulte des éclatements de segments débordant leur capacité de stockage. Chaque éclatement est déclenché par une insertion, à l’origine du débordement. Tout éclatement crée un ou plusieurs nouveaux segments. Les segments sont cachés des usagers/applications derrière les vues supportant les mises à jour, dites images. Les images sont des vues partitionnées et distribuées de SQL Server dynamiquement ajustées. Les usagers/applications de tables scalables n’interfacent que les images ou les vues des images
Our thesis elaborates on the design of a scalable distributed database system (SD-DBS). A novel feature of an SD-DBS is the concept of a scalable distributed relational table, a scalable table in short. Such a table accommodates dynamic splits of its segments at SD-DBS storage nodes. A split occurs when an insert makes a segment to overflow, like in, e. G. , B-tree file. Current DBMSs provide the static partitioning only, requiring a cumbersome global reorganization from time to time. The transparency of the distribution of a scalable table is in this light an important step beyond the current technology. Our thesis explores the design issues of an SD-DBS, by constructing a prototype termed SD-SQL Server. As its name indicates, it uses the services of SQL-Server. SD-SQL Server repartitions a table when an insert overflows existing segments. With the comfort of a single node SQL Server user, the SD-SQL Server user has larger tables or a faster response time through the dynamic parallelism. We present the architecture of our system, its implementation and the performance analysis
Styles APA, Harvard, Vancouver, ISO, etc.
31

Bost, Raphaël. « Algorithmes de recherche sur bases de données chiffrées ». Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S001/document.

Texte intégral
Résumé :
La recherche sur les bases de données chiffrées vise à rendre efficace une tâche apparemment simple : déléguer le stockage de données à un serveur qui ne serait pas de confiance, tout en conservant des fonctionnalités de recherche. Avec le développement des services de stockage dans le Cloud, destinés aussi bien aux entreprises qu'aux individus, la mise au point de solutions efficaces à ce problème est essentielle pour permettre leur déploiement à large échelle. Le principal problème de la recherche sur bases de données chiffrées est qu'un schéma avec une sécurité ''parfaite'' implique un surcoût en termes de calcul et de communication qui serait inacceptable pour des fournisseurs de services sur le Cloud ou pour les utilisateurs - tout du moins avec les technologies actuelles. Cette thèse propose et étudie de nouvelles notions de sécurité et de nouvelles constructions de bases de données chiffrées permettant des recherches efficaces et sûres. En particulier, nous considérons la confidentialité persistante et la confidentialité future de ces bases de données, ce que ces notions impliquent en termes de sécurité et d'efficacité, et comment les réaliser. Ensuite, nous montrons comment protéger les utilisateurs de bases de données chiffrées contre des attaques actives de la part du serveur hébergeant la base, et que ces protections ont un coût inévitable. Enfin, nous étudions les attaques existantes contre ces bases de données chiffrées et comment les éviter
Searchable encryption aims at making efficient a seemingly easy task: outsourcing the storage of a database to an untrusted server, while keeping search features. With the development of Cloud storage services, for both private individuals and businesses, efficiency of searchable encryption became crucial: inefficient constructions would not be deployed on a large scale because they would not be usable. The key problem with searchable encryption is that any construction achieving ''perfect security'' induces a computational or a communicational overhead that is unacceptable for the providers or for the users --- at least with current techniques and by today's standards. This thesis proposes and studies new security notions and new constructions of searchable encryption, aiming at making it more efficient and more secure. In particular, we start by considering the forward and backward privacy of searchable encryption schemes, what it implies in terms of security and efficiency, and how we can realize them. Then, we show how to protect an encrypted database user against active attacks by the Cloud provider, and that such protections have an inherent efficiency cost. Finally, we take a look at existing attacks against searchable encryption, and explain how we might thwart them
Styles APA, Harvard, Vancouver, ISO, etc.
32

Nunez, Del Prado Cortez Miguel. « Attaques d'inférence sur des bases de données géolocalisées ». Phd thesis, INSA de Toulouse, 2013. http://tel.archives-ouvertes.fr/tel-00926957.

Texte intégral
Résumé :
Au cours des dernières années, nous avons observé le développement de dispositifs connectés et nomades tels que les téléphones mobiles, tablettes ou même les ordinateurs portables permettant aux gens d'utiliser dans leur quotidien des services géolocalisés qui sont personnalisés d'après leur position. Néanmoins, les services géolocalisés présentent des risques en terme de vie privée qui ne sont pas forcément perçus par les utilisateurs. Dans cette thèse, nous nous intéressons à comprendre les risques en terme de vie privée liés à la dissémination et collection de données de localisation. Dans ce but, les attaques par inférence que nous avons développé sont l'extraction des points d'intérêts, la prédiction de la prochaine localisation ainsi que la désanonymisation de traces de mobilité, grâce à un modèle de mobilité que nous avons appelé les chaînes de Markov de mobilité. Ensuite, nous avons établi un classement des attaques d'inférence dans le contexte de la géolocalisation se basant sur les objectifs de l'adversaire. De plus, nous avons évalué l'impact de certaines mesures d'assainissement à prémunir l'efficacité de certaines attaques par inférence. En fin nous avons élaboré une plateforme appelé GEoPrivacy Enhanced TOolkit (GEPETO) qui permet de tester les attaques par inférences développées.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Najjar, Ahmed. « Forage de données de bases administratives en santé ». Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28162.

Texte intégral
Résumé :
Les systèmes de santé actuels sont de plus en plus informatisés et dotés de systèmes de collecte et de stockage des données. Une énorme quantité des données est ainsi stockée dans les bases de données médicales. Les bases de données, conçues à des fins administratives ou de facturation, sont alimentées de nouvelles données à chaque fois que le patient fait appel au système de soins de santé. Cette spécificité rend ces bases de données une source riche en information et extrêmement intéressante et utile. Elles rassemblent ainsi toutes les données de prestation de soins et pourraient permettre de construire et de dévoiler les processus de soins des patients. Toutefois, malgré cet intérêt évident que représente ces banques de données administratives, elles sont jusqu’à date sous-exploitées par les chercheurs. Nous proposons donc dans cette thèse une approche de découverte de connaissances qui à partir des données administratives brutes permet de détecter des patrons des trajectoires de soins des patients. Nous avons tout d’abord proposé un algorithme capable de regrouper des objets complexes qui représentent les services médicaux. Ces objets sont caractérisés par un mélange de variables numériques, catégorielles et catégorielles multivaluées. Nous proposons pour cela d’extraire des espaces de projection pour les variables multivaluées et de modifier le calcul de la distance entre les objets afin de prendre ces projections en compte. La deuxième nouveauté consiste à la proposition d’un modèle de mélange en deux étapes, capable de regrouper ces objets. Ce modèle fait appel à la distribution gaussienne pour les variables numériques, multinomiales pour les variables catégorielles et aux modèles cachés de Markov (HMM) pour les variables multivaluées. Nous obtenons ainsi deux algorithmes capables de regrouper des objets complexes caractérisés par un mélange de variables. Par la suite, une approche de découverte de patrons des trajectoires de soins a été mise en place. Cette approche comporte plusieurs étapes. La première est l’étape de prétraitement qui permet de construire et de générer les ensembles des services médicaux. Ainsi, on obtient trois ensembles des services médicaux : un pour les séjours hospitaliers, un pour les consultations et un pour les visites. La deuxième étape est l’étape de modélisation et regroupement des processus de soins comme une succession des étiquettes des services médicaux. Ces processus sont complexes et ils nécessitent une méthode sophistiquée de regroupement. Nous proposons ainsi un algorithme de regroupement basé sur les HMM. Finalement, une approche de visualisation et d’analyse des patrons des trajectoires est proposée pour exploiter les modèles découverts. L’ensemble de ces étapes forment le processus de découvertes des patrons des trajectoires à partir des bases de données administratives en santé. Nous avons appliqué cette approche aux bases de données sur la prestation des soins pour les personnes âgées de 65 ans et plus souffrant d’insuffisance cardiaque et habitant à la province de Québec. Ces données sont extraites de trois bases de données : la banque de données MED-ÉCHO du MSSS, la banque de la RAMQ et la base contenant les données concernant les certificats de décès. Les résultats issus de ce projet ont montré l’efficacité de notre approche et de nos algorithmes en détectant des patrons spéciaux qui peuvent aider les administrateurs de soins de santé à mieux gérer les soins de santé.
Current health systems are increasingly equipped with data collection and storage systems. Therefore, a huge amount of data is stored in medical databases. Databases, designed for administrative or billing purposes, are fed with new data whenever the patient uses the healthcare system. This specificity makes these databases a rich source of information and extremely interesting. These databases can unveil the constraints of reality, capturing elements from a great variety of real medical care situations. So, they could allow the conception and modeling the medical treatment process. However, despite the obvious interest of these administrative databases, they are still underexploited by researchers. In this thesis, we propose a new approach of the mining for administrative data to detect patterns from patient care trajectories. Firstly, we have proposed an algorithm able to cluster complex objects that represent medical services. These objects are characterized by a mixture of numerical, categorical and multivalued categorical variables. We thus propose to extract one projection space for each multivalued variable and to modify the computation of the distance between the objects to consider these projections. Secondly, a two-step mixture model is proposed to cluster these objects. This model uses the Gaussian distribution for the numerical variables, multinomial for the categorical variables and the hidden Markov models (HMM) for the multivalued variables. Finally, we obtain two algorithms able to cluster complex objects characterized by a mixture of variables. Once this stage is reached, an approach for the discovery of patterns of care trajectories is set up. This approach involves the followed steps: 1. preprocessing that allows the building and generation of medical services sets. Thus, three sets of medical services are obtained: one for hospital stays, one for consultations and one for visits. 2. modeling of treatment processes as a succession of labels of medical services. These complex processes require a sophisticated method of clustering. Thus, we propose a clustering algorithm based on the HMM. 3. creating an approach of visualization and analysis of the trajectory patterns to mine the discovered models. All these steps produce the knowledge discovery process from medical administrative databases. We apply this approach to databases for elderly patients over 65 years old who live in the province of Quebec and are suffering from heart failure. The data are extracted from the three databases: the MSSS MED-ÉCHO database, the RAMQ bank and the database containing death certificate data. The obtained results clearly demonstrated the effectiveness of our approach by detecting special patterns that can help healthcare administrators to better manage health treatments.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Thion-Goasdoue, Virginie. « Bases de données, contraintes d'intégrité et logiques modales ». Paris 11, 2004. http://www.theses.fr/2004PA112134.

Texte intégral
Résumé :
Dans cette these, nous nous etudions l'utilisation des systemes par tableaux pour les logiques modales dans le cadre de problemes lies aux contraintes d'integrite dans lesbases de donnees. Dans une premiere partie, nous utilisons un systeme par tableaux, traitant differentes logiques modales du premier ordre (lmpo), dans le cadre d'une methode permettant de tester la preservation de contraintes d'integrite dynamiques dans des bases de donnees orientees objet. Nous associons a ce systeme une strategie de recherche de preuve que nous prouvons correcte et complete dans sa version non bornee, ceci nous permet d'implanter un demonstrateur automatique detheoremes pour les lmpo k, k4, d, t et s4. Ce demonstrateur est re-utilisable pour d'autres applications necessitant de prouver la validite de formules des lmpo (verification de logiciel,systeme multi-agents, etc. ). Dans une seconde partie, nous etudions l'utilisation de la logique multi-modale hybride (lmmh) en tant que formalisme d'expression de schema et de contraintes pour les donnees semi-structurees. D'une part, nous prouvons que la lmmh permet de capturer directement la notion de donnees semi-structurees et donc de contraintes sur ces donnees. D'autre part, nous proposons une extention des dtd permettant le typage des references et nous montrons que cette nouvelle notion de schemapeut etre formalisee en termes de formules de la lmmh exactement comme une contrainte. En associant un systeme par tableaux pour la lmmh a cette approche, il est alors possible de traiter beaucoup de problemes classiques de bases de donnees (implication de contraintes, inclusion de schemas, satisfaisabilite de contraintes, etc. )
In this thesis, we use tableaux system for modal logics in order to solve databases problems related to integrity constraints. In first part, we use a tableaux system for first order modal logics in the context of a method testing integrity constraints preservation in an object oriented database. We develop a proof search strategy and we prove that it is sound and complete in its unbounded version. This leads to the implementation of a theorem prover for first order modal logics k, k4, d, t and s4. The prover can also be used for other applications where the test of validity of first order modal logics is needed (software verification, multi-agents systems, etc. ). In second part, we study hybrid multi-modal logic (hmml) as a formalism to express schemas and integrity constraints for semi-structured data. On the one hand we prove that hmml captures the notion of semi-structured data and constraints on it. On the other hand we generalize the notion of schema, by proposing a definition of schema where references are "well typed" (contrary to what happens with dtds), and we prove that this new notion can be formalized by sentences of hmml exactly like a constraint is. When a tableaux system for the hmml is added to this approach, some classical database problems can be treated (constraints implication, schemas inclusion, constraints satisfiability, etc. )
Styles APA, Harvard, Vancouver, ISO, etc.
35

Guo, Yanli. « Confidentialité et intégrité de bases de données embarquées ». Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0038.

Texte intégral
Résumé :
L’approche PDS (serveurs personnel données) prône une gestion totalement décentralisée des données personnelles. Elle s’appuie sur un nouveau composant matériel qui combine un microcontrôleur protégé contre toute attaque avec une mémoire de masse de type flash NAND. Il permet de stocker les données personnelles, les rendre disponibles et contrôler les droits d’accès. L’intégration d’un moteur de base de données permet le déploiement d’applications manipulant ces données. Cette thèse aborde deux problèmes concernant la confidentialité et l'intégrité des données personnelles: (i) la base de données est en dehors du périmètre de sécurité et peut être la cible d’attaques; (ii) des serveurs de support assurent la durabilité, la disponibilité des données, ou d'autres traitements globaux. Des protocoles appropriés doivent assurer qu’ils ne peuvent attaquer les données manipulées. Les solutions proposées s'appuyent sur des techniques cryptographiques et limitent les surcoûts générés
As a decentralized way for managing personal data, the Personal Data Server approach (PDS) resorts to Secure Portable Token, combining the tamper resistance of a smart card microcontroller with the mass storage capacity of NAND Flash. The data is stored, accessed and its access rights controlled using such devices. To support powerful PDS application requirements, a full-fledged DBMS engine is embedded in the SPT. This thesis addresses two problems with the confidentiality and integrity of personal data: (i) the database stored on the NAND Flash remains outside the security perimeter of the microcontroller, thus potentially suffering from attacks; (ii) the PDS approach relies on supporting servers to provide durability, availability, and global processing functionalities. Appropriate protocols must ensure that these servers cannot breach the confidentiality of the manipulated data. The proposed solutions rely on cryptography techniques, without incurring large overhead
Styles APA, Harvard, Vancouver, ISO, etc.
36

Lavergne-Boudier, Valérie. « Système dynamique d'interrogation des bases de données bibliographiques ». Paris 7, 1990. http://www.theses.fr/1990PA077243.

Texte intégral
Résumé :
Les bases de données bibliographiques répondent à des protocoles d'organisation très formels qui vont de pair avec des méthodes d'interrogation rigides. Cette étude propose de nouvelles méthodes d'interrogation qui prennent en compte le point de vue de l'utilisateur et son modèle personnel d'organisation et de représentation des connaissances. La requête se fait à partir de la structuration des données disponibles de la base de données bibliographique, sous forme de cartes cognitives. Les cartes cognitives sont des représentations personnalisées de connaissances dans lesquelles sont définies des conditions d'apparition de concepts selon des modèles booléens. Une carte cognitive permet d'exploiter un fonds bibliographique de façon nouvelle, en se présentant comme une grille d'analyse définie spécifiquement pour répondre à une question donnée. Elle permet également d'exploiter des coïncidences partielles qui permettent de révéler de l'information en émergence.
Styles APA, Harvard, Vancouver, ISO, etc.
37

Raïssi, Chedy. « Extraction de Séquences Fréquentes : Des Bases de Données Statiques aux Flots de Données ». Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00351626.

Texte intégral
Résumé :
Extraction de séquences fréquentes : des bases de données statiques aux flots de données Il est reconnu aujourd'hui que l'être humain est généralement noyé sous une profusion d'informations et que sa capacité d'analyse n'est plus capable de faire face au volume sans cesse croissant de données. C'est dans ce contexte qu'est né le processus d'Extraction de Connaissance dans les bases de Données. Un des buts de ce processus est de passer d'un grand volume d'informations à un petit ensemble de connaissances à fortes valeurs ajoutées pour l'analyste ou le décideur. De plus, le processus d'ECD n'est pas un processus monolithique et univoque au cours duquel il s'agirait d'appliquer un principe général à tous les types de données stockées ou récupérées. Ainsi, une des étapes de ce processus qu'est la fouille de données peut se dériver sous plusieurs formes tels que : le clustering, la classification, l'extraction d'itemset et de règles d'associations, l'extraction de structures plus complexes tels que les épisodes, les graphes ou comme dans le cadre de cette thèse l'extraction de motifs séquentiels. Malheureusement, dans un monde sans cesse en évolution, le contexte dans lequel les travaux d'ECD ont été définis ces dernières années considérait que les données, sur lesquelles la fouille était réalisée, étaient disponibles dans des bases de données statiques. Aujourd'hui, suite au développement de nouvelles technologies et applications associées, nous devons faire face à de nouveaux modèles dans lesquels les données sont disponibles sous la forme de flots. Une question se pose alors : quid des approches d'extraction de connaissances traditionnelles ? Dans ce mémoire, nous présentons un ensemble de résultat sur les motifs séquentiels dans les bases de données d'un point de vue des représentations condensées et des méthodes d'échantillonnage puis nous étendons nos différentes approches afin de prendre en compte le nouveau modèle des flots de données. Nous présentons des algorithmes permettant ainsi l'extraction de motifs séquentiels (classiques et multidimensionnels) sur les flots. Des expérimentations menées sur des données synthétiques et sur des données réelles sont rapportées et montrent l'intérêt de nos propositions.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Laurent, Anne. « Bases de données multidimensionnelles floues et leur utilisation pour la fouille de données ». Paris 6, 2002. http://www.theses.fr/2002PA066426.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
39

Raissi, Chedy. « Extraction de séquences fréquentes : des bases de données statiques aux flots de données ». Montpellier 2, 2008. http://www.theses.fr/2008MON20063.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
40

Laabi, Abderrazzak. « Étude et réalisation de la gestion des articles appartenant à des bases de données gérées par une machine bases de données ». Paris 11, 1987. http://www.theses.fr/1987PA112338.

Texte intégral
Résumé :
Le travail présenté dans cette thèse se situe dans le cadre d'un projet d'étude et de réalisation de trois couches du S. G. B. D. De la machine bases de données DORSAL-32. La première couche assure la gestion des articles dans le espaces de stockage, l'organisation des verrouillages des articles et des pages selon le mode d'accès effectue et le degré de cohérence de la transaction. Elle assure également la gestion des micro-journalisations qui permettent de garantir la propriété d'atomicité d'une action. La seconde assure la gestion du journal des transactions et la procédure de reprise à chaud, qui permettent de garantir les propriétés d'atomicité et de durabilité d'une transaction. Quant à la troisième couche, elle assure le contrôle concurrents, et la gestion des tables de verrous. Des accès des mesures de performances des méthodes utilisées sont présentés dans ce rapport. Le dernier chapitre contient un travail de recherche concernant la mise en pratique de la méthode de hachage virtuel linéaire dans notre S. G. B. D. Le problème étudie est celui des déplacements des articles d’une page à l'autre. Dans de telles conditions, les pointeurs d'articles classiquement utilises ne permettent pas d'effectuer des accès directs. Nous proposons un nouveau pointeur qui permet de réaliser un accès direct à l'article, et ceci quelle que soit la page où il se trouve à un instant donné
The work presented in this thesis is part of a study and development project concerning the design of three layers of the DBMS on the DORSAL-32 Data Base Machine. The first layer ensures record management within the storage areas, record and page locking organization according to the access mode and transaction coherency degree. It ensures also the handling of micro-logs which permit to guarantee the atomicity of an action. The second layer ensures handling of transaction logging and warm restarts which guarantee the atomicity and durability of a transaction. The third layer ensures simultaneous access management and handling of lock tables. Performance measures of the methods used are also presented. The last chapter of this report contains a research work concerning the implementation of the virtual linear hashing method in our DBMS. The problem studied is the transfer of records from one page to another. Under these conditions, the record pointers which are classically used don't permit direct access. We propose a new pointer which enables direct access to the record, on no matter which page it is contained at a given instant
Styles APA, Harvard, Vancouver, ISO, etc.
41

Boullé, Marc. « Recherche d'une représentation des données efficace pour la fouille des grandes bases de données ». Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003023.

Texte intégral
Résumé :
La phase de préparation du processus de fouille des données est critique pour la qualité des résultats et consomme typiquement de l'ordre de 80% d'une étude. Dans cette thèse, nous nous intéressons à l'évaluation automatique d'une représentation, en vue de l'automatisation de la préparation des données. A cette fin, nous introduisons une famille de modèles non paramétriques pour l'estimation de densité, baptisés modèles en grille. Chaque variable étant partitionnée en intervalles ou groupes de valeurs selon sa nature numérique ou catégorielle, l'espace complet des données est partitionné en une grille de cellules résultant du produit cartésien de ces partitions univariées. On recherche alors un modèle où l'estimation de densité est constante sur chaque cellule de la grille. Du fait de leur très grande expressivité, les modèles en grille sont difficiles à régulariser et à optimiser. Nous avons exploité une technique de sélection de modèles selon une approche Bayesienne et abouti à une évaluation analytique de la probabilité a posteriori des modèles. Nous avons introduit des algorithmes d'optimisation combinatoire exploitant les propriétés de notre critère d'évaluation et la faible densité des données en grandes dimensions. Ces algorithmes ont une complexité algorithmique garantie, super-linéaire en nombre d'individus. Nous avons évalué les modèles en grilles dans de nombreux contexte de l'analyse de données, pour la classification supervisée, la régression, le clustering ou le coclustering. Les résultats démontrent la validité de l'approche, qui permet automatiquement et efficacement de détecter des informations fines et fiables utiles en préparation des données.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Curé, Olivier. « Relations entre bases de données et ontologies dans le cadre du web des données ». Habilitation à diriger des recherches, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00843284.

Texte intégral
Résumé :
Ce manuscrit présente mon intérêt pour la conception des méthodes et algorithmes nécessaires pour la réalisation d'applications avancées pour le web sémantique. Cette extension du web actuel vise à autoriser l'intégration et le partage de données entre organismes et applications. Une conséquence directe du succès de cette approche permettrait de considérer le web comme une base de données globale contenant les données stockées sur toutes les machines connectées. Cet aspect s'exprime bien dans le site web dédié à l'activité web sémantique du W3C, qui déclare que le web sémantique est un web des données. Ainsi, ce web des données permettra de soumettre des requêtes structurées sur tous les ensembles de données connectés, et de récupérer des résultats pertinents provenant de sources diverses et hétérogènes. Une question essentielle liée à cette hétérogénéité concerne la notion de sémantique. Dans le contexte du web sémantique, elle est généralement traitée avec des ontologies et les opérations de médiation associées. Ma recherche s'ancrent dans ces thématiques et ce manuscrit vise à présenter quelques unes de mes recherches et résultats, ainsi qu'à décrire certaines des applications que j'ai conçues et implémentées
Styles APA, Harvard, Vancouver, ISO, etc.
43

Charmpi, Konstantina. « Méthodes statistiques pour la fouille de données dans les bases de données de génomique ». Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GRENM017/document.

Texte intégral
Résumé :
Cette thèse est consacrée aux tests statistiques, visant à comparer un vecteur de données numériques, indicées par l'ensemble des gènes du génome humain, à un certain ensemble de gènes, connus pour être associés par exemple à un type donné de cancer. Parmi les méthodes existantes, le test Gene Set Enrichment Analysis est le plus utilisé. Néanmoins, il a deux inconvénients. D'une part, le calcul des p-valeurs est coûteux et peu précis. D'autre part, il déclare de nombreux résultats significatifs, dont une majorité n'ont pas de sens biologique. Ces deux problèmes sont traités, par l'introduction de deux procédures statistiques nouvelles, les tests de Kolmogorov-Smirnov pondéré et doublement pondéré. Ces deux tests ont été appliqués à des données simulées et réelles, et leurs résultats comparés aux procédures existantes. Notre conclusion est que, au-delà leurs avantages mathématiques et algorithmiques, les tests proposés pourraient se révéler, dans de nombreux cas, plus informatifs que le test GSEA classique, et traiter efficacement les deux problèmes qui ont motivé leur construction
Our focus is on statistical testing methods, that compare a given vector of numeric values, indexed by all genes in the human genome, to a given set of genes, known to be associated to a particular type of cancer for instance. Among existing methods, Gene Set Enrichment Analysis is the most widely used. However it has several drawbacks. Firstly, the calculation of p-values is very much time consuming, and insufficiently precise. Secondly, like most other methods, it outputs a large number of significant results, the majority of which are not biologically meaningful. The two issues are addressed here, by two new statistical procedures, the Weighted and Doubly Weighted Kolmogorov-Smirnov tests. The two tests have been applied both to simulated and real data, and compared with other existing procedures. Our conclusion is that, beyond their mathematical and algorithmic advantages, the WKS and DWKS tests could be more informative in many cases, than the classical GSEA test and efficiently address the issues that have led to their construction
Styles APA, Harvard, Vancouver, ISO, etc.
44

Kezouit, Omar Abdelaziz. « Bases de données relationnelles et analyse de données : conception et réalisation d'un système intégré ». Paris 11, 1987. http://www.theses.fr/1987PA112130.

Texte intégral
Résumé :
Les utilisateurs de bases de données relationnelles ont de plus en plus souvent tendance à attendre des Systèmes de Gestion de Bases de Données (SGBD) des fonctionnalités qui aillent plus loin que l'organisation le stockage et la restitution d'un ensemble de données. D'un autre côté, les utilisateurs de l'analyse statistique multidimensionnelle, qui traitent des tableaux de données rectangulaires, ont de gros problèmes de gestion de leurs données et les outils dont ils disposaient jusqu'à présent manquaient souvent de souplesse, voire de possibilités. Pour répondre à cette préoccupation, cette thèse propose de rapprocher bases de données relationnelles et analyse statistique multidimensionnelle à travers la réalisation d'un système intégrant un SGBD relationnel et un système d'analyse de données, et de montrer par là même tout le bénéfice qui peut en être tiré du point de vue de l'interrogation des données. La première partie se propose de présenter les problèmes généraux naissant de l'intégration. Après une présentation des deux domaines et de certains travaux en bases de données statistiques, nous proposons une synthèse des notions de l'analyse statistique multidimensionnelle et des bases de données relationnelles. Ceci permettra de déboucher sur les spécifications d'un outil intégré de gestion et d'analyse des données et également de mettre en évidence un problème de cohérence particulier. Outre l'apport provenant de chaque part (gestion des données plus performante grâce au SGBD, interrogation statistique grâce au système d'analyse des données), des possibilités nouvelles naissent de l'intégration. Il s'agit principalement de la capacité d'effectuer des requêtes approximatives, que nous défroissons à cette occasion, sur une base de données et de la résolution dans certains cas du problème des données manquantes. La seconde partie est consacrée à la présentation d'une réalisation particulière. Nous avons pour cela intégré le SGBD relationnel PEPIN et le Système de classification automatique SICLA. Le prototype opérationnel permet ainsi de gérer une base de données relationnelle et de l'interroger statistiquement. Un exemple d'utilisation pour le traitement d'une enquête est donné.
Styles APA, Harvard, Vancouver, ISO, etc.
45

Zelasco, José Francisco. « Gestion des données : contrôle de qualité des modèles numériques des bases de données géographiques ». Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20232.

Texte intégral
Résumé :
Les modèles numériques de terrain, cas particulier de modèles numériques de surfaces, n'ont pas la même erreur quadratique moyenne en planimétrie qu'en altimétrie. Différentes solutions ont été envisagées pour déterminer séparément l'erreur en altimétrie et l'erreur planimétrique, disposant, bien entendu, d'un modèle numérique plus précis comme référence. La démarche envisagée consiste à déterminer les paramètres des ellipsoïdes d'erreur, centrées dans la surface de référence. Dans un premier temps, l'étude a été limitée aux profils de référence avec l'ellipse d'erreur correspondante. Les paramètres de cette ellipse sont déterminés à partir des distances qui séparent les tangentes à l'ellipse du centre de cette même ellipse. Remarquons que cette distance est la moyenne quadratique des distances qui séparent le profil de référence des points du modèle numérique à évaluer, c'est à dire la racine de la variance marginale dans la direction normale à la tangente. Nous généralisons à l'ellipsoïde de révolution. C'est le cas ou l'erreur planimétrique est la même dans toutes les directions du plan horizontal (ce n'est pas le cas des MNT obtenus, par exemple, par interférométrie radar). Dans ce cas nous montrons que le problème de simulation se réduit à l'ellipse génératrice et la pente du profil correspondant à la droite de pente maximale du plan appartenant à la surface de référence. Finalement, pour évaluer les trois paramètres d'un ellipsoïde, cas où les erreurs dans les directions des trois axes sont différentes (MNT obtenus par Interférométrie SAR), la quantité des points nécessaires pour la simulation doit être importante et la surface tr ès accidentée. Le cas échéant, il est difficile d'estimer les erreurs en x et en y. Néanmoins, nous avons remarqué, qu'il s'agisse de l'ellipsoïde de révolution ou non, que dans tous les cas, l'estimation de l'erreur en z (altimétrie) donne des résultats tout à fait satisfaisants
A Digital Surface Model (DSM) is a numerical surface model which is formed by a set of points, arranged as a grid, to study some physical surface, Digital Elevation Models (DEM), or other possible applications, such as a face, or some anatomical organ, etc. The study of the precision of these models, which is of particular interest for DEMs, has been the object of several studies in the last decades. The measurement of the precision of a DSM model, in relation to another model of the same physical surface, consists in estimating the expectancy of the squares of differences between pairs of points, called homologous points, one in each model which corresponds to the same feature of the physical surface. But these pairs are not easily discernable, the grids may not be coincident, and the differences between the homologous points, corresponding to benchmarks in the physical surface, might be subject to special conditions such as more careful measurements than on ordinary points, which imply a different precision. The generally used procedure to avoid these inconveniences has been to use the squares of vertical distances between the models, which only address the vertical component of the error, thus giving a biased estimate when the surface is not horizontal. The Perpendicular Distance Evaluation Method (PDEM) which avoids this bias, provides estimates for vertical and horizontal components of errors, and is thus a useful tool for detection of discrepancies in Digital Surface Models (DSM) like DEMs. The solution includes a special reference to the simplification which arises when the error does not vary in all horizontal directions. The PDEM is also assessed with DEM's obtained by means of the Interferometry SAR Technique
Styles APA, Harvard, Vancouver, ISO, etc.
46

Baptiste, Pierre. « Contribution à la conception d'un atelier flexible : définition de la base de données techniques, ordonnancement de taches à temps de réglage variables ». Lyon, INSA, 1985. http://www.theses.fr/1985ISAL0038.

Texte intégral
Résumé :
Nous décrivons dans ce travail les différentes étapes de la construction du système d'information d'un atelier flexible et une méthode d'ordonnancement permettant de minimiser les temps de réglage. Nous abordons les points suivants : -Description de l'atelier étudié Justification du choix de la méthode MERISE pour analyser et construire le système d'information. - Présentation des principaux aspects du modèle conceptuel de la base de données techniques. Sont particulièrement développées les notions de gammes (gammes d'ordonnancement VS, gammes d'usinage), la notion de réglage (approche structurée avec les notions d'outils, d'outillages, de types de réglage) et une redéfinition des nomenclatures en familles en pièces. -Présentation d'une méthode d'ordonnancement minimisant les temps de réglage. Cette méthode originale fait appel à des outils mathématiques comme les treillis de Galois et les graphes d'intervalle. Les tests effectués permettent de constater un gain de l'ordre de 50% sur les temps de réglage et de 15% sur le temps total de fabrication dans une classe de problèmes où les solutions classiques sont peu applicables
This work is a contribution to the elaboration of an information system for a PMS. It deals with the construction of a technical data base and with a scheduling method that minimizes the number of set-up operations. Pour main parts can be distinguished. - In the first part, the PMS studied is described. - The second is a review of the different methods used to construct a production manufacturing system (the ones based on the physical system and the ones based on the information system ). The choice of MERISE method is justified - In a third part, some conceptual models are presented (describing routings, tools, fixtures, DNC programmes, etc. . . ). - At last a scheduling method that minimizes set-up times is proposed. This method uses mathematical tools, such as Galois lattice, interval graphs. A prototype of this method gives very good results in numerous examples: about 50 % of set-up operations can be avoided in all cases studied
Styles APA, Harvard, Vancouver, ISO, etc.
47

Mahfoudi, Abdelwahab. « Contribution a l'algorithmique pour l'analyse des bases de données statistiques hétérogènes ». Dijon, 1995. http://www.theses.fr/1995DIJOS009.

Texte intégral
Résumé :
La première partie est consacrée a l'analyse et au positionnement multidimensionnel des tableaux de données hétérogènes (qualitatifs et quantitatifs). On présente d'abord une synthèse des méthodes de multidimensional scaling (MDS) et des problèmes sous jacents. On étudie ensuite le problème de l'homogénéisation des données par transformation des variables et on établit les limites d'une telle approche. Nous abordons ensuite le problème sous l'angle du M. D. S. , divers indices de dépendances entre attributs de natures différentes sont construits. L'ensemble des résultats est implémenté dans le package Kalita. La deuxième partie traite de la détection des outliers dans les données. Après un historique, une présentation des principales règles existantes pour la détection ainsi que des relations d'équivalence de certaines d'entre elles sont données. Une règle générale est ensuite construite dans le cadre d'un modèle linéaire généralisé et sa distribution est établie. Cette règle généralise la plupart de celles existantes et s'applique aux principaux modèles d'analyse de données (A. C. P. , Anova, Manova, modèle linéaire et polynomial)
Styles APA, Harvard, Vancouver, ISO, etc.
48

Ykhlef, Mourad. « Interrogation des données semistructurées ». Bordeaux 1, 1999. http://www.theses.fr/1999BOR1A640.

Texte intégral
Résumé :
Nous proposons dans cette these deux langages de requetes du type calcul (graph-fixpoint et graph-while) pour interroger des donnees semistructurees modelisees par des graphes etiquetes (db-graphes). Ces deux langages expriment respectivement des requetes dans les classes fixpoint et while. Nous montrons ainsi qu'ils sont plus puissants que les langages existants. Nous proposons aussi une extension du modele de representation des donnees semistructurees en considerant une structure plus generale qui est celle des graphes imbriques. Ceci permet de mieux rendre compte de la nature hierarchique des donnees semistructurees et de leur origine. Aussi, nous exploitons cette structure pour integrer les formulaires presents sur le web. Le langage de requetes imbrique ngraph est considere pour interroger des donnees provenant de plusieurs sources qui sont integrees via le web.
Styles APA, Harvard, Vancouver, ISO, etc.
49

Ykhlef, Mourad. « Interrogation des données semistructurées ». Bordeaux 1, 1999. http://www.theses.fr/1999BOR10670.

Texte intégral
Résumé :
Nous proposons dans cette these deux langages de requetes du type calcul (graph-fixpoint et graph-while) pour interroger des donnees semistructurees modelisees par des graphes etiquetes (db-graphes). Ces deux langages expriment respectivement des requetes dans les classes fixpoint et while. Nous montrons ainsi qu'ils sont plus puissants que les langages existants. Nous proposons aussi une extension du modele de representation des donnees semistructurees en considerant une structure plus generale qui est celle des graphes imbriques. Ceci permet de mieux rendre compte de la nature hierarchique des donnees semistructurees et de leur origine. Aussi, nous exploitons cette structure pour integrer les formulaires presents sur le web. Le langage de requetes imbrique ngraph est considere pour interroger des donnees provenant de plusieurs sources qui sont integrees via le web.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Jomier, Geneviève. « Bases de données relationnelles : le système PEPIN et ses extensions ». Paris 5, 1989. http://www.theses.fr/1989PA05S008.

Texte intégral
Résumé :
Cette thèse concerne le SGBD relationnel PEPIN et un certain nombre de travaux auxquels il a donné lieu. Ce système a été conçu pour une implantation sur un ensemble de micro-ordinateurs interconnectés par un réseau local de manière à réaliser un système réparti composé de serveurs de base de données et de sites d'accès faiblement couplés. L'architecture en couches du logiciel gérant une base monofichier, a permis de réaliser un système très souple dans ses fonctions, aisément adaptable à différents domaines d'application par ajoût, suppression, modification ou adaptation de fonctions internes ou extérieures au système, très facilement portable sur différents systèmes d'exploitation et évolutifs. L'atomocité des transactions est assurée par un mécanisme original et particulièrement performant d'espace fantôme. Celui-ci permet la réalisation de validations en deux phases, d'abandons et de reprises de transactions en cas de panne ayant détruit le contenu de la mémoire centrale très rapide. À la suite de la description du système sont présentés des travaux faisant le lien entre base de données et logique, bases de données et analyse des données, base de données relationnelles et orientation-objet. Ces travaux ont donné lieu à des extensions du système de référence. Le système PEPIN a été utilisé par de nombreuses équipes de recherche, et aussi par des industriels, pour le développement de nouveaux prototypes dans des domaines très divers, en finance et à l'étranger, ainsi que pour l'enseignement des bases de données dans des universités et écoles d'ingénieurs.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie