Thèses sur le sujet « Réduction et traitement de données »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Réduction et traitement de données.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Réduction et traitement de données ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Flitti, Farid. « Techniques de réduction de données et analyse d'images multispéctrales astronomiques par arbres de Markov ». Université Louis Pasteur (Strasbourg) (1971-2008), 2005. https://publication-theses.unistra.fr/public/theses_doctorat/2005/FLITTI_Farid_2005.pdf.

Texte intégral
Résumé :
Le développement des capteurs multispectraux en imagerie astronomique permet l'acquisition de données très riches. Néanmoins, la classification d'images multidimensionnelles se heurte souvent au phénomène de Hughes : l'augmentation de la dimensionalité induit l’accroissement du nombre de paramètres du modèle ce qui cause la baisse de précision de leur estimation entraînant une dégradation de la qualité de la segmentation. Il est donc impératif d'écarter l'information redondante pour réaliser des opérations de segmentation ou de classification robustes. Dans ce travail, nous avons proposé deux méthodes de réduction de la dimensionnalité pour des images multispectrales : 1) le regroupement de bandes suivis de projections locales ; 2) la réduction des cubes radio par un modèle de mélange de gaussiennes. Nous avons également proposé un schéma de réduction/segmentation jointe basé sur la régularisation du mélange d'analyseurs en composantes principales probabilistes (MACPP). Pour la tâche de segmentation, nous avons choisie une approche bayésienne s'appuyant sur des modèles hiérarchiques récents à base d'arbres de Markov caché et couple. Ces modèles permettent un calcul rapide et exact des probabilités a posteriori. Pour le terme d'attache aux données, nous avons utilisée la loi gaussienne multidimensionnelle, la loi gaussienne généralisée multidimensionnelle formulée grâce à la théorie des copules et la vraisemblance par rapport au modèle de l'ACP probabiliste (MACPP régularisée). L'apport majeur de ce travail consiste à proposer différents modèles markoviens hiérarchiques de segmentation adaptés aux données multidimensionnelles et multirésolutions. Leur exploitation pour des données issues d'une analyse par ondelettes adaptée au contexte astronomique nous a permis de développer des techniques de débruitage et de fusion d'images astronomiques multispectrales nouvelles. Tous les algorithmes sont non supervisés et ont été validés sur des images synthétiques et réelles
The development of astronomical multispectral sensors allows data of a great richness. Nevertheless, the classification of multidimensional images is often limited by Hughes phenomenon: when dimensionality increases the number of parameters of the model grows and the precision of their estimates falls inevitably, therefore the quality of the segmentation dramatically decreases. It is thus imperative to discard redundant information in order to carry out robust segmentation or classification. In this thesis, we have proposed two methods for multispectral image dimensionnality reduction: 1) bands regrouping followed by local projections; 2) radio cubes reduction by a mixture of Gaussians model. We have also proposed joint reduction/segmentation scheme based on the regularization of the mixture of probabilistic principal components analyzers (MPPCA). For the segmentation task, we have used a Bayesian approach based on hierarchical Markov models namely the hidden Markov tree and the pairwise Markov tree. These models allow fast and exact computation of the a posteriori probabilities. For the data driven term, we have used three formulations: 1) the classical multidimensional Gaussian distribution 2) the multidimensional generalized Gaussian distribution formulated using copulas theory 3) the likelihood of the probabilistic PCA model (within the framework of the regularized MPPCA). The major contribution of this work consists in introducing various hierarchical Markov models for multidimensional and multiresolution data segmentation. Their exploitation for data issued from wavelets analysis, adapted to the astronomical context, enabled us to develop new denoising and fusion techniques of multispectral astronomical images. All our algorithms are unsupervised and were validated on synthetic and real images
Styles APA, Harvard, Vancouver, ISO, etc.
2

Jouvard, Jean-Marie. « Relations isotopiques et réduction des données spectroscopiques : application au traitement simultané des premières polyades des molécules 12CH4, 13CH4, 12CD4 et 13CD4 ». Dijon, 1991. http://www.theses.fr/1991DIJOS007.

Texte intégral
Résumé :
Nous proposons une méthode de réduction des données spectroscopiques (paramètres de raies) basée sur l'utilisation des constantes de force du potentiel (invariant isotopique). Nous avons appliqué cette méthode à l'ajustement simultané des données spectroscopiques (fréquences) relatives àquatre isotopes tétraédriques du méthane : 12CH4, 13CH4, 12CD4 et 13CD4. La mise en oeuvre de cette méthode nous a conduits à considérer en détail les phases successives du processus de réduction des données, en appliquant le raisonnement statistique d'une manière aussi rigoureuse que possible. Une restructuration de la chaine de programmes d'analyse du laboratoire a été nécessaire, et a permis entre autre l'étude de l'effet Stark du silane. Une partie importante de notre travail a été consacrée à l'analyse de la pentade du13CH4. Il s'agit de la première analyse de ce système de bandes en interaction dans le schéma polyade. Les analyses existantes des trois premières polyades des quatre isotopes ont été reprises afin de cerner plus finement la précision et la convergence des modèles dans la perspective de notre ajustement simultané. Les résultats préliminaires issus de cette méthode de réduction se traduisent par une diminution importante du nombre de paramètres permettant de décrire les données primaires avec une précision comparable à celle obtenue à l'aide des modèles antérieurs. Ce travail nous a également permis de mettre en évidence les conséquences de certaines approximations implicitement appliquées lors de la détermination des constantes de force du potentielà partir des paramètres des hamiltoniens moléculaires effectifs.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Girard, Robin. « Réduction de dimension en statistique et application en imagerie hyper-spectrale ». Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00379179.

Texte intégral
Résumé :
Cette thèse est consacrée à l'analyse statistique de données en grande dimension. Nous nous intéressons à trois problèmes statistiques motivés par des applications médicales : la classification supervisée de courbes, la segmentation supervisée d'images hyperspectrales et la segmentation non-supervisée d'images hyperspectrales. Les procédures développées reposent pour la plupart sur la théorie des tests d'hypothèses (tests multiples, minimax, robustes et fonctionnels) et la théorie de l'apprentissage statistique. Ces théories sont introduites dans une première partie. Nous nous intéressons, dans la deuxième partie, à la classification supervisée de données gaussiennes en grande dimension. Nous proposons une procédure de classification qui repose sur une méthode de réduction de dimension et justifions cette procédure sur le plan pratique et théorique. Dans la troisième et dernière partie, nous étudions le problème de segmentation d'images hyper-spectrales. D'une part, nous proposons un algorithme de segmentation supervisée reposant à la fois sur une analyse multi-échelle, une estimation par maximum de vraisemblance pénalisée, et une procédure de réduction de dimension. Nous justifions cet algorithme par des résultats théoriques et des applications pratiques. D'autre part, nous proposons un algorithme de segmentation non supervisée impliquant une décomposition en ondelette des spectres observées en chaque pixel, un lissage spatial par croissance adaptative de régions et une extraction des frontières par une méthode de vote majoritaire.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Oger, Myriam. « Indexation automatique d'images numériques : application aux images histopathologiques du cancer du sein et hématologiques de leucémies lympoïdes chroniques ». Caen, 2008. http://www.theses.fr/2008CAEN2066.

Texte intégral
Résumé :
Dans un contexte où les économies de santé sont de plus en plus drastiques, où les spécialistes sont de moins en moins nombreux, alors que, grâce aux campagnes de dépistage, le nombre de cas à analyser est en constante augmentation, le travail des pathologistes devient de plus en plus difficile. En outre, les lésions précoces découvertes lors du dépistage sont souvent mal connues et/ou de très petite taille ce qui rend délicat le diagnostic histopathologique. Un problème similaire est rencontré en hématologie avec la pratique de plus en plus répandue des examens sanguins systématiques et la difficulté d'identification de cellules suspectes et d'évènements rares au sein d'un frottis sanguin. Il est par conséquent très important d’apprécier dans quelle mesure la microscopie numérique et les outils d’analyse automatique des images pourront dans l’avenir aider ces spécialistes dans l’accomplissement de leur tâche quotidienne. Le présent travail de thèse, mené dans cette optique, se fonde sur l'utilisation de lames virtuelles des préparations histologiques et cytologiques, acquises à basse ou à haute résolution. Il consiste à développer et à tester une série d'outils d'aide au diagnostic basés sur l’indexation automatique des images. Cependant, l’utilisation des lames virtuelles implique la manipulation d'une masse de données très importante, qui constitue un frein pour traiter, analyser et même visualiser les images de manière classique. Nous avons donc testé tout d’abord la pertinence d'une analyse globale des images, puis d'une analyse locale de celles-ci, accompagnées d’une réduction de dimension des données par diverses méthodes, dont l'analyse spectrale. Nous avons choisi de mettre en œuvre cette approche à propos de deux localisations dont l’incidence constitue un problème de santé publique, les tumeurs mammaires et la leucémie lymphoïde chronique
In a context where health economies are increasingly curbed, where specialists are fewer and fewer, while, thanks to screening campaigns, the number of cases to analyze is constantly growing, the task of pathologists is more and more difficult. In addition, early lesions discovered during the screening are often poorly known and / or of very small size which makes the histopathological diagnosis difficult. A similar problem is encountered in hematology with the increasingly widespread practice of systematic blood tests and the difficulty of identifying suspicious cells and rare events in blood smears. It is therefore very important to assess how digital microscopy and automatic processing techniques will be able to help the specialists in their daily practice in the future. This present work is based on the use of virtual slides of histological and cytological preparations, acquired at low or high resolution. It aims at developing and testing several tools for computer assisted diagnosis based on automatic indexing of images. However, the use of virtual slides involves the manipulation of very large data and it is difficult to process, analyze or visualize these images in a classical way. The first objective of the study was to assess the relevance of a global analysis of images, then the contribution of their local analysis, with a dimensional reduction of data by various methods including spectral analysis. These methods have been applied to virtual slides of breast tumors and chronic lymphoid leukemia, two tumor locations whose incidence is a public health problem
Styles APA, Harvard, Vancouver, ISO, etc.
5

Dyrek, Achrène. « L'atmosphère des exoplanètes avec le James Webb Space Telescope ». Electronic Thesis or Diss., Université Paris Cité, 2023. http://www.theses.fr/2023UNIP7096.

Texte intégral
Résumé :
Ma thèse est consacrée à l'étude des atmosphères d'exoplanètes avec le télescope spatial James Webb Space Telescope (JWST). L'étude et la caractérisation d'atmosphères d'exoplanètes représente aujourd'hui un enjeu majeur au sein de la communauté scientifique et au-delà, puisqu'il s'agit de mettre en perspective tous ces mondes découverts au cours des trois dernières décennies et notre propre Système solaire, seul hôte connu de la vie à ce jour. La première partie de ce manuscrit est consacrée à une introduction qui présente l'état de l'art de notre connaissance des atmosphères d'exoplanètes en termes de composition atomique et moléculaire, de structure et de dynamique. Cette introduction se concentre sur l'étude des atmosphères d'exoplanètes dites transitantes (lorsque la planète passe devant ou derrière son étoile dans l'axe de visée des télescopes) et fournit une description de cette méthode observationnelle ainsi que des défis associés. La deuxième partie de ce manuscrit s'intéresse à l'élaboration de simulations d'observations d'atmosphères d'exoplanètes à l'aide du Mid-InfraRed Instrument (MIRI) du JWST (à l'époque encore en attente de son lancement) et de son spectromètre basse résolution (LRS). Mon objectif principal est la conception d'un outil de simulation complet et robuste qui permette à la communauté de valider les méthodes de réduction de données et de prédire les détections moléculaires [Dyrek+, sub., 2023, Morello, Dyrek+, 2022]. La troisième partie de ce manuscrit est dédiée à l'étude des performances en vol du LRS de MIRI après le lancement du JWST, le jour de Noël 2021. En effet, l'arrivée des premières données du JWST marque le début d'une étape cruciale de ma thèse. En particulier, je m'appuie sur le premier transit exoplanétaire observé par MIRI, celui de la Super-Terre L168-9b, choisie comme cible pour l'étude des performances. A partir de ces données, je me suis concentrée sur l'identification de variations instrumentales infimes qui pourraient porter atteinte à la stabilité temporelle des observations. De fait, je discute des axes d'améliorations des méthodes de réduction de données dans le cadre de l'étude d'exoplanètes en transit [Dyrek+, sub., 2023]. La dernière partie de ce manuscrit est consacrée à l'analyse scientifique des courbes de lumières photométriques et spectroscopiques d'atmosphères d'exoplanètes, des géantes gazeuses aux rocheuses tempérées. Je présente mes travaux collaboratifs dans le cadre du Temps Garanti d'Observation (GTO) et de l'Early Release Science (ERS) du JWST pour lesquels j'ai mené la réduction et l'analyse des données. En particulier, je m'intéresse à la super-Neptune WASP-107b dont l'analyse de données a conduit notamment à la première détection de dioxyde soufre (SO2) en infrarouge moyen et à la première détection de nuages de silicates [Dyrek+, sub., 2023b]. Enfin, je présente la première détection de l'émission thermique d'une exoplanète rocheuse et tempérée, TRAPPIST-1b, pour laquelle nous avons contraint la température de brillance qui indique l'absence d'une atmosphère dense [Greene +, 2023]. Le chapitre final est dédié à l'ensemble des perspectives ouvertes par la révolution observationnelle du JWST et de la future mission dédiée aux exoplanètes : Ariel
My thesis is devoted to the characterisation of exoplanet atmospheres with the newly-operating James Webb Space Telescope (JWST). Our understanding of exoplanet atmospheres is being revolutionised by the observational capabilities of such an observatory. The scientific outcomes will reach our scientific community and the general public, putting into perspective our knowledge of our own Solar System, the only system that is known to host life. The first part of this manuscript is devoted to an introduction that includes a state-of-the-art review of exoplanet atmospheres characterisation in terms of atomic and molecular composition, structure and dynamics. In this introduction, we focus on transiting exoplanets (when the planet passes in front of or behind its host star in the telescope's line of sight). We provide a description of this observational method and key results that have been obtained over the past two decades. The second part of this manuscript focuses on the molecular composition predictions with the JWST Mid-InfraRed Instrument (MIRI) and its Low-Resolution Spectrometer (LRS) that is meant to carry out atmospheric spectroscopy in an uncharted wavelength range. Here, we present realistic simulations of transiting exoplanets I developed during my thesis, with the MIRI LRS instrument that include various instrumental systematics likely to alter the atmospheric features we are meant to detect in our data [Dyrek+, sub., 2023, Morello, Dyrek+, 2022]. Our main objective is to design a comprehensive simulation tool that enables the community to build robust data reduction methods and to predict molecular detections. The third part of this manuscript is dedicated to the characterisation of the in-flight post-commissioning performances of the MIRI LRS. This work is based on the first exoplanetary transit observed with MIRI of the Super-Earth L168-9b, chosen to be a calibration target. My work focuses on identifying in-flight instrumental systematics that undermine observations' stability and more generally, the study of transiting exoplanets [Dyrek+, sub., 2023]. The final part of this manuscript is devoted to the scientific analysis of photometric and spectroscopic observations of both gas giants and temperate rocky exoplanet atmospheres. Here, I present my contribution on data reduction and analysis to the collaborative work we conducted as part of the Guaranteed Time Observation (GTO) and the Early Release Science (ERS) consortia. In particular, our work on the super-Neptune WASP-107b led to the first mid-infrared detection of sulphur dioxide (SO2) and silicate clouds [Dyrek+, sub., 2023b]. In addition, we conducted the first detection of the thermal emission of the rocky temperate exoplanet TRAPPIST-1b. In this work, we have constrained its brightness temperature, revealing key insights in the presence or not of an atmosphere [Greene+, 2023]. The final chapter of my thesis is dedicated to the prospects offered by JWST and the future Ariel mission, as these two telescopes will provide game-changing observations over the next decades
Styles APA, Harvard, Vancouver, ISO, etc.
6

Laforest, Valérie. « Technologies propres : méthodes de minimisation des rejets et de choix des procédés de valorisation des effluents : application aux ateliers de traitements de surface ». Lyon, INSA, 1999. http://theses.insa-lyon.fr/publication/1999ISAL0118/these.pdf.

Texte intégral
Résumé :
Le traitement des eaux constitue actuellement la part essentielle des investissements industriels pour la protection de l'environnement. En France, les moyens consacrés à la dépollution des eaux sont de l'ordre de 20 milliards de Francs dont la plus grosse part est consacré à l'activité industrielle. Les actions engagées se font par une gestion globale des effluents en privilégiant les actions de réduction à la source notamment par la mise en place de technologies propres (optimisation, changement et modification du procédé de production). Nous avons concentré notre étude sur la mise en place des technologies propres dans les ateliers de traitement de surface (consommateur et générateur d'eau et de produits chimiques). Pour cela, nous avons mis au point deux méthodes de gestion de l'information qui ont abouti au développement de deux systèmes informatiques d'aide à la décision. La première a pour objectif de minimiser la consommation et les rejets en eau tout en optimisant le procédé de production en assurant une efficacité et un rendement optima des rinçages. La deuxième concerne le choix des procédés de valorisation suivant les objectifs de valorisation, les caractéristiques de l'effluent et les paramètres limitant l'utilisation des procédés. Notre approche entre dans une démarche globale de gestion des effluents du traitement de surface. Elle a pour but de limiter la quantité des effluents générés, de valoriser les flux et d'une manière générale de mettre en place les technologies propres dans un contexte de développement durable
Currently, the essential part of the money invested by the industrialist is for the water treatment. In France, most of the 20 billions francs per year devoted to the water treatment is used for the industrial activity. The global management of effluents favour the integration of clean technologies (optimisation, change and modification of the production process) in order to reduce the pollution problem at its source. Our study aims at the introduction of clean technologies in the metal workshops (consumer and generator of water and chemicals) by the development of two data management methods, which lead to two decision support systems. The aim of the first one is to minimise both the water consumption and the wastewater disposal by optimising the production process (optimum yield and efficiency of the rinsing baths. The second one concerns the choice of valorisation techniques considering the valorisation objectives, the effluents characteristics and the parameters limiting the use of the techniques. Our approach fits into a global management method for the metal finishing industry wastewater. Its aim is to limit the quantity of wastewater generated, to valorise effluents and by this way to develop the clean technologies
Styles APA, Harvard, Vancouver, ISO, etc.
7

Teixeira, Ramachrisna. « Traitement global des observations méridiennes de l'Observatoire de Bordeaux ». Bordeaux 1, 1990. http://www.theses.fr/1990BOR10618.

Texte intégral
Résumé :
Usuellement les observations meridiennes sont groupees en series qui sont reduites separement, et le systeme instrumental est fixe par les observations d'etoiles de repere. Dans ce travail, nous traitons les donnees acquises pendant deux ans avec la lunette meridienne de bordeaux, en considerant simultanement toutes les observations. Ainsi, nous sommes amenes a resoudre un seul probleme de moindres carres dont les inconnues ne sont plus uniquement les parametres instrumentaux mais aussi les positions de toutes les etoiles. Dans ce cas, toutes les etoiles contribuent a la definition du systeme instrumental et, par consequent, nous sommes moins tributaires des catalogues de repere. Les solutions du systeme d'equations resultant, qui contient quelques dizaines de milliers d'equations et des milliers d'inconnues et est singulier, sont obtenues par une adaptation de la methode iterative de gauss-seidel. La convergence des iterations est demontree et les resultats ainsi obtenus sont presentes et analyses
Styles APA, Harvard, Vancouver, ISO, etc.
8

Ravazzola, Patrice. « Approximation et réduction de modèles en traitement d'antenne ». Grenoble INPG, 1990. http://www.theses.fr/1990INPG0104.

Texte intégral
Résumé :
L'objectif de cette these est d'elaborer des methodes de traitement d'antenne robustes vis-a-vis du bruit (de densite spatiale inconnue) et ayant de bonnes performances en detection de sources faibles. On concoit aisement que l'obtention d'un gain significatif par rapport aux methodes haute resolution usuelles n'est possible qu'en exploitant au mieux les hypotheses classiques, et en abordant le probleme de l'analyse spatiale sous un angle original. En utilisant les hypotheses de propagation en onde plane et de stationnarite spatiale, on exhibe un modele rationnel particulier fournissant une bonne approximation du champ de bruit recu sur une antenne lineaire. La determination des gisements des sources peut alors se ramener a un probleme de realisation stochastique approchee. Fondees sur des criteres permettant de separer judicieusement les contributions des sources et du bruit, ces methodes conduisent a une amelioration du pouvoir de detection et surtout a une bonne robustesse vis-a-vis de la correlation spatiale du bruit. Cependant, elles souffrent encore de la perte de structure lors de l'estimation du sous-espace relatif aux sources. Pour obtenir un gain significatif en detection, il est necessaire de conserver la structure particuliere de ce sous-espace. A cette fin, l'analyse spatiale est ramenee a un probleme d'approximation d'une matrice de hankel de rang maximum par une matrice de meme type de rang donne. Cette methode de reduction de modele selon la norme hankel apporte un gain tres important en detection par rapport aux methodes haute resolution usuelles. En outre, elle se prete tres bien a l'extension large bande
Styles APA, Harvard, Vancouver, ISO, etc.
9

Wright, Sophie. « Données obstétricales et néonatales précoces des grossesses gémellaires après réduction embryonnaire ». Montpellier 1, 1994. http://www.theses.fr/1994MON11106.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Atigui, Faten. « Approche dirigée par les modèles pour l’implantation et la réduction d’entrepôts de données ». Thesis, Toulouse 1, 2013. http://www.theses.fr/2013TOU10044/document.

Texte intégral
Résumé :
Nos travaux se situent dans le cadre des systèmes d'aide à la décision reposant sur un Entrepôt de Données multidimensionnelles (ED). Un ED est une collection de données thématiques, intégrées, non volatiles et historisées pour des fins décisionnelles. Les données pertinentes pour la prise de décision sont collectées à partir des sources au moyen des processus d'Extraction-Transformation-Chargement (ETL pour Extraction-Transformation-Loading). L'étude des systèmes et des méthodes existants montre deux insuffisances. La première concerne l'élaboration d'ED qui, typiquement, se fait en deux phases. Tout d'abord, il faut créer les structures multidimensionnelles ; ensuite, il faut extraire et transformer les données des sources pour alimenter l'ED. La plupart des méthodes existantes fournit des solutions partielles qui traitent soit de la modélisation du schéma de l'ED, soit des processus ETL. Toutefois, peu de travaux ont considéré ces deux problématiques dans un cadre unifié ou ont apporté des solutions pour automatiser l'ensemble de ces tâches.La deuxième concerne le volume de données. Dès sa création, l'entrepôt comporte un volume important principalement dû à l'historisation régulière des données. En examinant les analyses dans le temps, on constate que les décideurs portent généralement un intérêt moindre pour les données anciennes. Afin de pallier ces insuffisances, l'objectif de cette thèse est de formaliser le processus d'élaboration d'ED historisés (il a une dimension temporelle) depuis sa conception jusqu'à son implantation physique. Nous utilisons l'Ingénierie Dirigée par les Modèles (IDM) qui permet de formaliser et d'automatiser ce processus~; ceci en réduisant considérablement les coûts de développement et en améliorant la qualité du logiciel. Les contributions de cette thèse se résument comme suit : 1. Formaliser et automatiser le processus de développement d'un ED en proposant une approche dirigée par les modèles qui inclut : - un ensemble de métamodèles (conceptuel, logique et physique) unifiés décrivant les données et les opérations de transformation. - une extension du langage OCL (Object Constraint Langage) pour décrire de manière conceptuelle les opérations de transformation d'attributs sources en attributs cibles de l'ED. - un ensemble de règles de transformation d'un modèle conceptuel en modèles logique et physique.- un ensemble de règles permettant la génération du code de création et de chargement de l'entrepôt. 2. Formaliser et automatiser le processus de réduction de données historisées en proposant une approche dirigée par les modèles qui fournit : - un ensemble de métamodèles (conceptuel, logique et physique) décrivant les données réduites, - un ensemble d'opérations de réduction,- un ensemble de règles de transformation permettant d'implanter ces opérations au niveau physique. Afin de valider nos propositions, nous avons développé un prototype comportant trois parties. Le premier module réalise les transformations de modèles vers des modèles de plus bas niveau. Le deuxième module transforme le modèle physique en code. Enfin, le dernier module permet de réduire l'ED
Our work handles decision support systems based on multidimensional Data Warehouse (DW). A Data Warehouse (DW) is a huge amount of data, often historical, used for complex and sophisticated analysis. It supports the business process within an organization. The relevant data for the decision-making process are collected from data sources by means of software processes commonly known as ETL (Extraction-Transformation-Loading) processes. The study of existing systems and methods shows two major limits. Actually, when building a DW, the designer deals with two major issues. The first issue treats the DW's design, whereas the second addresses the ETL processes design. Current frameworks provide partial solutions that focus either on the multidimensional structure or on the ETL processes, yet both could benefit from each other. However, few studies have considered these issues in a unified framework and have provided solutions to automate all of these tasks. Since its creation, the DW has a large amount of data, mainly due to the historical data. Looking into the decision maker's analysis over time, we can see that they are usually less interested in old data.To overcome these shortcomings, this thesis aims to formalize the development of a time-varying (with a temporal dimension) DW from its design to its physical implementation. We use the Model Driven Engineering (MDE) that automates the process and thus significantly reduce development costs and improve the software quality. The contributions of this thesis are summarized as follows: 1. To formalize and to automate the development of a time-varying DW within a model-driven approach that provides: - A set of unified (conceptual, logical and physical) metamodels that describe data and transformation operations. - An OCL (Object Constraint Language) extension that aims to conceptually formalize the transformation operations. - A set of transformation rules that maps the conceptual model to logical and physical models. - A set of transformation rules that generates the code. 2. To formalize and to automate historical data reduction within a model-driven approach that provides : - A set of (conceptual, logical and physical) metamodels that describe the reduced data. - A set of reduction operations. - A set of transformation rules that implement these operations at the physical level.In order to validate our proposals, we have developed a prototype composed of three parts. The first part performs the transformation of models to lower level models. The second part transforms the physical model into code. The last part allows the DW reduction
Styles APA, Harvard, Vancouver, ISO, etc.
11

Fliti, Tamim. « Le problème SAT : traitement dynamique et données minimales ». Aix-Marseille 2, 1997. http://www.theses.fr/1997AIX22015.

Texte intégral
Résumé :
Le present memoire se compose de deux parties consacrees, l'une aux traitements dynamique de donnees aleatoires du probleme de satisfaisabilite sat, l'autre a l'etude sur les systemes minimaux (et inconsistants) smi en forme normale conjonctive. Dans la premiere partie nous incluons, d'une part, une methode de recherche dynamique sur plusieurs niveaux a la procedure de davis et putnam visant a valuer les meilleures variables qui produisent un plus petit arbre de calcul apres k-niveaux de recherche. Les experimentations des variantes ainsi obtenues, pour k = 2 sur des donnees 3-sat aleatoires, donnent un meilleur nombre de nuds de l'arbre de calcul, ce nombre compense le temps necessaire a la recherche des variables fournissant un plus petit arbre apres deux niveaux de recherche. D'autre part, nous essayons d'isoler l'intervalle (c/v)#i#n#f,(c/v)#s#u#p hors duquel la correspondance experimentale c/v probabilite de satisfaisabilite des donnees est constante par morceaux ; en faisant une etude sur les donnees k-sat de format (c,v), dans la zone d'entropie maximale plus particulierement. Dans la seconde partie, nous etudions divers algorithmes pour engendrer des smi de facon aleatoire, en vue notamment d'estimer les nombres n(v) de smi a v variables apparentes. Nous donnons le nombre minimum des clauses d'une donnee smi et nous construisons de smi 3-sat ayant un nombre de clauses polynomial en le nombre v des variables apparentes, plus particulierement un exemple de smi 3-sat qui n'a pas moins de v#3/(48(log v)#3) clauses
Styles APA, Harvard, Vancouver, ISO, etc.
12

Tissot, Gilles. « Réduction de modèle et contrôle d'écoulements ». Thesis, Poitiers, 2014. http://www.theses.fr/2014POIT2284/document.

Texte intégral
Résumé :
Le contrôle d'écoulements turbulents est un enjeu majeur en aérodynamique. Cependant, la présence d'un grand nombre de degrés de libertés et d'une dynamique complexe rend délicat la modélisation dynamique de ces écoulements qui est pourtant nécessaire à la conception d'un contrôle efficace. Au cours de cette thèse, différentes directions ont été suivies afin de développer des modèles réduits dans des configurations réalistes d'écoulements et d'utiliser ces modèles pour le contrôle.Premièrement, la décomposition en modes dynamiques (DMD), et certaines de ses variantes, ont été exploitées en tant que base réduite afin d'extraire au mieux le comportement dynamique de l'écoulement. Par la suite, nous nous sommes intéressés à l'assimilation de données 4D-Var qui permet de combiner des informations inhomogènes provenant d'un modèle dynamique, d'observations et de connaissances a priori du système. Nous avons ainsi élaboré des modèles réduits POD et DMD d'un écoulement turbulent autour d'un cylindre à partir de données expérimentales PIV. Finalement, nous avons considéré le contrôle d'écoulement dans un contexte d'interaction fluide/structure. Après avoir montré que les mouvements de solides immergés dans le fluide pouvaient être représentés comme une contrainte supplémentaire dans le modèle réduit, nous avons stabilisé un écoulement de sillage de cylindre par oscillation verticale
Control of turbulent flows is still today a challenge in aerodynamics. Indeed, the presence of a high number of active degrees of freedom and of a complex dynamics leads to the need of strong modelling efforts for an efficient control design. During this PhD, various directions have been followed in order to develop reduced-order models of flows in realistic situations and to use it for control. First, dynamic mode decomposition (DMD), and some of its variants, have been exploited as reduced basis for extracting at best the dynamical behaviour of the flow. Thereafter, we were interested in 4D-variational data assimilation which combines inhomogeneous informations coming from a dynamical model, observations and an a priori knowledge of the system. POD and DMD reduced-order models of a turbulent cylinder wake flow have been successfully derived using data assimilation of PIV measurements. Finally, we considered flow control in a fluid-structure interaction context. After showing that the immersed body motion can be represented as an additional constraint in the reduced-order model, we stabilized a cylinder wake flow by vertical oscillations
Styles APA, Harvard, Vancouver, ISO, etc.
13

Buchholz, Bert. « Abstraction et traitement de masses de données 3D animées ». Phd thesis, Télécom ParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-00958339.

Texte intégral
Résumé :
Dans cette thèse, nous explorons des structures intermédiaires ainsi que le rapport entre eux et des algorithmes utilisés dans le contexte du rendu photoréaliste (RP) et non photoréaliste (RNP). Nous présentons des nouvelles structures pour le rendu et l'utilisation alternative des structures existantes. Nous présentons trois contributions principales dans les domaines RP et RNP: Nous montrons une méthode pour la génération des images stylisées noir et blanc. Notre approche est inspirée par des bandes dessinées, utilisant l'apparence et la géometrie dans une formulation d'énérgie basée sur un graphe 2D. En contrôlant les énérgies, l'utilisateur peut générer des images de differents styles et représentations. Dans le deuxième travail, nous proposons une nouvelle méthode pour la paramétrisation temporellement cohérente des lignes animées pour la texturisation. Nous introduisons une structure spatiotemporelle et une formulation d'énérgie permettant une paramétrisation globalement optimale. La formulation par une énérgie donne un contrôle important et simple sur le résultat. Finalement, nous présentons une extension sur une méthode de l'illumination globale (PBGI) utilisée dans la production de films au cours des dernières années. Notre extension effectue une compression par quantification de données générées par l'algorithme original. Le coût ni de memoire ni de temps excède considérablement celui de la méthode d'origin et permet ainsi le rendu des scènes plus grande. L'utilisateur a un contrôle facile du facteur et de la qualité de compression. Nous proposons un nombre d'extensions ainsi que des augmentations potentielles pour les méthodes présentées.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Flitti, Farid. « Techniques de réduction de données et analyse d'images multispectrales astronomiques par arbres de Markov ». Phd thesis, Université Louis Pasteur - Strasbourg I, 2005. http://tel.archives-ouvertes.fr/tel-00156963.

Texte intégral
Résumé :
Le développement de nouveaux capteurs multispectraux en imagerie astronomique permet l'acquisition de données d'une grande richesse. Néanmoins, la classification d'images multidimensionnelles se heurte souvent au phénomène de Hughes : l'augmentation de la dimensionnalité s'accompagne d'un accroissement du nombre de paramètres du modèle et donc inévitablement une baisse de précision de leur estimation entrainant une dégradation de la qualité de la segmentation. Il est donc impératif d'écarter l'information redondante afin de réaliser des opérations de segmentation ou de classification robustes. Dans le cadre de cette thèse, nous avons propose deux méthodes de réduction de la dimensionnalité pour des images multispectrales : 1) le regroupement de bandes suivis de projections locales ; 2) la réduction des cubes radio par un modèle de mélange de gaussiennes. Nous avons également propose un schéma de réduction/segmentation jointe base sur la régularisation du mélange d'analyseurs en composantes principales probabilistes (MACPP). En se qui concerne la tâche de segmentation, nous avons choisie une approche bayésienne s'appuyant sur des modèles hiérarchiques récents a base d'arbres de Markov cache et couple. Ces modèles permettent en effet un calcul rapide et exact des probabilités a posteriori. Pour le terme d'attache aux données, nous avons utilisée la loi gaussienne multidimensionnelle classique, la loi gaussienne généralisée multidimensionnelles formulée grâce à la théorie des copules et la vraisemblance par rapport au modèle de l'ACP probabiliste (dans le cadre de la MACPP régularisée). L'apport majeur de ce travail consiste donc a proposer différents modèles markoviens hiérarchiques de segmentation adaptés aux données multidimensionnelles multirésolutions. Leur exploitation pour des données issues d'une analyse par ondelettes adaptée au contexte astronomique nous a permis de développer des techniques de débruitage et de fusion d'images astronomiques multispectrales nouvelles. Tous les algorithmes sont non supervises et ont été valides sur des images synthétiques et réelles.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Chen, Fati. « Réduction de l'encombrement visuel : Application à la visualisation et à l'exploration de données prosopographiques ». Thesis, Université de Montpellier (2022-….), 2022. http://www.theses.fr/2022UMONS023.

Texte intégral
Résumé :
La prosopographie est utilisée par les historiens pour désigner des notices biographiques afin d'étudier des caractéristiques communes d'un groupe d'acteurs de l'histoire au moyen d'une analyse collective de leur vie. La visualisation d'informations présente des perspectives intéressantes pour analyser les données prosopographiques. C'est dans ce contexte que se situe le travail présenté dans ce mémoire. Dans un premier temps, nous présentons la plateforme ProsoVis conçue pour analyser et naviguer dans des données prosopographiques. Nous décrivons les différents besoins exprimés et détaillons les choix de conception ainsi que les techniques de visualisation employées. Nous illustrons son utilisation avec la base Siprojuris qui contient les données sur la carrière des enseignants de droit de 1800 à 1950. La visualisation d'autant de données pose des problèmes d'encombrement visuel. Dans ce contexte, nous abordons la problématique des chevauchements des nœuds dans un graphe. Différentes approches existent mais il est difficile de les comparer car leurs évaluations ne sont pas basées sur les mêmes critères de qualité. Nous proposons donc une étude de l'état de l'art et comparons les résultats des algorithmes sur une liste homogène de critères. Enfin, nous abordons une autre problématique d'encombrement visuel au sein d'une carte et proposons une approche de regroupement spatial agglomératif, F-SAC, beaucoup plus rapide que les propositions de l'état de l'art tout en garantissant la même qualité de résultats
Prosopography is used by historians to designate biographical records in order to study common characteristics of a group of historical actors through a collective analysis of their lives. Information visualization presents interesting perspectives for analyzing prosopographic data. It is in this context that the work presented in this thesis is situated. First, we present the ProsoVis platform to analyze and navigate through prosopographic data. We describe the different needs expressed and detail the design choices as well as the different views. We illustrate its use with the Siprojuris database which contains data on the careers of law teachers from 1800 to 1950. Visualizing so much data induces visual cluttering problems. In this context, we address the problem of overlapping nodes in a graph. Even if approaches exist, it is difficult to compare them because their respective evaluations are not based on the same quality criteria. We therefore propose a study of the state-of-the-art algorithms by comparing their results on the same criteria. Finally, we address a similar problem of visual cluttering within a map and propose an agglomeration spatial clustering approach, F-SAC, which is much faster than the state-of-the-art proposals while guaranteeing the same quality of results
Styles APA, Harvard, Vancouver, ISO, etc.
16

Noyel, Guillaume. « Filtrage, réduction de dimension, classification et segmentation morphologique hyperspectrale ». Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00004473.

Texte intégral
Résumé :
Le traitement d'images hyperspectrales est la généralisation de l'analyse des images couleurs, à trois composantes rouge, vert et bleu, aux images multivariées à plusieurs dizaines ou plusieurs centaines de composantes. Dans un sens général, les images hyperspectrales ne sont pas uniquement acquises dans le domaine des longueurs d'ondes mais correspondent à une description d'un pixel par un ensemble de valeurs : c'est à dire un vecteur. Chacune des composantes d'une image hyperspectrale constitue un canal spectral, et le vecteur associé à chaque pixel est appelé spectre. Pour valider la généralité de nos méthodes de traitement, nous les avons appliquées à plusieurs types d'imagerie correspondant aux images hyperspectrales les plus variées : des photos avec quelques dizaines de composantes acquises dans le domaine des longueurs d'ondes, des images satellites de télédétection, des séries temporelles d'imagerie par résonance dynamique (DCE-MRI) et des séries temporelles d'imagerie thermique. Durant cette thèse, nous avons développé une chaîne complète de segmentation automatique des images hyperspectrales par des techniques morphologiques. Pour ce faire, nous avons mis au point une méthode efficace de débruitage spectral, par Analyse Factorielle des Correspondances (AFC), qui permet de conserver les contours spatiaux des objets, ce qui est très utile pour la segmentation morphologique. Puis nous avons fait de la réduction de dimension, par des méthodes d'analyse de données ou par modélisation des spectres, afin d'obtenir un autre représentation de l'image avec un nombre restreint de canaux. A partir de cette image de plus faible dimension, nous avons effectué une classification (supervisée ou non) pour grouper les pixels en classes spectralement homogènes. Cependant, les classes obtenues n'étant pas homogènes spatialement, i.e. connexes, une étape de segmentation s'est donc avérée nécessaire. Nous avons démontré que la méthode récente de la Ligne de Partage des Eaux Probabiliste était particulièrement adaptée à la segmentation des images hyperspectrales. Elle utilise différentes réalisations de marqueurs aléatoires, conditionnés par la classification spectrale, pour obtenir des réalisations de contours par Ligne de Partage des Eaux (LPE). Ces réalisations de contours permettent d'estimer une fonction de densité de probabilité de contours (pdf) qui est très facile à segmenter par une LPE classique. En définitive, la LPE probabiliste est conditionnée par la classification spectrale et produit donc des segmentations spatio-spectrales dont les contours sont très lisses. Cette chaîne de traitement à été mise en œuvre sur des séquences d'imagerie par résonance magnétique dynamique (DCE-MRI) et a permis d'établir une méthode automatique d'aide au diagnostic pour la détection de tumeurs cancéreuses. En outre, d'autres techniques de segmentation spatio-spectrales ont été développées pour les images hyperspectrales : les régions η-bornées et les boules µ-géodésiques. Grâce à l'introduction d'information régionale, elles améliorent les segmentations par zones quasi-plates qui n'utilisent quant à elles que de l'information locale. Enfin, nous avons mis au point une méthode très efficace de calcul de toutes les paires de distances géodésiques d'une image, puisqu'elle permet de réduire jusqu'à 50 % le nombre d'opérations par rapport à une approche naïve et jusqu'à 30 % par rapport aux autres méthodes. Le calcul efficace de ce tableau de distances offre des perspectives très prometteuses pour la réduction de dimension spatio-spectrale.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Mouginot, Jérémie. « Traitement et Analyse des Données du Radar MARSIS/Mars Express ». Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00364323.

Texte intégral
Résumé :
Ce mémoire décrit le traitement et l'analyse des données du Mars Advanced Radar for Subsurface and Ionosphere Sounding (MARSIS).

Le traitement de ces données a principalement consisté à compenser la distorsion ionosphérique. Cette correction a permis de réaliser une mesure indirecte du contenu électronique de l'ionosphère. Grâce à ces mesures, nous avons pu étudier en détail l'ionosphère martienne. Nous avons ainsi montré que le champ magnétique rémanent modifiait la distribution des électrons de l'ionosphère en précipitant les particules du vent solaire le long des lignes de champ radiales.

Les radargrammes corrigés nous ont permis d'étudier en détail les calottes martiennes. Nous faisons le bilan du volume des calottes polaires de Mars en utilisant des outils numériques développés pour le pointage des interfaces. Nous montrons ainsi que le volume des calottes correspondrait à une couche d'eau d'environ 20 m d'épaisseur répartie sur toute la planète.

Nous étudions enfin la réflectivité de la surface martienne. Pour cela, nous avons extrait l'amplitude de l'écho de surface de chaque pulse MARSIS, puis, après avoir calibré ces mesures, nous avons créé une carte globale de l'albédo radar. Nous nous sommes attachés à décrire cette carte de réflectivité, d'abord de manière globale, puis plus localement autour de Medusae Fossae et de la calotte résiduelle sud. Nous montrons que la réflectivité décroît avec la latitude, cette constatation est surement liée à la présence d'un pergélisol lorsqu'on remonte vers les hautes latitudes. Près de l'équateur, nous observons que les formations de Medusae Fossae possèdent une constante diélectrique de 2,4+/-0.5 ce qui est caractéristique d'un terrain poreux et/ou riche en glace. Dans cette même région, nous montrons que, dans les plaines d'Elysium et Amazonis, la constante diélectrique est égale à 7\pm1 et nous observons une interface dans la plaine d'Amazonis à environ 140+/-20 m, notre conclusion est que ces résultats sont caractéristiques d'écoulements de lave. L'étude de la calotte résiduelle sud de Mars, à l'aide d'un modèle de réflectivité multi-couches, nous permet d'estimer l'épaisseur de CO2 qui couvre cette région à 11+/-1.5 m.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Gu, Co Weila Vila. « Méthodes statistiques et informatiques pour le traitement des données manquantes ». Phd thesis, Conservatoire national des arts et metiers - CNAM, 1997. http://tel.archives-ouvertes.fr/tel-00808585.

Texte intégral
Résumé :
Cette thèse est consacrée au traitement des données manquantes. Des méthodes descriptives (analyse en composantes principales, analyse des correspondances dont analyse homogène et la classification automatique) sont étudiées dans le cadre des données incomplètes. La seconde partie est consacrée à des problèmes de fusion de fichiers et analyses homogène y est introduite.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Royer, Jean-Jacques. « Analyse multivariable et filtrage des données régionalisées ». Vandoeuvre-les-Nancy, INPL, 1988. http://www.theses.fr/1988NAN10312.

Texte intégral
Résumé :
Ce travail est consacré à l'analyse multivariable et au filtrage des données régionalisées. On définit un indice de proximité entre échantillons. Une technique de filtrage basée sur l'analyse structurale, la déconvolution géostatistique, a été utilisée pour estimer la fonction de transfert ou identifier le signal de sortie. Le principe de la méthode repose sur le calcul au préalable des fonctions de covariance des signaux d'entrée et de sortie. Par ailleurs une relation théorique reliant la matrice de covariance des erreurs à la granulométrie du milieu étudié est démontrée
Styles APA, Harvard, Vancouver, ISO, etc.
20

Fraisse, Bernard. « Automatisation, traitement du signal et recueil de données en diffraction x et analyse thermique : Exploitation, analyse et représentation des données ». Montpellier 2, 1995. http://www.theses.fr/1995MON20152.

Texte intégral
Résumé :
La recherche en chimie du solide necessite l'utilisation et la maitrise de techniques indispensables telles que la diffraction des rayons x et l'analyse thermique. Tout en ameliorant leurs performances, l'automatisation des appareils classiques permet a un grand nombre de laboratoires d'acceder a ces techniques pour un cout modeste. Cette derniere n'a pu etre envisagee qu'apres le developpement d'outils informatiques, en particulier les bibliotheques de communication entre le micro-ordinateur et les differents peripheriques. Les logiciels d'acquisition, d'exploitation, de representation tridimensionnelle et de comparaison des diffractogrammes de rayons x avec ceux contenus dans un fichier de references, ont ete concus et ecrits au laboratoire. De plus, la realisation de chambres de mesures autorise l'enregistrement des diffractogrammes en fonction de la temperature. L'experience acquise a pu etre appliquee a l'analyse thermique: les logiciels ecrits permettent respectivement l'acquisition et l'exploitation des diagrammes d'analyse thermique, directe et differentielle
Styles APA, Harvard, Vancouver, ISO, etc.
21

Pasquier, Nicolas. « Data Mining : algorithmes d'extraction et de réduction des règles d'association dans les bases de données ». Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2000. http://tel.archives-ouvertes.fr/tel-00467764.

Texte intégral
Résumé :
L'extraction de connaissances dans les bases de données, également appelé data mining, désigne le processus non trivial permettant d'extraire des informations et des connaissances utiles qui sont enfouies dans les bases de données, les entrepôts de données (data warehouse) ou autres sources de données. Les recherches en ce domaine sont motivées par la croissance très rapide des volumes de données stockées et le potentiel de telles informations pour l'aide à la décision dans de nombreux domaines. Dans ce mémoire, nous traitons du problème de la génération efficace des règles d'association. Une règle d'association est une implication conditionnelle entre ensembles d'attributs binaires appelés items. Dans l'ensemble des travaux existants, ce problème est décomposé en deux sous-problèmes qui sont la recherche des ensembles fréquents d'items et la génération des règles d'association à partir de ces ensembles. Le premier sous-problème a une complexité exponentielle dans la taille de la relation en entrée et nécessite de parcourir à plusieurs reprises la totalité de la relation. L'extraction des ensembles fréquents d'items constitue donc la phase la plus coûteuse en termes de temps d'exécution et d'espace mémoire pour les algorithmes d'extraction des règles d'association. Nous proposons une nouvelle sémantique pour le problème de l'extraction des règles d'association basée sur la connexion de Galois d'une relation binaire finie. Utilisant cette sémantique, nous démontrons que les ensembles fermés fréquents d'items constituent une base, c'est à dire un ensemble générateur non redondant, pour les ensembles fréquents d'items et les règles d'association. Nous proposons deux nouveaux algorithmes, nommés Close et A-Close, permettant l'extraction des ensembles fermés fréquents d'items, à partir desquels les ensembles fréquents d'items et les règles d'association peuvent être dérivés sans accéder au jeu de données. Les résultats expérimentaux démontrent que ces algorithmes permettent de réduire les temps d'extraction des règles d'association dans le cas de jeux de données constitués de données denses ou corrélées. Utilisant la sémantique définie, nous proposons d'améliorer la pertinence et l'utilité des règles d'association extraites en limitant l'extraction à des bases pour les règles d'association. Nous adaptons pour cela les bases pour les règles d'implication définies en analyse de données et nous définissons de nouvelles bases constituées des règles non redondantes d'antécédents minimaux et de conséquences maximales à partir des ensembles fermés fréquents. Nous proposons également des algorithmes efficaces de génération de ces bases.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Soler, Maxime. « Réduction et comparaison de structures d'intérêt dans des jeux de données massifs par analyse topologique ». Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS364.

Texte intégral
Résumé :
Dans cette thèse, nous proposons différentes méthodes, basées sur l'analyse topologique de données, afin de répondre aux problématiques modernes concernant l'analyse de données scientifiques. Dans le cas de données scalaires, extraire un savoir pertinent à partir de données statiques, de données qui varient dans le temps, ou données d'ensembles s'avère de plus en plus difficile. Nos approches pour la réduction et l'analyse de telles données reposent sur l'idée de définir des structures d'intérêt dans les champs scalaires à l’aide d’abstractions topologiques. Dans un premier temps, nous proposons un nouvel algorithme de compression avec pertes offrant de fortes garanties topologiques, afin de préserver les structures topologiques tout au long de la compression. Des extensions sont proposées pour offrir un contrôle supplémentaire sur l'erreur géométrique. Nous ciblons ensuite les données variables dans le temps en proposant une nouvelle méthode de suivi des structures topologiques, basée sur des métriques topologiques. Ces métriques sont étendues pour être plus robustes. Nous proposons un nouvel algorithme efficace pour les calculer, obtenant des accélérations de plusieurs ordres de grandeur par rapport aux approches de pointe. Enfin, nous appliquons et adaptons nos méthodes aux données d'ensemble relatives à la simulation de réservoir, dans un cas de digitation visqueuse en milieu poreux. Nous adaptons les métriques topologiques pour quantifier l’écart entre les simulations et la vérité terrain, évaluons les métriques proposées avec le retour d’experts, puis implémentons une méthode de classement in-situ pour évaluer la fidélité des simulations
In this thesis, we propose different methods, based on topological data analysis, in order to address modern problematics concerning the increasing difficulty in the analysis of scientific data. In the case of scalar data defined on geometrical domains, extracting meaningful knowledge from static data, then time-varying data, then ensembles of time-varying data proves increasingly challenging. Our approaches for the reduction and analysis of such data are based on the idea of defining structures of interest in scalar fields as topological features. In a first effort to address data volume growth, we propose a new lossy compression scheme which offers strong topological guarantees, allowing topological features to be preserved throughout compression. The approach is shown to yield high compression factors in practice. Extensions are proposed to offer additional control over the geometrical error. We then target time-varying data by designing a new method for tracking topological features over time, based on topological metrics. We extend the metrics in order to overcome robustness and performance limitations. We propose a new efficient way to compute them, gaining orders of magnitude speedups over state-of-the-art approaches. Finally, we apply and adapt our methods to ensemble data related to reservoir simulation, for modeling viscous fingering in porous media. We show how to capture viscous fingers with topological features, adapt topological metrics for capturing discrepancies between simulation runs and a ground truth, evaluate the proposed metrics with feedback from experts, then implement an in-situ ranking framework for rating the fidelity of simulation runs
Styles APA, Harvard, Vancouver, ISO, etc.
23

Alkadee, Dareen. « Techniques de réduction et de traitement des émissions polluantes dans une machine thermique ». Phd thesis, Conservatoire national des arts et metiers - CNAM, 2011. http://tel.archives-ouvertes.fr/tel-01005123.

Texte intégral
Résumé :
Cette thèse de doctorat, a consisté, dans une première partie, à introduire d'une part, la notion de l'analyse du cycle de vie " ACV " et celle des biocarburants. D'autre part, à présenter l'intérêt d'appliquer une ACV sur des biocarburants afin de valoriser leurs bilans énergétiques et analyser leurs impacts environnementaux face aux carburants conventionnels. Dans une deuxième partie, nous avons comparé, d'un point de vue énergétique et environnemental, 3 scénarios de production d'électricité : 2 scénarios de cogénération (turbine à vapeur et ORC) pour la production d'énergie électrique et thermique à partir de biomasse, et un scénario de cogénération par moteur diesel. Ces scénarios sont comparés à l'aide de deux méthodes orientées " analyse des dommages ": Eco-indicateur 99 (E) et IMPACT2002+Dans une troisième partie, on a abordé la valorisation du biogaz sous forme de carburant dans des moteurs "dual fuel" pour des engins agricoles dans le but de déterminer l'impact environnemental lié à l'utilisation de ce carburant alternatif au diesel par rapport aux autres biocarburants. Les méthodes Eco-indicateur 99 (E) et CML ont été utilisées ici. On a pu ainsi identifier les principaux polluants générés à chaque étape du cycle de vie de l'agrocarburant et les étapes qui ont les plus grands impacts environnementaux et on a identifié, selon nos critères et par rapport au contexte, le scénario énergétique le plus compatible avec le principe de développement durable.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Woiselle, Arnaud. « Parcimonie et ses applications à des données de flot optique ». Paris 7, 2010. http://www.theses.fr/2010PA077201.

Texte intégral
Résumé :
Cette thèse adresse la résolution de problèmes inverses par l'utilisation de transformées parcimonieuses tridimensionnelles. Nous présentons tout d'abord les systèmes d'imagerie infrarouge et les problèmes liés aux bruits et aux données manquantes, puis nous faisons un court état de l'art des techniques industrielles de traitement d'images. Nous introduisons ensuite le concept de parcimonie et présentons les algorithmes et représentations classiques de ce domaine. Le coeur de ce travail de recherche est le développement de nouvelles représentations 3D, qui sont bien adaptées à la représentation des surfaces et des filaments dans un volume 3D. Deux nouvelles transformées sont proposées, ainsi que la modification d'une troisième, les curvelets rapides, en vue de réduire sa redondance. Ces outils sont alors appliqués à la résolution de divers problèmes inverses comme le débruitage, l'inpainting ou le désentrelacement. Des expériences numériques montrent la qualité des résultats. Finalement, nous proposons quelques applications concrètes utilisant des transformées parcimonieuses au traitement de vidéos infrarouges, telles que la détection de petites cibles, ou la déconvolution de flou de bougé
This manuscript addresses inverse problems using 3D sparsifying transforms in the context of infrared video. We first survey the infrared imaging System and the problems associated such as noise and missing data, and make a short state of the art on industrial imaging processing technics Then we introduce the concept of sparsity and present common algorithms and representations used in this domain. The core of this research is the development of new 3D representations, which are well adapted to representing surfaces or filaments in a 3D volume. Two innovative transforms are proposed, and an existing one ~ the fast curvelet transform — is modified to better suit the applications by reducing its redundancy. These tools are used in many inverse problems such as denoising, inpainting and video deinterlacing, and prove to be very useful and competitive. Finally, we propose a few concrete applications of sparse transforms to infrared video processing, such as small targets detection or motion blur deconvolution
Styles APA, Harvard, Vancouver, ISO, etc.
25

Deleris, Stéphane. « Réduction de la production de boue lors du traitement des eaux résiduaires urbaines : analyse du traitement combiné : ozonation et traitement biologique ». Toulouse, INSA, 2001. http://www.theses.fr/2001ISAT0038.

Texte intégral
Résumé :
L'élimination des boues produites lors de l'épuration biologique des eaux usées fait partie des enjeux majeurs de la prochaine décennie. Les contraintes qui pèsent sur les filières classiques orientent les recherches vers des procédés de réduction de la production de boue au sein de la filière de traitement de l'eau. Ainsi, l'association entre une étape d'oxydation chimique par l'ozone et un traitement biologique par boues activées peut conduire à une réduction significative de la quantité de boue produite. Basée sur une double approche, expérimentale et de modélisation, l'analyse des mécanismes de la production de boue montre l'influence capitale des processus d'accumulation des matières organiques inertes particulaires provenant de l'effluent à traiter et issues du processus de décès. Si l'étape d'ozonation permet de rendre biodégradables ces fractions inertes, les simulations montrent qu'il est possible d'atteintre une réduction totale de la production de boue. Les essais discontinus d'ozonation de boue mettent en évidence une acion solubilisante de l'ozone sur la matière particulaire, une augmentation de la biodégradabilité et une inactivation significative des microorganismes. Les résultats obtenus permettent de construire un modèle d'action de l'ozone sur la boue qui, couplé au modèle du procédé biologique, permet de confirmer par la simulation l'intérêt du procédé combiné. Le couplage entre l'étape d'ozonation et le procédé biologique permet de supprimer la production de boue organique excédentaire et conduit à une réduction de la production de boue minérale. L'optimisation du mode d'apport de l'ozone apparaît déterminante pour garantir l'efficacité de l'étape d'ozonation. Ce travail met en évidence l'apparition d'un talon de DCO réfractaire dans l'effluent, l'amélioration des caractéristiques de décantation et le maintien des activités nitrifiantes. Il montre l'applicabilité de ce procédé et précises les conditions dans lesquelles il peut être mis en œuvre
Elimination of excess sludge produced by biological wastewater treatment is an important issue of the next decade. Due to the constraints inherent to the current practices for sludge disposal, research efforts are focused on processes that reduce sludge production simultaneously to treating wastewater. The association of a chemical oxidation step (with ozone) with an activated sludge process can lead to a significant reduction of sludge production. Experimental and simulation approaches, were employed to analyse the main mechanisms of sludge production. Results showed the major influence of the accumulation of particular inert organic compounds coming from the influent and from the decay of biomass. Il ozonation treatment improves the biodegradability of those compounds, simulations confirms that total reduction of excess sludge production could be reached. Batch experiments of sludge ozonation show the solubilising effect if ozone and also demonstrate the biodegradability improvements of the solubilised matter and significant inactivation of biomass. The obtained results allow generation of a simulation model on the effect of ozone on sludge. Using this model combined with the existing biological model confirms the potential of the combined process. Continuous experiments at pilot scale confirm that the association of ozonation treatment with an activated sludge process allows total reduction of excess organic sludge production and also leads to the reduction of mineral sludge production. The optimization of the way of applying ozone (dosage, treatment frequency) appears to be a key point to guarantee the efficiency of the ozonation treatment. The obtained data show that ozone treatment lead to the production of non settleable refractory COD in the effluent. Significant improvements in sludge settling characteristics and conservation of nitrifying activity are also observed. The results of this work confirm the applicability of the combined process
Styles APA, Harvard, Vancouver, ISO, etc.
26

Revenu, Benoît. « Anisotropies et polarisation du rayonnement fossile : méthode de détection et traitement de données ». Phd thesis, Université Paris-Diderot - Paris VII, 2000. http://tel.archives-ouvertes.fr/tel-00001686.

Texte intégral
Résumé :
Le rayonnement fossile regorge d'une multitude d'informations physiques sur l'univers tel qu'il était quelques centaines de milliers d'années après le Big-Bang. L'analyse de ses fluctuations de température et de polarisation permet de mesurer les paramètres cosmologiques et de contraindre les théories de l'univers primordial. La polarisation permet en particulier de lever des dégénérescences entre certains paramètres cosmologiques en donnant un accès direct aux ondes gravitationnelles primordiales.
La première partie de cette thèse est consacrée au modèle standard de la cosmologie. Je présente en particulier la polarisation du rayonnement fossile.
Le signal polarisé, dont l'intensité n'excède pas dans la plupart des scénarios 10 % des fluctuations de température, est attendu à quelques micro kelvins. Pour le mesurer, on utilise souvent des bolomètres refroidis, couplés à des polariseurs. Je montre qu'il existe des dispositions optimales des détecteurs dans le plan focal de l'instrument minimisant le volume de la boîte d'erreurs et permettant d'avoir des erreurs décorrélées sur les paramètres de Stokes, caractérisant la polarisation.
La source majeure de bruit dans ces mesures provient des fluctuations du bain thermique dans lequel plongent les bolomètres, de l'électronique de lecture, des instabilités de gain et de l'optique. Ces processus engendrent des dérivez basses fréquences qui se traduisent par des niveaux de bruit relatifs entre détecteurs trop importants par rapport au signal recherché. J'applique aux donné polarisées une méthode simple permettant de soustraire aux dérives basses fréquences; elle utilise les redondances inhérentes à la stratégie de balayage du ciel par l'instrument. Les résultats montrent que ces dérives peuvent être soustraites jusqu'au niveau du bruit blanc.
Enfin, je décris l'expérience COSMOSOMAS et présente une analyse préliminaire. Elle fournira des cartes de l'émission polarisée de notre galaxie à des fréquences de l'ordre de 10 GHz.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Marcel, Patrick. « Manipulations de données multidimensionnelles et langages de règles ». Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0093.

Texte intégral
Résumé :
Ce travail est une contribution à 1' étude des manipulations dans les entrepôts de données. Dans la première partie, nous présentons un état de l'art concernant les langages de manipulations de données multidimensionnelles dans les systèmes d'analyse en ligne de données (systèmes OLAP). Nous mettons en évidence des possibilités de combinaisons intéressantes qui n'ont pas été étudiées. Ces pistes sont utilisées dans la deuxième partie pour proposer un langage de manipulation de données simple à base de règles, qui permet de spécifier les traitements typiques dans les systèmes OLAP. Dans une troisième partie, nous illustrons l'exploitation de ce langage pour décrire des traitements de type OLAP dans les tableurs, et automatiser en partie la génération des feuilles de calcul
This works is a contribution to the study of the manipulations in data warehouses. In the first part, we present a state of the art about multidimensional data manipulation languages in systems dedicated to On-Line analytical Processing (OLAP systems). We point out interesting combinations that haven't been studied. These conclusions are used in the second part to propose a simple rule-based language allowing specifying typical treatments arising in OLAP systems. In a third part, we illustrate the use of the language to describe OLAP treatments in spreadsheets, and to generate semi automatic spreadsheet programs
Styles APA, Harvard, Vancouver, ISO, etc.
28

Sablayrolles, Jean-François. « Les néologismes du français contemporain : traitement théorique et analyses de données ». Paris 8, 1996. http://www.theses.fr/1996PA081066.

Texte intégral
Résumé :
L'objectif de ce travail consiste a examiner la place des neologismes dans l'interlocution et les traitements de la neologie dans les theories linguistiques. Cet examen conduit a comparer les definitions donnees par des dictionnaires et encyclopedies de la fin du siecle dernier et de l'epoque contemporaison d'une centaine de typologies etablies dans ces memes periodes amene a envisager les concepts mis en place dans plusieurs modeles linguistiques contemporains, structuralistes ou generativistes. La diversite des solutions proposees et les difficultes qu'elles rencontrent poussent a s'interroger sur la nature de l'unite linguistique pertinente. La notion de mot, controversee et insuffisante, est abandonnee au profit de la lexie, unite fonctionnelle memorisee en competence. C'est ensuite la notion de nouveaute qui est examinee sous deux aspects: nouveau pour qui et nouveau par rapport a quoi? la constitution et l'examen de six corpus de plusieurs origines (divers, hebdomadaires, un roman de r. Jorif, le burelain, les chroniques de ph. Meyer, le monde et des neologismes recueillis dans un lycee) permettent de tester les definitions adoptees et de confirmer, pour l'essentiel, des hypotheses emises sur les inegalites des membres de la communaute linguistique face au phenomene neologique. Tout le monde ne creee pas autant de neologismes, ni les memes. Des analyses complementaires suscitees par l'examen des donnees envisagent l'existence de circonstances favorables a la neologie, puis de causes qui poussent un locuteur a creer une nouvelle lexie et a propos desquelles l'interpretant fait des hypotheses. Enfin des considerations liees a la circulation du dire precisent le concept de mouveaute et montrent les incertitudes qui pesent sur l'avenir des lexies creees par un locuteur donne dans des circonstances donnees
The aim of the present work is to examine the place of neologisms in interlocution and the treatments of neology in linguistic theories. This examination induces to compare the definitions given by some dictionaries and encylopedias of the end of the last century and of nowadays. Then the comparison between about a hundred typologies made in these same periods leads to consider the concepts set in several contemporary linguistic models, whether structuralist or generativist. Diversity of the proposed solutions and the dificulties they encounter egg to inquire about the nature of the relevant linguistic unity. The notion of word, debated and insufficient, is leaved on behalf of lexie, functional unity memorized in competence,then,it is the notion of newness which is examined from two points of view:new for whom and new when compared with what? the formation and examination of six corpus from different origines (miscellaneous, weekly papers, a novel by r. Jorif, le burelain, the chronicles of ph. Meyer,le monde, and neologisms collected in a lycee) allow to test the taken up definitions and to bear out, for the maint points, some expressed hypothesis about the inequalities between membres of the linguistic community facing the neologic phenomenon. Everybody does not create as many neologisms nor the same ones. Complementary analysis, caused by the examination of the facts, consider the existence of circumstances propitious to neology, then of causes which egg the locuteur to create a new lexie and about which the interpretant makes hypothesis. At last, considerations connected with the circulation du dire specify the concept of newness and show the incertitudes which bear on the future of lexies created by a definite locuteur in definite circumstances
Styles APA, Harvard, Vancouver, ISO, etc.
29

Lerat, Nadine. « Représentation et traitement des valeurs nulles dans les bases de données ». Paris 11, 1986. http://www.theses.fr/1986PA112383.

Texte intégral
Résumé :
Cette thèse étudie la représentation et le traitement de deux types d'informations incomplètes dans le contexte des bases de données : les valeurs nulles non applicables et les valeurs nulles représentant des objets inconnus. Dans une première partie, les requêtes portant sur une table unique contenant des valeurs non applicables sont traduites par un ensemble de requêtes sur des multitables conventionnelles. Dans une seconde partie, les valeurs nulles inconnues sont représentées par des constantes de Skolem et une méthode adaptant à ce contexte un algorithme de "chasse" permet d'évaluer des requêtes en présence de dépendances fonctionnelles ou d'inclusion. Des techniques efficaces d'évaluation sont proposées. On montre, en conclusion, que les deux types de valeurs nulles ci-dessus peuvent être pris en compte simultanément
This thesis deals with the representation and treatment of two cases of information incompleteness in the field of databases: non applicable null values and null values representing unknown objects. In the first part, queries on a unique table containing non applicable nulls are translated into a set of queries on conventional multitables. In the second part, unknown null values are represented by Skolem constants and a method adapting to this context a "chase" algorithm allows evaluating queries when functional or inclusion dependencies are satisfied. Eventually, it is shown that these two types of null values can be taken into account simultaneously
Styles APA, Harvard, Vancouver, ISO, etc.
30

Gassot, Oriane. « Imagerie SAR du régolithe d'un astéroïde : simulation et traitement des données ». Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALY016.

Texte intégral
Résumé :
Les radars pénétrant sont des instruments embarqués à bord de multiples missions spatiales depuis plusieurs années. En mettant à profit des observations obtenues depuis différentes orbites séparées spatialement, ils peuvent mener à l’utilisation de techniques de tomographie radar en 3D afin d’imager la structure interne de corps planétaires, notamment des astéroïdes, et améliorer les modèles de formations et d’évolution des astéroïdes. Cependant, même si les radars à synthèse d'ouverture (SAR) spatiaux sont classiques afin de détecter et reconstruire des structures planétaires, pour une telle étude effectuée à quelques kilomètres d’un astéroïde, la taille, la vitesse de rotation et au final la géométrie d’observation elle-même remets en question les hypothèses habituellement formulées pour l'observation de la Terre. De plus, afin d’atteindre la résolution métrique nécessaire afin d'observer des astéroïdes kilométriques, le radar doit être à très large bande (UWB) en range et en doppler, ce qui remets également en cause les modèles de synthèse SAR. Puisque les performances du radar, et donc le retour scientifique de la mission, dépendent de la géométrie d’observation et de la configuration du radar, des simulations du signal radar et de la synthèse SAR dans la géométrie d’un petit corps doivent être mis en place. Le but de ma thèse est d'étudier les performances du radar UWB HFR, développé afin d’étudier les petits corps avec des fréquences allant de 300 à 800 MHz, en étudiant les retours du radar.En créant dans un premier temps des modèles numériques de terrains réalistes d’astéroïdes, plusieurs modèles de diffusions ont été étudiés afin de sélectionner le modèle le plus apte à modéliser le champ réfléchi par la surface d’un astéroïde. L’approximation de Kirchhoff (KA) a été sélectionnée et appliquée sur les modèles de terrain créés, et a permis de construire des images SAR qui localisent correctement le terrain simulé, et qui différencient les zones rugueuses des terrains des zones plus planes. Ensuite, l’approximation de Born (BA) a été sélectionnée afin de modéliser le champ réfléchi par la sous-surface d’un astéroïde, permettant de construire des images SAR qui localisent correctement une inclusion enfouie sous la surface. Avec une géométrie d’observation multipass, des algorithmes de tomographie ont été appliqués à partir des résultats obtenus avec BA, afin d’améliorer leur résolution dans la troisième dimension de l’espace, ainsi que la précision de la localisation de la cible enfouie. Enfin, l’étude des performances de la diffusion UWB a permis d’évaluer que, contrairement à ce qui était pressenti, la diffusion UWB n’entraine qu’une dégradation limitée de la résolution en range, et en azimuth
In recent years, surface-penetrating radars were part of several space missions dedicated to study the bodies of the solar system. These radars, associated with repeat-pass observations and processing, can lead to 3D radar tomography, which results in 3D imagery of the first tens of meters of the sub-surface of planetary bodies. This technique can be used to better understand and model the formation processes and post-accretion evolution of asteroids. However, even though spaceborne SAR is a classical technique used for the detection and reconstruction of planetary structures, the small body geometry of observation reconsiders the hypotheses usually formulated for Earth observation. Furthermore, in order to achieve the metric-resolution necessary to study kilometric-sized asteroids with sufficient precision, the radar has to be ultra-wideband in range and in Doppler, which also question the SAR synthesis models established for narrow band signals. As the radar geometry of study and configuration drives the instrument performance, and thus the mission science return, simulation of the radar signal and the SAR synthesis needs to be developed while taking into account the specificity of the small body geometry. Thus, my thesis aims at assessing the performances of the UWB SAR HFR, which is dedicated to the study of small bodies, with frequencies ranging from 300 to 800 MHz, by simulating the radar's return.By creating firsly realistic asteroid digital terrain models (DTM), several surface scattering models were studied in order to select the model most suited to simulate the field scattered by the surface of an asteroid. The Kirchhoff Approximation (KA) was selected and applied on the generated DTM, and was used to build SAR images which correctly locate the DTM studied, and which differenciate the terrain’s rough areas from the smooth ones. Then, the Born Approximation (BA) was selected to model the field reflected by the asteroid subsurface and was found out to correctly locate an inclusion below the surface of an asteroid. With a multipass geometry, tomography algortihms were applied to the BA results in order to improve the resolution of the results in the third dimension of space, as well as the precision of the localisation of the inclusion. Finally, the performances of UWB scattering were studied, and, unlike what was foreseen, UWB scattering generates only a small degradation of the resolution in range and in azimuth
Styles APA, Harvard, Vancouver, ISO, etc.
31

Pucheu, Chantal. « Etude de la goutte : traitement par l'allopurinol : données pharmacologiques et toxicologiques ». Bordeaux 2, 1992. http://www.theses.fr/1992BOR2P003.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
32

Bisgambiglia, Paul-Antoine. « Traitement numérique et informatique de la modélisation spectrale ». Corte, 1989. http://www.theses.fr/1989CORT3002.

Texte intégral
Résumé :
L'ensemble du travail présent dans ce mémoire se coordonne autour des deux points forts suivants: mise au point d'un logiciel informatique spécifique appliqué à la résolution de problèmes décrits par des formes variationnelles faisant intervenir des opérateurs linéaires du second ordre. Cet outil est un logiciel d'éléments finis original (permettant de résoudre des problèmes numériques ardus, sur des petits calculateurs de type pc, et malgré tout très souple d'utilisation) car reposant sur des théorèmes et résultats nouveaux concernant les formes variationnelles, les bases propres, associées aux différents opérateurs permettant de décrire une gamme très large de problèmes. Traitement complet de problèmes de modélisation complexes, par application de la théorie et des méthodes issus de l'analyse spectrale, depuis leurs fondements les plus théoriques, jusqu'à leur résolution.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Ducournau, Aurélien. « Hypergraphes : clustering, réduction et marches aléatoires orientées pour la segmentation d'images et de vidéo ». Ecole nationale d'ingénieurs (Saint-Etienne), 2012. http://www.theses.fr/2012ENISE011.

Texte intégral
Résumé :
Les graphes sont utilisés avec succès depuis de nombreuses années dans le domaine de la vision par ordinateur, au vu de leur capacité à représenter les informations relationnelles. En revanche, leur principale limitation est la possibilité de ne représenter que des affinités binaires entre les éléments à considérer. Dans cette thèse, nous étudions les avantages offerts par la théorie des hypergraphes, qui généralise le concept de graphe en permettant de modéliser des relations de plus grande dimension, dans le domaine de l'analyse d'image et plus particulièrement au sein d'applications de traitement d'image comme la segmentation. L'objectif est double : il s'agit de déterminer comme nous pouvons représenter l'image par le biais d'un hypergraphe, et comment nous pouvons traiter un tel hypergraphe pour résoudre le problème présenté par une application particulière. Dans la plupart des cas ce problème peut être formulé comme un partitionnement de l'hypergraphe, et par conséquent nous avons développé un nouvel algorithme de partitionnement et de clustering d'hypergraphe (RHC), basé sur une réduction de l'hypergraphe opérée par deux nouveaux algorithmes de réduction (HR-IH et HR-MST). L'architecture RHC a été exploitée dans différents problèmes de traitement d'image (segmentation d'image, segmentation d'objets dans une vidéo et génération de superpixels), pour lesquels des modèles d'hypergraphe appropriés ont été mis en oeuvre. Enfin, la notion d'hypergraphe orienté a été introduite à l'image, en proposant un modèle d'hypergraphe orienté pour en représenter le contenu (DINH), et un algorithme de segmentation interactif par apprentissage sur ce DINH. Un tel apprentissage est formulé en termes de marches aléatoires sur un hypergraphe orienté, pour lesquelles une matrice de transition et d'importantes propriétés mathématiques ont été développées. Les différents résultats expérimentaux ont démontré qu'un modèle par hypergraphe propose en général un modèle plus riche et plus adapté que les graphes pour la représentation d'une image, et que les algorithmes proposés sont efficaces aussi bien en termes de qualité de segmentation que de complexité. Il a été également montré que l'utilisation d'hypergraphes orientés fournit une amélioration par rapport aux structures d'hypergraphes classiques
Graphs have been successfully used in Pattern Recognition and Computer Vision domains for a number of years, due to their ability to represent relational patterns. However, their main limitation comes from the fact that they are only able to model pairwise affinities between elements of interest. In this work, we focus on exploiting the advantages of hypergraphs, which generalize the graph concept by providing the possibility to model relationships of higher dimension, in the domain of image analysis and more particularly image processing such as image or video segmentation. This thesis mainly focused on how we can represent the image data into a hypergraph-based model, and how we can handle such a representation in a particular application. In many of these applications the problem can be formulated as a partitioning of the underlying hypergraph structure, and consequently we developed a novel hypergraph partitioning and clustering approach (RHC), based on the reduction of the hypergraph structure. Two novel hypergraph reduction algorithms (HR-IH and HR-MST) have been designed for this purpose. The RHC framework has been exploited in different computer vision problems (image segmentation, object-based video segmentation and superpixels generation), for which appropriate hypergraph-based models have been designed. Finally, the notion of directed hypergraph has been introduced in the computer vision domain, by proposing both a directed hypergraph-based representation of the image content (DINH), and an interactive image segmentation algorithm by semi-supervised learning on such a DINH. The latter is formulated in terms of Markov random walks on directed hypergraphs, for which an appropriate transition matrix and important mathematical properties have been developed. Extensive experiments have shown that hypergraphs can in general provide a richer image representation model thangraphs, and that the proposed algorithms are efficient both in terms of segmentation quality and complexity. It has also been shown that using directed hypergraphs can provide an improvement to undirected hypergraphbased structures
Styles APA, Harvard, Vancouver, ISO, etc.
34

Spill, Yannick. « Développement de méthodes d'échantillonnage et traitement bayésien de données continues : nouvelle méthode d'échange de répliques et modélisation de données SAXS ». Paris 7, 2013. http://www.theses.fr/2013PA077237.

Texte intégral
Résumé :
La détermination de la structure de protéines et d'autres complexes macromoléculaires est de plus en plus difficile. Les cas les plus simples ont étés déterminés, et la recherche actuelle en bioinformatique se focalise sur des cibles de plus en plus compliquées. Pour déterminer la structure de ces complexes, il est devenu nécessaire de combiner différentes expériences et d'utiliser des données de moins bonne qualité. En d'autres termes, la détermination de structures utilise de plus en plus de données éparses, bruitées et incohérentes. Par conséquent, il est devenu essentiel de pouvoir quantifier l'exactitude d'une structure, une fois déterminée. Cette quantification est parfaitement accomplie par inférence statistique. Dans cette thèse, je développe un nouvel algorithme d'échantillonnage, l'Échange de Répliques Convectif, qui perme de trouver des structures probables de façon plus robuste. Je propose également un traitement statistique de données continues, comme celles obtenues par diffusion des rayons X aux petits angles
The determination of protein structures and other macromolecular complexes is becoming more and more difficult. The simplest cases have already been determined, and today's research in structural bioinformatics focuses on ever more challenging targets. To successfully determine the structure of these complexes, it has become necessary to combine several kinds of experiments and to relax the quality standards during acquisition. In other words, structure determination makes an increasing use of sparse, noisy and inconsistent data. It is therefore becoming essential to quantify the accuracy of a determined structure. This quantification is superbly achieved by statistical inference. In this thesis, I develop a new sampling algorithm, Convective Replica-Exchange, sought to find probable structures more robustly. I also propose e proper statistical treatment for continuous data, such as Small-Angle X-Ray Scattering data
Styles APA, Harvard, Vancouver, ISO, etc.
35

Héraud, Bousquet Vanina. « Traitement des données manquantes en épidémiologie : Application de l'imputation multiple à des données de surveillance et d'enquêtes ». Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00713926.

Texte intégral
Résumé :
Le traitement des données manquantes est un sujet en pleine expansion en épidémiologie. La méthode la plus souvent utilisée restreint les analyses aux sujets ayant des données complètes pour les variables d'intérêt, ce qui peut réduire lapuissance et la précision et induire des biais dans les estimations. L'objectif de ce travail a été d'investiguer et d'appliquer une méthode d'imputation multiple à des données transversales d'enquêtes épidémiologiques et de systèmes de surveillance de maladies infectieuses. Nous avons présenté l'application d'une méthode d'imputation multiple à des études de schémas différents : une analyse de risque de transmission du VIH par transfusion, une étude cas-témoins sur les facteurs de risque de l'infection à Campylobacter et une étude capture-recapture estimant le nombre de nouveaux diagnostics VIH chez les enfants. A partir d'une base de données de surveillance de l'hépatite C chronique (VHC), nous avons réalisé une imputation des données manquantes afind'identifier les facteurs de risque de complications hépatiques graves chez des usagers de drogue. A partir des mêmes données, nous avons proposé des critères d'application d'une analyse de sensibilité aux hypothèses sous-jacentes àl'imputation multiple. Enfin, nous avons décrit l'élaboration d'un processus d'imputation pérenne appliqué aux données du système de surveillance du VIH et son évolution au cours du temps, ainsi que les procédures d'évaluation et devalidation.Les applications pratiques présentées nous ont permis d'élaborer une stratégie de traitement des données manquantes, incluant l'examen approfondi de la base de données incomplète, la construction du modèle d'imputation multiple, ainsi queles étapes de validation des modèles et de vérification des hypothèses.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Héraud, Bousquet Vanina. « Traitement des données manquantes en épidémiologie : application de l’imputation multiple à des données de surveillance et d’enquêtes ». Thesis, Paris 11, 2012. http://www.theses.fr/2012PA11T017/document.

Texte intégral
Résumé :
Le traitement des données manquantes est un sujet en pleine expansion en épidémiologie. La méthode la plus souvent utilisée restreint les analyses aux sujets ayant des données complètes pour les variables d’intérêt, ce qui peut réduire lapuissance et la précision et induire des biais dans les estimations. L’objectif de ce travail a été d’investiguer et d’appliquer une méthode d’imputation multiple à des données transversales d’enquêtes épidémiologiques et de systèmes de surveillance de maladies infectieuses. Nous avons présenté l’application d’une méthode d’imputation multiple à des études de schémas différents : une analyse de risque de transmission du VIH par transfusion, une étude cas-témoins sur les facteurs de risque de l’infection à Campylobacter et une étude capture-recapture estimant le nombre de nouveaux diagnostics VIH chez les enfants. A partir d’une base de données de surveillance de l’hépatite C chronique (VHC), nous avons réalisé une imputation des données manquantes afind’identifier les facteurs de risque de complications hépatiques graves chez des usagers de drogue. A partir des mêmes données, nous avons proposé des critères d’application d’une analyse de sensibilité aux hypothèses sous-jacentes àl’imputation multiple. Enfin, nous avons décrit l’élaboration d’un processus d’imputation pérenne appliqué aux données du système de surveillance du VIH et son évolution au cours du temps, ainsi que les procédures d’évaluation et devalidation.Les applications pratiques présentées nous ont permis d’élaborer une stratégie de traitement des données manquantes, incluant l’examen approfondi de la base de données incomplète, la construction du modèle d’imputation multiple, ainsi queles étapes de validation des modèles et de vérification des hypothèses
The management of missing values is a common and widespread problem in epidemiology. The most common technique used restricts the data analysis to subjects with complete information on variables of interest, which can reducesubstantially statistical power and precision and may also result in biased estimates.This thesis investigates the application of multiple imputation methods to manage missing values in epidemiological studies and surveillance systems for infectious diseases. Study designs to which multiple imputation was applied were diverse: a risk analysis of HIV transmission through blood transfusion, a case-control study on risk factors for ampylobacter infection, and a capture-recapture study to estimate the number of new HIV diagnoses among children. We then performed multiple imputation analysis on data of a surveillance system for chronic hepatitis C (HCV) to assess risk factors of severe liver disease among HCV infected patients who reported drug use. Within this study on HCV, we proposedguidelines to apply a sensitivity analysis in order to test the multiple imputation underlying hypotheses. Finally, we describe how we elaborated and applied an ongoing multiple imputation process of the French national HIV surveillance database, evaluated and attempted to validate multiple imputation procedures.Based on these practical applications, we worked out a strategy to handle missing data in surveillance data base, including the thorough examination of the incomplete database, the building of the imputation model, and the procedure to validate imputation models and examine underlying multiple imputation hypotheses
Styles APA, Harvard, Vancouver, ISO, etc.
37

Benzine, Mehdi. « Combinaison sécurisée des données publiques et sensibles dans les bases de données ». Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0024.

Texte intégral
Résumé :
La protection des données sensibles est une problématique majeure dans le monde des bases de données. Plusieurs solutions logicielles et matérielles ont été proposées pour assurer une sécurité optimale lors du stockage et de la manipulation de ces données. Il est également nécessaire de sécuriser les opérations mettant en relation des données sensibles avec des données publiques. Pour cala, nous avons mis en place une architecture de stockage et d'interrogation offrant cette sécurité. Cette architecture est composée d'un serveur central regroupant les données publiques et d'un serveur sécurisé stockant les données privées. Ce serveur sécurisé est constitué (i) d'un microcontrôleur sécurisé associé à (ii) une mémoire persistante, de grande capacité, de type Flash NAND. Les requêtes mêlant données publiques et sensibles sont scinder en deux sous-requêtes, l'une portant sur les données publiques, l'autre sur les données sensibles. Chaque sous-requête est exécutée sur le serveur contenant les données appropriées. Enfin, le résultat de la sous-requête sur données publiques est envoyé au serveur sécurisé qui se charge de construire le résultat final en toute sécurité. Cette architecture résolvant les problèmes de sécurité introduit néanmoins de sévères problèmes de performances dues aux caractéristiques physiques du serveur sécurisé (peu de RAM, asymétrie des coûts de lecture et d'écriture. . . ) qu'il est impératif de résoudre par des techniques d'optimisation de requêtes
Protection of sensitive data is a major issue in the databases field. Many software and hardware solutions have been designed to protect data when stored and during query processing. Moreover, it is also necessary to provide a secure manner to combine sensitive data with public data. To achieve this goal, we designed a new storage and processing architecture. Our solution combines a main server that stores public data and a secure server dedicated to the storage and processing of sensitive data. The secure server is a hardware token which is basically a combination of (i) a secured microcontroller and (ii) a large external NAND Flash memory. The queries which combine public and sensitive data are split in two sub queries, the first one deals with the public data, the second one deals with the sensitive data. Each sub query is processed on the server storing the corresponding data. Finally, the data obtained by the computation of the sub query on public data is sent to the secure server to be mixed with the result of the computation on sensitive data. For security reasons, the final result is built on the secure server. This architecture resolves the security problems, because all the computations dealing with sensitive data are done by the secure server, but brings performance problems (few RAM, asymmetric cost of read/write operations. . . ). These problems will be solved by different strategies of query optimization
Styles APA, Harvard, Vancouver, ISO, etc.
38

Martin, Thomas. « ORBS : élaboration d'un logiciel de réduction de données pour SpIOMM et SITELLE et application à l'étude de M1-67 ». Doctoral thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25894.

Texte intégral
Résumé :
SpIOMM (le spectromètre-imageur de l’observatoire du Mont-Mégantic), installé à l’observatoire du Mont-Mégantic depuis 2004, est un spectromètre-imageur à transformée de Fourier qui reste, à ce jour, le seul instrument au monde en mesure d’échantillonner un champ de 12 minutes d’arc en 1.4 millions de spectres dans les longueurs d’onde du visible. L’installation, en 2010, d’une seconde caméra, qui a ouvert la possibilité d’utiliser les données présentes sur le second port de sortie de l’interféromètre, d’une part, et la réalisation de SITELLE (le spectromètre-imageur pour l’étude en long et en large des raies d’émission), une version améliorée de SpIOMM pour le télescope Canada-France-Hawaï, d’autre part, ont rendu impératif le développement d’un logiciel de réduction capable de combiner les données issues des deux ports de sorties pour en tirer toute l’information disponible. L’essentiel de cette thèse porte sur l’élaboration de ORBS, un logiciel de réduction des données de SpIOMM et SITELLE entièrement automatique et conçu sur un modèle architectural ouvert et évolutif. Une étude de la nébuleuse Wolf-Rayet M1-67, réalisée à partir des données de SpIOMM réduites avec ORBS, qui démontre clairement, et pour la première fois, l’existence de deux régions de matériel fortement enrichi en azote, est également présentée à titre d’application.
SpIOMM (spectromètre-imageur de l’observatoire du Mont-Mégantic), attached to the telescope of the Observatoire du Mont-Mégantic, is an imaging Fourier transform spectrometer which is still the only instrument in the world capable of sampling a 12 arc-minute field of view into 1.4 million spectra in the visible band. Since the installation in 2010 of a second camera, which has given the possibility of using the data on the second port of the interferometer, on the one hand, and the development of SITELLE (spectromètre-imageur pour l’étude en long et en large des raies d’émission), an upgraded version of SpIOMM, for the Canada-France-Hawaii Telescope, on the other hand, the design of a data reduction software capable of combining the data of both ports, has become a necessity. The main part of this thesis concerns ORBS, a data reduction software for SpIOMM and SITELLE fully automated and based on an open and upgradable architecture. An application to the study of the Wolf-Rayet nebula M1-67, which, for the first time, clearly demonstrates the existence of two regions made of a material strongly enriched in nitrogen, is also presented.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Marot, Julien. « Méthodes par sous-espaces et d'optimisation : application au traitement d'antenne, à l'analyse d'images, et au traitement de données tensorielles ». Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX30051.

Texte intégral
Résumé :
Cette thèse est consacrée aux méthodes par sous-espaces et d'optimisation, développées en traitement d'antenne, analyse d'images, et traitement du signal tensoriel. Des définitions concernant un problème de traitement d'antenne et les méthodes haute résolution sont présentées. Nous proposons une méthode d'optimisation appliquée à la localisation de sources en présence de distortions de phase pour un grand nombre de capteurs. Nous proposons des méthodes rapides pour l'estimation de l'orientation et de l'offset de contours rectilignes, plusieurs méthodes d'optimisation pour l'estimation de contours distordus, approximativement rectilignes ou circulaires. Nous donnons un état de l'art sur les méthodes de traitement du signal multidimensionnel: la troncature de la HOSVD, l'approximation de rang inférieur d'un tenseur, le filtre de Wiener multidimensionnel. Nous proposons une procédure de déploiement nonorthogonal de tenseur, utilisant la méthode présentée dans la première partie
This thesis is devoted to subspace-based and optimization methods, developed in array processing, image processing, tensor signal processing. Definitions concerning an array processing problem and high resolution methods are presented. We propose an optimization method applied to source detection in presence of phase distortions for a high number of sensors. We propose fast subspace-based methods for the estimation of straight line offset and orientation, several optimization methods to estimate distorted contours, nearly straight or circular. We provide a state-of-the art about multiway signal processing: truncation of the HOSVD, lower rank tensor approximation, multiway Wiener filtering. We propose a procedure for nonorthogonal tensor flattening, using the method presented in the first part
Styles APA, Harvard, Vancouver, ISO, etc.
40

Michel, François. « Validation de systèmes répartis : symétries d'architecture et de données ». Toulouse, INPT, 1996. http://www.theses.fr/1996INPT099H.

Texte intégral
Résumé :
Cette these s'interesse a la validation de systemes repartis par analyse de l'espace des etats accessibles. Les symetries presentes dans un systeme, dans son architecture ou dans ses donnees, sont utilisees pour n'explorer qu'une partie des etats accessibles tout en conservant les capacites de verification et de test. L'exploitation des symetries permet alors l'analyse de systemes que l'explosion combinatoire mettait sinon hors de portee des techniques de description formelle. L'idee de base est de reduire le nombre des etats examines en ne considerant qu'un seul representant par classe d'equivalence d'etats symetriques. Grace a des structures syntaxiques introduites dans le langage de specification, le concepteur peut indiquer les symetries d'architecture ou de traitement du systeme considere. Les principales contributions de cette these sont: - les concepts de pool d'agents permutables et de trames de donnees, qui permettent les prises en compte respectives des symetries d'architecture et de donnees, et leur integration dans le langage ccs, - l'interpretation de ces constructeurs sur le domaine des graphes de comportement, au moyen d'une semantique transitionnelle, - la conception d'une algorithmique basee sur les concepts precedents pour la verification par bissimulation et la generation de tests
Styles APA, Harvard, Vancouver, ISO, etc.
41

Bilodeau, Antoine, et Antoine Bilodeau. « Traitement de données observationnelles et développement d'un code de simulation pour SpIOMM et SITELLE ». Master's thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/26907.

Texte intégral
Résumé :
L’arrivée du spectromètre imageur à transformée de Fourier SITELLE au télescope Canada-France-Hawaï souligne la nécessité d’un calculateur de temps d’exposition permettant aux utilisateurs de l’instrument de planifier leurs observations et leurs demandes de temps de télescope. Une grande partie de mon projet est ainsi le développement d’un code de simulation capable de reproduire les résultats de SITELLE et de son prédecesseur SpIOMM, installé à l’Observatoire du Mont-Mégantic. La précision des simulations est confirmée par une comparaison avec des données SpIOMM et les premières observations de SITELLE. La seconde partie de mon projet consiste en une analyse spectrale de données observationelles. Prenant avantage du grand champ de vue de SpIOMM, les caractéristiques du gaz ionisé (vitesse radiale et intensité) sont étudiées pour l’ensemble de la paire de galaxies en interaction Arp 72. La courbe de rotation dans le visible ainsi que le gradient de métallicité de NGC 5996, la galaxie principale d’Arp 72, sont obtenues ici pour la première fois. La galaxie spirale NGC 7320 est également étudiée à partir d’observations faites à la fois avec SpIOMM et SITELLE.
L’arrivée du spectromètre imageur à transformée de Fourier SITELLE au télescope Canada-France-Hawaï souligne la nécessité d’un calculateur de temps d’exposition permettant aux utilisateurs de l’instrument de planifier leurs observations et leurs demandes de temps de télescope. Une grande partie de mon projet est ainsi le développement d’un code de simulation capable de reproduire les résultats de SITELLE et de son prédecesseur SpIOMM, installé à l’Observatoire du Mont-Mégantic. La précision des simulations est confirmée par une comparaison avec des données SpIOMM et les premières observations de SITELLE. La seconde partie de mon projet consiste en une analyse spectrale de données observationelles. Prenant avantage du grand champ de vue de SpIOMM, les caractéristiques du gaz ionisé (vitesse radiale et intensité) sont étudiées pour l’ensemble de la paire de galaxies en interaction Arp 72. La courbe de rotation dans le visible ainsi que le gradient de métallicité de NGC 5996, la galaxie principale d’Arp 72, sont obtenues ici pour la première fois. La galaxie spirale NGC 7320 est également étudiée à partir d’observations faites à la fois avec SpIOMM et SITELLE.
The arrival of the Fourier-transform imaging spectrometer SITELLE at the Canada-France-Hawaii telescope highlights the importance of having an exposure time calculator allowing the instrument’s users to plan ahead their observing proposals. A large part of my project is the development of a simulator able to reproduce the results obtained with SITELLE and its predecessor SpIOMM. The accuracy of the simulations is confirmed through comparison with SpIOMM data and SITELLE’s first observations. The second part of my project is the spectral analysis of observational data. SpIOMM’s large field of view allows us to study the properties (radial velocities and line intensities) of the ionized gas through the entirety of Arp 72, a pair of interacting galaxies. For the first time, the rotation curve in the optical and the metallicity gradient are obtained for NGC 5996, the main galaxy in Arp 72. Both SpIOMM and SITELLE results are also shown for the dwarf spiral galaxy NGC 7320.
The arrival of the Fourier-transform imaging spectrometer SITELLE at the Canada-France-Hawaii telescope highlights the importance of having an exposure time calculator allowing the instrument’s users to plan ahead their observing proposals. A large part of my project is the development of a simulator able to reproduce the results obtained with SITELLE and its predecessor SpIOMM. The accuracy of the simulations is confirmed through comparison with SpIOMM data and SITELLE’s first observations. The second part of my project is the spectral analysis of observational data. SpIOMM’s large field of view allows us to study the properties (radial velocities and line intensities) of the ionized gas through the entirety of Arp 72, a pair of interacting galaxies. For the first time, the rotation curve in the optical and the metallicity gradient are obtained for NGC 5996, the main galaxy in Arp 72. Both SpIOMM and SITELLE results are also shown for the dwarf spiral galaxy NGC 7320.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Tencé, Marcel. « Un système informatique pour l'acquisition et le traitement des données en microscopie électronique : réalisation, mise au point et application ». Paris 11, 1987. http://www.theses.fr/1987PA112449.

Texte intégral
Résumé :
Par son principe même, la nouvelle génération de microscopes électroniques à balayage en transmission est particulièrement adaptée à un couplage avec une unité informatique. Cette dernière doit remplir plusieurs missions : la gestion des paramètres d’acquisition des données à travers le contrôle de certaines commandes du microscope, l’archivage du résultat et leur traitement a posteriori. Le microscope STD1 offre en outre des caractères spécifiques qui ont conditionné les choix techniques dans la conception de l'architecture du système informatique et la réalisation des interfaces nécessaires. Il assure la possibilité d'enregistrer les divers signaux délivres simultanément par le microscope pour une position donnée de la sonde sur l'échantillon. Il s'agit aussi des séquences d'images filtrées à différentes pertes d'énergie requises pour la cartographie élémentaire. Enfin, la duplication d'images dans des conditions de fonctionnement données ouvre le champ aux techniques de corrélation croisée pour l’estimation de la résolution et du rapport signal/bruit dans une image. Ce travail contient donc la description du hardware réalisé et des logiciels écrits pour remplir ces missions. Il se conclut par la description de trois applications originales réalisées avec l'ensemble de ce système : i) la détermination en ligne de la dimension fractale de familles d'agrégats, ii) la mesure de la résolution spatiale dans des images de cartographie chimique par spectroscopie de pertes d'énergie, iii) le développement quantitatif de ces méthodes avec une estimation raisonnable des limites de détection, à savoir l'identification d'un atome isolé
As a consequence of its general layout, the new generation of scanning transmission electron microscopes (STEM) is particularly well suited to be interfaced with a computer which has several functions the control of the electron microscope parameters used for image acquisition, the storage of the recorded data and their a posteriori processing. STEM instruments offer several specific characters which determine the technical choices for the elaboration of the digital system hardware and for building the required interfaces. These are the capability of simultaneously recording the data delivered by the different detection channels for one probe position on the specimen. It has also to handle the sequences of energy filtered images necessary for achieving elemental mapping. Finally, the replication of images in a given set of working conditions is the key for applying cross correlation techniques and estimating image parameters such as point resolution or signal to noise ratio. This work describes the hardware which has been built and the software which has been elaborated to fulfill these goals. As a conclusion, we present three different applications made with this system : i) on-line measurement of the fractal dimension of aggregates, ii) estimate of the spatial resolution in EELS chemical mapping, iii) quantitative development of these methods with a reasonable extrapolation of the detection limits to the identification of a single atom
Styles APA, Harvard, Vancouver, ISO, etc.
43

Malla, Noor. « Méthode de Partitionnement pour le traitement distribué et parallèle de données XML ». Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00759173.

Texte intégral
Résumé :
Durant cette dernière décennie, la diffusion du format XML pour représenter les données générées par et échangées sur le Web a été accompagnée par la mise en œuvre de nombreux moteurs d'évaluation de requêtes et de mises à jour XQuery. Parmi ces moteurs, les systèmes " mémoire centrale " (Main-memory Systems) jouent un rôle très important dans de nombreuses applications. La gestion et l'intégration de ces systèmes dans des environnements de programmation sont très faciles. Cependant, ces systèmes ont des problèmes de passage à l'échelle puisqu'ils requièrent le chargement complet des documents en mémoire centrale avant traitement.Cette thèse présente une technique de partitionnement des documents XML qui permet aux moteurs " mémoire principale " d'évaluer des expressions XQuery (requêtes et mises à jour) pour des documents de très grandes tailles. Cette méthode de partitionnement s'applique à une classe de requêtes et mises à jour pertinentes et fréquentes, dites requêtes et mises à jour itératives.Cette thèse propose une technique d'analyse statique pour reconnaître les expressions " itératives ". Cette analyse statique est basée sur l'extraction de chemins à partir de l'expression XQuery, sans utilisation d'information supplémentaire sur le schéma. Des algorithmes sont spécifiés, utilisant les chemins extraits par l'étape précédente, pour partitionner les documents en entrée en plusieurs parties, de sorte que la requête ou la mise à jour peut être évaluée sur chaque partie séparément afin de calculer le résultat final par simple concaténation des résultats obtenus pour chaque partie. Ces algorithmes sont mis en œuvre en " streaming " et leur efficacité est validée expérimentalement.En plus, cette méthode de partitionnement est caractérisée également par le fait qu'elle peut être facilement implémentée en utilisant le paradigme MapReduce, permettant ainsi d'évaluer une requête ou une mise à jour en parallèle sur les données partitionnées.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Toutain, Matthieu. « EdP géometriques pour le traitement et la classification de données sur graphes ». Caen, 2015. https://hal.archives-ouvertes.fr/tel-01258738.

Texte intégral
Résumé :
Les équations aux dérivées partielles (EDPs) jouent un rôle clé dans la modélisation mathématiques des phénomènes en sciences appliquées. En en traitement et analyse d'image et en vision par ordinateur, les EDPs géométriques ont été utilisées avec succès pour résoudre différents problèmes, tels que la restauration, la segmentation, l'inpainting, etc. De nos jours, de plus en plus de données sont collectées sous la forme de graphes ou réseaux, ou de fonctions définies sur ces réseaux. Il y a donc un intérêt à étendre les EDPs pour traiter des données irrégulières ou des graphes de topologies arbitraires. Les travaux de cette thèse s'inscrivent dans ce contexte. Ils traitent précisément des EDPs géométriques pour le traitement et la classification de données sur graphes. Dans une première partie, nous proposons une adaptation du SpS-Laplacien normalisé sur graphes pondérés de topologie arbitraire en utilisant le cadre des équations aux différences partielles (EdPs). Cette adaptation nous permet d'introduire une nouvelle classe de SpS-Laplacien sur graphe sous la forme d'une non-divergence. Nous introduisons aussi dans cette partie une formulation du SpS-Laplacien sur graphe définie comme une combinaison convexe de gradient. Nous montrons que cette formulation unifie et généralise différents opérateurs de différences sur graphe existants. Nous utilisons ensuite cet opérateur à travers l'équation de Poisson afin de calculer des distances généralisées sur graphe. Dans une deuxième partie, nous proposons d'appliquer les opérateurs sur graphes que nous avons proposés pour les tâches de classification semi-supervisée et de clustering, et de les comparer aux opérateurs sur graphes existants ainsi qu'a certaines méthodes de la littérature, telles que le Multiclass Total Variation clustering (MTV), le clustering par nonnegative matrix factorization (NMFR), ou encore la méthode INCRES
Partial differential equations (PDEs) play a key role in the mathematical modelization of phenomena in applied sciences. In particular, in image processing and computer vision, geometric PDEs have been successfuly used to solve many problems, such as image restoration, segmentation, inpainting, etc. Nowadays, more and more data are collected as graphs or networks, or functions defined on these networks. Knowing this, there is an interest to extend PDEs to process irregular data or graphs of arbitrary topology. The presented work follows this idea. More precisely, this work is about geometric partial difference equations (PdEs) for data processing and classification on graphs. In the first part, we propose a transcription of the normalized SpSLaplacian on weighted graphs of arbitrary topology by using the framework of PdEs. This adaptation allows us to introduce a new class of SpSaplacian on graphs as a non-divergence form. In this part, we also introduce a formulation of the SpSaplacian on graphs defined as a convex combination of gradient terms. We show that this formulation unifies and generalize many existing difference operators defined on graphs. Then, we use this operator with the Poisson equation to compute generalized distances on graphs. In the second part, we propose to apply the operators on graphs we defined, for the tasks of semi-supervised classification and clustering. We compare them to existing graphs operators and to some of the state of the art methods, such as Multiclass Total Variation clustering (MTV), clustering by non-negative matrix factorization (NMFR) or the INCRES method
Styles APA, Harvard, Vancouver, ISO, etc.
45

Hardy, Emilie. « Procédures expérimentales et traitement des données associées pour la mission spatiale MICROSCOPE ». Observatoire de Paris (1667-....), 2013. https://hal.science/tel-02095140.

Texte intégral
Résumé :
L'objectif de la mission MICROSCOPE est de tester le Principe d'Equivalence avec une précision encore inégalée de 1E-15. L'expérience sera menée en orbite grâce à un accéléromètre différentiel électrostatique embarqué à bord d'un microsatellite à traînée compensée. Elle consiste à comparer les accélérations appliquées à deux masses de composition différente en lévitation électrostatique pour les maintenir sur la même trajectoire. La précision de la mesure exploitée pour ce test est limitée par la connaissance à priori des paramètres de dimensionnement de l'instrument. Des sessions d'étalonnage en orbite sont indispensables pour évaluer précisément leurs valeurs afin de corriger la mesure des effets. Des procédures d'étalonnage appropriées ont été déterminées. Afin de valider leurs performances, elles ont été implémentées dans un simulateur dédié aux phases d'étalonnage et modélisant l'instrument, le satellite et son environnement. Par ailleurs, d'autres perturbations sont à considérer lors du traitement des données scientifiques : des effets numériques apparaissent du fait du caractère fini dans le temps de la mesure. Ces effets ont été évalués et une procédure de traitement des données a été déterminée afin de les minimiser en situation nominale ainsi qu'en cas de mesures manquantes, ces dernières pouvant amplifier les perturbations numériques. Enfin, un simulateur permettant de jouer l'ensemble de la mission a été développé afin d'étudier l'association des perturbations instrumentales et numériques. En reproduisant à la fois les phases d'étalonnage et de test du Principe d'Equivalence, il permet de valider le protocole de correction et de traitement de la mesure
The MICROSCOPE space mission aims at testing the Equivalence Principle with an accuracy of 1E-15. The instrument will be embarked on board a drag-free microsatellite, and consists in a differential electrostatic accelerometer composed of two test masses submitted to the same gravitional field but made of different material. The accelerations applied to the masses to maintain them relatively motionless are measured and will demonstrate a violation of the universality of free fall if found unequal. The accuracy of the measurement exploited for the test is limited by our a priori knowledge of the instrument physical parameters. An in-orbit calibration is needed to finely characterize them in order to correct the measurement. Appropriate calibration procedures have been determined. In order to validate their performances, they have been implemented in a software tool dedicated to the calibration sessions which simulates the instrument, the satellite and its environment. Other pertubations must be considered during the data analysis : numerical effects arise from the finite time span of the measurement. These effects have been evaluated and a procedure has been determined to process the data with minimal numerical perturbations, in a nominal situation as well as in the case of missing data, which may amplify these effects. Finally, a simulator has been developed for the entire mission scenario in order to study the association of instrumental and numerical simulations. This tool enables to simulate both the calibration sessions and the sessions for the test of the Equivalence Principle, and is therefore used to validate the protocol of measurement correction and analysis
Styles APA, Harvard, Vancouver, ISO, etc.
46

Thirion, Bertrand. « Analyse de données d' IRM fonctionnelle : statistiques, information et dynamique ». Phd thesis, Télécom ParisTech, 2003. http://tel.archives-ouvertes.fr/tel-00457460.

Texte intégral
Résumé :
Dans cette thèse, nous discutons et proposons un certains nombre de méthodes pour l'analyse de données d'IRM -imagerie par résonance magnétique- fonctionnelle. L'IRM fonctionnelle est une modalité récente de l'exploration du cerveau: elle produit des séquences d'images reflétant l'activité métabolique locale, celle-ci reflétant l'activité neuronale. Nous nous intéressons tout d'abord à la modélisation des séries temporelles obtenues pour chaque voxel séparément, en faisant appel aux techniques de prédiction linéaire et au calcul de l'information des processus modélisés. Nous étudions ensuite différentes généralisations multivariées de ce modèle. Après avoir rappelé et discuté certaines techniques classiques (analyse en composantes indépendantes, regroupement), nous proposons successivement une approche linéaire fondée sur la théorie des systèmes à état et une approche non-linéaire fondée sur les décompositions à noyau. Le but commun de ces méthodes -qui peuvent se compléter- est de proposer des décompositions qui préservent au mieux la dynamique des données. Nous introduisons ensuite une approche nouvelle par réduction de la dimension des données; cette approche offre une représentation plus structurée et relativement agréable à visualiser. Nous montrons ses avantages par rapport aux techniques linéaires classiques. Enfin, nous décrivons une méthodologie d'analyse qui synthétise une grande partie de ce travail, et repose sur des hypothèses très souples. Nos résultats offrent ainsi une description globale des processus dynamiques qui sont mis en image lors des expériences d'IRM fonctionnelle.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Bouveyron, Charles. « Modélisation et classification des données de grande dimension : application à l'analyse d'images ». Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00109047.

Texte intégral
Résumé :
Le thème principal d'étude de cette thèse est la modélisation et la classification des données de grande
dimension. Partant du postulat que les données de grande dimension vivent dans des sous-espaces de
dimensions intrinsèques inférieures à la dimension de l'espace original et que les données de classes
différentes vivent dans des sous-espaces différents dont les dimensions intrinsèques peuvent être aussi
différentes, nous proposons une re-paramétrisation du modèle de mélange gaussien. En forçant certains
paramètres à être communs dans une même classe ou entre les classes, nous exhibons une famille de 28 modèles gaussiens adaptés aux données de grande dimension, allant du modèle le plus général au modèle le plus parcimonieux. Ces modèles gaussiens sont ensuite utilisés pour la discrimination et la classification
automatique de données de grande dimension. Les classifieurs associés à ces modèles sont baptisés respectivement High Dimensional Discriminant Analysis (HDDA) et High Dimensional Data Clustering (HDDC) et
leur construction se base sur l'estimation par la méthode du maximum de vraisemblance des paramètres du
modèle. La nature de notre re-paramétrisation permet aux méthodes HDDA et HDDC de ne pas être perturbées par le mauvais conditionnement ou la singularité des matrices de covariance empiriques des classes et d'être
efficaces en terme de temps de calcul. Les méthodes HDDA et HDDC sont ensuite mises en dans le cadre d'une
approche probabiliste de la reconnaissance d'objets dans des images. Cette approche, qui peut être
supervisée ou faiblement supervisée, permet de localiser de manière probabiliste un objet dans une
nouvelle image. Notre approche est validée sur des bases d'images récentes et comparée aux meilleures
méthodes actuelles de reconnaissance d'objets.
Styles APA, Harvard, Vancouver, ISO, etc.
48

Brunet, Camille. « Classification parcimonieuse et discriminante de données complexes. Une application à la cytologie ». Phd thesis, Université d'Evry-Val d'Essonne, 2011. http://tel.archives-ouvertes.fr/tel-00671333.

Texte intégral
Résumé :
Les thèmes principaux de ce mémoire sont la parcimonie et la discrimination pour la modélisation de données complexes. Dans une première partie de ce mémoire, nous nous plaçons dans un contexte de modèle de mélanges gaussiens: nous introduisons une nouvelle famille de modèles probabilistes qui simultanément classent et trouvent un espace discriminant tel que cet espace discrimine au mieux les groupes. Une famille de 12 modèles latents discriminants (DLM) modèles est introduite et se base sur trois idées: tout d'abord, les données réelles vivent dans un sous-espace latent de dimension intrinsèque plus petite que celle de l'espace observé; deuxièmement, un sous-espace de K-1 dimensions est suffisant pour discriminer K groupes; enfin, l'espace observé et celui latent sont liés par une transformation linéaire. Une procédure d'estimation, appelée Fisher-EM, est proposée et améliore la plupart du temps les performances de clustering grâce à l'utilisation du sous-espace discriminant. Dans un second travail, nous nous sommes intéressés à la détermination du nombre de groupes en utilisant le cadre de la sériation. nous proposons d'intégrer de la parcimonie dans les données par l'intermédiaire d'une famille de matrices binaires. Ces dernière sont construites à partir d'une mesure de dissimilarité basée sur le nombre de voisins communs entre paires d'observations. En particulier, plus le nombre de voisins communs imposé est important, plus la matrice sera parcimonieuse, i.e. remplie de zéros, ce qui permet, à mesure que le seuil de parcimonie augmente, de retirer les valeurs extrêmes et les données bruitées. Cette collection de matrices parcimonieuses est ordonnée selon un algorithme de sériation de type forward, nommé PB-Clus, afin d'obtenir des représentations par blocs des matrices sériées. Ces deux méthodes ont été validées sur une application biologique basée sur la détection du cancer du col de l'utérus.
Styles APA, Harvard, Vancouver, ISO, etc.
49

Loughraïeb, Mounira. « Valence et rôles thématiques comme outils de réduction d’ambiguïtés en traitement automatique de textes écrits ». Nancy 2, 1990. http://www.theses.fr/1990NAN21005.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
50

Dupuy, Marie-Pierre. « Essais de prospection électromagnétique radar en mines et au sol : interprétation et traitement des données ». Bordeaux 1, 1987. http://www.theses.fr/1987BOR10504.

Texte intégral
Résumé :
Une experimentation de la methode electromagnetique radar a permis de tester les possibilites du georadar ylr2 de oyo sur du granite, du calcaire et des roches volcaniques. Apres une description de l'appareillage et des sites etudies, on presente les enregistrements et leur interpretation. La penetration des ondes est liee a la resistivite de la roche. On montre que les images radar peuvent etre rapidement et facilement ameliorees grace a une deconvolution predictive et une egalisation spectrale
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie