To see the other types of publications on this topic, follow the link: Analyse et visualisation de données.

Dissertations / Theses on the topic 'Analyse et visualisation de données'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Analyse et visualisation de données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Benmerzoug, Fateh. "Analyse, modélisation et visualisation de données sismiques à grande échelle." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30077.

Full text
Abstract:
L'objectif principal de l'industrie pétrolière et gazière est de localiser et d'extraire les ressources en hydrocarbures, principalement le pétrole et le gaz naturel. Pour ce faire, de nombreuses mesures sismiques sont effectuées afin de rassembler autant de données que possible sur le terrain ou la surface marine d'intérêt. À l'aide d'une multitude de capteurs, les données sismiques sont acquises et traitées, donnant ainsi lieu à de gros volumes de données en forme de cube. Ces volumes sont ensuite utilisés pour calculer des attributs supplémentaires permettant de mieux comprendre la structure géologique et géophysique interne de la Terre. La visualisation et l'exploration de ces volumes sont essentielles pour comprendre la structure du sous-sol et localiser les réservoirs naturels dans lesquels le pétrole ou le gaz sont piégés. Les progrès récents des technologies de traitement et d'imagerie permettent aux ingénieurs et aux géo-scientifiques de réaliser des relevés sismiques plus vastes. Les mesures sismiques modernes donnent des volumes de données de plusieurs centaines de giga-octets. La taille des volumes acquis présente un réel défi, tant pour leur traitement que pour leur stockage et leur distribution. Ainsi, la compression des don- nées est une fonctionnalité très recherchée qui permet de répondre au dé de la taille des données. Un autre aspect difficile est la visualisation de tels volumes. Traditionnellement, un volume est découpé à la fois verticalement et horizontalement et visualisé au moyen de plans bidimensionnels. Cette méthode oblige l'utilisateur à faire défiler manuellement les tranches successives du volume a n de localiser et de suivre les caractéristiques géologiques intéressantes. Même si le découpage en tranches fournit une visualisation détaillée avec une représentation claire et concise de l'espace physique, il manque l'aspect de profondeur qui peut être crucial pour la compréhension de certaines structures. En outre, plus le volume est important, plus cette tâche peut être fastidieuse et répétitive. Une approche plus intuitive et pratique pour la visualisation est le rendu volumique. En définissant les filtres de couleur et d'opacité appropriés, l'utilisateur peut extraire et visualiser des corps géographiques entiers en tant qu'objets continus individuels dans un espace à 3 dimensions. Dans cette thèse, nous présentons une solution à la fois pour la compression des don- nées et pour la visualisation de données volumineuses. Nous présentons, dans un premier temps, la structure des données sismiques et des attributs présents dans une étude sismique typique. Nous présentons ensuite un état de l'art des méthodes de compression des données sismiques, en discutant des outils et des méthodes utilisés dans l'industrie. Un algorithme de compression de données sismiques est ensuite proposé, basé sur le concept de transformées étendues. En utilisant le GenLOT , transformées orthogonales généralisées, nous obtenons un filtre de transformation approprié qui décorrèle les données sismiques a n qu'elles puissent être mieux quantifiées et codées à l'aide de l'algorithme de compression proposé, P-SPECK, fondé sur le codage en blocs de plans de bits. De plus, nous avons proposé un environnement de rendu volumique out of core par tracé de rayons qui permet la visualisation de cubes sismiques arbitrairement grands. Les données sont décompressées à la demande et rendues à l'aide des filtres d'opacité et de couleur définis par l'utilisateur, ce qui en fait un outil relativement facile à utiliser
The main goal of the oil and gas industry is to locate and extract hydrocarbon resources, mainly petroleum and natural gas. To do this efficiently, numerous seismic measurements are conducted to gather up as much data as possible on terrain or marine surface area of interest. Using a multitude of sensors, seismic data are acquired and processed resulting in large cube-shaped data volumes. These volumes are then used to further compute additional attributes that helps in the understanding of the inner geological and geophysical structure of the earth. The visualization and exploration, called surveys, of these volumes are crucial to understand the structure of the underground and localize natural reservoirs where oil or gas are trapped. Recent advancements in both processing and imaging technologies enables engineers and geoscientists to perform larger seismic surveys. Modern seismic measurements yield large multi-hundred gigabytes of data volumes. The size of the acquired volumes presents a real challenge, both for processing such large volumes as well as their storage and distribution. Thus, data compression is a much- desired feature that helps answering the data size challenge. Another challenging aspect is the visualization of such large volumes. Traditionally, a volume is sliced both vertically and horizontally and visualized by means of 2-dimensional planes. This method necessitates the user having to manually scrolls back and forth be- tween successive slices in order to locate and track interesting geological features. Even though slicing provides a detailed visualization with a clear and concise representation of the physical space, it lacks the depth aspect that can be crucial in the understanding of certain structures. Additionally, the larger the volume gets, the more tedious and repetitive this task can be. A more intuitive approach for visualization is volume rendering. Rendering the seismic data as a volume presents an intuitive and hands on approach. By defining the appropriate color and opacity filters, the user can extract and visualize entire geo-bodies as individual continuous objects in a 3-dimensional space. In this thesis, we present a solution for both the data size and large data visualization challenges. We give an overview of the seismic data and attributes that are present in a typical seismic survey. We present an overview of data compression in a whole, discussing the necessary tools and methods that are used in the industry. A seismic data compression algorithm is then proposed, based on the concept of ex- tended transforms. By employing the GenLOT , Generalized Lapped Orthogonal Trans- forms we derive an appropriate transform filter that decorrelates the seismic data so they can be further quantized and encoded using P-SPECK, our proposed compression algorithm based on block-coding of bit-planes. Furthermore, we proposed a ray-casting out-of-core volume rendering framework that enables the visualization of arbitrarily large seismic cubes. Data are streamed on-demand and rendered using the user provided opacity and color filters, resulting in a fairly easy to use software package
APA, Harvard, Vancouver, ISO, and other styles
2

Trellet, Mikael. "Exploration et analyse immersives de données moléculaires guidées par la tâche et la modélisation sémantique des contenus." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS262/document.

Full text
Abstract:
En biologie structurale, l’étude théorique de structures moléculaires comporte quatre activités principales organisées selon le processus séquentiel suivant : la collecte de données expérimentales/théoriques, la visualisation des structures 3d, la simulation moléculaire, l’analyse et l’interprétation des résultats. Cet enchaînement permet à l’expert d’élaborer de nouvelles hypothèses, de les vérifier de manière expérimentale et de produire de nouvelles données comme point de départ d’un nouveau processus.L’explosion de la quantité de données à manipuler au sein de cette boucle pose désormais deux problèmes. Premièrement, les ressources et le temps relatifs aux tâches de transfert et de conversion de données entre chacune de ces activités augmentent considérablement. Deuxièmement, la complexité des données moléculaires générées par les nouvelles méthodologies expérimentales accroît fortement la difficulté pour correctement percevoir, visualiser et analyser ces données.Les environnements immersifs sont souvent proposés pour aborder le problème de la quantité et de la complexité croissante des phénomènes modélisés, en particulier durant l’activité de visualisation. En effet, la Réalité Virtuelle offre entre autre une perception stéréoscopique de haute qualité utile à une meilleure compréhension de données moléculaires intrinsèquement tridimensionnelles. Elle permet également d’afficher une quantité d’information importante grâce aux grandes surfaces d’affichage, mais aussi de compléter la sensation d’immersion par d’autres canaux sensorimoteurs.Cependant, deux facteurs majeurs freinent l’usage de la Réalité Virtuelle dans le domaine de la biologie structurale. D’une part, même s’il existe une littérature fournie sur la navigation dans les scènes virtuelles réalistes et écologiques, celle-ci est très peu étudiée sur la navigation sur des données scientifiques abstraites. La compréhension de phénomènes 3d complexes est pourtant particulièrement conditionnée par la capacité du sujet à se repérer dans l’espace. Le premier objectif de ce travail de doctorat a donc été de proposer des paradigmes navigation 3d adaptés aux structures moléculaires complexes. D’autre part, le contexte interactif des environnements immersif favorise l’interaction directe avec les objets d’intérêt. Or les activités de collecte et d’analyse des résultats supposent un contexte de travail en "ligne de commande" ou basé sur des scripts spécifiques aux outils d’analyse. Il en résulte que l’usage de la Réalité Virtuelle se limite souvent à l’activité d’exploration et de visualisation des structures moléculaires. C’est pourquoi le second objectif de thèse est de rapprocher ces différentes activités, jusqu’alors réalisées dans des contextes interactifs et applicatifs indépendants, au sein d’un contexte interactif homogène et unique. Outre le fait de minimiser le temps passé dans la gestion des données entre les différents contextes de travail, il s’agit également de présenter de manière conjointe et simultanée les structures moléculaires et leurs analyses et de permettre leur manipulation par des interactions directes.Notre contribution répond à ces objectifs en s’appuyant sur une approche guidée à la fois par le contenu et la tâche. Des paradigmes de navigation ont été conçus en tenant compte du contenu moléculaire, en particulier des propriétés géométriques, et des tâches de l’expert, afin de faciliter le repérage spatial et de rendre plus performante l’activité d’exploration. Par ailleurs, formaliser la nature des données moléculaires, leurs analyses et leurs représentations visuelles, permettent notamment de proposer à la demande et interactivement des analyses adaptées à la nature des données et de créer des liens entre les composants moléculaires et les analyses associées. Ces fonctionnalités passent par la construction d’une représentation sémantique unifiée et performante rendant possible l’intégration de ces activités dans un contexte interactif unique
In structural biology, the theoretical study of molecular structures has four main activities organized in the following scenario: collection of experimental and theoretical data, visualization of 3D structures, molecular simulation, analysis and interpretation of results. This pipeline allows the expert to develop new hypotheses, to verify them experimentally and to produce new data as a starting point for a new scenario.The explosion in the amount of data to handle in this loop has two problems. Firstly, the resources and time dedicated to the tasks of transfer and conversion of data between each of these four activities increases significantly. Secondly, the complexity of molecular data generated by new experimental methodologies greatly increases the difficulty to properly collect, visualize and analyze the data.Immersive environments are often proposed to address the quantity and the increasing complexity of the modeled phenomena, especially during the viewing activity. Indeed, virtual reality offers a high quality stereoscopic perception, useful for a better understanding of inherently three-dimensional molecular data. It also displays a large amount of information thanks to the large display surfaces, but also to complete the immersive feeling with other sensorimotor channels (3D audio, haptic feedbacks,...).However, two major factors hindering the use of virtual reality in the field of structural biology. On one hand, although there are literature on navigation and environmental realistic virtual scenes, navigating abstract science is still very little studied. The understanding of complex 3D phenomena is however particularly conditioned by the subject’s ability to identify themselves in a complex 3D phenomenon. The first objective of this thesis work is then to propose 3D navigation paradigms adapted to the molecular structures of increasing complexity. On the other hand, the interactive context of immersive environments encourages direct interaction with the objects of interest. But the activities of: results collection, simulation and analysis, assume a working environment based on command-line inputs or through specific scripts associated to the tools. Usually, the use of virtual reality is therefore restricted to molecular structures exploration and visualization. The second thesis objective is then to bring all these activities, previously carried out in independent and interactive application contexts, within a homogeneous and unique interactive context. In addition to minimizing the time spent in data management between different work contexts, the aim is also to present, in a joint and simultaneous way, molecular structures and analyses, and allow their manipulation through direct interaction.Our contribution meets these objectives by building on an approach guided by both the content and the task. More precisely, navigation paradigms have been designed taking into account the molecular content, especially geometric properties, and tasks of the expert, to facilitate spatial referencing in molecular complexes and make the exploration of these structures more efficient. In addition, formalizing the nature of molecular data, their analysis and their visual representations, allows to interactively propose analyzes adapted to the nature of the data and create links between the molecular components and associated analyzes. These features go through the construction of a unified and powerful semantic representation making possible the integration of these activities in a unique interactive context
APA, Harvard, Vancouver, ISO, and other styles
3

Doan, Nath-Quang. "Modèles hiérarchiques et topologiques pour le clustering et la visualisation des données." Paris 13, 2013. http://scbd-sto.univ-paris13.fr/secure/edgalilee_th_2013_doan.pdf.

Full text
Abstract:
Cette thèse se concentre sur les approches hiérarchiques et topologiques pour le clustering et la visualisation de données. Le problème du clustering devient de plus en plus compliqué en raison de présence de données structurées sous forme de graphes, arbres ou données séquentielles. Nous nous sommes particulièrement intéressés aux cartes auto-organisatrices et au modèle hiérarchique AntTree qui modélise la capacité des fourmis réelles. En combinant ces approches, l’objectif est de présenter les données dans une structure hiérarchique et topologique. Dans ce rapport, nous présentons trois modèles, dans le premier modèle nous montrons l’intérêt d’utiliser les structures hiérarchiques et topologiques sur des ensembles de données structurés sous forme de graphes. Le second modèle est une version incrémentale qui n’impose pas de règles sur la préservation de la topologie. Le troisième modèle aborde notamment la problématique de la sélection de variable en utilisant la structure hiérarchique, nous proposons un nouveau score pour sélectionner les variables pertinentes en contraignant le score Laplacien. Enfin, cette thèse propose plusieurs perspectives pour des travaux futurs
This thesis focuses on clustering approaches inspired from topological models and an autonomous hierarchical clustering method. The clustering problem becomes more complicated and difficult due to the growth in quality and quantify of structured data such as graphs, trees or sequences. In this thesis, we are particularly interested in self-organizing maps which have been generally used for learning topological preservation, clustering, vector quantization and graph visualization. Our studyconcerns also a hierarchical clustering method AntTree which models the ability of real ants to build structure by connect themselves. By combining the topological map with the self-assembly rules inspired from AntTree, the goal is to represent data in a hierarchical and topological structure providing more insight data information. The advantage is to visualize the clustering results as multiple hierarchical trees and a topological network. In this report, we present three new models that are able to address clustering, visualization and feature selection problems. In the first model, our study shows the interest in the use of hierarchical and topological structure through several applications on numerical datasets, as well as structured datasets e. G. Graphs and biological dataset. The second model consists of a flexible and growing structure which does not impose the strict network-topology preservation rules. Using statistical characteristics provided by hierarchical trees, it accelerates significantly the learning process. The third model addresses particularly the issue of unsupervised feature selection. The idea is to use hierarchical structure provided by AntTree to discover automatically local data structure and local neighbors. By using the tree topology, we propose a new score for feature selection by constraining the Laplacian score. Finally, this thesis offers several perspectives for future work
APA, Harvard, Vancouver, ISO, and other styles
4

Esson, François. "Un logiciel de visualisation et de classification interactives de données quantitatives multidimensionnelles." Lille 1, 1997. http://www.theses.fr/1997LIL10089.

Full text
Abstract:
Les travaux concernent le développement d'un logiciel de classification de données multidimensionnelles interactif basé sur une nouvelle méthode de représentation plane non linéaire. Les techniques d'analyse de données ont pour but de séparer un ensemble d'observations multidimensionnelles en différents sous groupes ou classes, ayant des propriétés voisines, ou des similarités. Dans notre cas, les données brutes ou observations sont quantitatives, obtenues à partir des mesures de n variables sur p échantillons d'une population d'objets donnée. Dans un problème en deux dimensions, les données peuvent être examinées visuellement et formeront un nuage de points sur un diagramme ; ainsi les différentes classes de données présentes pourront être identifiées sans description mathématique formelle de la similarité entre les observations, ni une définition précise de ce qu'est une classe. Notre nouveau mode de représentation plane, permet d'exploiter d'une manière similaire, les capacités discriminatoires de l'opérateur humain dans le cas de données multidimensionnelles. Prenons tout d'abord le cas d'un observateur virtuel évoluant dans l'espace tridimensionnel. Sa position dans l'espace sera définie en tant que point de vue, l'axe de son regard étant la direction de vue. Les coordonnées rectangulaires de la représentation plane d'un point dans l'espace seront d'une part la distances euclidienne entre le point de vue et ce point, d'autre part l'angle entre l'axe du regard de l'observateur virtuel, ou direction de vue, et la droites joignant ce point et le point de vue
A chaque nouvelle configuration du référentiel (point de vue, direction de vue) correspondra une représentation plane différente de l'ensemble des points de données. C'est la généralisation à la dimension n de ce concept qui est à la base du travail effectue. Le logiciel issu de cette nouvelle approche interactive dans le domaine de la classification multidimensionnelle et de la représentation plane de données multidimensionnelles devrait apporter un outil de travail intéressant pour des chercheurs qui sans être des spécialistes en analyse de données ou en programmation, seraient amenés à utiliser l'approche de la classification, pour leur travail
APA, Harvard, Vancouver, ISO, and other styles
5

Blanchard, Frédéric. "Visualisation et classification de données multidimensionnelles : Application aux images multicomposantes." Reims, 2005. http://theses.univ-reims.fr/exl-doc/GED00000287.pdf.

Full text
Abstract:
L'analyse des images multicomposantes est un problème crucial. Les questions de la visualisation et de la classification pour ces images sont importantes. Nous nous sommes intéressés à ces deux problèmes en nous plaçant dans le cadre plus général de l'analyse des données multidimensionnelles, et avons apporté deux éléments de réponses. Avant de traiter ces questions, nous nous sommes intéressés aux problèmes pratiques et théoriques liés à la dimensionnalité et étudions quelques unes des techniques courantes de réduction de dimensionnalité. La question de la visualisation est alors exposée et une nouvelle méthode utilisant l'image couleur est proposée. Cette technique permet une visualisation immédiate et synthétique des données, sans connaissance a priori. Elle est illustrée par des applications. Nous présentons également une contribution à la classification non supervisée de données qui se situe en amont du processus de classification proprement dit. Nous avons conçu une nouvelle façon de représenter les données et leurs liens à l'aide de la théorie des ensembles flous. Cette méthode permet, en classification, de traiter avec succès des échantillons de données dont les classes sont d'effectifs et de densités différents, sans faire d'a priori sur leur forme. Un algorithme de classification et des exemples de son application sont proposés. Ce travail présente deux contributions importantes aux problématiques de la visualisation et la classification, et fait intervenir des concepts issus de thématiques diverses comme l'analyse de données ou la théorie des ensembles flous. Il peut ainsi être utilisé dans d'autres contextes que celui de l'analyse d'images multicomposantes
The analysis of multicomponent images is a crucial problem. Visualization and clustering problem are two relevant questions about it. We decided to work in the more general frame of data analysis to answer to these questions. The preliminary step of this work is describing the problems induced by the dimensionality and studying the current dimensionality reduction methods. The visualization problem is then considered and a contribution is exposed. We propose a new method of visualization through color image that provides an immediate and sythetic image od data. Applications are presented. The second contribution lies upstream with the clustering procedure strictly speaking. We etablish a new kind of data representation by using rank transformation, fuzziness and agregation procedures. Its use inprove the clustering procedures by dealing with clusters with dissimilar density or variant effectives and by making them more robust. This work presents two important contributions to the field of data analysis applied to multicomponent image. The variety of the tools involved (originally from decision theory, uncertainty management, data mining or image processing) make the presented methods usable in many diversified areas as well as multicomponent images analysis
APA, Harvard, Vancouver, ISO, and other styles
6

Ben, othmane Zied. "Analyse et visualisation pour l'étude de la qualité des séries temporelles de données imparfaites." Thesis, Reims, 2020. http://www.theses.fr/2020REIMS002.

Full text
Abstract:
Dans ce travail de thèse, nous nous intéressons à la qualité des informations récoltées par des capteurs sur le web. Ces données forment des séries de données temporelles qui sont incomplètes et imprécises, et sont sur des échelles quantitatives peu comparables. Dans ce contexte, nous nous intéressons plus particulièrement à la variabilité et la stabilité de ces séries temporelles. Nous proposons deux approches pour les quantifier. La première se base sur une représentation à l'aide des quantiles, la seconde est une approche floue. A l'aide de ces indicateurs, nous proposons un outil de visualisation interactive dédié à l'analyse de la qualité des récoltes effectuées par les capteurs. Ce travail s'inscrit dans une collaboration CIFRE avec la société Kantar
This thesis focuses on the quality of the information collected by sensors on the web. These data form time series that are incomplete, imprecise, and are on quantitative scales that are not very comparable. In this context, we are particularly interested in the variability and stability of these time series. We propose two approaches to quantify them. The first is based on a representation using quantiles, the second is a fuzzy approach. Using these indicators, we propose an interactive visualization tool dedicated to the analysis of the quality of the harvest carried out by the sensors. This work is part of a CIFRE collaboration with Kantar
APA, Harvard, Vancouver, ISO, and other styles
7

Runz, Cyril de. "Imperfection, temps et espace : modélisation, analyse et visualisation dans un SIG archéologique." Reims, 2008. http://theses.univ-reims.fr/exl-doc/GED00000848.pdf.

Full text
Abstract:
Face aux enjeux urbains actuels, à la patrimonialisation des ressources archéologiques et grâce au développement de l’informatique, l’utilisation des systèmes d’information géographique devient essentielle pour l’exploitation des données archéologiques. Pour cela, il s’avère nécessaire de modéliser, d’analyser et de visualiser l’information archéologique en prenant en considération l’aspect temporel et spatial mais surtout les imperfections des données archéologiques. Cette thèse élabore une démarche globale pour l’utilisation de données spatiotemporelles imparfaites dans un SIG archéologique. Cette démarche contribue à une meilleure gestion de celles-ci tant pour leur représentation que pour leur traitement. Dans cette démarche scientifique, les concepts théoriques de taxonomie de l’imperfection et de représentation des données imparfaites permettent d’abord la modélisation des données archéologiques. Ce mémoire propose ensuite des méthodes d’analyse des données d’un SIG archéologique. La spécificité de leur caractère temporel implique une gestion plus flexible du temps par un indice quantifiant l’antériorité. L’aspect lacunaire de l’information est aussi considéré à travers une méthode d’interrogation sous critère de forme. Enfin, des outils originaux d’exploration et de visualisation de données archéologiques sont exposés afin de mieux définir les éléments les plus représentatifs. Par une approche interdisciplinaire liant informatique et géographie, cette thèse développe une vision transversale autour de la gestion des connaissances imparfaites dans le temps et l’espace. Cette approche est illustrée par l’utilisation de données archéologiques dans un SIG
This thesis develops a global approach for the handling of spatiotemporal and imperfect data in an archaeological GIS. This approach allows us a better management of those data in order to model or to represent them. In this approach, a new taxonomy of imperfection is proposed for the modeling of archaeological information. Using the modeling, this work presents some new methods for data analysis in an GIS. The temporal aspect of archaeological data implies to define an index which quantifies the anteriority. The lacunar aspect is also exploited through an interrogation method using a geometrical form. This work finally explores and visualizes archaeological dataset to extract the most representative elements. This thesis, which gives an approach on the management of imperfect knowledge in time and space, links computer science and geography. The use-case of this thesis is an archaeological database associated to a GIS
APA, Harvard, Vancouver, ISO, and other styles
8

Gilbert, Frédéric. "Méthodes et modèles pour la visualisation de grandes masses de données multidimensionnelles nominatives dynamiques." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14498/document.

Full text
Abstract:
La visualisation d'informations est un domaine qui connaît un réel intérêt depuis une dizaine d'années. Dernièrement, avec l'explosion des moyens de communication, l'analyse de réseaux sociaux fait l'objet de nombreux travaux de recherches. Nous présentons dans cette thèse des travaux sur l'analyse de réseaux sociaux dynamiques, c'est à dire que nous prenons en compte l'aspect temporel des données. [...]
Since ten years, informations visualization domain knows a real interest.Recently, with the growing of communications, the research on social networks analysis becomes strongly active. In this thesis, we present results on dynamic social networks analysis. That means that we take into account the temporal aspect of data. We were particularly interested in communities extraction within networks and their evolutions through time. [...]
APA, Harvard, Vancouver, ISO, and other styles
9

De, Runz Cyril. "Imperfection, temps et espace : modélisation, analyse et visualisation dans un SIG archéologique." Phd thesis, Université de Reims - Champagne Ardenne, 2008. http://tel.archives-ouvertes.fr/tel-00560668.

Full text
Abstract:
Face aux enjeux urbains actuels, à la patrimonialisation des ressources archéologiques et grâce au développement de l'informatique, l'utilisation des systèmes d'information géographique devient essentielle pour l'exploitation des données archéologiques. Pour cela, il s'avère nécessaire de modéliser, d'analyser et de visualiser l'information archéologique en prenant en considération l'aspect temporel et spatial mais surtout les imperfections des données archéologiques. Cette thèse élabore une démarche globale pour l'utilisation de données spatiotemporelles imparfaites dans un SIG archéologique. Cette démarche contribue à une meilleure gestion de celles-ci tant pour leur représentation que pour leur traitement. Dans cette démarche scientifique, les concepts théoriques de taxonomie de l'imperfection et de représentation des données imparfaites permettent d'abord la modélisation des données archéologiques. Ce mémoire propose ensuite des méthodes d'analyse des données d'un SIG archéologique. La spécificité de leur caractère temporel implique une gestion plus flexible du temps par un indice quantifiant l'antériorité. L'aspect lacunaire de l'information est aussi considéré à travers une méthode d'interrogation sous critère de forme. Enfin, des outils originaux d'exploration et de visualisation de données archéologiques sont exposés afin de mieux définir les éléments les plus représentatifs. Par une approche interdisciplinaire liant informatique et géographie, cette thèse développe une vision transversale autour de la gestion des connaissances imparfaites dans le temps et l'espace. Cette approche est illustrée par l'utilisation de données archéologiques dans un SIG.
APA, Harvard, Vancouver, ISO, and other styles
10

Madra, Anna. "Analyse et visualisation de la géométrie des matériaux composites à partir de données d’imagerie 3D." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2387/document.

Full text
Abstract:
Le sujet du projet de thèse réalisée en cotutelle entre Laboratoire Roberval à l'Université de Technologie de Compiègne et le Centre de Composites à Haute Performance d'École Polytechnique de Montréal porté sur une proposition de l'architecture du deep learning avec sémantique pour la création automatisée des modèles de la microstructure de matériaux composites à partir d'imagerie de la micrographie aux rayons X. La thèse consiste de trois parties principales : d'abord les méthodes du prétraitement de données microtomographiques sont relevées, avec l'accent sur la segmentation de phases à partir d'images 2D. Ensuite, les propriétés géométriques des éléments de phases sont extraites et utilisées pour classifier et identifier de nouvelles morphologies. Cela est démontré pour le cas de composites chargés par les fibres courtes naturelles. L'approche de classification à l'aide des algorithmes d'apprentissage est reprise pour étudier les défauts dans un composite, mais en ajoutant les aspects spatiaux. En plus, un descripteur de haut niveau "génome de défauts" est introduit, qui permet de comparer l'état de défauts dans les différents échantillons. La deuxième partie introduit la segmentation structurelle sur l'exemple du renfort tissé du composite. La méthode repose sur un modèle du krigeage dual, calibré par l'erreur de segmentation provenant d'algorithme d'apprentissage. Finalement, le modèle krigé est repris pour construire une formulation stochastique du renfort à travers de processus gaussien et la distribution des propriétés physiques de la microstructure est extraite et prête pour la simulation numérique de la fabrication ou du comportement mécanique
The subject of the thesis project between Laboratoire Roberval at Université de Technologie Compiègne and Center for High-Performance Composites at Ecole Polytechnique de Montréal considered the design of a deep learning architecture with semantics for automatic generation of models of composite materials microstructure based on X-ray microtomographic imagery. The thesis consists of three major parts. Firstly, the methods of microtomographic image processing are presented, with an emphasis on phase segmentation. Then, the geometric features of phase elements are extracted and used to classify and identify new morphologies. The method is presented for composites filled with short natural fibers. The classification approach is also demonstrated for the study of defects in composites, but with spatial features added to the process. A high-level descriptor "defect genome" is proposed, that permits comparison of the state o defects between specimens. The second part of the thesis introduces structural segmentation on the example of woven reinforcement in a composite. The method relies on dual kriging, calibrated by the segmentation error from learning algorithms. In the final part, a stochastic formulation of the kriging model is presented based on Gaussian Processes, and distribution of physical properties of a composite microstructure is retrieved, ready for numerical simulation of the manufacturing process or of mechanical behavior
APA, Harvard, Vancouver, ISO, and other styles
11

Jourdan, Fabien. "Visualisation d'information : dessin, indices structuraux et navigation : Applications aux réseaux biologiques et aux réseaux sociaux." Montpellier 2, 2004. http://www.theses.fr/2004MON20205.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Loubier, Eloïse. "Analyse et visualisation de données relationnelles par morphing de graphe prenant en compte la dimension temporelle." Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00423655.

Full text
Abstract:
Avec la mondialisation, l'entreprise doit faire face aux menaces de plus en plus fortes de la concurrence et à l'accélération des flux d'information. Pour cela, elle est amenée à rester continuellement informée des innovations, des stratégies de la concurrence et de l'état du marché tout en gardant la maîtrise de son environnement. Le développement d'Internet et la globalisation ont à la fois renforcé cette exigence, et fourni les moyens de collecter l'information qui, une fois synthétisée, prend souvent une forme relationnelle. Pour analyser le relationnel, le recours à la visualisation par des graphes apporte un réel confort aux utilisateurs, qui, de façon intuitive, peuvent s'approprier une forme de connaissance difficile à appréhender autrement.
Nos travaux conduisent à l'élaboration des techniques graphiques permettant la compréhension des activités humaines, de leurs interactions mais aussi de leur évolution, dans une perspective décisionnelle. Nous concevons un outil alliant simplicité d'utilisation et précision d'analyse se basant sur deux types de visualisations complémentaires : statique et dynamique.
L'aspect statique de notre modèle de visualisation repose sur un espace de représentation, dans lequel les préceptes de la théorie des graphes sont appliqués. Le recours à des sémiologies spécifiques telles que le choix de formes de représentation, de granularité, de couleurs significatives permet une visualisation plus juste et plus précise de l'ensemble des données. L'utilisateur étant au cœur de nos préoccupations, notre contribution repose sur l'apport de fonctionnalités spécifiques, qui favorisent l'identification et l'analyse détaillée de structures de graphes. Nous proposons des algorithmes qui permettent de cibler le rôle des données au sein de la structure, d'analyser leur voisinage, tels que le filtrage, le k-core, la transitivité, de retourner aux documents sources, de partitionner le graphe ou de se focaliser sur ses spécificités structurelles.
Une caractéristique majeure des données stratégiques est leur forte évolutivité. Or l'analyse statistique ne permet pas toujours d'étudier cette composante, d'anticiper les risques encourus, d'identifier l'origine d'une tendance, d'observer les acteurs ou termes ayant un rôle décisif au cœur de structures évolutives.
Le point majeur de notre contribution pour les graphes dynamiques représentant des données à la fois relationnelles et temporelles, est le morphing de graphe. L'objectif est de faire ressortir les tendances significatives en se basant sur la représentation, dans un premier temps, d'un graphe global toutes périodes confondues puis en réalisant une animation entre les visualisations successives des graphes attachés à chaque période. Ce procédé permet d'identifier des structures ou des événements, de les situer temporellement et d'en faire une lecture prédictive.
Ainsi notre contribution permet la représentation des informations, et plus particulièrement l'identification, l'analyse et la restitution des structures stratégiques sous jacentes qui relient entre eux et à des moments donnés les acteurs d'un domaine, les mots-clés et concepts qu'ils utilisent.
APA, Harvard, Vancouver, ISO, and other styles
13

Ledieu, Thibault. "Analyse et visualisation de trajectoires de soins par l’exploitation de données massives hospitalières pour la pharmacovigilance." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1B032/document.

Full text
Abstract:
Le phénomène de massification des données de santé constitue une opportunité de répondre aux questions des vigilances et de qualité des soins. Dans les travaux effectués au cours de cette thèse, nous présenterons des approches permettant d’exploiter la richesse et le volume des données intra hospitalières pour des cas d’usage de pharmacovigilance et de surveillance de bon usage du médicament. Cette approche reposera sur la modélisation de trajectoires de soins intra hospitalières adaptées aux besoins spécifiques de la pharmacovigilance. Il s’agira, à partir des données d’un entrepôt hospitalier de caractériser les événements d’intérêt et d’identifier un lien entre l’administration de ces produits de santé et l’apparition des effets indésirables, ou encore de rechercher les cas de mésusage du médicament. L’hypothèse posée dans cette thèse est qu’une approche visuelle interactive serait adaptée pour l’exploitation de ces données biomédicales hétérogènes et multi-domaines dans le champ de la pharmacovigilance. Nous avons développé deux prototypes permettant la visualisation et l’analyse des trajectoires de soins. Le premier prototype est un outil de visualisation du dossier patient sous forme de frise chronologique. La deuxième application est un outil de visualisation et fouille d’une cohorte de séquences d’événements. Ce dernier outil repose sur la mise en œuvre d’algorithme d’analyse de séquences (Smith-Waterman, Apriori, GSP) pour la recherche de similarité ou de motifs d’événements récurrents. Ces interfaces homme-machine ont fait l’objet d’études d’utilisabilité sur des cas d’usage tirées de la pratique réelle qui ont prouvé leur potentiel pour un usage en routine
The massification of health data is an opportunity to answer questions about vigilance and quality of care. The emergence of big data in health is an opportunity to answer questions about vigilance and quality of care. In this thesis work, we will present approaches to exploit the diversity and volume of intra-hospital data for pharmacovigilance use and monitoring the proper use of drugs. This approach will be based on the modelling of intra-hospital care trajectories adapted to the specific needs of pharmacovigilance. Using data from a hospital warehouse, it will be necessary to characterize events of interest and identify a link between the administration of these health products and the occurrence of adverse reactions, or to look for cases of misuse of the drug. The hypothesis put forward in this thesis is that an interactive visual approach would be suitable for the exploitation of these heterogeneous and multi-domain biomedical data in the field of pharmacovigilance. We have developed two prototypes allowing the visualization and analysis of care trajectories. The first prototype is a tool for visualizing the patient file in the form of a timeline. The second application is a tool for visualizing and searching a cohort of event sequences The latter tool is based on the implementation of sequence analysis algorithms (Smith-Waterman, Apriori, GSP) for the search for similarity or patterns of recurring events. These human-machine interfaces have been the subject of usability studies on use cases from actual practice that have proven their potential for routine use
APA, Harvard, Vancouver, ISO, and other styles
14

Loubier, Éloïse. "Analyse et visualisation de données relationnelles par morphing de graphe prenant en compte la dimension temporelle." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/2264/.

Full text
Abstract:
Avec la mondialisation, l'entreprise doit faire face aux menaces de plus en plus fortes de la concurrence et à l'accélération des flux d'information. Pour cela, elle est amenée à rester continuellement informée des innovations, des stratégies de la concurrence et de l'état du marché tout en gardant la maîtrise de son environnement. Le développement d'Internet et la globalisation ont à la fois renforcé cette exigence, et fourni les moyens de collecter l'information qui, une fois synthétisée, prend souvent une forme relationnelle. Pour analyser le relationnel, le recours à la visualisation par des graphes apporte un réel confort aux utilisateurs, qui, de façon intuitive, peuvent s'approprier une forme de connaissance difficile à appréhender autrement. Nos travaux conduisent à l'élaboration des techniques graphiques permettant la compréhension des activités humaines, de leurs interactions mais aussi de leur évolution, dans une perspective décisionnelle. Nous concevons un outil alliant simplicité d'utilisation et précision d'analyse se basant sur deux types de visualisations complémentaires : statique et dynamique. L'aspect statique de notre modèle de visualisation repose sur un espace de représentation, dans lequel les préceptes de la théorie des graphes sont appliqués. Le recours à des sémiologies spécifiques telles que le choix de formes de représentation, de granularité, de couleurs significatives permet une visualisation plus juste et plus précise de l'ensemble des données. L'utilisateur étant au cœur de nos préoccupations, notre contribution repose sur l'apport de fonctionnalités spécifiques, qui favorisent l'identification et l'analyse détaillée de structures de graphes. Nous proposons des algorithmes qui permettent de cibler le rôle des données au sein de la structure, d'analyser leur voisinage, tels que le filtrage, le k-core, la transitivité, de retourner aux documents sources, de partitionner le graphe ou de se focaliser sur ses spécificités structurelles. Une caractéristique majeure des données stratégiques est leur forte évolutivité. Or l'analyse statistique ne permet pas toujours d'étudier cette composante, d'anticiper les risques encourus, d'identifier l'origine d'une tendance, d'observer les acteurs ou termes ayant un rôle décisif au cœur de structures évolutives. Le point majeur de notre contribution pour les graphes dynamiques représentant des données à la fois relationnelles et temporelles, est le morphing de graphe. L'objectif est de faire ressortir les tendances significatives en se basant sur la représentation, dans un premier temps, d'un graphe global toutes périodes confondues puis en réalisant une animation entre les visualisations successives des graphes attachés à chaque période. Ce procédé permet d'identifier des structures ou des événements, de les situer temporellement et d'en faire une lecture prédictive. Ainsi notre contribution permet la représentation des informations, et plus particulièrement l'identification, l'analyse et la restitution des structures stratégiques sous jacentes qui relient entre eux et à des moments donnés les acteurs d'un domaine, les mots-clés et concepts qu'ils utilisent
With word wide exchanges, companies must face increasingly strong competition and masses of information flows. They have to remain continuously informed about innovations, competition strategies and markets and at the same time they have to keep the control of their environment. The Internet development and globalization reinforced this requirement and on the other hand provided means to collect information. Once summarized and synthesized, information generally is under a relational form. To analyze such a data, graph visualization brings a relevant mean to users to interpret a form of knowledge which would have been difficult to understand otherwise. The research we have carried out results in designing graphical techniques that allow understanding human activities, their interactions but also their evolution, from the decisional point of view. We also designed a tool that combines ease of use and analysis precision. It is based on two types of complementary visualizations: statics and dynamics. The static aspect of our visualization model rests on a representation space in which the precepts of the graph theory are applied. Specific semiologies such as the choice of representation forms, granularity, and significant colors allow better and precise visualizations of the data set. The user being a core component of our model, our work rests on the specification of new types of functionalities, which support the detection and the analysis of graph structures. We propose algorithms which make it possible to target the role of the data within the structure, to analyze their environment, such as the filtering tool, the k-core, and the transitivity, to go back to the documents, and to give focus on the structural specificities. One of the main characteristics of strategic data is their strong evolution. However the statistical analysis does not make it possible to study this component, to anticipate the incurred risks, to identify the origin of a trend, and to observe the actors or terms having a decisive role in the evolution structures. With regard to dynamic graphs, our major contribution is to represent relational and temporal data at the same time; which is called graph morphing. The objective is to emphasize the significant tendencies considering the representation of a graph that includes all the periods and then by carrying out an animation between successive visualizations of the graphs attached to each period. This process makes it possible to identify structures or events, to locate them temporally, and to make a predictive reading of it. Thus our contribution allows the representation of advanced information and more precisely the identification, the analysis, and the restitution of the underlying strategic structures which connect the actors of a domain, the key words, and the concepts they use; this considering the evolution feature
APA, Harvard, Vancouver, ISO, and other styles
15

Allanic, Marianne. "Gestion et visualisation de données hétérogènes multidimensionnelles : application PLM à la neuroimagerie." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2248/document.

Full text
Abstract:
La neuroimagerie est confrontée à des difficultés pour analyser et réutiliser la masse croissante de données hétérogènes qu’elle produit. La provenance des données est complexe – multi-sujets, multi-analyses, multi-temporalités – et ces données ne sont stockées que partiellement, limitant les possibilités d’études multimodales et longitudinales. En particulier, la connectivité fonctionnelle cérébrale est analysée pour comprendre comment les différentes zones du cerveau travaillent ensemble. Il est nécessaire de gérer les données acquises et traitées suivant plusieurs dimensions, telles que le temps d’acquisition, le temps entre les acquisitions ou encore les sujets et leurs caractéristiques. Cette thèse a pour objectif de permettre l’exploration de relations complexes entre données hétérogènes, ce qui se décline selon deux axes : (1) comment gérer les données et leur provenance, (2) comment visualiser les structures de données multidimensionnelles. L’apport de nos travaux s’articule autour de trois propositions qui sont présentées à l’issue d’un état de l’art sur les domaines de la gestion de données hétérogènes et de la visualisation de graphes. Le modèle de données BMI-LM (Bio-Medical Imaging – Lifecycle Management) structure la gestion des données de neuroimagerie en fonction des étapes d’une étude et prend en compte le caractère évolutif de la recherche grâce à l’association de classes spécifiques à des objets génériques. L’implémentation de ce modèle au sein d’un système PLM (Product Lifecycle Management) montre que les concepts développés depuis vingt ans par l’industrie manufacturière peuvent être réutilisés pour la gestion des données en neuroimagerie. Les GMD (Graphes Multidimensionnels Dynamiques) sont introduits pour représenter des relations complexes entre données qui évoluent suivant plusieurs dimensions, et le format JGEX (Json Graph EXchange) a été créé pour permettre le stockage et l’échange de GMD entre applications. La méthode OCL (Overview Constraint Layout) permet l’exploration visuelle et interactive de GMD. Elle repose sur la préservation partielle de la carte mentale de l’utilisateur et l’alternance de vues complètes et réduites des données. La méthode OCL est appliquée à l’étude de la connectivité fonctionnelle cérébrale au repos de 231 sujets représentées sous forme de GMD – les zones du cerveau sont représentées par les nœuds et les mesures de connectivité par les arêtes – en fonction de l’âge, du genre et de la latéralité : les GMD sont obtenus par l’application de chaînes de traitement sur des acquisitions IRM dans le système PLM. Les résultats montrent deux intérêts principaux à l’utilisation de la méthode OCL : (1) l’identification des tendances globales sur une ou plusieurs dimensions et (2) la mise en exergue des changements locaux entre états du GMD
Neuroimaging domain is confronted with issues in analyzing and reusing the growing amount of heterogeneous data produced. Data provenance is complex – multi-subjects, multi-methods, multi-temporalities – and the data are only partially stored, restricting multimodal and longitudinal studies. Especially, functional brain connectivity is studied to understand how areas of the brain work together. Raw and derived imaging data must be properly managed according to several dimensions, such as acquisition time, time between two acquisitions or subjects and their characteristics. The objective of the thesis is to allow exploration of complex relationships between heterogeneous data, which is resolved in two parts : (1) how to manage data and provenance, (2) how to visualize structures of multidimensional data. The contribution follow a logical sequence of three propositions which are presented after a research survey in heterogeneous data management and graph visualization. The BMI-LM (Bio-Medical Imaging – Lifecycle Management) data model organizes the management of neuroimaging data according to the phases of a study and takes into account the scalability of research thanks to specific classes associated to generic objects. The application of this model into a PLM (Product Lifecycle Management) system shows that concepts developed twenty years ago for manufacturing industry can be reused to manage neuroimaging data. GMDs (Dynamic Multidimensional Graphs) are introduced to represent complex dynamic relationships of data, as well as JGEX (Json Graph EXchange) format that was created to store and exchange GMDs between software applications. OCL (Overview Constraint Layout) method allows interactive and visual exploration of GMDs. It is based on user’s mental map preservation and alternating of complete and reduced views of data. OCL method is applied to the study of functional brain connectivity at rest of 231 subjects that are represented by a GMD – the areas of the brain are the nodes and connectivity measures the edges – according to age, gender and laterality : GMDs are computed through processing workflow on MRI acquisitions into the PLM system. Results show two main benefits of using OCL method : (1) identification of global trends on one or many dimensions, and (2) highlights of local changes between GMD states
APA, Harvard, Vancouver, ISO, and other styles
16

Dhif, Imen. "Compression, analyse et visualisation des signaux physiologiques (EEG) appliqués à la télémédecine." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066393.

Full text
Abstract:
En raison de la grande quantité d’EEG acquise sur plusieurs journées, une technique de compression efficace est nécessaire. Le manque des experts et la courte durée des crises encouragent la détection automatique des convulsions. Un affichage uniforme est obligatoire pour assurer l’interopérabilité et la lecture des examens EEG transmis. Le codeur certifié médical WAAVES fournit des CR élevés et assure une qualité de diagnostic d’image. Durant nos travaux, trois défis sont révélés : adapter WAAVES à la compression des signaux, détecter automatiquement les crises épileptiques et assurer l’interopérabilité des afficheurs EEG. L’étude du codeur montre qu’il est incapable de supprimer la corrélation spatiale et de compresser des signaux monodimensionnels. Par conséquent, nous avons appliqué l’ICA pour décorréler les signaux, la mise en échelle pour redimensionner les valeurs décimales et la construction d’image. Pour garder une qualité de diagnostic avec un PDR inférieur à 7%, nous avons codé le résidu. L’algorithme de compression EEGWaaves proposé a atteint des CR de l’ordre de 56. Ensuite, nous avons proposé une méthode d’extraction des caractéristiques des signaux EEG basée sur un nouveau modèle de calcul de la prédiction énergétique (EAM) des signaux. Ensuite, des paramètres statistiques ont été calculés et les Réseaux de Neurones ont été appliqués pour détecter les crises épileptiques. Cette méthode nous a permis d’atteindre de meilleure sensibilité allant jusqu’à 100% et une précision de 99.44%. Le dernier chapitre détaille le déploiement de notre afficheur multi-plateforme des signaux physiologiques. Il assure l’interopérabilité des examens EEG entre les hôpitaux
Due to the large amount of EEG acquired over several days, an efficient compression technique is necessary. The lack of experts and the short duration of epileptic seizures require the automatic detection of these seizures. Furthermore, a uniform viewer is mandatory to ensure interoperability and a correct reading of transmitted EEG exams. The certified medical image WAAVES coder provides high compression ratios CR while ensuring image quality. During our thesis, three challenges are revealed : adapting WAAVES coder to the compression of the EEG signals, detecting automatically epileptic seizures in an EEG signal and ensure the interoperability of the displays of EEG exams. The study of WAAVES shows that this coder is unable to remove spatial correlation and to compress directly monodimensional signals. Therefore, we applied ICA to decorrelate signals, a scaling to resize decimal values, and image construction. To keep a diagnostic quality with a PDR less than 7%, we coded the residue. The proposed compression algorithm EEGWaaves has achieved CR equal to 56. Subsequently, we proposed a new method of EEG feature extraction based on a new calculation model of the energy expected measurement (EAM) of EEG signals. Then, statistical parameters were calculated and Neural Networks were applied to classify and detect epileptic seizures. Our method allowed to achieve a better sensitivity up to 100% and an accuracy of 99.44%. The last chapter details the deployment of our multiplatform display of physiological signals by meeting the specifications established by doctors. The main role of this software is to ensure the interoperability of EEG exams between healthcare centers
APA, Harvard, Vancouver, ISO, and other styles
17

Beaulieu, Véronique. "Étude de la visualisation géographique dans un environnement d'exploration interactive de données géodécisionnelles : adaptation et améliorations." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26354/26354.pdf.

Full text
Abstract:
La visualisation géographique de l’information est un aspect important du SOLAP. Elle est le troisième élément clé pour supporter une analyse facile, rapide et intuitive des données prônée par l’approche SOLAP. Cependant, à ce jour, aucune étude ne s’est intéressée spécifiquement à cet aspect du SOLAP et les stratégies de visualisation utilisées traditionnellement dans les SIG ne conviennent pas à l’approche interactive et multidimensionnelle. Ce mémoire présente une recherche exploratoire proposant premièrement de placer la visualisation géographique au cœur de la relation entre l’utilisateur et la base de données. Cette stratégie fait ressurgir plusieurs besoins et possibilités explorées au cours de ce mémoire. Le respect de la flexibilité d’analyse SOLAP, les divers types de visualisation nécessaires pour rendre les différents types de requêtes, puis les manipulations graphiques qui peuvent s’opérer dans un environnement SOLAP font l’objet de propositions. Deuxièmement, ce mémoire propose une méthode permettant une relation directe entre les données et leur visualisation, sans l’intermédiaire de l’utilisateur. La solution théorique résultante respecte la philosophie d’exploration interactive prônée par l'approche SOLAP. Elle suggère l’intégration de l’expertise en visualisation géographique à l’intérieur même de la technologie SOLAP par l’ajout de métadonnées et d’une base de connaissances sémiologiques. Ce premier pas vers une amélioration du processus de visualisation avec SOLAP ouvre la porte à plusieurs recherches ultérieures.
APA, Harvard, Vancouver, ISO, and other styles
18

Chen, Fati. "Réduction de l'encombrement visuel : Application à la visualisation et à l'exploration de données prosopographiques." Thesis, Université de Montpellier (2022-….), 2022. http://www.theses.fr/2022UMONS023.

Full text
Abstract:
La prosopographie est utilisée par les historiens pour désigner des notices biographiques afin d'étudier des caractéristiques communes d'un groupe d'acteurs de l'histoire au moyen d'une analyse collective de leur vie. La visualisation d'informations présente des perspectives intéressantes pour analyser les données prosopographiques. C'est dans ce contexte que se situe le travail présenté dans ce mémoire. Dans un premier temps, nous présentons la plateforme ProsoVis conçue pour analyser et naviguer dans des données prosopographiques. Nous décrivons les différents besoins exprimés et détaillons les choix de conception ainsi que les techniques de visualisation employées. Nous illustrons son utilisation avec la base Siprojuris qui contient les données sur la carrière des enseignants de droit de 1800 à 1950. La visualisation d'autant de données pose des problèmes d'encombrement visuel. Dans ce contexte, nous abordons la problématique des chevauchements des nœuds dans un graphe. Différentes approches existent mais il est difficile de les comparer car leurs évaluations ne sont pas basées sur les mêmes critères de qualité. Nous proposons donc une étude de l'état de l'art et comparons les résultats des algorithmes sur une liste homogène de critères. Enfin, nous abordons une autre problématique d'encombrement visuel au sein d'une carte et proposons une approche de regroupement spatial agglomératif, F-SAC, beaucoup plus rapide que les propositions de l'état de l'art tout en garantissant la même qualité de résultats
Prosopography is used by historians to designate biographical records in order to study common characteristics of a group of historical actors through a collective analysis of their lives. Information visualization presents interesting perspectives for analyzing prosopographic data. It is in this context that the work presented in this thesis is situated. First, we present the ProsoVis platform to analyze and navigate through prosopographic data. We describe the different needs expressed and detail the design choices as well as the different views. We illustrate its use with the Siprojuris database which contains data on the careers of law teachers from 1800 to 1950. Visualizing so much data induces visual cluttering problems. In this context, we address the problem of overlapping nodes in a graph. Even if approaches exist, it is difficult to compare them because their respective evaluations are not based on the same quality criteria. We therefore propose a study of the state-of-the-art algorithms by comparing their results on the same criteria. Finally, we address a similar problem of visual cluttering within a map and propose an agglomeration spatial clustering approach, F-SAC, which is much faster than the state-of-the-art proposals while guaranteeing the same quality of results
APA, Harvard, Vancouver, ISO, and other styles
19

De, Runz Cyril Herbin Michel Piantoni Frédéric. "Imperfection, temps et espace : modélisation, analyse et visualisation dans un SIG archéologique." Reims : S.C.D. de l'Université, 2008. http://scdurca.univ-reims.fr/exl-doc/GED00000848.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Lehn, Rémi. "Un système interactif de visualisation et de fouille de règles pour l'extraction de connaissances dans les bases de données." Nantes, 2000. http://www.theses.fr/2000NANT2110.

Full text
Abstract:
L'utilisation de techniques combinatoires dans un processus d'extraction automatique de connaissances à partir des données génère potentiellement un volume de règle d'association trop important pour qu'un utilisateur puisse y trouver des connaissances effectivement utiles selon son point de vue ; et ce, malgré l'utilisation de critères de qualité des règles extraites tels que l'intensité d'implication. Nous proposons d'envisager une meilleure assistance à l'utilisateur en couplant à un algorithme performant pour la découverte d'association un nouvel outil interactif de visualisation, felix, fournissant une véritable aide à la décision en permettant la fouille de règles. Felix permet d'assister l'utilisateur dans son raisonnement mettant en relation la connaissance découverte automatiquement et sa propre expertise. Pour cela, il dessine le graphe des relations associant des descriptions de sous-ensembles d'objets de la base de données et permet, par action de l'utilisateur sur ce dessin, de modifier dynamiquement et de façon itérative cette représentation pour prendre en compte de manière incrémentale de nouvelles étapes dans le raisonnement de l'expert. Une heuristique basée sur les algorithmes génétiques a été développée pour le problème du dessin interactif. Felix a été implémenté selon une architecture client-serveur et exploite des standards ouverts pour s'intégrer parfaitement dans les environnements industriels d'aujourd'hui, entre les bases de données et l'intranet des entreprises. Il a déjà été utilisé dans le domaine de la gestion des ressources humaines pour étudier le rapprochement entre des bilans comportementaux et des métiers, à partir de bases de données de plusieurs clients de la société performanse sa. Des profils de métiers ont ainsi pu être élaborés.
APA, Harvard, Vancouver, ISO, and other styles
21

Esnard, Aurélien. "Analyse, conception et réalisation d'un environnement pour le pilotage et la visualisation en ligne de simulations numériques parallèles." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2005. http://tel.archives-ouvertes.fr/tel-00080729.

Full text
Abstract:
Le domaine de la simulation interactive ou computational steering a pour but d'améliorer le processus de simulation numérique (modélisation, calcul, analyse) en le rendant plus interactif. Dans cette approche, le scientifique n'attend plus passivement les résultats de la simulation ; il peut visualiser en ligne l'évolution des données calculées et peut interagir à tout moment en modifiant certains paramètres à la volée ou plus généralement en pilotant le déroulement des calculs. Un tel outil peut s'avérer très utile pour la compréhension des phénomènes physiques modélisés et la détection d'erreurs dans le cas de simulations longues.

L'objectif de cette thèse est de concevoir et de développer une plate-forme logicielle, appelée EPSN (Environnement pour le Pilotage des Simulations Numériques), permettant de piloter une application numérique parallèle en s'appuyant sur des outils de visualisation eux-mêmes parallèles. En d'autres termes, il s'agit de mettre au service des scientifiques les capacités de la visualisation parallèle et plus largement de la réalité virtuelle (environnement immersif, murs d'images), une étape aujourd'hui cruciale pour la conception et l'exploitation de simulations numériques complexes en vraie grandeur. La mise en oeuvre d'un couplage efficace entre simulation et visualisation soulève deux problèmes majeurs, que nous étudions
dans cette thèse et pour lesquels nous souhaitons apporter une contribution : le problème de la coordination efficace des opérations de pilotages en parallèle et le problème de la redistribution pour des données complexes (grilles structurées, ensembles de particules, maillages non structurés).
APA, Harvard, Vancouver, ISO, and other styles
22

Blanchard, Frédéric Herbin Michel. "Visualisation et classification de données multidimensionnelles Application aux images multicomposantes /." Reims : S.C.D. de l'Université, 2005. http://scdurca.univ-reims.fr/exl-doc/GED00000287.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Cantu, Alma. "Proposition de modes de visualisation et d'interaction innovants pour les grandes masses de données et/ou les données structurées complexes en prenant en compte les limitations perceptives des utilisateurs." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0068/document.

Full text
Abstract:
Suite à l’amélioration des outils de capture et de stockage des données, ces dernières années ont vu les quantités de données à traiter croître énormément. De nombreux travaux, allant du traitement automatique à la visualisation d’information, ont alors été mis en place, mais certains domaines sont encore trop spécifiques pour en profiter. C’est le cas du Renseignement d’Origine ÉlectroMagnétique (ROEM). Ce domaine ne fait pas uniquement face à de grandes quantités de données mais doit aussi gérer des données et des usages complexes ainsi que des populations d’utilisateurs ayant de moins en moins d’expérience. Dans cette thèse nous nous sommes intéressés à l’usage de l’existant et des nouvelles technologies appliquées à la visualisation pour proposer des solutions à la combinaison de problématiques comme les données en grandes quantité et les données complexes. Nous commençons par présenter une analyse du domaine du ROEM qui a permis d’extraire les problématiques auxquelles il doit faire face. Nous nous intéressons ensuite aux solutions gérant les combinaisons de telles problématiques. L’existant ne contenant pas directement de telles solutions, nous nous intéressons alors à la description des problématiques de visualisation et proposons une caractérisation de ces problématiques. Cette caractérisation nous permet de décrire les représentations existantes et de mettre en place un outil de recommandation des représentations basé sur la façon dont l’existant résout les problématiques. Enfin nous nous intéressons à identifier de nouvelles métaphores pour compléter l’existant et proposons une représentation immersive permettant de résoudre les problématiques du ROEM. Ces contributions permettent d’analyser et d’utiliser l’existant et approfondissent l’usage des représentations immersives pour la visualisation d’information
As a result of the improvement of data capture and storage, recent years have seen the amount of data to be processed increase dramatically. Many studies, ranging from automatic processing to information visualization, have been performed, but some areas are still too specific to take advantage of. This is the case of ELectromagnetic INTelligence(ELINT). This domain does not only deal with a huge amount of data but also has to handle complex data and usage as well as populations of users with less and less experience. In this thesis we focus on the use of existing and new technologies applied to visualization to propose solutions to the combination of issues such as huge amount and complex data. We begin by presenting an analysis of the ELINT field which made it possible to extract the issues that it must faces. Then, we focus on the visual solutions handling the combinations of such issues but the existing work do not contain directly such solutions. Therefore, we focus on the description of visual issues and propose a characterization of these issues. This characterization allows us to describe the existing representations and to build a recommendation tool based on how the existing work solves the issues. Finally, we focus on identifying new metaphors to complete the existing work and propose an immersive representation to solve the issues of ELINT. These contributions make it possible to analyze and use the existing and deepen the use of immersive representations for the visualization of information
APA, Harvard, Vancouver, ISO, and other styles
24

Pham, Khang-Nguyen. "Analyse factorielle des correspondances pour l'indexation et la recherche d'information dans une grande base de données d'images." Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00532574.

Full text
Abstract:
Avec le développement du numérique, le nombre d'images stockées dans les bases de données a beaucoup augmenté. L'indexation des images et la recherche d'information dans les bases d'images sont plus compliquées que dans le cas de documents textuels Des méthodes d'indexation déjà utilisées en analyse de données textuelles sont proposées pour traiter des images. Pour transférer les résultats de l'analyse de données textuelles aux images, il est nécessaire d'utiliser de nouvelles caractéristiques : les mots visuels et on considère les images comme documents. Nous nous intéressons au problème d'indexation et de recherche d'information dans des grandes bases de données d'images à l'aide de méthodes d'analyse de données comme l'Analyse Factorielle des Correspondances (AFC). Nous proposons d'abord une utilisation astucieuse des indicateurs de l'AFC pour accélérer la recherche après l'avoir adaptée aux images. Nous nous intéressons ensuite au problème du passage à l'échelle de l'AFC. Pour ce faire, nous proposons un algorithme d'AFC incrémentale pour traiter de grands tableaux de données et la parallélisation de cet algorithme sur processeurs graphiques (GPU). Nous développons aussi une version parallèle de notre algorithme de recherche qui utilise les indicateurs de l'AFC sur GPU. Puis nous associons l'AFC à d'autres méthodes comme la Mesure de Dissimilarité Contextuelle ou les forêts aléatoires pour améliorer la qualité de la recherche. Enfin, nous présentons un environnement de visualisation, CAViz, pour accompagner les traitements précédents.
APA, Harvard, Vancouver, ISO, and other styles
25

Koné, Malik. "Collaviz : un prototype pour la détection et la visualisation de la dynamique collective dans les forums des MOOC." Thesis, Le Mans, 2020. http://www.theses.fr/2020LEMA1029.

Full text
Abstract:
Les formations à distance en ligne, en particulier les MOOC, voient leurs effectifs augmenter depuis la démocratisation d'Internet. Malgré leur popularité croissante ces cours manquent encore d'outils permettant aux instructeurs et aux chercheurs de guider et d'analyser finement les apprentissages qui s'y passent. Des tableaux de bord récapitulant l'activité des étudiants sont régulièrement proposés aux instructeurs, mais ils ne leur permettent pas d'appréhender les activités collectives, or du point vue socio-constructiviste, les échanges et les interactions que les instructeurs cherchent généralement dans les forums sont essentiels pour les apprentissages (Stephens, 2014). Jusqu'à présent, les études ont analysé les interactions soit sémantiquement mais à petite échelle, soit statistiquement et à grande échelle mais en ignorant la qualité des interactions. La proposition de cette thèse est une nouvelle approche de détection interactive des activités collectives qui prend en compte à la fois leurs dimensions temporelles, sémantiques et sociales. Nous cherchons un moyen de permettre aux instructeurs d'intervenir et d'encourager les dynamiques collectives qui sont favorables pour les apprentissages. Ce que nous entendons par "dynamique collective", c'est l'évolution des interactions à la fois qualitatives et quantitatives, des apprenants dans des forums. Nous nous appuyons sur des études (Boroujeni 2017, Dascalu 2017) qui proposent d'associer l'analyse statistique des interactions et le traitement automatique de la langue, pour étudier les flux d'informations dans les forums. Mais, à la différence des études précédentes, notre approche ne se limite pas à une analyse globale ou centrée sur un individu. Nous proposons une méthode de conception d’indicateurs et de tableaux de bord permettant les changements d'échelles et la personnalisation des vues afin de soutenir les instructeurs et les chercheurs dans leur tâche de détection, d'observation et d'analyse des dynamiques collectives de sous-groupes d'apprenants
Massive Open Online Courses (MOOCs) have seen their numbers increase significantly since the democratization of the Internet. In addition, recently with the COVID-19 pandemic, the trend has intensified. If communication devices such as discussion forums are an integral part of the learning activities of MOOCs, there is still a lack of tools allowing instructors and researchers to guide and finely analyze the learning that takes place there. Dashboards summarizing students' activites are regularly offered to instructors, but they do not allow them to understand collective activities in the forums. From a socio-constructivist point of view, the exchanges and interactions sought by instructors in forums are essential for learning (Stephens, 2014). So far, studies have analyzed interactions in two ways: semantically but on a small scale or statistically and on a large scale but ignoring the quality of the interactions. The scientific contribution of this thesis relates to the proposal of an interactive detection approach of collective activities which takes into account their temporal, semantic and social dimensions. We seek to answer the problem of detecting and observing the collective dynamics that take place in MOOC forums. By collective dynamic, we mean all the qualitative and quantitative interactions of learners in the forums and their temporal changes. We want to allow instructors to intervene to encourage these activities favorable to learning. We rely on studies (Boroujeni 2017, Dascalu 2017) which propose to combine statistical analysis of interactions and automatic language processing to study the flow of information in forums. But, unlike previous studies, our approach is not limited to global or individual-centered analysis. We propose a method of designing indicators and dashboards allowing changes of scales and customization of views in order to support instructors and researchers in their task of detecting, observing and analyzing collective dynamics. To support our approach, we set up questionnaires and conducted semi-structured interviews with the instructors. As for the evaluation of the first indicators built at each iteration of our approach, we used various data sources and formats: Coursera (CSV), Hangout (JSON), Moodle (SQL)
APA, Harvard, Vancouver, ISO, and other styles
26

Jalabert, Fabien. "Cartographie des connaissances : l'intégration et la visualisation au service de la biologie : application à l'ingénierie des connaissances et à l'analyse de données d'expression de gènes." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00207602.

Full text
Abstract:
Ce mémoire s'inscrit dans un axe stratégique du groupement des Ecoles des Mines : GEMBIO. Dans ce contexte, plusieurs collaborations ont été initiées, notamment avec des chercheurs de l'Institut Pasteur de Paris, de l'Inserm/Hôpitaux de Paris, et du CEA dans le cadre du programme ToxNuc-e. De ces échanges, est née notre problématique. Plus d'un millier de bases de données biologiques sont disponibles en ligne. Leur exploitation et le croisement de leurs contenus entraînent souvent ce constat des chercheurs biologistes : « J'ai souvent une vingtaine de fenêtres ouvertes sur mon écran : je m'y perds ». Souvent l'analyse et le croisement des données est fait par simple copier-coller dans un tableur. Si l'intégration de données à apporté des solutions ponctuelles à des problèmes particuliers, elle ne propose pas pour autant une réponse concrète à la multiplicité des fenêtres pour l'utilisateur, à la surcharge d'information, et à la difficulté de croiser l'information provenant de plusieurs sources hétérogènes. Nous proposons un environnement de cartographie des connaissances biologiques qui facilite l'intégration et la visualisation des données biologiques. Basé sur un métamodèle simple de graphe, I²DEE (Integrated and Interactive Data Exploration Environment) se veut souple et extensible afin de répondre aux besoins des différentes approches existantes de l'intégration. Il permet un accès homogène aux principales ressources biologiques et son adaptabilité offre des réponses visuelles personnalisées à des tâches spécifiques. Après une analyse des besoins des chercheurs biologistes et l'identification des problématiques de traitement de l'information sous-jacentes, un état de l'art de l'intégration de données hétérogènes est présenté. L'approche proposée reprend les principes existants en architecture des IHM et en cartographie géographique. L'environnement I2DEE est alors présenté à partir de son architecture et son métamodèle. Deux modules de l'environnement sont détaillés : l'entrepôt de données biologiques et la boîte à outils graphique permettant de construire rapidement des applications adaptées. Des résultats ont été obtenus dans deux contextes applicatifs distincts : l'ingénierie terminologique et ontologique, et l'analyse de données d'expression de gènes issues de puces à ADN. Ils sont discutés et analysés en regard des objectifs initialement fixés.
APA, Harvard, Vancouver, ISO, and other styles
27

Lamirel, Jean-Charles. "Vers une approche systémique et multivues pour l'analyse de données et la recherche d'information : un nouveau paradigme." Habilitation à diriger des recherches, Université Nancy II, 2010. http://tel.archives-ouvertes.fr/tel-00552247.

Full text
Abstract:
Le sujet principal de notre travail d'habilitation concerne l'extension de l'approche systémique, initialement implantée dans le Système de Recherche d'Information NOMAD, qui a fait l'objet de notre travail de thèse, pour mettre en place un nouveau paradigme général d'analyse de données basé sur les points de vue multiples, paradigme que nous avons baptisé MVDA (Multi-View Data Analysis). Ce paradigme couvre à la fois le domaine de l'analyse de données et celui de la fouille de données. Selon celui-ci, chaque analyse de données est considérée comme une vue différente sur les données. Le croisement entre les vues s'opère par l'intermédiaire d'un réseau bayésien construit, de manière non supervisée, à partir des données ou des propriétés partagées entre ces dernières. Le paradigme MDVA repose également sur l'exploitation de méthodes spécifiques de visualisation, comme la visualisation topographique ou la visualisation hyperbolique. La mise en place de nouveaux estimateurs de qualité de type Rappel/Précision non supervisés basés sur l'analyse de la distribution des propriétés associées aux classes, et qui à la fois sont indépendants des méthodes de classification et des changements relatifs à leur mode opératoire (initialisation, distances utilisées ...), nous a permis de démontrer objectivement la supériorité de ce paradigme par rapport à l'approche globale, classique en analyse de données. Elle nous a également permis de comparer et d'intégrer dans le paradigme MVDA des méthodes de classification non supervisées (clustering) neuronales qui sont plus particulièrement adaptées à la gestion des données ultra-éparses et fortement multidimensionnelles, à l'image des données documentaires, ainsi que d'optimiser le mode opératoire de telles méthodes. Notre démarche a par ailleurs impliqué de développer la cohabitation entre le raisonnement neuronal et le raisonnement symbolique, ou entre des modèles de nature différente, de manière à couvrir l'ensemble des fonctions de la recherche et de l'analyse de l'information et à éliminer, sinon à réduire, les défauts inhérents à chacun des types d'approche. A travers de nombreuses applications, notamment dans le domaine de l'évaluation des sciences, nous montrons comment l'exploitation d'un tel paradigme peut permettre de résoudre des problèmes complexes d'analyse de données, comme ceux liés l'analyse diachronique à grande échelle des données textuelles polythématiques. Nous montrons également comment l'ensemble des outils développés dans le cadre de ce paradigme nous ont permis mettre en place de nouvelles méthodes très robustes et très performantes pour la classification supervisée et pour le clustering incrémental. Nous montrons finalement comment nous envisageons d'étendre leur application à d'autres domaines très porteurs, comme ceux du traitement automatique des langues ou de la bioinformatique.
APA, Harvard, Vancouver, ISO, and other styles
28

Renaud, Clément. "Conception d'un outil d'analyse et de visualisation des mèmes internet : le cas du réseau social chinois Sina Weibo." Thesis, Paris, ENST, 2014. http://www.theses.fr/2014ENST0070/document.

Full text
Abstract:
Nous proposons de concevoir et développer un outil permettant d’analyser la diffusion d’information sur les services de réseaux sociaux en ligne grâce au traitement et à la visualisation de données. Fruit d’une réflexion méthodologique, ce dispositif permet d’observer les relations entre les dimensions conversationnelles, sémantiques, temporelles et géographiques des actes de communication en ligne. Courts messages se propageant rapidement sur la Toile selon des modèles encore mal connus, les mèmes Internet comptent parmi les contenus les plus prisés sur les plate-formes web. Les mèmes Internet circulant sur le service de microblog chinois Sina Weibo articulent notamment discussions personnelles, débats sociétaux et vastes campagnes médiatiques. Mobilisant des méthodes issues de l’analyse des réseaux et du traitement automatisé de la langue chinoise, nous procédons à l’analyse d’un vaste corpus de 200 millions de messages représentant l’activité sur Sina Weibo durant l’année 2012. Notre première tâche consiste à identifier des mèmes dans ce large ensemble de données. L’identification de mèmes dans un ensemble de messages est notamment possible grâce à un algorithme de détection non supervisé. Néanmoins, le volume de calculs nécessaires pour obtenir des résultats fiables sur un large corpus nous amène à abandonner cette approche, montrant par là-même la complexité d’une définition intéressante de l’objet numérique composite mème. Notre seconde série d’analyses porte sur le volume de conversations entourant les hashtags du corpus. Les résultats montrent que les usages majoritaires de Sina Weibo sont similaires à ceux des médias traditionnels (publicité, divertissement, loisirs...). Néanmoins, nous écartons les hashtags comme représentants des mèmes Internet, artefacts d’usages commerciaux et stratégiques à la diffusion cadrée et planifiée. L’approche finalement retenue utilise la recherche par mots-clés pour constituer les corpus de messages décrivant une dizaine de mèmes sélectionnés dans la littérature académique et secondaire pour leurs intentions diverses : humour, actualité, scandale politique, faits divers et marketing promotionnel. S’inspirant de la critique des schémas théoriques de communication, une analyse des mots et des réseaux d’échanges entre utilisateurs met à jour les dynamiques discursives de chaque mème. L’organisation de ces informations selon un axe temporel dans un espace de visualisation interactif autorise une lecture détaillée de leur diffusion. La projection de ces réseaux conversationnels et lexicaux sur des cartes géographiques montre également les relations entre leurs aspects textuels et actuels. Les figures obtenues permettent d’ébaucher une typologie structurelle de la diffusion de ces contenus, montrant comment différents régimes d’expression cohabitent sur les réseaux sociaux. La tension entre énonciation et discours qui régit les plateformes Web se manifeste dans des motifs particuliers de circulation des contenus en ligne. Nous pouvons ainsi formuler des recommandations pour l’analyse et la conception de stratégies de communication en ligne d’organismes tant privés que publics. Néanmoins, le caractère exploratoire de cette étude et la difficulté de comprendre les actions humaines par une simple analyse de données nous invite à refuser une généralisation a priori des résultats, préférant considérer ce travail comme la première validation d’une méthodologie pouvant être étendue à d’autres formes de conversations en ligne
We develop a data mining and visualisation toolkit to study how the information is shared on online social network services. This software allows to observe relationships between conversational, semantical, temporal and geographical dimensions of online communication acts. Internet memes are short messages that spread quickly through the Web. Following models that remain largely unknown, they articulate personal discussions, societal debates and large communication campaign. We analyse a set of Internet memes by using methods from social network analysis and Chinese natural language processing on a large corpus of 200 million tweets which represents/reflects the overall activity on the Chinese social network Sina Weibo in 2012. An interactive visualisation interface showing networks of words, user exchanges and their projections on geographical maps provides a detailed understanding of actual and textual aspects of each meme spread. An analysis of hashtags in the corpus shows that the main content from Sina Weibo is largely similar to the ones in traditional media (advertisement, entertainment, etc.). Therefore, we decided to not consider hashtags as memes representatives, being mostly byproducts of wellplanned strategic or marketingcampaigns. Our final approach studies a dozen of memes selected for the diversity of their topic: humor, political scandal, breaking news and marketing
APA, Harvard, Vancouver, ISO, and other styles
29

Pont, Mathieu. "Analysis of Ensembles of Topological Descriptors." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS436.

Full text
Abstract:
L'analyse topologique de données forme un ensemble d'outils visant à révéler de manière générique, robuste et efficace les caractéristiques structurelles implicites cachées dans des ensembles de données complexes. Ces outils permettent de calculer une représentation topologique pour chaque membre d'un ensemble de données en encodant ses principales caractéristiques d'intérêt de manière concise et informative. Un défi majeur consiste ensuite à concevoir des outils d'analyse pour de tels ensembles de descripteurs topologiques. Plusieurs outils ont été bien étudiées pour les diagrammes de persistance, l'un des descripteurs les plus utilisés. Cependant, ils souffrent d'un manque de spécificité, pouvant donner des représentations de données identiques pour des données significativement différentes. Dans cette thèse, nous avons cherché à développer des outils d'analyse plus avancés pour des ensembles de descripteurs topologiques, capables de résoudre le problème de discriminabilité des diagrammes de persistance et d'aller au-delà de ce qui était déjà disponible pour ces objets. Tout d'abord nous adaptons aux arbres de fusion, descripteurs ayant une meilleur spécificité, les outils déjà disponibles pour les diagrammes de persistance tels que le calcul de distances, géodésiques et barycentres. Ensuite, nous souhaitons aller au-delà de cette simple notion de moyenne qu'est le barycentre pour étudier la variabilité au sein d'un ensemble de descripteurs topologiques. Nous adaptons alors le cadre de l'Analyse en Composantes Principales aux diagrammes de persistance et les arbres de fusion, résultant une méthode de réduction de dimensions qui indique quelles structures dans l'ensemble sont les plus responsables de la variabilité. Cependant, ce cadre permet uniquement de détecter des tendances linéaires de variabilité dans l'ensemble. Pour résoudre ce problème, nous proposons de généraliser ce cadre aux Auto-Encodeurs afin de détecter des motifs non linéaires, i.e. plus complexes, dans un ensembles d'arbres de fusions ou de diagrammes de persistance. Plus précisément, nous proposons une nouvelle couche de réseau de neurones capable de traiter nativement ces objets. Nous présentons des applications de ces travaux pour le suivi de structures dans un ensemble de données variant dans le temps pour la réduction de données pour compresser un ensemble de descripteurs topologiques, dans le partitionnement pour former des groupes homogènes dans un ensemble, et dans la réduction de dimensions pour créer une carte visuelle indiquant comment les données sont organisées les unes par rapport aux autres dans l'ensemble
Topological Data Analysis (TDA) forms a collection of tools to generically, robustly and efficiently reveal implicit structural patterns hidden in complex datasets. These tools allow to compute a topological representation for each member of an ensemble of datasets by encoding its main features of interest in a concise and informative manner. A major challenge consists then in designing analysis tools for such ensembles of topological descriptors. Several tools have been well studied for persistence diagrams, one of the most used descriptor. However, they suffer from a lack of specificity, which can yield identical data representations for significantly distinct datasets. In this thesis, we aimed at developing more advanced analysis tools for ensembles of topological descriptors, capable of tackling the lack of discriminability of persistence diagrams and going beyond what was already available for these objects. First, we adapt to merge trees, descriptors having a better specificity, the tools already available for persistence diagrams such as distances, geodesics and barycenters. Then, we want to go beyond this notion of average being the barycenter in order to study the variability within an ensemble of topological descriptors. We then adapt the Principal Component Analysis framework to persistence diagrams and merge trees, resulting in a dimensionality reduction method that indicates which structures in the ensemble are most responsible for the variability. However, this framework allows only to detect linear patterns of variability in the ensemble. To tackle this we propose to generalize this framework to Auto-Encoder in order to detect non-linear, i.e. more complex, patterns in an ensemble of merge trees or persistence diagrams. Specifically, we propose a new neural network layer capable of processing natively these objects. We present applications of all this work in feature tracking in a time-varying ensemble, data reduction to compress an ensemble of topological descriptors, clustering to form homogeneous groups in an ensemble, and dimensionality reduction to create a visual map indicating how the data are organized regarding each other in the ensemble
APA, Harvard, Vancouver, ISO, and other styles
30

Noel, David. "Une approche basée sur le web sémantique pour l'étude de trajectoires de vie." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM022/document.

Full text
Abstract:
La notion de trajectoire fait l'objet de nombreux travaux en informatique. La trajectoire de vie a plusieurs particularités qui la distinguent des trajectoires habituellement considérées dans ces travaux. C'est d'abord son emprise temporelle, qui est celle de la vie, de l'existence du sujet observé. C'est ensuite son emprise thématique, celle-ci pouvant potentiellement concerner de multiples aspects de la vie d'un objet ou d'un individu. C'est enfin, l'utilisation métaphorique du terme de trajectoire, qui renvoie davantage au sens de la trajectoire qu'à la description d'une simple évolution dans le temps et l'espace. La trajectoire de vie est utilisée par l'expert (sociologue, urbaniste...) qui souhaite mettre en perspective dans le temps les informations sur les individus pour mieux les comprendre. Les motivations d'étude de la trajectoire de vie sont différentes selon les cas d'application et les thématiques considérées : le rapport au travail, la vie familiale, la vie sociale, la santé, la trajectoire résidentielle...Nous proposons une approche d'étude des trajectoires de vie, basée sur le Web Sémantique, qui en permet la modélisation, la collecte et l'analyse. Cette approche est concrétisée par une architecture logicielle. Cette architecture repose sur un patron de conception d'ontologie de trajectoire de vie, ainsi que sur un modèle de facteurs explicatifs d'évènements de vie. Pour la modélisation,nous avons conçu des algorithmes qui permettent la création d'une ontologie de trajectoire de vie en exploitant le patron et le modèle précédents. Pour lacollecte de données, nous avons développé des APIs permettant de faciliter i)la construction d'une interface de collecte de données conforme aux modéles ;ii) l'insertion des données collectées dans un Triple Store. Notre approche permet la représentation, et, par suite, la collecte et l'exploitation d'informations multi-granulaires, qu'elles soient spatiales, temporelles ou thématiques.Enfin, pour permettre l'analyse des trajectoires, nous proposons des fonctions génériques, implémentées en étendant le langage SPARQL. L'approche méthodologique et les outils proposés sont validés sur un cas d'application visant à étudier les choix résidentiels d'individus en mettant en exergue les caractéristiques de leur trajectoire résidentielle et les éléments explicatifs de celle-ci
The notion of trajectory is the subject of many works in computer science. The life trajectory has several peculiarities which distinguish it from the trajectories usually considered in these works. It is first of all its temporal hold, which is the life, the existence of the observed subject. It is then its thematic hold, this one potentially concerning multiple aspects of the life of an object or an individual. Finally, it is the metaphorical use of the term trajectory, which refers more to the meaning of the trajectory than to the description of a simple evolution in time and space. The life trajectory is used by the expert (sociologist, urban planner ...) who wishes to put in perspective the information on individuals to better understand their choices. The motivations for studying the life trajectory are depending on the application and themes considered: the relation to work and employment, family life, social life, health, residential trajectory ...We propose a Semantic Web based approach to study life trajectories, which allows their modeling, collection and analysis. This approach is embodied by a software architecture whose components are configurable for each application case. This architecture is based on a life trajectory ontology design pattern, as well as a model of explanatory factors for life events. To operationalize the proposed modeling, we designed algorithms that allow the creation of a life trajectory ontology by exploiting the previous pattern and model. For data collection, we developed APIs to facilitate i) the construction of a model-compliant data collection interface; and ii) the insertion of the collected data into a Triple Store. Our approach allows the representation, and hence the collection and exploitation of multi-granular information, whether spatial, temporal or thematic. Finally, to allow the analysis of the trajectories, we propose generic functions, which are implemented by extending the SPARQL language.The methodological approach and the proposed tools are validated on a case study on residential choices of individuals in the Grenoble metropolitan area by highlighting the characteristics of their residential trajectory and the explanatory elements of it, including from their personal and professional trajectories
APA, Harvard, Vancouver, ISO, and other styles
31

Kalathur, Ravi Kiran Reddy Poch Olivier. "Approche systématique et intégrative pour le stockage, l'analyse et la visualisation des données d'expression génique acquises par des techniques à haut débit, dans des tissus neuronaux An integrated systematic approach for storage, analysis and visualization of gene expression data from neuronal tissues acquired through high-throughput techniques /." Strasbourg : Université Louis Pasteur, 2008. http://eprints-scd-ulp.u-strasbg.fr:8080/920/01/KALATHUR_R_2007.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Lhuillier, Antoine. "Bundling : une technique de réduction d'occultation par agrégation visuelle et son application à l'étude de la maladie d'Alzheimer." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30307/document.

Full text
Abstract:
Le big data est un challenge majeur de la visualisation ; l'augmentation du nombre de données à visualiser augmente la densité et l'occultation des graphes et il devient difficile de distinguer les éléments qui le compose. Pour résoudre ce challenge, plusieurs techniques de visualisation se focalisent sur la simplification visuelle ; parmi elles, l'agrégation visuelle (bundling) permet l'agrégation des liens pour créer des zones de fortes densités au profit d'espaces plus clairsemés faisant ainsi émerger des structures visuelles. Cette thèse s'efforce à faire le trait d'union entre la complexité technique des algorithmes de bundling et les utilisateurs finaux. Dans un premier temps, nous avons formalisé l'espace de design des techniques de bundling afin d'améliorer la compréhension des chercheurs et des utilisateurs. Notre formalisation se fonde sur une taxonomie centrée utilisateur organisant l'ensemble des techniques d'agrégation en fonction des données d'entrée. Ensuite, à partir d'une définition formelle du bundling, nous proposons un modèle générique décrivant l'ensemble des étapes usuelles des algorithmes de bundling et montrons comment les techniques existantes implémentent chaque étape. Enfin, à travers une analyse des tâches, nous exposons des cas d'utilisation avérés. Notre analyse de l'espace des techniques de bundling nous a montré les limites actuelles du bundling quant au traitement de grande quantité de données tant en terme de rapidité de calcul qu'en terme de taille des jeux de données. Ainsi, nous avons résolu ces limites en introduisant une nouvelle technique plus rapide et sans limitation de taille : FFTEB (Fast Fourier Transform Edge Bundling Technique). Notre technique déplace le processus d'agrégation de l'espace pixelaire vers l'espace spectral. Enfin, grâce à un processus de transfert des données, FFTEB résout les problèmes de taille de jeux de données. En dernier lieu, dans le cadre d'une application à la maladie d'Alzheimer, cette thèse démontre l'efficacité des techniques de bundling comme outil d'exploration visuelle. Dans le contexte d'une étude nationale sur la maladie d'Alzheimer, nous avons focalisé notre recherche sur l'analyse de la représentation mentale de l'espace géographique chez les personnes âgées. Nous montrons que l'utilisation du bundling pour comparer les cartes mentales des populations démentes et non-démentes a permis à des neuropsychologues de formuler de nouvelles hypothèses sur l'évolution de la maladie d'Alzheimer. Ces nouvelles hypothèses nous ont permis de montrer l'émergence d'un potentiel marqueur de la maladie près de douze ans avant que les patients ne soient diagnostiqués comme atteints de cette maladie
Dense and complex data visualizations suffer from occluded items, which hinders insight retrieval. This is especially the case for very large graph or trails set. To address cluttering issues, several techniques propose to visually simplify the representation, often meeting scalability and computational speed limits. Among them, bundling techniques provide a visual simplification of node-link diagrams by spatially grouping similar items. This thesis strives to bridge the gap between the technical complexity of bundling techniques and the end-point user. The first aim of this thesis was to improve the understanding of graph and trail bundling techniques as a clutter reduction method for node-link diagrams of large data-set. To do so, we created a data-based taxonomy that organizes bundling methods on the type of data they work on. From this thorough review and based on a formal definition of path bundling, we propose a unified framework that describes the typical steps of bundling algorithms in terms of high-level operations and show how existing methods classes implement these steps. In addition, we propose a description of tasks that bundling aims to address and demonstrate them through a wide set of applications. Although many techniques exist, handling large data-sets and selectively bundling paths based on attributes is still a challenge. To answer the scalability and computational speed issues of bundling techniques, we propose a new technique which improves both. For this, we shift the bundling process from the image to the spectral space, thereby increasing computational limits. We address the later by proposing a streaming scheme allowing bundling of extremely large data-sets. Finally, as an application domain, we studied how bundling can be used as an efficient visualization technique for societal health challenges. In the context of a national study on Alzheimer disease, we focused our research on the analysis of the mental representation of geographical space for elderly people. We show that using bundling to compare the cognitive maps of dement and non-dement subjects helped neuro-psychologist to formulate new hypotheses on the evolution of Alzheimer disease. These new hypotheses led us to discover a potential marker of the disease years before the actual diagnosis
APA, Harvard, Vancouver, ISO, and other styles
33

Bourneuf, Lucas. "A search space of graph motifs for graph compression : from Powergraphs to triplet concepts." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S060.

Full text
Abstract:
L'Analyse Power Graph est une technique de compression sans perte de graphe visant à réduire la complexité visuelle d'un graphe. Le processus consiste à détecter des motifs, les cliques et les bicliques, qui permettent d'établir des groupes de nœuds organisés hiérarchiquement, des groupes d'arcs, et finalement un graphe réduit à ces groupes. Cette thèse propose tout d'abord la formalisation de l'espace de recherche de l'Analyse Power Graph, en utilisant l'Analyse de Concepts Formels comme base théorique pour exprimer le processus de compression. Le traitement indépendant de deux motifs présente des difficultés et nous proposons une notion unificatrice, les concepts triplets, qui conduiront à un motif unique plus général pour la compression. L'Analyse Power Graph et la nouvelle approche ont été implémentés dans un formalisme logique de Programmation par Ensembles Réponses (ASP), et nous présentons quelques applications en bioinformatique pour les deux approches. La thèse se clôt sur la présentation d'un environnement de visualisation et de spécification de haut-niveau en théorie des graphes
Power Graph Analysis is a lossless graph compression method aiming at reducing the visual complexity of a graph. The process is to detect motifs, cliques and bicliques, which enables the hierarchical clustering of nodes, the grouping of edges, and ultimately a graph reduced to these groups. This thesis exposes first the formalization of the Power Graph Analysis search space, using Formal Concept Analysis as a theoretical ground to express the compression process. Because the independent treatment of two motifs presents some caveats, we propose a unification framework, triplet concepts, which encode a more general motif for compression. Both Power Graph Analysis and the new approach have been implemented in Answer Set Programming (ASP), a logical formalism, and we present some applications in bioinformatics of these two approaches. This thesis ends on the presentation of an high-level specification and visualization environment for graph theory
APA, Harvard, Vancouver, ISO, and other styles
34

Auber, David. "Outils de visualisation de larges structures de données." Bordeaux 1, 2002. http://www.theses.fr/2002BOR12607.

Full text
Abstract:
Cette thèse présente un ensemble de résultats théoriques et pratiques, applicables dans le cadre de la visualisation d'informations. La première partie présente l'étude précise d'une structure de données performante. Dans la deuxième partie, nous présentons une amélioration de l'algorithme de Carriere et Kazman dédié au dessin d'arbres en 3D. Puis, nous présentons un algorithme, de complexité mémoire linéaire, permettant la représentation hiérarchique de grands graphes. Dans la troisième partie, nous donnons une méthode de simplification de graphes que npous utilisons pour respecter les contraintes temporelles imposées par le système de perception humain. Nous démontrons certaines propriétés combinatoires du paramètre Strahler et nous en proposons une extension aux cartes pointées. La quatrième partie se consacre à l'étude de deux algorithmes de fragmentation de graphes. Le premier est dédié aux arbres et améliore les résultats obtenus par Herman et al. Le deuxième est consacré aux graphes généraux. Il permet, par exemple, dans le cadre de l'analyse de programmes informatiques d'extraire automatiquement des composants logiciels. L'originalité des deux algorithmes proposés est qu'ils reposent sur des paramètres combinatoires et sont ainsi utilisables sur de grandes structures. Enfin, nous concluons par une brève description de la plate-forme logicielle que nous avons élaborée pour permettre l'expérimentation de nos résultats.
APA, Harvard, Vancouver, ISO, and other styles
35

Verbanck, Marie. "Analyse exploratoire de données transcriptomiques : de leur visualisation à l'intégration d’information extérieure." Rennes, Agrocampus Ouest, 2013. http://www.theses.fr/2013NSARG011.

Full text
Abstract:
Nous proposons de nouvelles méthodologies statistiques exploratoires dédiées au traitement des données transcriptomiques (puce à ADN). Les données transcriptomiques offrent une image du transcriptome qui lui-même est le résultat des phénomènes d'activation ou d'inhibition de l'expression des gènes. Cependant, cette image du transcriptome est bruitée. C'est pourquoi, nous abordons premièrement la problématique de débruitage des données transcriptomiques. Ainsi, nous proposons une version régularisée de l'analyse en composantes principales. Cette version régularisée permet de mieux reconstituer et visualiser le signal sous-jacent de données bruitées. Par ailleurs, nous pouvons nous demander si la connaissance du seul transcriptome est suffisante pour démêler la complexité des relations entre gènes. Nous proposons donc d'intégrer d'autres sources d'information sur les gènes, de façon active, dans l'analyse des données transcriptomiques. Deux grands mécanismes semblent intervenir dans la régulation de l'expression, les protéines régulatrices et les réseaux de régulation d'une part, la localisation chromosomique et l'architecture du génome d'autre part. Premièrement, nous nous focalisons sur la régulation par l'intermédiaire de protéines régulatrices ; nous proposons un algorithme de classification des gènes basé sur l'intégration de connaissances fonctionnelles sur les gènes, fournies par les annotations Gene Ontology. Cet algorithme fournit des clusters de gènes similaires du point de vue de l'expression et des annotations fonctionnelles et qui sont ainsi de meilleurs candidats à l'interprétation. Enfin, nous proposons de relier l'étude des données transcriptomiques à la localisation chromosomique au sein d'une méthodologie développée en collaboration avec des généticiens
We propose new methodologies of exploratory statistics which are dedicated to the analysis of transcriptomic data (DNA microarray data). Transcriptomic data provide an image of the transcriptome which itself is the result of phenomena of activation or inhibition of gene expression. However, the image of the transcriptome is noisy. That is why, firstly we focus on the issue of transcriptomic data denoising, in a visualisation framework. To do so, we propose a regularised version of principal component analysis. This regularised version allows to better estimate and visualise the underlying signal of noisy data. In addition, we can wonder if the knowledge of only the transcriptome is enough to understand the complexity of relationships between genes. That is why we propose to integrate other sources of information about genes, and in an active way, in the analysis of transcriptomic data. Two major mechanisms seem to be involved in the regulation of gene expression, regulatory proteins (for instance transcription factors) and regulatory networks on the one hand, chromosomal localisation and genome architecture on the other hand. Firstly, we focus on the regulation of gene expression by regulatory proteins; we propose a gene clustering algorithm based on the integration of functional knowledge about genes, which is provided by Gene Ontology annotations. This algorithm provides clusters constituted by genes which have both similar expression profiles and similar functional annotations. The clusters thus constituted are then better candidates for interpretation. Secondly, we propose to link the study of transcriptomic data to chromosomal localisation in a methodology developed in collaboration with geneticists
APA, Harvard, Vancouver, ISO, and other styles
36

Mavromatis, Sébastien. "Analyse de texture et visualisation scientifique." Aix-Marseille 2, 2001. http://www.theses.fr/2001AIX22060.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Bourqui, Romain. "Décomposition et Visualisation de graphes : Applications aux Données Biologiques." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2008. http://tel.archives-ouvertes.fr/tel-00421872.

Full text
Abstract:
La quantité d'informations stockée dans les bases de données est en constante augmentation rendant ainsi nécessaire la mise au point de systèmes d'analyse et de visualisation. Nous nous intéressons dans cette thèse aux données relationnelles et plus particulièrement aux données biologiques. Cette thèse s'oriente autour de trois axes principaux : tout d'abord, la décomposition de graphes en groupes d'éléments ”similaires” afin de détecter d'éventuelles structures de communauté ; le deuxième aspect consiste à mettre en évidence ces structures dans un système de visualisation, et dans un dernier temps, nous nous intéressons à l'utilisabilité de l'un de ces systèmes de visualisation via une évaluation expérimentale.
Les travaux de cette thèse ont été appliqués sur des données réelles provenant de deux domaines de la biologie : les réseaux métaboliques et les réseaux d'interactions gènes-protéines.
APA, Harvard, Vancouver, ISO, and other styles
38

Wahl, François. "Un environnement d'aide aux ingénieurs basé sur une architecture en tâches et sur un module de visualisation de courbes. Application à la conception de procédés de raffinage." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1994. http://tel.archives-ouvertes.fr/tel-00529958.

Full text
Abstract:
Dans le domaine du génie chimique, les ingénieurs tracent des courbes pour analyser les données recueillies. Une fois validée, cette connaissance est exploitée, en combinaison avec d'autres savoirs, sous forme de tâches. Cette thèse présente une architecture capable d'enchaîner n'importe quel type de tâches et de visualiser des courbes, appliquée à un problème d'aide à la conception de procédé de raffinage. L'architecture proposée repose sur une analyse objets des raisonnements, où figurent les notions de relations (inversibles ou non) et de flux du point de vue statique, de problèmes et de tâches du point de vue dynamique. Le module de visualisation exploite toutes les sortes de relations entre les variables et s'appuie sur des méthodes élaborées de tracé, dont deux sont nouvelles : la première s'inspire d'exemples a priori comme dans le raisonnement à base de cas, la seconde utilise les notions de monotonie et de concavité pour déduire des lignes dans un ensemble de points. L'application est exposée dans le détail et conduit à une analyse des problèmes de conception, et nous avons développé notamment une nouvelle classification de ces systèmes.
APA, Harvard, Vancouver, ISO, and other styles
39

Bourien, Jérôme. "Analyse de distributions spatio-temporelles de transitoires dans des signaux vectoriels. Application à la détection-classification d'activités paroxystiques intercritiques dans des observations EEG." Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00007178.

Full text
Abstract:
Les signaux électroencéphalographiques enregistrés chez les patients épileptiques reflètent, en dehors des périodes correspondant aux crises d'épilepsie, des signaux transitoires appelés "activités épileptiformes" (AE). L'analyse des AE peut contribuer à l'étude des épilepsies partielles pharmaco-résistantes. Une méthode de caractérisation de la dynamique spatio-temporelle des AE dans des signaux EEG de profondeur est présentée dans ce document. La méthode est constituée de quatre étapes:

1. Détection des AE monovoie. La méthode de détection, qui repose sur une approche heuristique, utilise un banc de filtres en ondelettes pour réhausser la composante pointue des AE (généralement appelée "spike" dans la littérature). La valeur moyenne des statistiques obtenues en sortie de chaque filtre est ensuite analysée avec un algorithme de Page-Hinkley dans le but de détecter des changements abrupts correspondant aux spikes.

2. Fusion des AE. Cette procédure recherche des co-occurrences entre AE monovoie à l'aide d'une fenêtre glissante puis forme des AE multivoies.

3. Extraction des sous-ensembles de voies fréquement et significativement activées lors des AE multivoies (appelés "ensembles d'activation").

4. Evaluation de l'éxistence d'un ordre d'activation temporel reproductible (éventuellement partiel) au sein de chaque ensemble d'activation.

Les méthodes proposées dans chacune des étapes ont tout d'abord été évaluées à l'aide de signaux simulés (étape 1) ou à l'aide de models Markoviens (étapes 2-4). Les résultats montrent que la méthode complète est robuste aux effets des fausses-alarmes. Cette méthode a ensuite été appliquée à des signaux enregistrés chez 8 patients (chacun contenant plusieurs centaines d'AE). Les résultats indiquent une grande reproductibilité des distributions spatio-temporelles des AE et ont permis l'identification de réseaux anatomo-fonctionnels spécifiques.
APA, Harvard, Vancouver, ISO, and other styles
40

Do, Thanh-Nghi. "Visualisation et séparateurs à vaste marge en fouille de données." Nantes, 2004. http://www.theses.fr/2004NANT2072.

Full text
Abstract:
Nous présentons différentes approches coopératives combinant des méthodes de visualisation et des séparateurs à vaste marge (SVM) pour l'extraction de connaissances dans les données (ECD). La plupart des méthodes existantes à l'heure actuelle en fouille de données fonctionnent de manière automatique, l'utilisateur n'est que peu impliqué dans le processus. Par ailleurs, ces méthodes doivent pouvoir traiter des quantités de plus en plus importantes de données. Nous visons d'une part à augmenter le rôle de l'utilisateur dans le processus de fouille (par le biais de la visualisation) et d'autre part à améliorer les performances et les capacités des algorithmes de fouille pour leur permettre de traiter de grands ensembles de données. Nous présentons : - une classe d'algorithmes de SVM parallèles et distribués pour le traitement de grandes quantités de données, - des méthodes graphiques interactives pour expliquer les résultats des algorithmes de classification automatique, - des méthodes coopératives permettant d'impliquer plus significativement l'utilisateur dans la construction du modèle. Nous avons développé des algorithmes incrémentaux, parallèles et distribués (en lignes ou en colonnes) de proximal SVM, Least-Square SVM et SVM généralisé. Ces algorithmes nous permettent de traiter aisément des fichiers de très grandes tailles sur des machines standards : un milliard d'individus en dimension 10 sont classés en 7 minutes (sur 10 machines). Dans la plupart des cas, les algorithmes de SVM donnent en sortie les vecteurs support (qui forment la frontière entre les éléments des deux classes). Cette information est peu compréhensible et fait que les SVM sont utilisés comme des boîtes noires. Nous présentons des méthodes graphiques interactives pour interpréter les résultats de SVM en classification, régression et détection d'individus atypiques et permettre par exemple de déterminer les dimensions intéressantes dans le modèle obtenu. Nous en avons ensuite dérivé une méthode graphique interactive pour améliorer les résultats des algorithmes de SVM dans le cas de la classification multi-classes ou d'une classe minoritaire et une méthode graphique d'aide au paramétrage des SVM. Enfin nous présentons une méthode de fouille visuelle de données permettant la construction interactive de SVM. Les performances des algorithmes développés sont ensuite évaluées sur différents ensembles de données : les résultats sont équivalents aux algorithmes usuels en ce qui concerne les taux de précision. Nos principaux apports sont d'une part l'amélioration de la confiance et de la compréhensibilité du modèle et d'autre part la capacité à traiter de très grandes quantités de données sur du matériel standard
We present the different cooperative approaches using visualization methods and support vector machine algorithms (SVM) for knowledge discovery in databases (KDD). Most of existing data mining approaches construct the model in an automatic way, the user is not involved in the mining process. Furthermore, these approaches must be able to deal with the challenge of large datasets. Our work aims at increasing the human role in the KDD process (by the way of visualization methods) and improve the performances (concerning the execution time and the memory requirement) of the methods for mining large datasets. W e present:- parallel and distributed SVM algorithms for mining massive datasets, - interactive graphical methods to explain SVM results, - cooperative approaches to involve more significatively the user in the model construction
APA, Harvard, Vancouver, ISO, and other styles
41

Ammann, Lucas. "Visualisation temps réel de données à deux dimensions et demie." Strasbourg, 2010. https://publication-theses.unistra.fr/public/theses_doctorat/2010/AMMANN_Lucas_2010.pdf.

Full text
Abstract:
Les données à deux dimensions et demie ont pris une importance forte dans la représentation de certains types d'objets. Elles sont ainsi fréquemment employées pour modéliser des données topographiques ou scientifiques. Elles sont également utilisées dans les dispositifs d'acquisition à trois dimensions pour représenter les objets numérisés. Ces données présentent cependant un certain nombre de difficultés dans leur manipulation, et plus particulièrement pour leur visualisation. Au cours de cette thèse, nous nous sommes attachés à développer des méthodes simples, mais efficaces, permettant la visualisation de ce type de données et plus spécialement celles issues de la numérisation de tableaux d'art. En plus de cette méthode de visualisation, nous avons développé un protocole complet permettant la numérisation de telles pièces, ainsi que le traitements des données obtenues, en vue de leur visualisation. Afin de généraliser la méthode développée, nous avons également proposé une technique permettant la visualisation de données topographiques combinant un processus classique de rastérisation avec un rendu par lancer de rayons. Les méthodes développées reposent ainsi toutes les deux sur un mécanisme adaptatif permettant de combiner différents algorithmes de rendu, afin d'optimiser les performances de visualisation. L'utilisation de ce mécanisme permet également une exploitation quasi-directe des données ce qui simplifie grandement leur utilisation
Heightfield data is now a common representation for several kind of virtual objects. Indeed, they are frequently used to represent topographical or scientific data. They are also used by 3-dimensional digitisation devices to store real objects. However, some issues are introduced by this kind of data during their manipulation and especially their visualisation. During this thesis, we develop simple yet efficient methods to render heightfield data, especially data from art painting digitisation. In addition to the visualisation method, we propose a complete pipeline to acquire art paintings and to process data for the visualisation process. To generalize the proposed approach, another rendering method is described to display topographical data by combining a rasterization process with a ray-casting rendering. Both of the rendering techniques are based on an adaptive mecanism which combines several rendering algorithms to enhance visualisation performances. These mechanisms are designed to avoid pre-processing steps of the data and to make use of straightforward rendering methods
APA, Harvard, Vancouver, ISO, and other styles
42

Wang, Nan. "Visualisation et interaction pour l’exploration et la perception immersive de données 3D." Thesis, Paris, ENMP, 2012. http://www.theses.fr/2012ENMP0090/document.

Full text
Abstract:
L'objet de cette thèse est la perception dans les environnements immersifs de jeux de données complexes, une des applications est la visualisation scientifique de données volumiques scalaires issues de simulations de modèles physiques. Un exemple classique de ceci est la distribution de températures à l'intérieur d'un habitacle de véhicule.Dans la première partie de ce travail, notre objectif est d'étudier les limites perceptives dans le cadre d'un rendu volumétrique de données scientifiques dans un système de réalité virtuelle offrant la vision en stéréoscopie, et le suivi du point de vue de l'utilisateur. Nous étudions l'effet sur la perception de l'utilisateur de trois facteurs principaux : la taille des points utilisés pour le rendu, la densité du nuage de points, et enfin la position par rapport à l'utilisateur du premier plan de coupe. Nous présentons une étude dans laquelle une tâche de pointage est proposée à un ensemble d'utilisateurs. Les déplacements de celui-ci ainsi que les performances de pointage sont mesurées. L'étude a permis d'évaluer l'impact des paramètres de rendu du nuage de points et proposer un rendu améliorant la perception.La seconde partie du travail propose d'ajouter une dimension interactive à la première approche en permettant à l'utilisateur d'explorer plus activement la scène. L'hypothèse d'une meilleure compréhension des données par l'action est ici mise en avant. Nous évaluons une méthode d'interaction et quatre méthodes de rendu associées. L'approche proposée est de n'afficher qu'un sous ensemble des données volumiques, en l'occurrence des isosurfaces, et de permettre à l'utilisateur de naviguer par une gestuelle naturelle et interactive dans l'ensemble des isosurfaces du jeu de données explorées, dans cadre de manipulation directe. Une nouvelle étude est proposée, dans laquelle l'utilisateur doit effectuer une tâche de recherche et de pointage d'une propriété locale dans un jeu de températures 3D. Cette étude a permis de choisir une méthode de rendu adaptée à l'affichage immersif d'isosurfaces et de valider l'approche interactive pour l'exploration de données
The objective in this case is not only to be realistic, but also to provide new and intelligible ways of model representation. This raises new issues in data perception. The question of perception of complex data, especially regarding visual feedback, is an open question, and it is the subject of this work. This PhD thesis studied the human perception in Immersive Virtual Environments of complex datasets, one of the applications is the scientific visualization of scalar values stemming from physics models, such as temperature distribution inside a vehicle prototype.The objective of the first part is to study the perceptive limits of volumetric rendering for the display of scientific volumetric data, such as a volumetric temperature distribution rendering using point cloud. We investigate the effect on the user perception of three properties of a point cloud volumetric rendering: point size, cloud density and near clipping plane position. We present an experiment where a series of pointing tasks are proposed to a set of users. User behavior and task completion time are evaluated during the test. The study allowed to choose the most suitable combination of these properties, and provided guidelines for volumetric data representation in VR immersive systems.In the second part of our work, we evaluate one interaction method and four display techniques for exploring volumetric datasets in virtual reality immersive environments. We propose an approach based on the display of a subset of the volumetric data, as isosurfaces, and an interactive manipulation of the isosurfaces to allow the user to look for local properties in the datasets. We also studied the influence of four different rendering techniques for isosurface rendering in a virtual reality system. The study is based on a search and point task in a 3D temperature field. User precision, task completion time and user movement were evaluated during the test. The study allowed to choose the most suitable rendering mode for isosurface representation, and provided guidelines for data exploration tasks in immersive environments
APA, Harvard, Vancouver, ISO, and other styles
43

Wang, Nan. "Visualisation et interaction pour l'exploration et la perception immersive de données 3D." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00821004.

Full text
Abstract:
L'objet de cette thèse est la perception dans les environnements immersifs de jeux de données complexes, une des applications est la visualisation scientifique de données volumiques scalaires issues de simulations de modèles physiques. Un exemple classique de ceci est la distribution de températures à l'intérieur d'un habitacle de véhicule.Dans la première partie de ce travail, notre objectif est d'étudier les limites perceptives dans le cadre d'un rendu volumétrique de données scientifiques dans un système de réalité virtuelle offrant la vision en stéréoscopie, et le suivi du point de vue de l'utilisateur. Nous étudions l'effet sur la perception de l'utilisateur de trois facteurs principaux : la taille des points utilisés pour le rendu, la densité du nuage de points, et enfin la position par rapport à l'utilisateur du premier plan de coupe. Nous présentons une étude dans laquelle une tâche de pointage est proposée à un ensemble d'utilisateurs. Les déplacements de celui-ci ainsi que les performances de pointage sont mesurées. L'étude a permis d'évaluer l'impact des paramètres de rendu du nuage de points et proposer un rendu améliorant la perception.La seconde partie du travail propose d'ajouter une dimension interactive à la première approche en permettant à l'utilisateur d'explorer plus activement la scène. L'hypothèse d'une meilleure compréhension des données par l'action est ici mise en avant. Nous évaluons une méthode d'interaction et quatre méthodes de rendu associées. L'approche proposée est de n'afficher qu'un sous ensemble des données volumiques, en l'occurrence des isosurfaces, et de permettre à l'utilisateur de naviguer par une gestuelle naturelle et interactive dans l'ensemble des isosurfaces du jeu de données explorées, dans cadre de manipulation directe. Une nouvelle étude est proposée, dans laquelle l'utilisateur doit effectuer une tâche de recherche et de pointage d'une propriété locale dans un jeu de températures 3D. Cette étude a permis de choisir une méthode de rendu adaptée à l'affichage immersif d'isosurfaces et de valider l'approche interactive pour l'exploration de données.
APA, Harvard, Vancouver, ISO, and other styles
44

Da, Costa David. "Visualisation et fouille interactive de données à base de points d'intérêts." Tours, 2007. http://www.theses.fr/2007TOUR4021.

Full text
Abstract:
Dans ce travail de thèse, nous présentons le problème de la visualisation et la fouille de données. Nous remarquons généralement que les méthodes de visualisation sont propres aux types de données et qu'il est nécessaire de passer beaucoup de temps à analyser les résultats afin d'obtenir une réponse satisfaisante sur l'aspect de celle-ci. Nous avons donc développé une méthode de visualisation basée sur des points d'intérêts. Cet outil visualise tous types de données et est générique car il utilise seulement une mesure de similarité. Par ailleurs ces méthodes doivent pouvoir traiter des grands volumes de données. Nous avons aussi cherché à améliorer les performances de nos algorithmes de visualisation, c'est ainsi que nous sommes parvenus à représenter un million de données. Nous avons aussi étendu notre outil à la classification non supervisée de données. La plupart des méthodes actuelles de classificatoin non supervisée de données fonctionnent de manière automatique, l'utilisateur n'est que peu impliqué dans le processus. Nous souhaitons impliquer l'utilisateur de manière plus significative dans le processus de la classification pour améliorer sa compréhension des données
In this thesis, we present the problem of the visual data mining. We generally notice that it is specific to the types of data and that it is necessary to spend a long time to analyze the results in order to obtain an answer on the aspect of data. In this thesis, we have developed an interactive visualization environment for data exploration using points of interest. This tool visualizes all types of data and is generic because it uses only one similarity measure. These methods must be able to deal with large data sets. We also sought to improve the performances of our visualization algorithms, thus we managed to represent one million data. We also extended our tool to the data clustering. Most existing data clustering methods work in an automatic way, the user is not implied iin the process. We try to involve more significantly the user role in the data clustering process in order to improve his comprehensibility of the data results
APA, Harvard, Vancouver, ISO, and other styles
45

Royan, Jérôme. "Visualisation interactive de scènes urbaines vastes et complexes à travers un réseau." Rennes 1, 2005. http://www.theses.fr/2005REN1S013.

Full text
Abstract:
Ces travaux de thèse portent sur la visualisation de scènes urbaines tridimensionnellestrès vastes et très complexes à travers un réseau. L'objectif majeur est d'obtenir une eprésentation adaptée à la transmission et visualisation d'un ensemble de bâtiments constituant un modèle 3D urbain. Cette représentation multi-résolution des bâtimentsd'une ville, appelée PBTree, se base sur une représentation 2D1/2 modélisant les bâtimentsà l'aide de prismes (représentation 2D1/2 issue des méthodes fiables et robustes de modélisation non-assitée de villes). Cette représentation multi-résolution a été conçue pour optimiser la transmission (compression, progressivité) et la visualisation (niveaux de détails, adaptabilité au point de vue) de modèles urbains. La multi-résolution est très bien adaptée au survol des villes. Cependant, une solution est proposée dans le cas d'une navigation au niveau du sol, et est basée sur un calcul de visibilité permettant de sélectionner le niveau de résolution transmis et visualisé
APA, Harvard, Vancouver, ISO, and other styles
46

Boudjeloud-Assala, Baya Lydia. "Visualisation et algorithmes génétiques pour la fouille de grands ensembles de données." Nantes, 2005. http://www.theses.fr/2005NANT2065.

Full text
Abstract:
Nous présentons des approches coopératives combinant des méthodes interactives de visualisation et des méthodes automatiques de sélection de dimensions pour l'extraction de connaissances à partir de données. La plupart des méthodes actuelles de fouille de données fonctionnent de manière automatique, l'utilisateur n'est que peu impliqué dans le processus. Nous souhaitons impliquer de manière plus significative l'utilisateur dans le processus de fouille pour améliorer sa confiance et sa compréhension des modèles ou résultats obtenus. Par ailleurs ces méthodes doivent pouvoir traiter des quantités de plus en plus importantes de données. Nous cherchons aussi à améliorer les performances des algorithmes de fouille pour pouvoir traiter des ensembles de données de grandes dimensions. Nous avons développé un algorithme génétique de sélection de dimensions avec une fonction d'évaluation à base de distance pour la détection d'individu atypique (ou outlier) dans les ensembles de données ayant un grand nombre de dimensions. Cet algorithme recherche les outliers en n'utilisant qu'un petit sous-ensemble de dimensions et permet de retrouver les mêmes individus outliers que dans l'ensemble total des données. On peut ainsi traiter plus facilement de grands ensembles de données. De plus, comme le nombre de dimensions utilisées est faible, nous pouvons utiliser des méthodes de visualisation pour expliquer et interpréter les résultats de l'algorithme de détection d'outlier. Nous pouvons ainsi construire un modèle de l'expertise de l'expert des données pour qualifier les éléments détectés par exemple en tant qu'erreurs ou simplement individus atypiques (outliers). Nous avons ensuite développé une mesure pour la sélection de dimensions en classification non supervisée (clustering) et détection d'outlier. Cette mesure nous permet à la fois de retrouver les mêmes clusters que dans l'ensemble de données avec toutes ses dimensions et des clusters pouvant contenir très peu d'éléments (des outliers). L'interprétation visuelle des résultats obtenus nous indique les dimensions impliquées, ce sont les dimensions pertinentes et intéressantes pour le clustering ou la détection d'outlier. Enfin nous présentons un algorithme génétique semi-interactif permettant d'impliquer l'utilisateur dans le processus de sélection et d'évaluation du sous-ensemble de dimensions à utiliser
We present cooperative approaches using interactive visualization methods and automatic dimension selection methods for knowledge discovery in databases. Most existing data mining methods work in an automatic way, the user is not implied in the process. We try to involve more significantly the user role in the data mining process in order to improve his confidence and comprehensibility of the obtained models or results. Furthermore, the size of data sets is constantly increasing, these methods must be able to deal with large data sets. We try to improve the performances of the algorithms to deal with these high dimensional data sets. We developed a genetic algorithm for dimension selection with a distance-based fitness function for outlier detection in high dimensional data sets. This algorithm uses only a few dimensions to find the same outliers as in the whole data sets and can easily treat high dimensional data sets. The number of dimensions used being low enough, it is also possible to use visualization methods to explain and interpret outlier detection algorithm results. It is then possible to create a model from the data expert for example to qualify the detected element as an outlier or simply an error. We have also developed an evaluation measure for dimension selection in unsupervised classification and outlier detection. This measure enables us to find the same clusters as in the data set with its whole dimensions as well as clusters containing very few elements (outliers). Visual interpretation of the results shows the dimensions implied, they are considered as relevant and interesting for the clustering and outlier detection. Finally we present a semi-interactive genetic algorithm involving more significantly the user in the selection and evaluation process of the algorithm
APA, Harvard, Vancouver, ISO, and other styles
47

Kaba, Bangaly. "Décomposition de graphes comme outil de regroupement et de visualisation en fouille de données." Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21871.

Full text
Abstract:
La fouille de données est un domaine largement étudié et les méthodes utilisées pour l'aborder ont fait le sujet de nombreux travaux. Ces méthodes reposent en général sur les outils de classification classiques supervisés et non supervisés. Ces méthodes forment des clusters disjoints, attribuant les éléments à un seul groupe. Dans de nombreux cas réels, les éléments à classer peuvent appartenir à plusieurs groupes. Nous abordons cette problématique avec une nouvelle approche basée sur la décomposition des graphes. Cette décomposition est basée sur les séparateurs minimaux complets qui sont des ensembles de sommets formant des cliques dont le retrait déconnecte le graphe en une ou plusieurs composantes et pour lesquels des résultats en théorie des graphes donnent des outils algorithmiques puissants. Cette décomposition fournit des groupes d'éléments recouvrants. Nous dérivons de cette décomposition un outil de visualisation permettant de mettre en évidence la structure du graphe formé par ces données. Nous avons travaillé sur des données issues de 2 domaines (bioinformatique et fouille de données textuelles) afin de valider cette approche de décomposition. 1. Bioinformatique : Les mesures de l'activité génique des cellules vivantes par des biopuces fournissent des données sous forme de matrices symétriques. Nous construisons des graphes de gènes en fixant des seuils sur ces matrices. Nous examinons la stucture de ces graphes afin de mettre en évidence des groupes de gènes qui ont des profils d'expression similaires et dont on peut estimer la probabilité de participation à des fonctions similaires. 2. Fouille de données textuelles : les relations entre données textuelles d'un corpus donné sont modélisées par un graphe de termes. Ces relations sont fondées soit sur la cooccurence, soit sur des variations linguistiques. Nous proposons une méthode de visualisation basée sur la décomposition de graphes en atomes (sous-graphes recouvrants sans séparateurs minimaux complets). Ces atomes sont structurés dans un graphe appelé graphe des atomes. Ce graphe des atomes met en évidence les thématiques donnant une vue globale sur l'ensemble des documents contenus dans un corpus
APA, Harvard, Vancouver, ISO, and other styles
48

Pietriga, Emmanuel. "Langages et techniques d'interaction pour la visualisation et la manipulation de masses de données." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00709533.

Full text
Abstract:
Les récentes avancées en matière d'acquisition, stockage et traitement des données ont résulté en une augmentation spectaculaire de la quantité d'information collectée et analysée, et ce dans de nombreux domaines : disciplines scientifiques, industrie, commerce, bibliothèques numériques, données mises à disposition du public par des organismes gouvernementaux ; domaines auxquels s'ajoutent les contenus que tout un chacun peut mettre à disposition sur le Web à travers les réseaux sociaux, les blogs ou les sites de partage de documents multimédia. La capacité des systèmes et bases de données hétérogènes d'échanger et croiser ces données, mais aussi d'inférer de nouvelles données, s'est aussi grandement améliorée, grâce à des technologies émergentes comme celles issues des recherches liées au Web des données -- par opposition au Web des documents -- s'appuyant sur les technologies du Web sémantique. Mes travaux de recherche s'inscrivent dans le domaine de l'interaction homme-machine (IHM), et portent plus spécifiquement sur la conception, le développement et l'évaluation de techniques d'interactions et de visualisation facilitant la compréhension et la manipulation de ces masses de données. Les représentations graphiques peuvent être d'une grande aide quand elles fournissent des visualisations pertinentes des données, de leur structure, et qu'elles sont couplées à des techniques d'interaction permettant une navigation efficace dans ces grands espaces d'information. Elles jouent à ce titre un rôle important dans la recherche et le développement de systèmes informatiques pour la gestion et l'analyse de masses de données semi-structurées. Mes activités de recherche sont organisées autour de deux thèmes, dont je présenterai les principaux résultats : langages visuels et techniques de visualisation d'information pour aider les utilisateurs à interpréter et manipuler des jeux de données semi-structurés ; conception, développement et évaluation expérimentale de techniques d'interaction multi-échelle pour naviguer dans des masses de données sur différents types de plate-formes : dispositifs mobiles, stations de travail, murs d'images très haute résolution.
APA, Harvard, Vancouver, ISO, and other styles
49

Hayat, Khizar. "Visualisation 3D adaptée par insertion synchronisée de données cachées." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2009. http://tel.archives-ouvertes.fr/tel-00400762.

Full text
Abstract:
L'objectif principal de ces travaux de thèse est d'unifier différentes informations 2D et 3D afin de réaliser une visualisation adaptée dans un environnement client/serveur hétérogène en termes de réseau, de traitement et de ressources mémoire. Dans ce contexte, nous avons exploité la nature multi-résolution de la transformée en ondelettes discrètes (TOD) du codeur JPEG2000. L'unification des données est réalisée par insertion aveugle, synchrone ou partiellement synchrone, des données cachées dans le domaine des ondelettes. Une visualisation 3D classique nécessite au moins deux types de données : une image 2D d'intensité, appelé texture, et une forme 3D pouvant être représentée par une image, un modèle 3D ombré ou un maillage de points. Ce type d'image, parfois également appelé carte de profondeur est une image dans laquelle la valeur des pixels reflète la distance du capteur à la surface par imagerie. La texture est une image 2D couleur qui est apposée sur le modèle 3D après triangulation. Au niveau de l'insertion des données cachées, la carte de profondeur est d'abord transformée dans le domaine des ondelettes tandis que la texture est insérée dans le codeur JPEG2000. Le processus de codage JPEG2000 de la texture est interrompue, et les coefficients 3D sont insérés dans la totalité ou dans un sous-ensemble des sous-bandes de la texture. Les données sont re-intégrées dans le codeur standard de JPEG2000 à l'endroit où l'interruption a été faite. Le fichier résultant peut alors être envoyé à travers tous types de canal de communication comme un autre fichier standard issu du codeur JPEG2000. Les différents niveaux de résolution et le caractère synchronisé de nos algorithmes permettent une visualisation en 3D, même avec peu de sous-bandes de résolution suite à un transfert partiel ou retardé. La méthode permet ainsi d'effectuer une visualisation à partir uniquement d'une fraction des données. Dans ce cas nous remplaçons par des zéros les coefficients des sous-bandes manquantes. La première phase de ce travail a concerné l'imperceptibilité; c'est la raison pour laquelle l'insertion a été réalisée dans les bits de poids plus faibles. La deuxième phase de ces travaux a concerné la robustesse, c'est pourquoi une stratégie d'insertion par étalement de spectres a été utilisée. Au cours de la seconde phase, l'imperceptibilité n'a pas été complètement ignorée, du fait que l'insertion des données est effaçable après l'extraction. Les deux applications principales sont la visualisation 3D de modèles numériques de terrains et de visages. Dans la troisième et dernière phase de ces travaux de thèse, nous avons élargi le problème en essayant de prendre en compte le problème d'assemblage de dalles de niveaux de résolutions différentes sans soudure apparente. Ceci a eté assuré par des fonctions de lissage dans le domaine des ondelettes.
APA, Harvard, Vancouver, ISO, and other styles
50

Gros, Pierre-Emmanuel. "Etude et conception d'une plate-forme d'intégration et de visualisation de données génomiques et d'outils bioinformatiques." Paris 11, 2006. http://www.theses.fr/2006PA112139.

Full text
Abstract:
Dans ce debut de millenaire, les efforts communs des mondes industriel et academique ont permis une premiere version du sequenÇage du genome humain. A l'ouverture de l'un de ces fichiers de sequence, le lecteur accede a un texte de plusieurs millions de caracteres 'a', 't', 'g', ou 'c', chacun symbolisant l'une des quatre bases azotes qui constituent l'adn. Cette succession de lettres met en exergue l'incomprehension que nous avons du langage de l'adn. Afin de mieux apprehender ce langage, des bases de donnees de sequences, d'annotations, d'experiences ont ete montees, de plus plusieurs outils de traitements d'information ont ete ecrits. La premiere partie de cette these s'attache a cette problematique d'integration d'outils bioinformatiques. L'approche adoptee pour l'integration d'outils est de fondre une architecture distribuee au sein meme du moteur de base de donnees. L'autre facette de l'integration concerne l'integration de donnees issues de differentes bases de donnees biologiques. De faÇon plus precise, notre graal est qu'un utilisateur puisse integrer ses donnees personnelles (provenant d'un fichier excel, d'un fichier texte,. . . ) avec les donnees des bases " institutionnelles " telles que celles du ncbi ou de swissprot. Enfin, nous lui proposons un outil d'integration semantique appele " lysa ". Cet outil est un des premiers qui propose a l'utilisateur d'explorer une base de donnees non pas via la structure de la base mais via les donnees contenues. Cette exploration a pour but de permettre a l'utilisateur de retrouver les liens " semantiques " qui existent entre les donnees
In this beginning of millennium, the efforts of the industrial and academic world allowed for a first version of the sequencing of the human genome. By opening one of these files of sequence, the reader reaches a text of several million characters “a”, “t”, “g”, or “c”, each one symbolizing one of the four bases which constitute the dna. This sequence of letters puts forward our misunderstanding of dna. In order better to tackle this language, a lot of databases of dna sequences, annotations, and experiments were built, several tools of treatments of information were written. The first part of this thesis resolves the integration problem of bioinformatic tools. The approach adopted for the integration of tools is to melt a distributed architecture within the basic data engine. The other facet of integration relates to the integration of data resulting from various biological databases. In a more precise way, our goal is that a user integrate his personal data (coming from an excel file, a text file,. . . ) with the data of the “institutional” bases such as those of the ncbi or swissprot. Lastly, we propose a semantic integration tool called “lysa”. This tool proposes not to explore a database through the structure of the base but through the data within. The purpose of this exploration is to make it possible for the user to find the “semantic” links between data
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography