Rozprawy doktorskie na temat „Visualisation des données mobiles”

Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Visualisation des données mobiles.

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 50 najlepszych rozpraw doktorskich naukowych na temat „Visualisation des données mobiles”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Laucius, Salvijus. "Visualisation dynamique d'informations géographiques pour un utilisateur mobile". La Rochelle, 2008. http://www.theses.fr/2008LAROS234.

Pełny tekst źródła
Streszczenie:
Dans cette thèse nous étudions les principes de gestion et d’indexation de données spatiales sur le client dans un contexte client-serveur ainsi que le chargement de données par anticipation du déplacement. Le système est conçu à aider l’utilisateur lors de son déplacement dans un milieu urbain. Le client charge les parties de la carte au fur et à mesure de son déplacement. Afin de ne pas transférer les mêmes objets plusieurs fois, ils sont, une fois transférés, conservés dans le cache du client. Pour accélérer la recherche dans le cache, nous proposons de créer un index sur le client. Afin de choisir un index à utiliser, plusieurs index ont été étudiés. Cette étude a permis de comparer leur pertinence à notre système et également leurs performances. Le choix des index a conduit à la définition d’un modèle d’estimation de coûts de leurs mises à jour et d’exécutions de requêtes dans le contexte de notre système. Cette estimation théorique a montré l’apport offert par l’utilisation des index sur le client. Afin de réduire le coût de mise à jour des index sur le client, nous avons étudié leur transfert incrémental du serveur au client. Pour réduire le coût d’exécution de requêtes sur le client et éviter la saturation du cache avec les objets transférés lors d’un long trajet, l’application de techniques de libération du cache a été étudiée. L’anticipation du déplacement a pour but d’adapter le chargement de données au déplacement de l’utilisateur. La zone de requête est déformée (à surface constante) en fonction de la direction du déplacement de l’utilisateur. Puis, la surface de la zone de requête peut être diminuée pour que le résultat soit chargé à temps. Nous proposons des différentes stratégies de détermination de l’instant d’envoi de requêtes au serveur : envoi de requêtes au serveur à chaque nouvelle position et estimation du meilleur instant d’envoi. Le système de visualisation est, pour sa partie client, une application Java fonctionnant sur un assistant personnel (PDA) muni d’un outil de positionnement (GPS) fournissant la position de l’utilisateur, et d’un téléphone cellulaire assurant la liaison avec un serveur de données
In this thesis, we study the principles for managing and indexing spatial data located on a client in a client-server architecture, as well as downloading data on the client by anticipating the next move of the user. The system has been designed for assisting the user when moving and getting around in an urban area. The client downloads parts of the digital maps while he moves. In order not to download spatial objects at every move, they are kept in the client's cache memory. For the purpose of speeding up the search for spatial objects in the cache memory, we propose to create an index on the client. In order to decide which type of index to use, we have studied several indexing techniques. This study has allowed us to compare their performance and see how relevant these techniques were for the development and use of our system. The choice of indexing mechanisms has led to the definition of a model for assessing the cost of using them when processing spatial queries and updating them as well in the framework of our system. This theoretical study has confirmed the interest of using an index on the client. In order to reduce the cost of updating the index on the client, we have studied the incremental transfer of the index to the client. The application of techniques for releasing the cache has been studied for avoiding the saturation of the cache when travelling on long runs. The objective of moves anticipation is to adapt data loading to the user's moves. The query area on the client is distorted (the expanse being unchanged) depending on the direction of the user's moves. Then, the query area may be reduced in order to reduce the data loading time. We propose various strategies for determining when to send queries to the server, with each move or at the estimated best time. On the client, the visualization system is a Java application running on a PDA equipped with a GPS that gives the position of the user and a cellular phone allowing to connect to a distant server
Style APA, Harvard, Vancouver, ISO itp.
2

Follin, Jean-Michel. "Gestion incrémentale de données multi-résolutions dans un système mobile de visualisation d'informations géographiques". La Rochelle, 2004. http://www.theses.fr/2004LAROS131.

Pełny tekst źródła
Streszczenie:
Nous proposons une solution pour présenter et gérer des données spatiales vectorielles multi-résolutions en tenant compte des contraintes liées au contexte mobile (limitations des capacités d'affichage, de stockage et du taux de transfert). Les données sont proposées à l'utilisateur avec une résolution adaptée à l'échelle en adoptant le principe de "zoom intelligent". Le volume de données échangées entre le client et le serveur est minimisé en réutilisant au maximum les donnée déjà disponibles du côté client avec le concept d'incrément". Ce dernier correspond à une série d'opérations permettant de "reconstruire" la représentation d'un objet à une certaine résolution à partir d'une autre résolution du même objet. Nous présentons des modèles de données et de transfert, et des principes pour une gestion incrémentale de données multi-résolutions dans un système mobile de visualisation d'information géographique et montrons leur intérêt par rapport à une stratégie mono-résolution
We propose a solution for presentation and management of vector multiresolution geodata by taking into account constraints related to mobile context (limitations of storage, displaying capacities and transfer rate). Our solution provides users with the LoD ("Level of Detail") in adequation with scale by respecting the well-known "principle of constant density of data". The amount of data exchanged between client and server is minimized in our system by reusing already locally available data when possible. Increment corresponds to an operation sequence allowing reconstruction of LoD of an object from an available LoD of the same object on the client side. Transferring only increment appears more interesting than downloading an "entire" LoD object. We present models of multi-resolution data and transfer, and principles allowing an incremental management of data in a mobile geodata visualization system. Then we prove interest of our multi-resolution strategy in relation to mono-resolution one
Style APA, Harvard, Vancouver, ISO itp.
3

Islam, Mohammad Alaul. "Visualizations for Smartwatches and Fitness Trackers". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG018.

Pełny tekst źródła
Streszczenie:
Cette thèse porte sur la recherche sur la conception et l'utilisation de micro-visualisations pour l'exploration de données mobiles et pervasives sur des smartwatches et des trackers de fitness. Les gens portent de plus en plus de smartwatches qui peuvent suivre et afficher une grande variété de données. Mon travail est motivé par les avantages potentiels des visualisations de données sur les petits appareils mobiles tels que les brassards de suivi de la condition physique et les smartwatches. Je me concentre sur les situations dans lesquelles les visualisations soutiennent des tâches spécifiques liées aux données sur des smartwatches interactives. Mon principal objectif de recherche dans ce domaine est de comprendre plus largement comment concevoir des visualisations à petite échelle pour les trackers de fitness. Ici, j'explore : (i) les contraintes de conception dans le petit espace par le biais d'un atelier d'idéation ; (ii) le type de visualisations que les gens voient actuellement sur le visage de leur montre ; (iii) une revue de conception et l'espace de conception des visualisations à petite échelle ; (iv) et la lisibilité des micro-visualisations en considérant l'impact de la taille et du rapport d'aspect dans le contexte du suivi du sommeil. Les principaux résultats de la thèse sont, premièrement, un ensemble de besoins de données concernant un contexte d'utilisation touristique dans lequel ces besoins de données ont été satisfaits avec une richesse de conceptions de visualisation dédiées qui vont au-delà de celles couramment vues sur les affichages des montres. Deuxièmement, un affichage prédominant des données de santé et de forme physique, les icônes accompagnant le texte étant le type de représentation le plus fréquent sur les faces actuelles des smartwatchs. Troisièmement, un espace de conception pour les visualisations sur les faces de smartwatch qui met en évidence les considérations les plus importantes pour les nouveaux affichages de données sur les faces de smartwatch et autres petits écrans. Enfin, dans le contexte du suivi du sommeil, nous avons constaté que les gens effectuaient des tâches simples de manière efficace, même avec une visualisation complexe, à la fois sur les écrans de la smartwatch et du bracelet de fitness, mais que les tâches plus complexes bénéficiaient de la taille plus grande de la smartwatch. Dans la thèse, je souligne les opportunités ouvertes importantes pour les futures recherches sur la visualisation des smartwatchs, telles que l'évolutivité (par exemple, plus de données, une taille plus petite et plus de visualisations), le rôle du contexte et du mouvement du porteur, les types d'affichage des smartwatchs et l'interactivité. En résumé, cette thèse contribue à la compréhension des visualisations sur les smartwatches et met en évidence les opportunités ouvertes pour la recherche en visualisation sur les smartwatches
This thesis covers research on how to design and use micro-visualizations for pervasive and mobile data exploration on smartwatches and fitness trackers. People increasingly wear smartwatches that can track and show a wide variety of data. My work is motivated by the potential benefits of data visualizations on small mobile devices such as fitness monitoring armbands and smartwatches. I focus on situations in which visualizations support dedicated data-related tasks on interactive smartwatches. My main research goal in this space is to understand more broadly how to design small-scale visualizations for fitness trackers. Here, I explore: (i) design constraints in the small space through an ideation workshop; (ii) what kind of visualizations people currently see on their watch faces; (iii) a design review and design space of small-scale visualizations; (iv) and readability of micro-visualizations considering the impact of size and aspect ratio in the context of sleep tracking. The main findings of the thesis are, first, a set of data needs concerning a sightseeing usage context in which these data needs were met with a wealth of dedicated visualization designs that go beyond those commonly seen on watch displays. Second, a predominant display of health & fitness data, with icons accompanying the text being the most frequent representation type on current smartwatch faces. Third, a design space for smartwatch face visualizations which highlights the most important considerations for new data displays for smartwatch faces and other small displays. Last, in the context of sleep tracking, we saw that people performed simple tasks effectively, even with complex visualization, on both smartwatch and fitness band displays; but more complex tasks benefited from the larger smartwatch size. Finally, I point out important open opportunities for future smartwatch visualization research, such as scalability (e.g., more data, smaller size, and more visualizations), the role of context and wearer's movement, smartwatch display types, and interactivity. In summary, this thesis contributes to the understanding of visualizations on smartwatches and highlights open opportunities for smartwatch visualization research
Style APA, Harvard, Vancouver, ISO itp.
4

Wambecke, Jérémy. "Visualisation de données temporelles personnelles". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM051/document.

Pełny tekst źródła
Streszczenie:
La production d’énergie, et en particulier la production d’électricité, est la principale responsable de l’émission de gaz à effet de serre au niveau mondial. Le secteur résidentiel étant le plus consommateur d’énergie, il est essentiel d’agir au niveau personnel afin de réduire ces émissions. Avec le développement de l’informatique ubiquitaire, il est désormais aisé de récolter des données de consommation d’électricité des appareils électriques d’un logement. Cette possibilité a permis le développement des technologies eco-feedback, dont l’objectif est de fournir aux consommateurs un retour sur leur consommation dans le but de la diminuer. Dans cette thèse nous proposons une méthode de visualisation de données temporelles personnelles basée sur une interaction what if, qui signifie que les utilisateurs peuvent appliquer des changements de comportement de manière virtuelle. En particulier notre méthode permet de simuler une modification de l’utilisation des appareils électriques d’un logement, puis d’évaluer visuellement l’impact de ces modifications sur les données. Cette méthode a été implémentée dans le système Activelec, que nous avons évalué avec des utilisateurs sur des données réelles. Nous synthétisons les éléments de conception indispensables aux systèmes eco-feedback dans un état de l’art. Nous exposons également les limitations de ces technologies, la principale étant la difficulté rencontrée par les utilisateurs pour trouver des modifications de comportement pertinentes leur permettant de consommer moins d’énergie.Nous présentons ensuite trois contributions. La première contribution est la conception d’une méthode what if appliquée à l’eco-feedback ainsi que son implémentation dans le système Activelec. La seconde contribution est l’évaluation de notre méthode grâce à deux expérimentations menées en laboratoire. Dans ces expérimentations nous évaluons si des participants utilisant notre méthode trouvent des modifications qui économisent de l’énergie et qui nécessitent suffisamment peu d’efforts pour être appliquées en vrai. Enfin la troisième contribution est l’évaluation in-situ du système Activelec dans des logements personnels pour une durée d’environ un mois. Activelec a été déployé dans trois appartements privés afin de permettre l’évaluation de notre méthode en contexte domestique réel. Dans ces trois expérimentations, les participants ont pu trouver des modifications d’utilisation des appareils qui économiseraient une quantité d’énergie significative, et qui ont été jugées faciles à appliquer en réalité. Nous discutons également de l’application de notre méthode what if au-delà des données de consommation électrique au domaine de la visualisation personnelle, qui est définie comme l’analyse visuelle des données personnelles. Nous présentons ainsi plusieurs applications possibles à d’autres données temporelles personnelles, par exemple concernant l’activité physique ou les transports. Cette thèse ouvre de nouvelles perspectives pour l’utilisation d’un paradigme d’interaction what if pour la visualisation personnelle
The production of energy, in particular the production of electricity, is the main responsible for the emission of greenhouse gases at world scale. The residential sector being the most energy consuming, it is essential to act at a personal scale to reduce these emissions. Thanks to the development of ubiquitous computing, it is now easy to collect data about the electricity consumption of electrical appliances of a housing. This possibility has allowed the development of eco-feedback technologies, whose objective is to provide to consumers a feedback about their consumption with the aim to reduce it. In this thesis we propose a personal visualization method for time-dependent data based on a what if interaction, which means that users can apply modifications in their behavior in a virtual way. Especially our method allows to simulate the modification of the usage of electrical appliances of a housing, and then to evaluate visually the impact of the modifications on data. This approach has been implemented in the Activelec system, which we have evaluated with users on real data.We synthesize the essential elements of conception for eco-feedback systems in a state of the art. We also outline the limitations of these technologies, the main one being the difficulty faced by users to find relevant modifications in their behavior to decrease their energy consumption. We then present three contributions. The first contribution is the development of a what if approach applied to eco-feedback as well as its implementation in the Activelec system. The second contribution is the evaluation of our approach with two laboratory studies. In these studies we assess if participants using our method manage to find modifications that save energy and which require a sufficiently low effort to be applied in reality. Finally the third contribution is the in-situ evaluation of the Activelec system. Activelec has been deployed in three private housings and used for a duration of approximately one month. This in-situ experiment allows to evaluate the usage of our approach in a real domestic context. In these three studies, participants managed to find modifications in the usage of appliances that would savea significant amount of energy, while being judged easy to be applied in reality.We also discuss of the application of our what if approach to the domain of personal visualization, beyond electricity consumption data, which is defined as the visual analysis of personal data. We hence present several potential applications to other types of time-dependent personal data, for example related to physical activity or to transportation. This thesis opens new perspectives for using a what if interaction paradigm for personal visualization
Style APA, Harvard, Vancouver, ISO itp.
5

Castanié, Laurent. "Visualisation de données volumiques massives : application aux données sismiques". Thesis, Vandoeuvre-les-Nancy, INPL, 2006. http://www.theses.fr/2006INPL083N/document.

Pełny tekst źródła
Streszczenie:
Les données de sismique réflexion sont une source d'information essentielle pour la modélisation tridimensionnelle des structures du sous-sol dans l'exploration-production des hydrocarbures. Ce travail vise à fournir des outils de visualisation pour leur interprétation. Les défis à relever sont à la fois d'ordre qualitatif et quantitatif. Il s'agit en effet de considérer (1) la nature particulière des données et la démarche d'interprétation (2) la taille des données. Notre travail s'est donc axé sur ces deux aspects : 1) Du point de vue qualitatif, nous mettons tout d'abord en évidence les principales caractéristiques des données sismiques, ce qui nous permet d'implanter une technique de visualisation volumique adaptée. Nous abordons ensuite l'aspect multimodal de l'interprétation qui consiste à combiner plusieurs sources d'information (sismique et structurale). Selon la nature de ces sources (strictement volumique ou volumique et surfacique), nous proposons deux systèmes de visualisation différents. 2) Du point de vue quantitatif, nous définissons tout d'abord les principales contraintes matérielles intervenant dans l'interprétation, ce qui nous permet d'implanter un système générique de gestion de la mémoire. Initialement destiné au couplage de la visualisation et des calculs sur des données volumiques massives, il est ensuite amélioré et spécialisé pour aboutir à un système dynamique de gestion distribuée de la mémoire sur cluster de PCs. Cette dernière version, dédiée à la visualisation, permet de manipuler des données sismiques à échelle régionale (100-200 Go) en temps réel. Les problématiques sont abordées à la fois dans le contexte scientifique de la visualisation et dans le contexte d'application des géosciences et de l'interprétation sismique
Seismic reflection data are a valuable source of information for the three-dimensional modeling of subsurface structures in the exploration-production of hydrocarbons. This work focuses on the implementation of visualization techniques for their interpretation. We face both qualitative and quantitative challenges. It is indeed necessary to consider (1) the particular nature of seismic data and the interpretation process (2) the size of data. Our work focuses on these two distinct aspects : 1) From the qualitative point of view, we first highlight the main characteristics of seismic data. Based on this analysis, we implement a volume visualization technique adapted to the specificity of the data. We then focus on the multimodal aspect of interpretation which consists in combining several sources of information (seismic and structural). Depending on the nature of these sources (strictly volumes or both volumes and surfaces), we propose two different visualization systems. 2) From the quantitative point of view, we first define the main hardware constraints involved in seismic interpretation. Focused on these constraints, we implement a generic memory management system. Initially able to couple visualization and data processing on massive data volumes, it is then improved and specialised to build a dynamic system for distributed memory management on PC clusters. This later version, dedicated to visualization, allows to manipulate regional scale seismic data (100-200 GB) in real-time. The main aspects of this work are both studied in the scientific context of visualization and in the application context of geosciences and seismic interpretation
Style APA, Harvard, Vancouver, ISO itp.
6

Courtès, Ludovic. "Sauvegarde coopérative de données pour dispositifs mobiles". Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2007. http://tel.archives-ouvertes.fr/tel-00196822.

Pełny tekst źródła
Streszczenie:
Les dispositifs informatiques mobiles tels que les ordinateurs portables, assistants personnels et téléphones portables sont de plus en plus utilisés. Cependant, bien qu'ils soient utilisés dans des contextes où ils sont sujets à des endommagements, à la perte, voire au vol, peu de mécanismes permettent d'éviter la perte des données qui y sont stockées. Dans cette thèse, nous proposons un service de sauvegarde de données coopératif pour répondre à ce problème. Cette approche tire parti de communications spontanées entre de tels dispositifs, chaque dispositif stockant une partie des données des dispositifs rencontrés. Une étude analytique des gains de cette approche en termes de sûreté de fonctionnement est proposée. Nous étudions également des mécanismes de stockage réparti adaptés. Les problèmes de coopération entre individus mutuellement suspicieux sont également abordés. Enfin, nous décrivons notre mise en oeuvre du service de sauvegarde coopérative.
Style APA, Harvard, Vancouver, ISO itp.
7

Whitbeck, John. "Réseaux mobiles opportunistes : visualisation, modélisation et application aux transferts de charge". Paris 6, 2012. http://www.theses.fr/2012PA066304.

Pełny tekst źródła
Streszczenie:
Les appareils communicants sans fil se fondent de plus en plus dans notre vie quotidienne. Ceux-ci forment de nouveaux réseaux opportunistes qui permettent à des données de circuler entre des réseaux sans fils hétérogènes, désorganisés et souvent peu fiables. Partant de nouvelles techniques d'analyse sur les graphes dynamiques, cette thèse propose et développe un cas d'application prometteur des réseaux opportunistes: les transferts de charge entre réseaux. L'analyse des graphes de connectivité temporels se révèle difficile. Dans cette thèse, nous développons la notion de mobilité plausible, qui infère, a partir d'un trace de contacts donnée, une trace de mobilité compatible. De plus, nous définissons le concept de graphes d'accessibilité qui indiquent la connectivité spatio-temporelle. Appliqués aux jeux de données usuels, ils montrent qu'il est impossible d'atteindre des taux d'acheminement acceptables pour des communications point-à-point mais que la taille de l'ensemble minimal couvrant tend à n'être qu'une petite fraction du nombre total de noeuds. Ainsi, nous montrons comment les réseaux opportunistes peuvent être utilisés pour transférer de façon significative la charge de trafic dans des situation où deux technologies radios coexistent, l'une étant typiquement pervasive, à faible débit et chère, tandis que l'autre est à portée plus courte mais avec des débits plus élevés et un coût moindre voire nul. Cette dernière forme le réseau opportuniste que sera utilisé pour disséminer la majorité du contenu, tandis que la première sert à la fois de canal de contrôle et canal de secours pour palier aux carences de connectivité du réseau opportuniste
Wireless communicating devices are everywhere and increasingly blend into our everyday lives, they form new opportunistic networks that allow data to flow across often unreliable, unorganized, and heterogeneous wireless networks. By developing new analysis techniques for temporal dynamic graphs, this thesis proposes and implements a strong use-case for opportunistic networks: data offloading. Analyzing real-life connectivity graphs is difficult. In this thesis, we develop the plausible mobility approach, which infers, from a given contact trace, a compatible node mobility. Furthermore, we define reachability graphs that capture space-time connectivity. When applied to common contact traces, they show that acceptable delivery ratios for point-to-point communications are often out of reach, regardless of the DTN routing protocol, but that the size of the space-time dominating set tends to be a small fraction of the total number of nodes. Accordingly, we show how opportunistic networks may be used to significantly offload broadcast traffic in situations were two radio technologies coexist, typically a pervasive, low-bitrate, and expensive radio, alongside a shorter-range, high-bitrate, and cheaper one. The latter forms the opportunistic network that is used for disseminating most of the content, whereas the former serves both as a control channel for monitoring and as a data channel for bridging the connectivity gaps in the opportunistic network. In this thesis we propose Push-and-Track, a mobility-agnostic framework that leverages an opportunistic network to reliably disseminate content to large numbers of mobile nodes, while minimizing the load on the pervasive radio
Style APA, Harvard, Vancouver, ISO itp.
8

Auber, David. "Outils de visualisation de larges structures de données". Bordeaux 1, 2002. http://www.theses.fr/2002BOR12607.

Pełny tekst źródła
Streszczenie:
Cette thèse présente un ensemble de résultats théoriques et pratiques, applicables dans le cadre de la visualisation d'informations. La première partie présente l'étude précise d'une structure de données performante. Dans la deuxième partie, nous présentons une amélioration de l'algorithme de Carriere et Kazman dédié au dessin d'arbres en 3D. Puis, nous présentons un algorithme, de complexité mémoire linéaire, permettant la représentation hiérarchique de grands graphes. Dans la troisième partie, nous donnons une méthode de simplification de graphes que npous utilisons pour respecter les contraintes temporelles imposées par le système de perception humain. Nous démontrons certaines propriétés combinatoires du paramètre Strahler et nous en proposons une extension aux cartes pointées. La quatrième partie se consacre à l'étude de deux algorithmes de fragmentation de graphes. Le premier est dédié aux arbres et améliore les résultats obtenus par Herman et al. Le deuxième est consacré aux graphes généraux. Il permet, par exemple, dans le cadre de l'analyse de programmes informatiques d'extraire automatiquement des composants logiciels. L'originalité des deux algorithmes proposés est qu'ils reposent sur des paramètres combinatoires et sont ainsi utilisables sur de grandes structures. Enfin, nous concluons par une brève description de la plate-forme logicielle que nous avons élaborée pour permettre l'expérimentation de nos résultats.
Style APA, Harvard, Vancouver, ISO itp.
9

Sansen, Joris. "La visualisation d’information pour les données massives : une approche par l’abstraction de données". Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0636/document.

Pełny tekst źródła
Streszczenie:
L’évolution et la démocratisation des technologies ont engendré une véritable explosion de l’information et notre capacité à générer des données et le besoin de les analyser n’a jamais été aussi important. Pourtant, les problématiques soulevées par l’accumulation de données (stockage, temps de traitement, hétérogénéité, vitesse de captation/génération, etc. ) sont d’autant plus fortes que les données sont massives, complexes et variées. La représentation de l’information, de part sa capacité à synthétiser et à condenser des données, se constitue naturellement comme une approche pour les analyser mais ne résout pas pour autant ces problèmes. En effet, les techniques classiques de visualisation sont rarement adaptées pour gérer et traiter cette masse d’informations. De plus,les problèmes que soulèvent le stockage et le temps de traitement se répercutent sur le système d’analyse avec par exemple, la distanciation de plus en plus forte entre la donnée et l’utilisateur : le lieu où elle sera stockée et traitée et l’interface utilisateur servant à l’analyse. Dans cette thèse nous nous intéressons à ces problématiques et plus particulièrement à l’adaptation des techniques de visualisation d’informations pour les données massives. Pour cela, nous nous intéressons tout d’abord à l’information de relation entre éléments, comment est-elle véhiculée et comment améliorer cette transmission dans le contexte de données hiérarchisées. Ensuite, nous nous intéressons à des données multivariées,dont la complexité à un impact sur les calculs possibles. Enfin, nous présentons les approches mises en oeuvre pour rendre nos méthodes compatibles avec les données massives
The evolution and spread of technologies have led to a real explosion of information and our capacity to generate data and our need to analyze them have never been this strong. Still, the problems raised by such accumulation (storage, computation delays, diversity, speed of gathering/generation, etc. ) is as strong as the data are big, complex and varied. Information visualization,by its ability to summarize and abridge data was naturally established as appropriate approach. However, it does not solve the problem raised by Big Data. Actually, classical visualization techniques are rarely designed to handle such mass of information. Moreover, the problems raised by data storage and computation time have repercussions on the analysis system. For example,the increasing distance between the data and the analyst : the place where the data is stored and the place where the user will perform the analyses arerarely close. In this thesis, we focused on these issues and more particularly on adapting the information visualization techniques for Big Data. First of all focus on relational data : how does the existence of a relation between entity istransmitted and how to improve this transmission for hierarchical data. Then,we focus on multi-variate data and how to handle their complexity for the required computations. Finally, we present the methods we designed to make our techniques compatible with Big Data
Style APA, Harvard, Vancouver, ISO itp.
10

Allouti, Faryel. "Visualisation dans les systèmes informatiques coopératifs". Paris 5, 2011. http://www.theses.fr/2011PA05S003.

Pełny tekst źródła
Streszczenie:
Les techniques de classification non supervisée et les outils de visualisation de données complexes sont deux thèmes récurrents dans la communauté d’Extraction et Gestion des Connaissances. A l’intersection de ces deux thèmes se trouvent les méthodes de visualisation tels que le MultiDimensional Scaling ou encore la méthode des cartes auto-organisatrices de Kohonen appelée SOM. La méthode SOM se construit à l’aide d’un algorithme des K-means auquel est ajouté la notion de voisinage permettant de cette façon la conservation de la topologie des données. Ainsi, l’apprentissage rapproche, dans l’espace des données, les centres qui sont voisins sur une grille généralement 2D, jusqu’à former une surface discrète qui est une représentation squelettique de la distribution du nuage à explorer. Dans cette thèse, nous nous sommes intéressés à la visualisation dans un contexte coopératif, où la coopération s'etablit via une communication asynchrone dont le média est la messagerie électronique. Cet outil est apparu avec l’avènement des technologies de l’information et de la communication. Il est très utilisé dans les organisations, il permet une diffusion instantanée et rapide de l’information à plusieurs personnes en même temps,sans se préoccuper de leur présence. Notre objectif consistait en la proposition d’un outil d’exploration visuelle de données textuelles qui sont les fichiers attachés aux messages électroniques. Pour ce faire, nous avons combiné des méthodes de classification automatique et de visualisation. Nous avons étudié l’approche modèle de mélange qui est une contribution très utile pour la classification. Dans notre contexte, nous avons utilisé le modèle de mélange multinomial (Govaert et Nadif, 2007) pour déterminer les classes de fichiers. D’autre part, nous avons étudié l’aspect de visualisation à la fois des classes et des documents à l’aide du positionnement multidimensionnel et DC (Difference of Convex functions) et des cartes auto-organisatrices de Kohonen
Clustering techniques and visualization tools of complex data are two recurring themes in the community of Mining and Knowledge Management. At the intersection of these two themes there are the visualization methods such as multidimensional scaling or the Self-Organizing Maps (SOM). The SOM is constructed using K-means algorithm to which is added the notion of neighborhood allowing in this way the preservation of the topo-logy of the data. Thus, the learning moves closer, in the space of data, the centers that are neighbors on a two dimensions grid generally, to form a discrete surface which is a representation of the distribution of the cloud to explore. In this thesis, we are interested in the visualization in a cooperative context, where co-operation is established via an asynchronous communication and the media is the e-mail. This tool has emerged with the advent of information technology and communication. It is widely used in organizations, it allows an immediate and fast distribution of the in-formation to several persons at the same time, without worrying about their presence. Our objective consisted in proposing a tool of visual exploration of textual data which are files attached to the electronic messages. In order to do this, we combined clustering and visualization methods. We investigated the mixture approach, which is a very useful contribution for classification. In our context, we used the multinomial mixture model (Go-vaert and Nadif, 2007) to determine the classes of files. In addition, we studied the aspect of visualization of the obtained classes and documents using the multidimensional scaling and DC (Difference of Convex functions) and Self-Organizing Maps of Kohonen
Style APA, Harvard, Vancouver, ISO itp.
11

Grignard, Arnaud. "Modèles de visualisation à base d'agents". Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066268.

Pełny tekst źródła
Streszczenie:
Ce mémoire part du constat que la visualisation est le parent pauvre de l'approche de modélisation à base d'agents: peu citée, peu mise en avant, elle constitue néanmoins, pour beaucoup de modélisateurs, non seulement leur premier point d'entrée vers la construction de modèles, mais aussi une façon de plus en plus prégnante, de concevoir, vérifier, voire valider des modèles de systèmes complexes. Le domaine de la modélisation à base d'agents, longtemps peu structuré, est en train de progressivement s'organiser en termes de méthodologies de conception, de communication, de description. Le succès du protocole ODD est là pour en témoigner: face à des demandes de représentation de systèmes de plus en plus complexes, les modélisateurs ont besoin de mettre de l'ordre dans leurs façons de modéliser et ils y parviennent. Cependant, il est étonnant de constater qu'aucune place n'est réservée dans ODD, ni dans aucune autre méthodologie approchante, à la façon de visualiser le modèle décrit ou à concevoir. Pour beaucoup de théoriciens de la modélisation, cette étape n'existe tout simplement pas, ou, si elle existe, est considérée comme le lointain produit dérivé d'un modèle déjà conçu, vérifié et validé. Pourtant, l'étude des pratiques de la modélisation à base d'agents révèle tout le contraire: l'aller-retour entre l'écriture et la visualisation d'un modèle fait partie intégrante du quotidien de nombreux chercheurs, comme en témoigne le succès de la plate-forme NetLogo. Cette visualisation, partie d'une démarche intégrée, permet de façon intuitive de vérifier et raffiner aussi bien les comportements individuels des agents que les structures collectives ou émergentes attendues. Poussée à l'extrême, cette pratique se rencontre aussi dans les démarches de modélisation et/ou simulation participative, où la visualisation du modèle sert de médiation entre acteurs et de support aux tâches, collectives, de modélisation. Absente des propositions méthodologiques, la visualisation de modèles à base d'agents se retrouve donc essentiellement délimitée et structurée par des pratiques individuelles, parfois partagées sous la forme de préceptes , mais rarement généralisables au-delà de la conception d'un modèle. Il existe pourtant des façons de visualiser, des manières de chercher à faire ressortir une information spécifique, des méthodes à suivre pour étudier visuellement une abstraction…
Information visualization is the study of interactive visual representations of abstract data to reinforce human cognition. It is very closely associated with data mining issues which allow to explore, understand and analyze phenomena, systems or data masses whose complexity continues to grow today. However, most existing visualization techniques are not suited to the exploration and understanding of datasets that consist of a large number of individual data from heterogeneous sources that share many properties with what are commonly called "complex systems". The reason is often the use of monolithic and centralized approaches. This situation is reminiscent of the modeling of complex systems (social sciences, chemistry, ecology, and many other fields) before progress represented by the generalization of agent-based approaches twenty years ago. In this thesis, I defend the idea that the same approach can be applied with the same success to the field of information visualization. By starting from the now commonly accepted idea that the agent-based models offer appropriate representations the complexity of a real system, I propose to use an approach based on the definition of agent-based visualization models to facilitate visual representation of complex data and to provide innovative support which allows to explore, programmatically and visually, their underlying dynamics. Just like their software counterparts, agent-based visualization models are composed of autonomous graphical entities that can interact and organize themselves, learn from the data they process and as a result adapt their behavior and visual representations. By providing a user the ability to describe visualization tasks in this form, my goal is to allow them to benefit from the flexibility, modularity and adaptability inherent in agent-based approaches. These concepts have been implemented and experimented on the GAMA modeling and simulation platform in which I developed a 3D immersive environment offering the user different point of views and way to interact with agents. Their implementation is validated on models chosen for their properties, supports a linear progression in terms of complexity, allowing us to highlight the concepts of flexibility, modularity and adaptability. Finally, I demonstrate through the particular case of data visualization, how my approach allows, in real time, to represent, to clarify, or even discover their dynamics and how that progress in terms of visualization can contributing,in turn, to improve the modeling of complex systems
Style APA, Harvard, Vancouver, ISO itp.
12

Bourqui, Romain. "Décomposition et Visualisation de graphes : Applications aux Données Biologiques". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2008. http://tel.archives-ouvertes.fr/tel-00421872.

Pełny tekst źródła
Streszczenie:
La quantité d'informations stockée dans les bases de données est en constante augmentation rendant ainsi nécessaire la mise au point de systèmes d'analyse et de visualisation. Nous nous intéressons dans cette thèse aux données relationnelles et plus particulièrement aux données biologiques. Cette thèse s'oriente autour de trois axes principaux : tout d'abord, la décomposition de graphes en groupes d'éléments ”similaires” afin de détecter d'éventuelles structures de communauté ; le deuxième aspect consiste à mettre en évidence ces structures dans un système de visualisation, et dans un dernier temps, nous nous intéressons à l'utilisabilité de l'un de ces systèmes de visualisation via une évaluation expérimentale.
Les travaux de cette thèse ont été appliqués sur des données réelles provenant de deux domaines de la biologie : les réseaux métaboliques et les réseaux d'interactions gènes-protéines.
Style APA, Harvard, Vancouver, ISO itp.
13

Ventura, Quentin. "Technique de visualisation hybride pour les données spatio-temporelles". Mémoire, École de technologie supérieure, 2014. http://espace.etsmtl.ca/1298/1/VENTURA_Quentin.pdf.

Pełny tekst źródła
Streszczenie:
La technique de visualisation décrite dans ce mémoire permet de visualiser les mouvements de plusieurs personnes ou objets au sein d’un bâtiment sous forme de graphe noeuds-liens, où les noeuds représentent les salles, et où les liens représentent les portes. La représentation choisie pour les trajectoires, qui peut être vue comme une métaphore de la circulation routière, permet de visualiser la direction des trajectoires et l’ordre dans lequel les pièces ont été visitées. Une visualisation hybride est aussi proposée, mixant la technique de visualisation topologique (décrite ci-dessus) à la technique de visualisation géospatiale, et ayant des caractéristiques « focus-in-context » et « multi-focales ». Une expérience contrôlée a été effectuée pour mesurer l’efficacité de ces techniques, et les résultats ont montré que la technique topologique est significativement plus rapide que la technique géospatiale pour trois des quatre tâches choisies.
Style APA, Harvard, Vancouver, ISO itp.
14

Hayat, Khizar. "Visualisation 3D adaptée par insertion synchronisée de données cachées". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2009. http://tel.archives-ouvertes.fr/tel-00400762.

Pełny tekst źródła
Streszczenie:
L'objectif principal de ces travaux de thèse est d'unifier différentes informations 2D et 3D afin de réaliser une visualisation adaptée dans un environnement client/serveur hétérogène en termes de réseau, de traitement et de ressources mémoire. Dans ce contexte, nous avons exploité la nature multi-résolution de la transformée en ondelettes discrètes (TOD) du codeur JPEG2000. L'unification des données est réalisée par insertion aveugle, synchrone ou partiellement synchrone, des données cachées dans le domaine des ondelettes. Une visualisation 3D classique nécessite au moins deux types de données : une image 2D d'intensité, appelé texture, et une forme 3D pouvant être représentée par une image, un modèle 3D ombré ou un maillage de points. Ce type d'image, parfois également appelé carte de profondeur est une image dans laquelle la valeur des pixels reflète la distance du capteur à la surface par imagerie. La texture est une image 2D couleur qui est apposée sur le modèle 3D après triangulation. Au niveau de l'insertion des données cachées, la carte de profondeur est d'abord transformée dans le domaine des ondelettes tandis que la texture est insérée dans le codeur JPEG2000. Le processus de codage JPEG2000 de la texture est interrompue, et les coefficients 3D sont insérés dans la totalité ou dans un sous-ensemble des sous-bandes de la texture. Les données sont re-intégrées dans le codeur standard de JPEG2000 à l'endroit où l'interruption a été faite. Le fichier résultant peut alors être envoyé à travers tous types de canal de communication comme un autre fichier standard issu du codeur JPEG2000. Les différents niveaux de résolution et le caractère synchronisé de nos algorithmes permettent une visualisation en 3D, même avec peu de sous-bandes de résolution suite à un transfert partiel ou retardé. La méthode permet ainsi d'effectuer une visualisation à partir uniquement d'une fraction des données. Dans ce cas nous remplaçons par des zéros les coefficients des sous-bandes manquantes. La première phase de ce travail a concerné l'imperceptibilité; c'est la raison pour laquelle l'insertion a été réalisée dans les bits de poids plus faibles. La deuxième phase de ces travaux a concerné la robustesse, c'est pourquoi une stratégie d'insertion par étalement de spectres a été utilisée. Au cours de la seconde phase, l'imperceptibilité n'a pas été complètement ignorée, du fait que l'insertion des données est effaçable après l'extraction. Les deux applications principales sont la visualisation 3D de modèles numériques de terrains et de visages. Dans la troisième et dernière phase de ces travaux de thèse, nous avons élargi le problème en essayant de prendre en compte le problème d'assemblage de dalles de niveaux de résolutions différentes sans soudure apparente. Ceci a eté assuré par des fonctions de lissage dans le domaine des ondelettes.
Style APA, Harvard, Vancouver, ISO itp.
15

Mora, Benjamin. "Nouveaux algorithmes interatifs pour la visualisation de données volumiques". Toulouse 3, 2001. http://www.theses.fr/2001TOU30192.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
16

Barbier, Sébastien. "Visualisation distance temps-réel de grands volumes de données". Grenoble 1, 2009. http://www.theses.fr/2009GRE10155.

Pełny tekst źródła
Streszczenie:
La simulation numérique génère des maillages de plus en plus gros pouvant atteindre plusieurs dizaines de millions de tétraèdres. Ces ensembles doivent être visuellement analysés afin d'acquérir des connaissances relatives aux données physiques simulées pour l'élaboration de conclusions. Les capacités de calcul utilisées pour la visualisation scientifique de telles données sont souvent inférieures à celles mises en oeuvre pour les simulations numériques. L'exploration visuelle de ces ensembles massifs est ainsi difficilement interactive sur les stations de travail usuelles. Au sein de ce mémoire, nous proposons une nouvelle approche interactive pour l'exploration visuelle de maillages tétraédriques massifs pouvant atteindre plus de quarante millions de cellules. Elle s'inscrit pleinement dans le procédé de génération des simulations numériques, reposant sur deux maillages à résolution différente , un fin et un grossier , d'une même simulation. Une partition des sommets fins est extraite guidée par le maillage grossier permettant la reconstruction à la volée d'un maillage dit birésolution, mélange des deux résolutions initiales, à l'instar des méthodes multirésolution usuelles. L'implantation de cette extraction est détaillée au sein d'un processeur central, des nouvelles générations de cartes graphiques et en mémoire externe. Elles permettent d'obtenir des taux d'extraction inégalés par les précédentes approches. Afin de visualiser ce maillage, un nouvel algorithme de rendu volumique direct implanté entièrement sur carte graphique est proposé. Un certain nombre d'approximations sont réalisées et évaluées afin de garantir un affichage interactif des maillages birésolution
Numerical simulations produce huger and huger meshes that can reach dozens of million tetrahedra. These datasets must be visually analyzed to understand the physical simulated phenomenon and draw conclusions. The computational power for scientific visualization of such datasets is often smaller than for numerical simulation. As a consequence, interactive exploration of massive meshes is barely achieved. In this document, we propose a new interactive method to interactively explore massive tetrahedral meshes with over forty million tetrahedra. This method is fully integrated into the simulation process, based on two meshes at different resolutions , one fine mesh and one coarse mesh , of the same simulation. A partition of the fine vertices is computed guided by the coarse mesh. It allows the on-the-fly extraction of a mesh, called \textit{biresolution}, mixed of the two initial resolutions as in usual multiresolution approaches. The extraction of such meshes is carried out into the main memory (CPU), the last generation of graphics cards (GPU) and with an out-of-core algorithm. They guarantee extraction rates never reached in previous work. To visualize the biresolution meshes, a new direct volume rendering (DVR) algorithm is fully implemented into graphics cards. Approximations can be performed and are evaluated in order to guarantee an interactive rendering of any biresolution meshes
Style APA, Harvard, Vancouver, ISO itp.
17

El, Mahrsi Mohamed Khalil. "Analyse et fouille de données de trajectoires d'objets mobiles". Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0056/document.

Pełny tekst źródła
Streszczenie:
Dans un premier temps, nous étudions l'échantillonnage de flux de trajectoires. Garder l'intégralité des trajectoires capturées par les terminaux de géo-localisation modernes peut s'avérer coûteux en espace de stockage et en temps de calcul. L'élaboration de techniques d'échantillonnage adaptées devient primordiale afin de réduire la taille des données en supprimant certaines positions tout en veillant à préserver le maximum des caractéristiques spatiotemporelles des trajectoires originales. Dans le contexte de flux de données, ces techniques doivent en plus être exécutées "à la volée" et s'adapter au caractère continu et éphémère des données. A cet effet, nous proposons l'algorithme STSS (spatiotemporal stream sampling) qui bénéficie d'une faible complexité temporelle et qui garantit une borne supérieure pour les erreurs d’échantillonnage. Nous montrons les performances de notre proposition en la comparant à d'autres approches existantes. Nous étudions également le problème de la classification non supervisée de trajectoires contraintes par un réseau routier. Nous proposons trois approches pour traiter ce cas. La première approche se focalise sur la découverte de groupes de trajectoires ayant parcouru les mêmes parties du réseau routier. La deuxième approche vise à grouper des segments routiers visités très fréquemment par les mêmes trajectoires. La troisième approche combine les deux aspects afin d'effectuer un co-clustering simultané des trajectoires et des segments. Nous démontrons comment ces approches peuvent servir à caractériser le trafic et les dynamiques de mouvement dans le réseau routier et réalisons des études expérimentales afin d'évaluer leurs performances
In this thesis, we explore two problems related to managing and mining moving object trajectories. First, we study the problem of sampling trajectory data streams. Storing the entirety of the trajectories provided by modern location-aware devices can entail severe storage and processing overheads. Therefore, adapted sampling techniques are necessary in order to discard unneeded positions and reduce the size of the trajectories while still preserving their key spatiotemporal features. In streaming environments, this process needs to be conducted "on-the-fly" since the data are transient and arrive continuously. To this end, we introduce a new sampling algorithm called spatiotemporal stream sampling (STSS). This algorithm is computationally-efficient and guarantees an upper bound for the approximation error introduced during the sampling process. Experimental results show that stss achieves good performances and can compete with more sophisticated and costly approaches. The second problem we study is clustering trajectory data in road network environments. We present three approaches to clustering such data: the first approach discovers clusters of trajectories that traveled along the same parts of the road network; the second approach is segment-oriented and aims to group together road segments based on trajectories that they have in common; the third approach combines both aspects and simultaneously clusters trajectories and road segments. We show how these approaches can be used to reveal useful knowledge about flow dynamics and characterize traffic in road networks. We also provide experimental results where we evaluate the performances of our propositions
Style APA, Harvard, Vancouver, ISO itp.
18

El, Mahrsi Mohamed Khalil. "Analyse et fouille de données de trajectoires d'objets mobiles". Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0056.

Pełny tekst źródła
Streszczenie:
Dans un premier temps, nous étudions l'échantillonnage de flux de trajectoires. Garder l'intégralité des trajectoires capturées par les terminaux de géo-localisation modernes peut s'avérer coûteux en espace de stockage et en temps de calcul. L'élaboration de techniques d'échantillonnage adaptées devient primordiale afin de réduire la taille des données en supprimant certaines positions tout en veillant à préserver le maximum des caractéristiques spatiotemporelles des trajectoires originales. Dans le contexte de flux de données, ces techniques doivent en plus être exécutées "à la volée" et s'adapter au caractère continu et éphémère des données. A cet effet, nous proposons l'algorithme STSS (spatiotemporal stream sampling) qui bénéficie d'une faible complexité temporelle et qui garantit une borne supérieure pour les erreurs d’échantillonnage. Nous montrons les performances de notre proposition en la comparant à d'autres approches existantes. Nous étudions également le problème de la classification non supervisée de trajectoires contraintes par un réseau routier. Nous proposons trois approches pour traiter ce cas. La première approche se focalise sur la découverte de groupes de trajectoires ayant parcouru les mêmes parties du réseau routier. La deuxième approche vise à grouper des segments routiers visités très fréquemment par les mêmes trajectoires. La troisième approche combine les deux aspects afin d'effectuer un co-clustering simultané des trajectoires et des segments. Nous démontrons comment ces approches peuvent servir à caractériser le trafic et les dynamiques de mouvement dans le réseau routier et réalisons des études expérimentales afin d'évaluer leurs performances
In this thesis, we explore two problems related to managing and mining moving object trajectories. First, we study the problem of sampling trajectory data streams. Storing the entirety of the trajectories provided by modern location-aware devices can entail severe storage and processing overheads. Therefore, adapted sampling techniques are necessary in order to discard unneeded positions and reduce the size of the trajectories while still preserving their key spatiotemporal features. In streaming environments, this process needs to be conducted "on-the-fly" since the data are transient and arrive continuously. To this end, we introduce a new sampling algorithm called spatiotemporal stream sampling (STSS). This algorithm is computationally-efficient and guarantees an upper bound for the approximation error introduced during the sampling process. Experimental results show that stss achieves good performances and can compete with more sophisticated and costly approaches. The second problem we study is clustering trajectory data in road network environments. We present three approaches to clustering such data: the first approach discovers clusters of trajectories that traveled along the same parts of the road network; the second approach is segment-oriented and aims to group together road segments based on trajectories that they have in common; the third approach combines both aspects and simultaneously clusters trajectories and road segments. We show how these approaches can be used to reveal useful knowledge about flow dynamics and characterize traffic in road networks. We also provide experimental results where we evaluate the performances of our propositions
Style APA, Harvard, Vancouver, ISO itp.
19

Roudaut, Anne. "Conception et Evaluation de Technique d'Interaction pour Dispositifs Mobiles". Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00005914.

Pełny tekst źródła
Streszczenie:
Aujourd'hui le téléphone portable est un outil multifonction qui sert à communiquer, s'informer, interagir, dans des contextes variés comme au domicile, dans la rue ou les transports. Cependant, le développement de nouvelles fonctionnalités est fortement contraint par les limitations de l'interface homme-machine (petit écran, clavier physique réduit ou absent, interaction à une main). L'amélioration de l'interface de ces dispositifs constitue donc un enjeu scientifique et industriel majeur comme nous le montre l'exemple de l'iPhone. Cette thèse s'inscrit dans ce contexte. Elle étudie tout d'abord les contraintes spécifiques aux dispositifs mobiles puis classe les techniques de l'état de l'art et les solutions qu'elles apportent pour répondre aux contraintes précédemment identifiées. Elle propose ensuite cinq nouvelles techniques d'interaction qui visent à résoudre des problèmes non entièrement résolus. TapTap et MagStick sont deux techniques qui répondent au problème de la sélection de petites cibles au pouce sur un écran tactile. Les claviers physiques étant souvent absents sur dispositifs mobiles, le LeafMenu augmente les menus linéaires en permettant de les activer via des raccourcis gestuels. Les MicroRolls proposent d'enrichir la bande passante interactionnelle des dispositifs mobiles au moyen de gestes de roulement du pouce. Ces gestes, différentiables des gestes de glissement habituels grâce à leur forme caractéristique, permettent d'augmenter le vocabulaire d'entrée des écrans tactiles, par exemple pour activer efficacement des commandes très fréquentes. Enfin la dernière contribution de cette thèse, propose d'utiliser les gestes en trois dimensions comme autre moyen d'enrichir le vocabulaire d'entrée. Elle est illustrée par TimeTilt, une technique combinant des gestes fluides et impulsifs pour faciliter la navigation entre plusieurs vues.
Style APA, Harvard, Vancouver, ISO itp.
20

Grignard, Arnaud. "Modèles de visualisation à base d'agents". Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066268/document.

Pełny tekst źródła
Streszczenie:
Ce mémoire part du constat que la visualisation est le parent pauvre de l'approche de modélisation à base d'agents: peu citée, peu mise en avant, elle constitue néanmoins, pour beaucoup de modélisateurs, non seulement leur premier point d'entrée vers la construction de modèles, mais aussi une façon de plus en plus prégnante, de concevoir, vérifier, voire valider des modèles de systèmes complexes. Le domaine de la modélisation à base d'agents, longtemps peu structuré, est en train de progressivement s'organiser en termes de méthodologies de conception, de communication, de description. Le succès du protocole ODD est là pour en témoigner: face à des demandes de représentation de systèmes de plus en plus complexes, les modélisateurs ont besoin de mettre de l'ordre dans leurs façons de modéliser et ils y parviennent. Cependant, il est étonnant de constater qu'aucune place n'est réservée dans ODD, ni dans aucune autre méthodologie approchante, à la façon de visualiser le modèle décrit ou à concevoir. Pour beaucoup de théoriciens de la modélisation, cette étape n'existe tout simplement pas, ou, si elle existe, est considérée comme le lointain produit dérivé d'un modèle déjà conçu, vérifié et validé. Pourtant, l'étude des pratiques de la modélisation à base d'agents révèle tout le contraire: l'aller-retour entre l'écriture et la visualisation d'un modèle fait partie intégrante du quotidien de nombreux chercheurs, comme en témoigne le succès de la plate-forme NetLogo. Cette visualisation, partie d'une démarche intégrée, permet de façon intuitive de vérifier et raffiner aussi bien les comportements individuels des agents que les structures collectives ou émergentes attendues. Poussée à l'extrême, cette pratique se rencontre aussi dans les démarches de modélisation et/ou simulation participative, où la visualisation du modèle sert de médiation entre acteurs et de support aux tâches, collectives, de modélisation. Absente des propositions méthodologiques, la visualisation de modèles à base d'agents se retrouve donc essentiellement délimitée et structurée par des pratiques individuelles, parfois partagées sous la forme de préceptes , mais rarement généralisables au-delà de la conception d'un modèle. Il existe pourtant des façons de visualiser, des manières de chercher à faire ressortir une information spécifique, des méthodes à suivre pour étudier visuellement une abstraction…
Information visualization is the study of interactive visual representations of abstract data to reinforce human cognition. It is very closely associated with data mining issues which allow to explore, understand and analyze phenomena, systems or data masses whose complexity continues to grow today. However, most existing visualization techniques are not suited to the exploration and understanding of datasets that consist of a large number of individual data from heterogeneous sources that share many properties with what are commonly called "complex systems". The reason is often the use of monolithic and centralized approaches. This situation is reminiscent of the modeling of complex systems (social sciences, chemistry, ecology, and many other fields) before progress represented by the generalization of agent-based approaches twenty years ago. In this thesis, I defend the idea that the same approach can be applied with the same success to the field of information visualization. By starting from the now commonly accepted idea that the agent-based models offer appropriate representations the complexity of a real system, I propose to use an approach based on the definition of agent-based visualization models to facilitate visual representation of complex data and to provide innovative support which allows to explore, programmatically and visually, their underlying dynamics. Just like their software counterparts, agent-based visualization models are composed of autonomous graphical entities that can interact and organize themselves, learn from the data they process and as a result adapt their behavior and visual representations. By providing a user the ability to describe visualization tasks in this form, my goal is to allow them to benefit from the flexibility, modularity and adaptability inherent in agent-based approaches. These concepts have been implemented and experimented on the GAMA modeling and simulation platform in which I developed a 3D immersive environment offering the user different point of views and way to interact with agents. Their implementation is validated on models chosen for their properties, supports a linear progression in terms of complexity, allowing us to highlight the concepts of flexibility, modularity and adaptability. Finally, I demonstrate through the particular case of data visualization, how my approach allows, in real time, to represent, to clarify, or even discover their dynamics and how that progress in terms of visualization can contributing,in turn, to improve the modeling of complex systems
Style APA, Harvard, Vancouver, ISO itp.
21

Blanchard, Frédéric. "Visualisation et classification de données multidimensionnelles : Application aux images multicomposantes". Reims, 2005. http://theses.univ-reims.fr/exl-doc/GED00000287.pdf.

Pełny tekst źródła
Streszczenie:
L'analyse des images multicomposantes est un problème crucial. Les questions de la visualisation et de la classification pour ces images sont importantes. Nous nous sommes intéressés à ces deux problèmes en nous plaçant dans le cadre plus général de l'analyse des données multidimensionnelles, et avons apporté deux éléments de réponses. Avant de traiter ces questions, nous nous sommes intéressés aux problèmes pratiques et théoriques liés à la dimensionnalité et étudions quelques unes des techniques courantes de réduction de dimensionnalité. La question de la visualisation est alors exposée et une nouvelle méthode utilisant l'image couleur est proposée. Cette technique permet une visualisation immédiate et synthétique des données, sans connaissance a priori. Elle est illustrée par des applications. Nous présentons également une contribution à la classification non supervisée de données qui se situe en amont du processus de classification proprement dit. Nous avons conçu une nouvelle façon de représenter les données et leurs liens à l'aide de la théorie des ensembles flous. Cette méthode permet, en classification, de traiter avec succès des échantillons de données dont les classes sont d'effectifs et de densités différents, sans faire d'a priori sur leur forme. Un algorithme de classification et des exemples de son application sont proposés. Ce travail présente deux contributions importantes aux problématiques de la visualisation et la classification, et fait intervenir des concepts issus de thématiques diverses comme l'analyse de données ou la théorie des ensembles flous. Il peut ainsi être utilisé dans d'autres contextes que celui de l'analyse d'images multicomposantes
The analysis of multicomponent images is a crucial problem. Visualization and clustering problem are two relevant questions about it. We decided to work in the more general frame of data analysis to answer to these questions. The preliminary step of this work is describing the problems induced by the dimensionality and studying the current dimensionality reduction methods. The visualization problem is then considered and a contribution is exposed. We propose a new method of visualization through color image that provides an immediate and sythetic image od data. Applications are presented. The second contribution lies upstream with the clustering procedure strictly speaking. We etablish a new kind of data representation by using rank transformation, fuzziness and agregation procedures. Its use inprove the clustering procedures by dealing with clusters with dissimilar density or variant effectives and by making them more robust. This work presents two important contributions to the field of data analysis applied to multicomponent image. The variety of the tools involved (originally from decision theory, uncertainty management, data mining or image processing) make the presented methods usable in many diversified areas as well as multicomponent images analysis
Style APA, Harvard, Vancouver, ISO itp.
22

Do, Thanh-Nghi. "Visualisation et séparateurs à vaste marge en fouille de données". Nantes, 2004. http://www.theses.fr/2004NANT2072.

Pełny tekst źródła
Streszczenie:
Nous présentons différentes approches coopératives combinant des méthodes de visualisation et des séparateurs à vaste marge (SVM) pour l'extraction de connaissances dans les données (ECD). La plupart des méthodes existantes à l'heure actuelle en fouille de données fonctionnent de manière automatique, l'utilisateur n'est que peu impliqué dans le processus. Par ailleurs, ces méthodes doivent pouvoir traiter des quantités de plus en plus importantes de données. Nous visons d'une part à augmenter le rôle de l'utilisateur dans le processus de fouille (par le biais de la visualisation) et d'autre part à améliorer les performances et les capacités des algorithmes de fouille pour leur permettre de traiter de grands ensembles de données. Nous présentons : - une classe d'algorithmes de SVM parallèles et distribués pour le traitement de grandes quantités de données, - des méthodes graphiques interactives pour expliquer les résultats des algorithmes de classification automatique, - des méthodes coopératives permettant d'impliquer plus significativement l'utilisateur dans la construction du modèle. Nous avons développé des algorithmes incrémentaux, parallèles et distribués (en lignes ou en colonnes) de proximal SVM, Least-Square SVM et SVM généralisé. Ces algorithmes nous permettent de traiter aisément des fichiers de très grandes tailles sur des machines standards : un milliard d'individus en dimension 10 sont classés en 7 minutes (sur 10 machines). Dans la plupart des cas, les algorithmes de SVM donnent en sortie les vecteurs support (qui forment la frontière entre les éléments des deux classes). Cette information est peu compréhensible et fait que les SVM sont utilisés comme des boîtes noires. Nous présentons des méthodes graphiques interactives pour interpréter les résultats de SVM en classification, régression et détection d'individus atypiques et permettre par exemple de déterminer les dimensions intéressantes dans le modèle obtenu. Nous en avons ensuite dérivé une méthode graphique interactive pour améliorer les résultats des algorithmes de SVM dans le cas de la classification multi-classes ou d'une classe minoritaire et une méthode graphique d'aide au paramétrage des SVM. Enfin nous présentons une méthode de fouille visuelle de données permettant la construction interactive de SVM. Les performances des algorithmes développés sont ensuite évaluées sur différents ensembles de données : les résultats sont équivalents aux algorithmes usuels en ce qui concerne les taux de précision. Nos principaux apports sont d'une part l'amélioration de la confiance et de la compréhensibilité du modèle et d'autre part la capacité à traiter de très grandes quantités de données sur du matériel standard
We present the different cooperative approaches using visualization methods and support vector machine algorithms (SVM) for knowledge discovery in databases (KDD). Most of existing data mining approaches construct the model in an automatic way, the user is not involved in the mining process. Furthermore, these approaches must be able to deal with the challenge of large datasets. Our work aims at increasing the human role in the KDD process (by the way of visualization methods) and improve the performances (concerning the execution time and the memory requirement) of the methods for mining large datasets. W e present:- parallel and distributed SVM algorithms for mining massive datasets, - interactive graphical methods to explain SVM results, - cooperative approaches to involve more significatively the user in the model construction
Style APA, Harvard, Vancouver, ISO itp.
23

Ammann, Lucas. "Visualisation temps réel de données à deux dimensions et demie". Strasbourg, 2010. https://publication-theses.unistra.fr/public/theses_doctorat/2010/AMMANN_Lucas_2010.pdf.

Pełny tekst źródła
Streszczenie:
Les données à deux dimensions et demie ont pris une importance forte dans la représentation de certains types d'objets. Elles sont ainsi fréquemment employées pour modéliser des données topographiques ou scientifiques. Elles sont également utilisées dans les dispositifs d'acquisition à trois dimensions pour représenter les objets numérisés. Ces données présentent cependant un certain nombre de difficultés dans leur manipulation, et plus particulièrement pour leur visualisation. Au cours de cette thèse, nous nous sommes attachés à développer des méthodes simples, mais efficaces, permettant la visualisation de ce type de données et plus spécialement celles issues de la numérisation de tableaux d'art. En plus de cette méthode de visualisation, nous avons développé un protocole complet permettant la numérisation de telles pièces, ainsi que le traitements des données obtenues, en vue de leur visualisation. Afin de généraliser la méthode développée, nous avons également proposé une technique permettant la visualisation de données topographiques combinant un processus classique de rastérisation avec un rendu par lancer de rayons. Les méthodes développées reposent ainsi toutes les deux sur un mécanisme adaptatif permettant de combiner différents algorithmes de rendu, afin d'optimiser les performances de visualisation. L'utilisation de ce mécanisme permet également une exploitation quasi-directe des données ce qui simplifie grandement leur utilisation
Heightfield data is now a common representation for several kind of virtual objects. Indeed, they are frequently used to represent topographical or scientific data. They are also used by 3-dimensional digitisation devices to store real objects. However, some issues are introduced by this kind of data during their manipulation and especially their visualisation. During this thesis, we develop simple yet efficient methods to render heightfield data, especially data from art painting digitisation. In addition to the visualisation method, we propose a complete pipeline to acquire art paintings and to process data for the visualisation process. To generalize the proposed approach, another rendering method is described to display topographical data by combining a rasterization process with a ray-casting rendering. Both of the rendering techniques are based on an adaptive mecanism which combines several rendering algorithms to enhance visualisation performances. These mechanisms are designed to avoid pre-processing steps of the data and to make use of straightforward rendering methods
Style APA, Harvard, Vancouver, ISO itp.
24

Benmerzoug, Fateh. "Analyse, modélisation et visualisation de données sismiques à grande échelle". Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30077.

Pełny tekst źródła
Streszczenie:
L'objectif principal de l'industrie pétrolière et gazière est de localiser et d'extraire les ressources en hydrocarbures, principalement le pétrole et le gaz naturel. Pour ce faire, de nombreuses mesures sismiques sont effectuées afin de rassembler autant de données que possible sur le terrain ou la surface marine d'intérêt. À l'aide d'une multitude de capteurs, les données sismiques sont acquises et traitées, donnant ainsi lieu à de gros volumes de données en forme de cube. Ces volumes sont ensuite utilisés pour calculer des attributs supplémentaires permettant de mieux comprendre la structure géologique et géophysique interne de la Terre. La visualisation et l'exploration de ces volumes sont essentielles pour comprendre la structure du sous-sol et localiser les réservoirs naturels dans lesquels le pétrole ou le gaz sont piégés. Les progrès récents des technologies de traitement et d'imagerie permettent aux ingénieurs et aux géo-scientifiques de réaliser des relevés sismiques plus vastes. Les mesures sismiques modernes donnent des volumes de données de plusieurs centaines de giga-octets. La taille des volumes acquis présente un réel défi, tant pour leur traitement que pour leur stockage et leur distribution. Ainsi, la compression des don- nées est une fonctionnalité très recherchée qui permet de répondre au dé de la taille des données. Un autre aspect difficile est la visualisation de tels volumes. Traditionnellement, un volume est découpé à la fois verticalement et horizontalement et visualisé au moyen de plans bidimensionnels. Cette méthode oblige l'utilisateur à faire défiler manuellement les tranches successives du volume a n de localiser et de suivre les caractéristiques géologiques intéressantes. Même si le découpage en tranches fournit une visualisation détaillée avec une représentation claire et concise de l'espace physique, il manque l'aspect de profondeur qui peut être crucial pour la compréhension de certaines structures. En outre, plus le volume est important, plus cette tâche peut être fastidieuse et répétitive. Une approche plus intuitive et pratique pour la visualisation est le rendu volumique. En définissant les filtres de couleur et d'opacité appropriés, l'utilisateur peut extraire et visualiser des corps géographiques entiers en tant qu'objets continus individuels dans un espace à 3 dimensions. Dans cette thèse, nous présentons une solution à la fois pour la compression des don- nées et pour la visualisation de données volumineuses. Nous présentons, dans un premier temps, la structure des données sismiques et des attributs présents dans une étude sismique typique. Nous présentons ensuite un état de l'art des méthodes de compression des données sismiques, en discutant des outils et des méthodes utilisés dans l'industrie. Un algorithme de compression de données sismiques est ensuite proposé, basé sur le concept de transformées étendues. En utilisant le GenLOT , transformées orthogonales généralisées, nous obtenons un filtre de transformation approprié qui décorrèle les données sismiques a n qu'elles puissent être mieux quantifiées et codées à l'aide de l'algorithme de compression proposé, P-SPECK, fondé sur le codage en blocs de plans de bits. De plus, nous avons proposé un environnement de rendu volumique out of core par tracé de rayons qui permet la visualisation de cubes sismiques arbitrairement grands. Les données sont décompressées à la demande et rendues à l'aide des filtres d'opacité et de couleur définis par l'utilisateur, ce qui en fait un outil relativement facile à utiliser
The main goal of the oil and gas industry is to locate and extract hydrocarbon resources, mainly petroleum and natural gas. To do this efficiently, numerous seismic measurements are conducted to gather up as much data as possible on terrain or marine surface area of interest. Using a multitude of sensors, seismic data are acquired and processed resulting in large cube-shaped data volumes. These volumes are then used to further compute additional attributes that helps in the understanding of the inner geological and geophysical structure of the earth. The visualization and exploration, called surveys, of these volumes are crucial to understand the structure of the underground and localize natural reservoirs where oil or gas are trapped. Recent advancements in both processing and imaging technologies enables engineers and geoscientists to perform larger seismic surveys. Modern seismic measurements yield large multi-hundred gigabytes of data volumes. The size of the acquired volumes presents a real challenge, both for processing such large volumes as well as their storage and distribution. Thus, data compression is a much- desired feature that helps answering the data size challenge. Another challenging aspect is the visualization of such large volumes. Traditionally, a volume is sliced both vertically and horizontally and visualized by means of 2-dimensional planes. This method necessitates the user having to manually scrolls back and forth be- tween successive slices in order to locate and track interesting geological features. Even though slicing provides a detailed visualization with a clear and concise representation of the physical space, it lacks the depth aspect that can be crucial in the understanding of certain structures. Additionally, the larger the volume gets, the more tedious and repetitive this task can be. A more intuitive approach for visualization is volume rendering. Rendering the seismic data as a volume presents an intuitive and hands on approach. By defining the appropriate color and opacity filters, the user can extract and visualize entire geo-bodies as individual continuous objects in a 3-dimensional space. In this thesis, we present a solution for both the data size and large data visualization challenges. We give an overview of the seismic data and attributes that are present in a typical seismic survey. We present an overview of data compression in a whole, discussing the necessary tools and methods that are used in the industry. A seismic data compression algorithm is then proposed, based on the concept of ex- tended transforms. By employing the GenLOT , Generalized Lapped Orthogonal Trans- forms we derive an appropriate transform filter that decorrelates the seismic data so they can be further quantized and encoded using P-SPECK, our proposed compression algorithm based on block-coding of bit-planes. Furthermore, we proposed a ray-casting out-of-core volume rendering framework that enables the visualization of arbitrarily large seismic cubes. Data are streamed on-demand and rendered using the user provided opacity and color filters, resulting in a fairly easy to use software package
Style APA, Harvard, Vancouver, ISO itp.
25

Lanrezac, André. "Interprétation de données expérimentales par simulation et visualisation moléculaire interactive". Electronic Thesis or Diss., Université Paris Cité, 2023. http://www.theses.fr/2023UNIP7133.

Pełny tekst źródła
Streszczenie:
L'objectif de l'approche des simulations moléculaires interactive (Interactive Molecular Simulations - IMS) est d'observer en direct la dynamique conformationnelle d'une simulation moléculaire en cours. Le retour visuel instantané permet un suivi instructif ainsi que l'observation des changements structurels imposés par la manipulation de l'IMS par l'utilisateur. J'ai mené une étude approfondie des connaissances pour rassembler et synthétiser l'ensemble des recherches qui ont développé l'IMS. La dynamique moléculaire interactive (Interactive Molecular Dynamics - IMD) est l'un des premiers protocoles IMS qui a posé les bases du développement de cette approche. Mon laboratoire de thèse s'est inspirée de celle-ci pour développer le moteur de simulation BioSpring basé sur le modèle de réseaux élastique. Ce modèle permet de simuler la flexibilité de grands ensembles biomoléculaires et ainsi potentiellement révéler des changements à longue échelle de temps qui ne seraient pas facilement saisis par la dynamique moléculaire. Ce moteur de simulation ainsi que le logiciel de visualisation UnityMol, développé par le biais du moteur de jeu Unity3D, et liés par l'interface de communication MDDriver ont été étendus pour les faire converger vers une suite logicielle complète. Le but est de fournir à un expérimentateur, qu'il soit expert ou profane, une boîte à outils complète pour modéliser, afficher et contrôler interactivement l'ensemble des paramètres d'une simulation. L'implémentation particulière d'un tel protocole, basé sur une communication formalisée et extensible entre les différents composants, a été pensée pour pouvoir facilement intégrer de nouvelles possibilités de manipulation interactive et des jeux de données expérimentales qui s'ajouteront aux contraintes imposées à la simulation. L'utilisateur peut donc manipuler la molécule d'intérêt sous le contrôle des propriétés biophysiques intégrés dans le modèle simulé, tout en ayant la possibilité de piloter à la volée les paramètres de simulation. Aussi, un des objectifs initiaux de cette thèse était d'intégrer la gestion des contraintes d'interaction ambigües du logiciel d'amarrage biomoléculaire HADDOCK directement dans UnityMol, rendant possible l'utilisation de ces mêmes contraintes à une variété de moteurs de simulations. Un axe principal de ces recherches était de développer un algorithme de positionnement rapide et interactif de protéines dans des membranes implicite tiré d'un modèle appelé Integrative Membrane Protein and Lipid Association Method (IMPALA) développée par l'équipe de Robert Brasseur en 1998. La première étape consistait à effectuer une recherche approfondie des conditions dans lesquelles les expériences ont été réalisées à l'époque, afin de vérifier la méthode et de valider notre propre implémentation. Nous verrons qu'elle ouvre des questions intéressantes sur la manière dont on peut reproduire les expériences scientifiques. L'étape finale qui conclue cette thèse était le développement d'une nouvelle méthode universelle d'interaction lipide-protéine, UNILIPID, qui est un modèle d'incorporation interactif de protéines dans les membranes implicites. Elle est indépendante de l'échelle de représentation, peut être appliquée à des niveaux tout atomes, gros-grains jusqu'au niveau d'un grain par acide aminé. La représentation de la dernière version Martini3[6] ainsi qu'une méthode d'échantillonnage Monte-Carlo et de simulation de dynamique des corps rigides ont été spécialement intégrés à la méthode, en plus de divers outils de préparation de systèmes. En outre, UNILIPID est une approche versatile qui reproduit précisément des termes d'hydrophobicité expérimentaux pour chaque acide aminé. En plus de membranes implicites simples, je décrirai une implémentation analytique de membranes doubles ainsi qu'une généralisation à des membranes de forme arbitraire, toutes deux s'appuyant sur des applications inédites
The goal of Interactive Molecular Simulations (IMS) is to observe the conformational dynamics of a molecular simulation in real-time. Instant visual feedback enables informative monitoring and observation of structural changes imposed by the user's manipulation of the IMS. I conducted an in-depth study of knowledge to gather and synthesize all the research that has developed IMS. Interactive Molecular Dynamics (IMD) is one of the first IMS protocols that laid the foundation for the development of this approach. My thesis laboratory was inspired by IMD to develop the BioSpring simulation engine based on the elastic network model. This model allows for the simulation of the flexibility of large biomolecular ensembles, potentially revealing long-timescale changes that would not be easily captured by molecular dynamics. This simulation engine, along with the UnityMol visualization software, developed through the Unity3D game engine, and linked by the MDDriver communication interface, has been extended to converge towards a complete software suite. The goal is to provide an experimenter, whether an expert or novice, with a complete toolbox for modeling, displaying, and interactively controlling all parameters of a simulation. The particular implementation of such a protocol, based on formalized and extensible communication between the different components, was designed to easily integrate new possibilities for interactive manipulation and sets of experimental data that will be added to the restraints imposed on the simulation. Therefore, the user can manipulate the molecule of interest under the control of biophysical properties integrated into the simulated model, while also having the ability to dynamically adjust simulation parameters. Furthermore, one of the initial objectives of this thesis was to integrate the management of ambiguous interaction constraints from the HADDOCK biomolecular docking software directly into UnityMol, making it possible to use these same restraints with a variety of simulation engines. A primary focus of this research was to develop a fast and interactive protein positioning algorithm in implicit membranes using a model called the Integrative Membrane Protein and Lipid Association Method (IMPALA), developed by Robert Brasseur's team in 1998. The first step was to conduct an in-depth search of the conditions under which the experiments were performed at the time to verify the method and validate our own implementation. We will see that this opens up interesting questions about how scientific experiments can be reproduced. The final step that concluded this thesis was the development of a new universal lipid-protein interaction method, UNILIPID, which is an interactive protein incorporation model in implicit membranes. It is independent of the representation scale and can be applied at the all-atom, coarse-grain, or grain-by-grain level. The latest Martini3 representation, as well as a Monte Carlo sampling method and rigid body dynamics simulation, have been specially integrated into the method, in addition to various system preparation tools. Furthermore, UNILIPID is a versatile approach that precisely reproduces experimental hydrophobicity terms for each amino acid. In addition to simple implicit membranes, I will describe an analytical implementation of double membranes as well as a generalization to arbitrarily shaped membranes, both of which rely on novel applications
Style APA, Harvard, Vancouver, ISO itp.
26

Décoret, Xavier. "Pré-traitement de grosses bases de données pour la visualisation interactive". Phd thesis, Université Joseph Fourier (Grenoble), 2002. http://tel.archives-ouvertes.fr/tel-00528890.

Pełny tekst źródła
Streszczenie:
Pour naviguer en temps réel dans un environnements virtuel, il faut être capable de fabriquer très rapidement des vues d'un modèle 3D décrivant cet environnement. Dans cette thèse nous nous intéressons à pré-calculer des résultats qui pourront être utilisés afin d'accélérer le rendu de ces images. Deux voies sont explorées. D'une part un pré-calcul de visibilité permet de déterminer, en chaque point de l'espace, une liste d'objets qui sont cachés par d'autres objets et n'ont donc pas besoin d'être affichés. Ce pré-calcul s'appuie sur un théorème dit " de réduction " : si en un point un objet réduit est caché par plusieurs objets eux-aussi réduits, alors au voisinage de ce point, l'objet est certainement caché. La première contribution de cette thèse est la démonstration de ce théorème qui formalise et généralise un résultat connu. La deuxième contribution est un algorithme robuste permettant de calculer de telles réductions pour un modèle quelconque, pourvu qu'il soit étanche (avec un extérieur et un intérieur bien définis). Une fois qu'est déterminé ce qui est visible, il reste à l'afficher de la manière la plus efficace possible. Une solution classique consiste à avoir pour chaque objet de l'environnement plusieurs représentations de plus en plus simplifiées. Selon la distance de l'objet à l'observateur, on affiche la simplification la mieux adaptée. La difficulté consiste alors à générer automatiquement ces différents niveaux de détails à partir du modèle initial. La troisième contribution de cette thèse est une nouvelle représentation, baptisée nuage de billboards, qui permet d'effectuer une simplification extrême tout en gardant une très bonne qualité visuelle. Un objet complexe est représenté par un petit nombre de polygones texturés avec de la transparence, dont l'enchevêtrement permet de restituer à la fois la forme et l'apparence de l'objet. Un algorithme complètement automatique permet de fabriquer un tel nuage à partir d'un modèle polygonal quelconque.
Style APA, Harvard, Vancouver, ISO itp.
27

Da, Costa David. "Visualisation et fouille interactive de données à base de points d'intérêts". Tours, 2007. http://www.theses.fr/2007TOUR4021.

Pełny tekst źródła
Streszczenie:
Dans ce travail de thèse, nous présentons le problème de la visualisation et la fouille de données. Nous remarquons généralement que les méthodes de visualisation sont propres aux types de données et qu'il est nécessaire de passer beaucoup de temps à analyser les résultats afin d'obtenir une réponse satisfaisante sur l'aspect de celle-ci. Nous avons donc développé une méthode de visualisation basée sur des points d'intérêts. Cet outil visualise tous types de données et est générique car il utilise seulement une mesure de similarité. Par ailleurs ces méthodes doivent pouvoir traiter des grands volumes de données. Nous avons aussi cherché à améliorer les performances de nos algorithmes de visualisation, c'est ainsi que nous sommes parvenus à représenter un million de données. Nous avons aussi étendu notre outil à la classification non supervisée de données. La plupart des méthodes actuelles de classificatoin non supervisée de données fonctionnent de manière automatique, l'utilisateur n'est que peu impliqué dans le processus. Nous souhaitons impliquer l'utilisateur de manière plus significative dans le processus de la classification pour améliorer sa compréhension des données
In this thesis, we present the problem of the visual data mining. We generally notice that it is specific to the types of data and that it is necessary to spend a long time to analyze the results in order to obtain an answer on the aspect of data. In this thesis, we have developed an interactive visualization environment for data exploration using points of interest. This tool visualizes all types of data and is generic because it uses only one similarity measure. These methods must be able to deal with large data sets. We also sought to improve the performances of our visualization algorithms, thus we managed to represent one million data. We also extended our tool to the data clustering. Most existing data clustering methods work in an automatic way, the user is not implied iin the process. We try to involve more significantly the user role in the data clustering process in order to improve his comprehensibility of the data results
Style APA, Harvard, Vancouver, ISO itp.
28

Dautraix, Isabelle. "LaStéréo échographie. : Une nouvelle technique de visualisation volumique de données ultrasonores". Lyon, INSA, 1993. http://www.theses.fr/1993ISAL0012.

Pełny tekst źródła
Streszczenie:
Ce travail de thèse concerne la présentation en relief de données ultrasonores médicales obtenues par échographie B. L'originalité de cette étude consiste a transposer les techniques stéréoscopiques conventionnelles dans le domaine de l'imagerie ultrasonore. Par analogie avec la stéréoradiographie par rayons x, le principe de la stéréo-échographie est établi. Un volume homogène de données, repéré en coordonnées cartésiennes, est obtenu par interpolation de coupes ultrasonores 2d acquises par translation ou rotation d'une sonde échographique. En utilisant les équations de colinéarité de la photogrammétrie, on réalise deux stéréo-échogrammes de synthèse de ce volume ultrasonore. La valeur des paramètres des systèmes simules de prise de vues est choisie de manière à optimiser la restitution visuelle du relief. De plus, pour faciliter la restitution du relief, les données ultrasonores peuvent être pré-traitées avant le calcul des stéréo-échogrammes et des données de synthèse (volumes géométrique simples) peuvent être ajoutées aux données. Les algorithmes de calcul des stéréo-échogrammes ont été validés sur des fantômes physiques puis appliqués à des données ultrasonores réelles (foie, fœtus,. . . ). Contrairement aux techniques de rendu de surface ou de volume, délicates a appliquer à des données ultrasonores très bruitées par nature, la stéréo-échographie fournit une présentation en vrai relief qui facilite l'interprétation et la compréhension de structures 3D complexes insonifiées
This work concerns the presentation in relief of medical ultrasonic data obtained by echography B. The originality of this study consists in transposing the classical stereoscopic technicals in the field of ultrasonic imaging. By analogy with the stereo-radiography by X rays, the principle of the stereo-echographis drawn up. An homogeneous volume of data, in Cartesian coordinates, is obtained by interpolation of the ultrasonic cross-sectional images acquired by translation or rotation of an echographic probe. Thanks to the collinear equations of the photogrammetry, two stereo-echograms of the ultrasonic volume are computerized. The value of the parameters of simulated systems of shot is chosen so that the visual restitution of the relief is optimized. Moreover, in order to make the restitution of the relief easier, the ultrasonic data can be pre-treated before the calculation of the stereo-echograms and some synthetic data (simple geometrical volumes) can be added to the data. The algorithms of the computation of the stereo-echograms have been first validated on physical phantoms and then applied on actual ultrasonic data (liver, foetus,. . . ). Contrary to the technicals of surface or volume rendering, which are difficult to apply to ultrasonic data which are very noisy by nature, the stereo-echography provides a presentation in true relief which makes the interpretation and the understanding of 3D complicated structures easier
Style APA, Harvard, Vancouver, ISO itp.
29

Royan, Jérôme. "Visualisation interactive de scènes urbaines vastes et complexes à travers un réseau". Rennes 1, 2005. http://www.theses.fr/2005REN1S013.

Pełny tekst źródła
Streszczenie:
Ces travaux de thèse portent sur la visualisation de scènes urbaines tridimensionnellestrès vastes et très complexes à travers un réseau. L'objectif majeur est d'obtenir une eprésentation adaptée à la transmission et visualisation d'un ensemble de bâtiments constituant un modèle 3D urbain. Cette représentation multi-résolution des bâtimentsd'une ville, appelée PBTree, se base sur une représentation 2D1/2 modélisant les bâtimentsà l'aide de prismes (représentation 2D1/2 issue des méthodes fiables et robustes de modélisation non-assitée de villes). Cette représentation multi-résolution a été conçue pour optimiser la transmission (compression, progressivité) et la visualisation (niveaux de détails, adaptabilité au point de vue) de modèles urbains. La multi-résolution est très bien adaptée au survol des villes. Cependant, une solution est proposée dans le cas d'une navigation au niveau du sol, et est basée sur un calcul de visibilité permettant de sélectionner le niveau de résolution transmis et visualisé
Style APA, Harvard, Vancouver, ISO itp.
30

Pouderoux, Joachim. "Création semi-automatique de modèles numériques de terrains - Visualisation et interaction sur terminaux mobiles communicants". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2007. http://tel.archives-ouvertes.fr/tel-00354701.

Pełny tekst źródła
Streszczenie:
Les modèles numériques de terrains (MNT) permettent de représenter efficacement la topographie d'une zone géographique donnée. Ces MNT peuvent être issus d'une télé acquisition à l'aide de radars embarqués ou de levés manuels sur le terrain à l'aide d'un tachéomètre. Les MNT constituent le contexte thématique de cette thèse qui est composée en trois parties.

Dans un premier temps, nous nous intéressons à la création de ces modèles à partir d'une source importante de données topographiques constituée par les cartes topographiques. Nous présentons une chaîne complète de traitements permettant de générer un MNT à partir d'une carte topographique numérisée. Nous détaillons particulièrement de nouvelles méthodes de reconstruction des courbes de niveaux et d'interpolation de ces courbes pour générer un MNT. Les différents travaux effectués dans cette thématique s'intègrent au sein de la plate-forme logicielle AutoDEM que nous avons développée durant cette thèse.

Puis, dans une deuxième partie, nous présentons une nouvelle technique permettant de visualiser des MNT en 3D sur une large gamme de dispositifs allant de stations de travail reliées à de grands écrans jusqu'à des terminaux mobiles (TM) à faibles capacités tels que les PDA ou les téléphones portables. L'intérêt majeur de la technique présentée, qui repose sur un mode connecté client-serveur, réside dans l'adaptation dynamique du modèle 3D aux capacités d'affichage du terminal. Nous nous intéressons également à des techniques de rendu à distance et présentons deux techniques permettant d'offrir d'une part une visualisation interactive temps réel et d'autre part un panorama virtuel à l'utilisateur.

Enfin, dans un troisième temps, nous décrivons des techniques nouvelles permettant à un utilisateur mobile disposant d'un TM de naviguer et d'interagir avec des données géographiques (cartes ou plans 2D et scènes 3D). La première est une technique d'interaction tangible et bi-manuelle reposant sur la détection par analyse du flux vidéo d'une cible décrivant un code couleur. La deuxième est une technique de sélection à deux niveaux adaptée aux TM ne disposant pas de dispositif de pointage continu.
Style APA, Harvard, Vancouver, ISO itp.
31

Kaba, Bangaly. "Décomposition de graphes comme outil de regroupement et de visualisation en fouille de données". Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21871.

Pełny tekst źródła
Streszczenie:
La fouille de données est un domaine largement étudié et les méthodes utilisées pour l'aborder ont fait le sujet de nombreux travaux. Ces méthodes reposent en général sur les outils de classification classiques supervisés et non supervisés. Ces méthodes forment des clusters disjoints, attribuant les éléments à un seul groupe. Dans de nombreux cas réels, les éléments à classer peuvent appartenir à plusieurs groupes. Nous abordons cette problématique avec une nouvelle approche basée sur la décomposition des graphes. Cette décomposition est basée sur les séparateurs minimaux complets qui sont des ensembles de sommets formant des cliques dont le retrait déconnecte le graphe en une ou plusieurs composantes et pour lesquels des résultats en théorie des graphes donnent des outils algorithmiques puissants. Cette décomposition fournit des groupes d'éléments recouvrants. Nous dérivons de cette décomposition un outil de visualisation permettant de mettre en évidence la structure du graphe formé par ces données. Nous avons travaillé sur des données issues de 2 domaines (bioinformatique et fouille de données textuelles) afin de valider cette approche de décomposition. 1. Bioinformatique : Les mesures de l'activité génique des cellules vivantes par des biopuces fournissent des données sous forme de matrices symétriques. Nous construisons des graphes de gènes en fixant des seuils sur ces matrices. Nous examinons la stucture de ces graphes afin de mettre en évidence des groupes de gènes qui ont des profils d'expression similaires et dont on peut estimer la probabilité de participation à des fonctions similaires. 2. Fouille de données textuelles : les relations entre données textuelles d'un corpus donné sont modélisées par un graphe de termes. Ces relations sont fondées soit sur la cooccurence, soit sur des variations linguistiques. Nous proposons une méthode de visualisation basée sur la décomposition de graphes en atomes (sous-graphes recouvrants sans séparateurs minimaux complets). Ces atomes sont structurés dans un graphe appelé graphe des atomes. Ce graphe des atomes met en évidence les thématiques donnant une vue globale sur l'ensemble des documents contenus dans un corpus
Style APA, Harvard, Vancouver, ISO itp.
32

Trellet, Mikael. "Exploration et analyse immersives de données moléculaires guidées par la tâche et la modélisation sémantique des contenus". Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS262/document.

Pełny tekst źródła
Streszczenie:
En biologie structurale, l’étude théorique de structures moléculaires comporte quatre activités principales organisées selon le processus séquentiel suivant : la collecte de données expérimentales/théoriques, la visualisation des structures 3d, la simulation moléculaire, l’analyse et l’interprétation des résultats. Cet enchaînement permet à l’expert d’élaborer de nouvelles hypothèses, de les vérifier de manière expérimentale et de produire de nouvelles données comme point de départ d’un nouveau processus.L’explosion de la quantité de données à manipuler au sein de cette boucle pose désormais deux problèmes. Premièrement, les ressources et le temps relatifs aux tâches de transfert et de conversion de données entre chacune de ces activités augmentent considérablement. Deuxièmement, la complexité des données moléculaires générées par les nouvelles méthodologies expérimentales accroît fortement la difficulté pour correctement percevoir, visualiser et analyser ces données.Les environnements immersifs sont souvent proposés pour aborder le problème de la quantité et de la complexité croissante des phénomènes modélisés, en particulier durant l’activité de visualisation. En effet, la Réalité Virtuelle offre entre autre une perception stéréoscopique de haute qualité utile à une meilleure compréhension de données moléculaires intrinsèquement tridimensionnelles. Elle permet également d’afficher une quantité d’information importante grâce aux grandes surfaces d’affichage, mais aussi de compléter la sensation d’immersion par d’autres canaux sensorimoteurs.Cependant, deux facteurs majeurs freinent l’usage de la Réalité Virtuelle dans le domaine de la biologie structurale. D’une part, même s’il existe une littérature fournie sur la navigation dans les scènes virtuelles réalistes et écologiques, celle-ci est très peu étudiée sur la navigation sur des données scientifiques abstraites. La compréhension de phénomènes 3d complexes est pourtant particulièrement conditionnée par la capacité du sujet à se repérer dans l’espace. Le premier objectif de ce travail de doctorat a donc été de proposer des paradigmes navigation 3d adaptés aux structures moléculaires complexes. D’autre part, le contexte interactif des environnements immersif favorise l’interaction directe avec les objets d’intérêt. Or les activités de collecte et d’analyse des résultats supposent un contexte de travail en "ligne de commande" ou basé sur des scripts spécifiques aux outils d’analyse. Il en résulte que l’usage de la Réalité Virtuelle se limite souvent à l’activité d’exploration et de visualisation des structures moléculaires. C’est pourquoi le second objectif de thèse est de rapprocher ces différentes activités, jusqu’alors réalisées dans des contextes interactifs et applicatifs indépendants, au sein d’un contexte interactif homogène et unique. Outre le fait de minimiser le temps passé dans la gestion des données entre les différents contextes de travail, il s’agit également de présenter de manière conjointe et simultanée les structures moléculaires et leurs analyses et de permettre leur manipulation par des interactions directes.Notre contribution répond à ces objectifs en s’appuyant sur une approche guidée à la fois par le contenu et la tâche. Des paradigmes de navigation ont été conçus en tenant compte du contenu moléculaire, en particulier des propriétés géométriques, et des tâches de l’expert, afin de faciliter le repérage spatial et de rendre plus performante l’activité d’exploration. Par ailleurs, formaliser la nature des données moléculaires, leurs analyses et leurs représentations visuelles, permettent notamment de proposer à la demande et interactivement des analyses adaptées à la nature des données et de créer des liens entre les composants moléculaires et les analyses associées. Ces fonctionnalités passent par la construction d’une représentation sémantique unifiée et performante rendant possible l’intégration de ces activités dans un contexte interactif unique
In structural biology, the theoretical study of molecular structures has four main activities organized in the following scenario: collection of experimental and theoretical data, visualization of 3D structures, molecular simulation, analysis and interpretation of results. This pipeline allows the expert to develop new hypotheses, to verify them experimentally and to produce new data as a starting point for a new scenario.The explosion in the amount of data to handle in this loop has two problems. Firstly, the resources and time dedicated to the tasks of transfer and conversion of data between each of these four activities increases significantly. Secondly, the complexity of molecular data generated by new experimental methodologies greatly increases the difficulty to properly collect, visualize and analyze the data.Immersive environments are often proposed to address the quantity and the increasing complexity of the modeled phenomena, especially during the viewing activity. Indeed, virtual reality offers a high quality stereoscopic perception, useful for a better understanding of inherently three-dimensional molecular data. It also displays a large amount of information thanks to the large display surfaces, but also to complete the immersive feeling with other sensorimotor channels (3D audio, haptic feedbacks,...).However, two major factors hindering the use of virtual reality in the field of structural biology. On one hand, although there are literature on navigation and environmental realistic virtual scenes, navigating abstract science is still very little studied. The understanding of complex 3D phenomena is however particularly conditioned by the subject’s ability to identify themselves in a complex 3D phenomenon. The first objective of this thesis work is then to propose 3D navigation paradigms adapted to the molecular structures of increasing complexity. On the other hand, the interactive context of immersive environments encourages direct interaction with the objects of interest. But the activities of: results collection, simulation and analysis, assume a working environment based on command-line inputs or through specific scripts associated to the tools. Usually, the use of virtual reality is therefore restricted to molecular structures exploration and visualization. The second thesis objective is then to bring all these activities, previously carried out in independent and interactive application contexts, within a homogeneous and unique interactive context. In addition to minimizing the time spent in data management between different work contexts, the aim is also to present, in a joint and simultaneous way, molecular structures and analyses, and allow their manipulation through direct interaction.Our contribution meets these objectives by building on an approach guided by both the content and the task. More precisely, navigation paradigms have been designed taking into account the molecular content, especially geometric properties, and tasks of the expert, to facilitate spatial referencing in molecular complexes and make the exploration of these structures more efficient. In addition, formalizing the nature of molecular data, their analysis and their visual representations, allows to interactively propose analyzes adapted to the nature of the data and create links between the molecular components and associated analyzes. These features go through the construction of a unified and powerful semantic representation making possible the integration of these activities in a unique interactive context
Style APA, Harvard, Vancouver, ISO itp.
33

Devulder, Grégory. "Base de données de séquences, phylogénie et identification bactérienne". Lyon 1, 2004. http://www.theses.fr/2004LYO10164.

Pełny tekst źródła
Streszczenie:
Les méthodes conventionnelles d'identification et de caractérisation des micro-organismes reposent sur des critères biochimiques ou phénotypiques. Ces méthodes éprouvées et performantes pour l'identification d'un grand nombre d'espèces, présentent toutefois des performances limitées pour l'identification de certaines espèces. L'objectivité de l'information contenue dans les séquences d'ADN et l'augmentation importante des séquences contenues dans les bases de données ouvrent de nouvelles perspectives liées à l'utilisation des méthodes moléculaires dans le cadre de l'identification bactérienne. Les différentes étapes indispensables à l'identification moléculaire peuvent être longues et fastidieuses. Leur automatisation était donc indispensable. Nous avons développé BIBI (Bio Informatic Bacterial Identification) un environnement d'identification bactérien à partir des séquences d'ADN. Accessible sur internet (http://pbil. Univ-lyon1. Fr/bibi), et utilisable quel que soit le domaine d'activité, ce programme garantit un temps de réponse constant et une universalité des résultats. Pour accroître la pertinence du résultat, nous avons également mis en place des banques de séquences adaptées à l'identification bactérienne. Associées à BIBI, ces bases taxinomiquement propres ont pour vocation d'assister l'utilisateur dans le processus d'identification
Style APA, Harvard, Vancouver, ISO itp.
34

Wang, Nan. "Visualisation et interaction pour l’exploration et la perception immersive de données 3D". Thesis, Paris, ENMP, 2012. http://www.theses.fr/2012ENMP0090/document.

Pełny tekst źródła
Streszczenie:
L'objet de cette thèse est la perception dans les environnements immersifs de jeux de données complexes, une des applications est la visualisation scientifique de données volumiques scalaires issues de simulations de modèles physiques. Un exemple classique de ceci est la distribution de températures à l'intérieur d'un habitacle de véhicule.Dans la première partie de ce travail, notre objectif est d'étudier les limites perceptives dans le cadre d'un rendu volumétrique de données scientifiques dans un système de réalité virtuelle offrant la vision en stéréoscopie, et le suivi du point de vue de l'utilisateur. Nous étudions l'effet sur la perception de l'utilisateur de trois facteurs principaux : la taille des points utilisés pour le rendu, la densité du nuage de points, et enfin la position par rapport à l'utilisateur du premier plan de coupe. Nous présentons une étude dans laquelle une tâche de pointage est proposée à un ensemble d'utilisateurs. Les déplacements de celui-ci ainsi que les performances de pointage sont mesurées. L'étude a permis d'évaluer l'impact des paramètres de rendu du nuage de points et proposer un rendu améliorant la perception.La seconde partie du travail propose d'ajouter une dimension interactive à la première approche en permettant à l'utilisateur d'explorer plus activement la scène. L'hypothèse d'une meilleure compréhension des données par l'action est ici mise en avant. Nous évaluons une méthode d'interaction et quatre méthodes de rendu associées. L'approche proposée est de n'afficher qu'un sous ensemble des données volumiques, en l'occurrence des isosurfaces, et de permettre à l'utilisateur de naviguer par une gestuelle naturelle et interactive dans l'ensemble des isosurfaces du jeu de données explorées, dans cadre de manipulation directe. Une nouvelle étude est proposée, dans laquelle l'utilisateur doit effectuer une tâche de recherche et de pointage d'une propriété locale dans un jeu de températures 3D. Cette étude a permis de choisir une méthode de rendu adaptée à l'affichage immersif d'isosurfaces et de valider l'approche interactive pour l'exploration de données
The objective in this case is not only to be realistic, but also to provide new and intelligible ways of model representation. This raises new issues in data perception. The question of perception of complex data, especially regarding visual feedback, is an open question, and it is the subject of this work. This PhD thesis studied the human perception in Immersive Virtual Environments of complex datasets, one of the applications is the scientific visualization of scalar values stemming from physics models, such as temperature distribution inside a vehicle prototype.The objective of the first part is to study the perceptive limits of volumetric rendering for the display of scientific volumetric data, such as a volumetric temperature distribution rendering using point cloud. We investigate the effect on the user perception of three properties of a point cloud volumetric rendering: point size, cloud density and near clipping plane position. We present an experiment where a series of pointing tasks are proposed to a set of users. User behavior and task completion time are evaluated during the test. The study allowed to choose the most suitable combination of these properties, and provided guidelines for volumetric data representation in VR immersive systems.In the second part of our work, we evaluate one interaction method and four display techniques for exploring volumetric datasets in virtual reality immersive environments. We propose an approach based on the display of a subset of the volumetric data, as isosurfaces, and an interactive manipulation of the isosurfaces to allow the user to look for local properties in the datasets. We also studied the influence of four different rendering techniques for isosurface rendering in a virtual reality system. The study is based on a search and point task in a 3D temperature field. User precision, task completion time and user movement were evaluated during the test. The study allowed to choose the most suitable rendering mode for isosurface representation, and provided guidelines for data exploration tasks in immersive environments
Style APA, Harvard, Vancouver, ISO itp.
35

Wang, Nan. "Visualisation et interaction pour l'exploration et la perception immersive de données 3D". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00821004.

Pełny tekst źródła
Streszczenie:
L'objet de cette thèse est la perception dans les environnements immersifs de jeux de données complexes, une des applications est la visualisation scientifique de données volumiques scalaires issues de simulations de modèles physiques. Un exemple classique de ceci est la distribution de températures à l'intérieur d'un habitacle de véhicule.Dans la première partie de ce travail, notre objectif est d'étudier les limites perceptives dans le cadre d'un rendu volumétrique de données scientifiques dans un système de réalité virtuelle offrant la vision en stéréoscopie, et le suivi du point de vue de l'utilisateur. Nous étudions l'effet sur la perception de l'utilisateur de trois facteurs principaux : la taille des points utilisés pour le rendu, la densité du nuage de points, et enfin la position par rapport à l'utilisateur du premier plan de coupe. Nous présentons une étude dans laquelle une tâche de pointage est proposée à un ensemble d'utilisateurs. Les déplacements de celui-ci ainsi que les performances de pointage sont mesurées. L'étude a permis d'évaluer l'impact des paramètres de rendu du nuage de points et proposer un rendu améliorant la perception.La seconde partie du travail propose d'ajouter une dimension interactive à la première approche en permettant à l'utilisateur d'explorer plus activement la scène. L'hypothèse d'une meilleure compréhension des données par l'action est ici mise en avant. Nous évaluons une méthode d'interaction et quatre méthodes de rendu associées. L'approche proposée est de n'afficher qu'un sous ensemble des données volumiques, en l'occurrence des isosurfaces, et de permettre à l'utilisateur de naviguer par une gestuelle naturelle et interactive dans l'ensemble des isosurfaces du jeu de données explorées, dans cadre de manipulation directe. Une nouvelle étude est proposée, dans laquelle l'utilisateur doit effectuer une tâche de recherche et de pointage d'une propriété locale dans un jeu de températures 3D. Cette étude a permis de choisir une méthode de rendu adaptée à l'affichage immersif d'isosurfaces et de valider l'approche interactive pour l'exploration de données.
Style APA, Harvard, Vancouver, ISO itp.
36

Coninx, Alexandre. "Visualisation interactive de grands volumes de données incertaines : pour une approche perceptive". Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00749885.

Pełny tekst źródła
Streszczenie:
Les études scientifiques et d'ingénierie actuelles font de plus en plus souvent appel à des techniques de simulation numérique pour étudier des phénomènes physiques complexes. La visualisation du résultat de ces simulations sur leur support spatial, souvent nécessaire à leur bonne compréhension, demande la mise en place d'outils adaptés, permettant une restitution fidèle et complète de l'information présente dans un jeu de données. Une telle visualisation doit donc prendre en compte les informations disponibles sur la qualité du jeu de données et l'incertitude présente. Cette thèse a pour but d'améliorer les méthodes de visualisation des champs de données scalaires de façon à intégrer une telle information d'incertitude. Les travaux présentés adoptent une approche perceptive, et utilisent les méthodes expérimentales et les connaissances préalables obtenues par la recherche sur la perception visuelle pour proposer, étudier et finalement mettre en oeuvre des nouvelles techniques de visualisation. Une revue de l'état de l'art sur la visualisation de données incertaines nous fait envisager l'utilisation d'un bruit procédural animé comme primitive pour la représentation de l'incertitude. Une expérience de psychophysique nous permet d'évaluer des seuils de sensibilité au contraste pour des stimuli de luminance générés par l'algorithme de bruit de Perlin, et de déterminer ainsi dans quelles conditions ces stimuli seront perçus. Ces résultats sont validés et étendus par l'utilisation d'un modèle computationnel de sensibilité au contraste, que nous avons réimplémenté et exécuté sur nos stimuli. Les informations obtenues nous permettent de proposer une technique de visualisation des données scalaires incertaines utilisant un bruit procédural animé et des échelles de couleur, intuitive et efficace même sur des géométries tridimensionnelles complexes. Cette technique est appliquée à deux jeux de données industriels, et présentée à des utilisateurs experts. Les commentaires de ces utilisateurs confirment l'efficacité et l'intérêt de notre technique et nous permettent de lui apporter quelques améliorations, ainsi que d'envisager des axes de recherche pour des travaux futurs.
Style APA, Harvard, Vancouver, ISO itp.
37

Verbanck, Marie. "Analyse exploratoire de données transcriptomiques : de leur visualisation à l'intégration d’information extérieure". Rennes, Agrocampus Ouest, 2013. http://www.theses.fr/2013NSARG011.

Pełny tekst źródła
Streszczenie:
Nous proposons de nouvelles méthodologies statistiques exploratoires dédiées au traitement des données transcriptomiques (puce à ADN). Les données transcriptomiques offrent une image du transcriptome qui lui-même est le résultat des phénomènes d'activation ou d'inhibition de l'expression des gènes. Cependant, cette image du transcriptome est bruitée. C'est pourquoi, nous abordons premièrement la problématique de débruitage des données transcriptomiques. Ainsi, nous proposons une version régularisée de l'analyse en composantes principales. Cette version régularisée permet de mieux reconstituer et visualiser le signal sous-jacent de données bruitées. Par ailleurs, nous pouvons nous demander si la connaissance du seul transcriptome est suffisante pour démêler la complexité des relations entre gènes. Nous proposons donc d'intégrer d'autres sources d'information sur les gènes, de façon active, dans l'analyse des données transcriptomiques. Deux grands mécanismes semblent intervenir dans la régulation de l'expression, les protéines régulatrices et les réseaux de régulation d'une part, la localisation chromosomique et l'architecture du génome d'autre part. Premièrement, nous nous focalisons sur la régulation par l'intermédiaire de protéines régulatrices ; nous proposons un algorithme de classification des gènes basé sur l'intégration de connaissances fonctionnelles sur les gènes, fournies par les annotations Gene Ontology. Cet algorithme fournit des clusters de gènes similaires du point de vue de l'expression et des annotations fonctionnelles et qui sont ainsi de meilleurs candidats à l'interprétation. Enfin, nous proposons de relier l'étude des données transcriptomiques à la localisation chromosomique au sein d'une méthodologie développée en collaboration avec des généticiens
We propose new methodologies of exploratory statistics which are dedicated to the analysis of transcriptomic data (DNA microarray data). Transcriptomic data provide an image of the transcriptome which itself is the result of phenomena of activation or inhibition of gene expression. However, the image of the transcriptome is noisy. That is why, firstly we focus on the issue of transcriptomic data denoising, in a visualisation framework. To do so, we propose a regularised version of principal component analysis. This regularised version allows to better estimate and visualise the underlying signal of noisy data. In addition, we can wonder if the knowledge of only the transcriptome is enough to understand the complexity of relationships between genes. That is why we propose to integrate other sources of information about genes, and in an active way, in the analysis of transcriptomic data. Two major mechanisms seem to be involved in the regulation of gene expression, regulatory proteins (for instance transcription factors) and regulatory networks on the one hand, chromosomal localisation and genome architecture on the other hand. Firstly, we focus on the regulation of gene expression by regulatory proteins; we propose a gene clustering algorithm based on the integration of functional knowledge about genes, which is provided by Gene Ontology annotations. This algorithm provides clusters constituted by genes which have both similar expression profiles and similar functional annotations. The clusters thus constituted are then better candidates for interpretation. Secondly, we propose to link the study of transcriptomic data to chromosomal localisation in a methodology developed in collaboration with geneticists
Style APA, Harvard, Vancouver, ISO itp.
38

Doan, Nath-Quang. "Modèles hiérarchiques et topologiques pour le clustering et la visualisation des données". Paris 13, 2013. http://scbd-sto.univ-paris13.fr/secure/edgalilee_th_2013_doan.pdf.

Pełny tekst źródła
Streszczenie:
Cette thèse se concentre sur les approches hiérarchiques et topologiques pour le clustering et la visualisation de données. Le problème du clustering devient de plus en plus compliqué en raison de présence de données structurées sous forme de graphes, arbres ou données séquentielles. Nous nous sommes particulièrement intéressés aux cartes auto-organisatrices et au modèle hiérarchique AntTree qui modélise la capacité des fourmis réelles. En combinant ces approches, l’objectif est de présenter les données dans une structure hiérarchique et topologique. Dans ce rapport, nous présentons trois modèles, dans le premier modèle nous montrons l’intérêt d’utiliser les structures hiérarchiques et topologiques sur des ensembles de données structurés sous forme de graphes. Le second modèle est une version incrémentale qui n’impose pas de règles sur la préservation de la topologie. Le troisième modèle aborde notamment la problématique de la sélection de variable en utilisant la structure hiérarchique, nous proposons un nouveau score pour sélectionner les variables pertinentes en contraignant le score Laplacien. Enfin, cette thèse propose plusieurs perspectives pour des travaux futurs
This thesis focuses on clustering approaches inspired from topological models and an autonomous hierarchical clustering method. The clustering problem becomes more complicated and difficult due to the growth in quality and quantify of structured data such as graphs, trees or sequences. In this thesis, we are particularly interested in self-organizing maps which have been generally used for learning topological preservation, clustering, vector quantization and graph visualization. Our studyconcerns also a hierarchical clustering method AntTree which models the ability of real ants to build structure by connect themselves. By combining the topological map with the self-assembly rules inspired from AntTree, the goal is to represent data in a hierarchical and topological structure providing more insight data information. The advantage is to visualize the clustering results as multiple hierarchical trees and a topological network. In this report, we present three new models that are able to address clustering, visualization and feature selection problems. In the first model, our study shows the interest in the use of hierarchical and topological structure through several applications on numerical datasets, as well as structured datasets e. G. Graphs and biological dataset. The second model consists of a flexible and growing structure which does not impose the strict network-topology preservation rules. Using statistical characteristics provided by hierarchical trees, it accelerates significantly the learning process. The third model addresses particularly the issue of unsupervised feature selection. The idea is to use hierarchical structure provided by AntTree to discover automatically local data structure and local neighbors. By using the tree topology, we propose a new score for feature selection by constraining the Laplacian score. Finally, this thesis offers several perspectives for future work
Style APA, Harvard, Vancouver, ISO itp.
39

Esson, François. "Un logiciel de visualisation et de classification interactives de données quantitatives multidimensionnelles". Lille 1, 1997. http://www.theses.fr/1997LIL10089.

Pełny tekst źródła
Streszczenie:
Les travaux concernent le développement d'un logiciel de classification de données multidimensionnelles interactif basé sur une nouvelle méthode de représentation plane non linéaire. Les techniques d'analyse de données ont pour but de séparer un ensemble d'observations multidimensionnelles en différents sous groupes ou classes, ayant des propriétés voisines, ou des similarités. Dans notre cas, les données brutes ou observations sont quantitatives, obtenues à partir des mesures de n variables sur p échantillons d'une population d'objets donnée. Dans un problème en deux dimensions, les données peuvent être examinées visuellement et formeront un nuage de points sur un diagramme ; ainsi les différentes classes de données présentes pourront être identifiées sans description mathématique formelle de la similarité entre les observations, ni une définition précise de ce qu'est une classe. Notre nouveau mode de représentation plane, permet d'exploiter d'une manière similaire, les capacités discriminatoires de l'opérateur humain dans le cas de données multidimensionnelles. Prenons tout d'abord le cas d'un observateur virtuel évoluant dans l'espace tridimensionnel. Sa position dans l'espace sera définie en tant que point de vue, l'axe de son regard étant la direction de vue. Les coordonnées rectangulaires de la représentation plane d'un point dans l'espace seront d'une part la distances euclidienne entre le point de vue et ce point, d'autre part l'angle entre l'axe du regard de l'observateur virtuel, ou direction de vue, et la droites joignant ce point et le point de vue
A chaque nouvelle configuration du référentiel (point de vue, direction de vue) correspondra une représentation plane différente de l'ensemble des points de données. C'est la généralisation à la dimension n de ce concept qui est à la base du travail effectue. Le logiciel issu de cette nouvelle approche interactive dans le domaine de la classification multidimensionnelle et de la représentation plane de données multidimensionnelles devrait apporter un outil de travail intéressant pour des chercheurs qui sans être des spécialistes en analyse de données ou en programmation, seraient amenés à utiliser l'approche de la classification, pour leur travail
Style APA, Harvard, Vancouver, ISO itp.
40

Boudjeloud-Assala, Baya Lydia. "Visualisation et algorithmes génétiques pour la fouille de grands ensembles de données". Nantes, 2005. http://www.theses.fr/2005NANT2065.

Pełny tekst źródła
Streszczenie:
Nous présentons des approches coopératives combinant des méthodes interactives de visualisation et des méthodes automatiques de sélection de dimensions pour l'extraction de connaissances à partir de données. La plupart des méthodes actuelles de fouille de données fonctionnent de manière automatique, l'utilisateur n'est que peu impliqué dans le processus. Nous souhaitons impliquer de manière plus significative l'utilisateur dans le processus de fouille pour améliorer sa confiance et sa compréhension des modèles ou résultats obtenus. Par ailleurs ces méthodes doivent pouvoir traiter des quantités de plus en plus importantes de données. Nous cherchons aussi à améliorer les performances des algorithmes de fouille pour pouvoir traiter des ensembles de données de grandes dimensions. Nous avons développé un algorithme génétique de sélection de dimensions avec une fonction d'évaluation à base de distance pour la détection d'individu atypique (ou outlier) dans les ensembles de données ayant un grand nombre de dimensions. Cet algorithme recherche les outliers en n'utilisant qu'un petit sous-ensemble de dimensions et permet de retrouver les mêmes individus outliers que dans l'ensemble total des données. On peut ainsi traiter plus facilement de grands ensembles de données. De plus, comme le nombre de dimensions utilisées est faible, nous pouvons utiliser des méthodes de visualisation pour expliquer et interpréter les résultats de l'algorithme de détection d'outlier. Nous pouvons ainsi construire un modèle de l'expertise de l'expert des données pour qualifier les éléments détectés par exemple en tant qu'erreurs ou simplement individus atypiques (outliers). Nous avons ensuite développé une mesure pour la sélection de dimensions en classification non supervisée (clustering) et détection d'outlier. Cette mesure nous permet à la fois de retrouver les mêmes clusters que dans l'ensemble de données avec toutes ses dimensions et des clusters pouvant contenir très peu d'éléments (des outliers). L'interprétation visuelle des résultats obtenus nous indique les dimensions impliquées, ce sont les dimensions pertinentes et intéressantes pour le clustering ou la détection d'outlier. Enfin nous présentons un algorithme génétique semi-interactif permettant d'impliquer l'utilisateur dans le processus de sélection et d'évaluation du sous-ensemble de dimensions à utiliser
We present cooperative approaches using interactive visualization methods and automatic dimension selection methods for knowledge discovery in databases. Most existing data mining methods work in an automatic way, the user is not implied in the process. We try to involve more significantly the user role in the data mining process in order to improve his confidence and comprehensibility of the obtained models or results. Furthermore, the size of data sets is constantly increasing, these methods must be able to deal with large data sets. We try to improve the performances of the algorithms to deal with these high dimensional data sets. We developed a genetic algorithm for dimension selection with a distance-based fitness function for outlier detection in high dimensional data sets. This algorithm uses only a few dimensions to find the same outliers as in the whole data sets and can easily treat high dimensional data sets. The number of dimensions used being low enough, it is also possible to use visualization methods to explain and interpret outlier detection algorithm results. It is then possible to create a model from the data expert for example to qualify the detected element as an outlier or simply an error. We have also developed an evaluation measure for dimension selection in unsupervised classification and outlier detection. This measure enables us to find the same clusters as in the data set with its whole dimensions as well as clusters containing very few elements (outliers). Visual interpretation of the results shows the dimensions implied, they are considered as relevant and interesting for the clustering and outlier detection. Finally we present a semi-interactive genetic algorithm involving more significantly the user in the selection and evaluation process of the algorithm
Style APA, Harvard, Vancouver, ISO itp.
41

Allanic, Marianne. "Gestion et visualisation de données hétérogènes multidimensionnelles : application PLM à la neuroimagerie". Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2248/document.

Pełny tekst źródła
Streszczenie:
La neuroimagerie est confrontée à des difficultés pour analyser et réutiliser la masse croissante de données hétérogènes qu’elle produit. La provenance des données est complexe – multi-sujets, multi-analyses, multi-temporalités – et ces données ne sont stockées que partiellement, limitant les possibilités d’études multimodales et longitudinales. En particulier, la connectivité fonctionnelle cérébrale est analysée pour comprendre comment les différentes zones du cerveau travaillent ensemble. Il est nécessaire de gérer les données acquises et traitées suivant plusieurs dimensions, telles que le temps d’acquisition, le temps entre les acquisitions ou encore les sujets et leurs caractéristiques. Cette thèse a pour objectif de permettre l’exploration de relations complexes entre données hétérogènes, ce qui se décline selon deux axes : (1) comment gérer les données et leur provenance, (2) comment visualiser les structures de données multidimensionnelles. L’apport de nos travaux s’articule autour de trois propositions qui sont présentées à l’issue d’un état de l’art sur les domaines de la gestion de données hétérogènes et de la visualisation de graphes. Le modèle de données BMI-LM (Bio-Medical Imaging – Lifecycle Management) structure la gestion des données de neuroimagerie en fonction des étapes d’une étude et prend en compte le caractère évolutif de la recherche grâce à l’association de classes spécifiques à des objets génériques. L’implémentation de ce modèle au sein d’un système PLM (Product Lifecycle Management) montre que les concepts développés depuis vingt ans par l’industrie manufacturière peuvent être réutilisés pour la gestion des données en neuroimagerie. Les GMD (Graphes Multidimensionnels Dynamiques) sont introduits pour représenter des relations complexes entre données qui évoluent suivant plusieurs dimensions, et le format JGEX (Json Graph EXchange) a été créé pour permettre le stockage et l’échange de GMD entre applications. La méthode OCL (Overview Constraint Layout) permet l’exploration visuelle et interactive de GMD. Elle repose sur la préservation partielle de la carte mentale de l’utilisateur et l’alternance de vues complètes et réduites des données. La méthode OCL est appliquée à l’étude de la connectivité fonctionnelle cérébrale au repos de 231 sujets représentées sous forme de GMD – les zones du cerveau sont représentées par les nœuds et les mesures de connectivité par les arêtes – en fonction de l’âge, du genre et de la latéralité : les GMD sont obtenus par l’application de chaînes de traitement sur des acquisitions IRM dans le système PLM. Les résultats montrent deux intérêts principaux à l’utilisation de la méthode OCL : (1) l’identification des tendances globales sur une ou plusieurs dimensions et (2) la mise en exergue des changements locaux entre états du GMD
Neuroimaging domain is confronted with issues in analyzing and reusing the growing amount of heterogeneous data produced. Data provenance is complex – multi-subjects, multi-methods, multi-temporalities – and the data are only partially stored, restricting multimodal and longitudinal studies. Especially, functional brain connectivity is studied to understand how areas of the brain work together. Raw and derived imaging data must be properly managed according to several dimensions, such as acquisition time, time between two acquisitions or subjects and their characteristics. The objective of the thesis is to allow exploration of complex relationships between heterogeneous data, which is resolved in two parts : (1) how to manage data and provenance, (2) how to visualize structures of multidimensional data. The contribution follow a logical sequence of three propositions which are presented after a research survey in heterogeneous data management and graph visualization. The BMI-LM (Bio-Medical Imaging – Lifecycle Management) data model organizes the management of neuroimaging data according to the phases of a study and takes into account the scalability of research thanks to specific classes associated to generic objects. The application of this model into a PLM (Product Lifecycle Management) system shows that concepts developed twenty years ago for manufacturing industry can be reused to manage neuroimaging data. GMDs (Dynamic Multidimensional Graphs) are introduced to represent complex dynamic relationships of data, as well as JGEX (Json Graph EXchange) format that was created to store and exchange GMDs between software applications. OCL (Overview Constraint Layout) method allows interactive and visual exploration of GMDs. It is based on user’s mental map preservation and alternating of complete and reduced views of data. OCL method is applied to the study of functional brain connectivity at rest of 231 subjects that are represented by a GMD – the areas of the brain are the nodes and connectivity measures the edges – according to age, gender and laterality : GMDs are computed through processing workflow on MRI acquisitions into the PLM system. Results show two main benefits of using OCL method : (1) identification of global trends on one or many dimensions, and (2) highlights of local changes between GMD states
Style APA, Harvard, Vancouver, ISO itp.
42

Lange, Benoît. "Visualisation interactive de données hétérogènes pour l'amélioration des dépenses énergétiques du bâtiment". Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20172/document.

Pełny tekst źródła
Streszczenie:
De nos jours, l'économie d'énergie est devenue un enjeu crucial. Les bâtiments des différents pays ont été identifiés comme étant une source importante de perte énergétique. De ce constat a émergé le projet RIDER (Reasearch for IT Driven EneRgy efficiency). Ce projet a pour objectif de développer un système d'information innovant permettant d'optimiser la consommation énergétique d'un bâtiment ou d'un groupe de bâtiments. Ce système est basé sur des composants logiciels, notamment une solution générale de modélisation du bâtiment, une solution de fouille de données, une solution de visualisation. Chacun de ces composants est destiné à améliorer le modèle de données de RIDER. Dans ce manuscrit, nous nous intéressons à la partie visualisation et nous proposons donc une solution d'amélioration du modèle par cette méthode. Dans ces travaux, nous allons présenter les solutions que nous avons mises en place pour modéliser le bâtiment ; pour ce faire nous avons utilisé une solution à base de particules dont la valeur est interpolée par rapport aux différents capteurs du bâtiment. Nous présentons également les différentes solutions mises en place pour visualiser les données et les méthodes d'interactions pour améliorer le modèle du bâtiment. Enfin, notre dernière partie présente les résultats de notre solution au travers de deux jeux de données
Energy efficiencies are became a major issue. Building from any country have been identified as gap of energy, building are not enough insulated and energy loss by this struc- ture represent a major part of energy expenditure. RIDER has emerged from this viewpoint, RIDER for Research for IT Driven EneRgy efficiency. This project has goal to develop a new kind of IT system to optimize energy consumption of buildings. This system is based on a component paradigm, which is composed by a pivot model, a data warehouse with a data mining approach and a visualization tool. These two last components are developed to improve content of pivot model.In this manuscript, our focus was on the visualization part of the project. This manuscript is composed in two parts: state of the arts and contributions. Basic notions, a visualization chapter and a visual analytics chapter compose the state of the art. In the contribution part, we present data model used in this project, visualization proposed and we conclude with two experimentations on real data
Style APA, Harvard, Vancouver, ISO itp.
43

Boucheny, Christian. "Visualisation scientifique interactive de grands volumes de données : pour une approche perceptive". Grenoble 1, 2009. http://www.theses.fr/2009GRE10021.

Pełny tekst źródła
Streszczenie:
L’explosion de la puissance de calcul permet actuellement de réaliser des simulations physiques comportant jusqu’à plusieurs milliards d´éléments. Pour extraire l’information importante de tels volumes de données, les ingénieurs doivent disposer d’outils de visualisation permettant d’explorer et d’analyser interactivement les champs calculés. Cette thèse vise à améliorer les visualisations réalisées en prenant en compte les caractéristiques de la perception visuelle chez l’homme, notamment en ce qui concerne la perception de l’espace et du volume au cours de visualisations 3D denses. D��abord, trois expériences de psychophysique ont montré que les rendus volumiques, reposant sur l’accumulation ordonnée de transparences, génèrent des difficultés importantes de perception de la profondeur. Cela est particulièrement vrai lors de visualisations statiques, mais l’ajout de mouvement dans la scène ainsi que l’amplification de la projection perspective permettent de lever en partie ces ambigüités. Ensuite, deux algorithmes améliorant la perception de l’espace lors de la visualisation de structures tridimensionnelles complexes ont été développés. Leur implémentation sur GPU permet des rendus interactifs indépendamment de la nature géomérique des données visualisées. L’EyeDome Lighting, un nouvel ombrage non photoréaliste basé sur l’image de profondeur, améliore la perception des formes et des profondeurs dans des scènes 3D complexes. Par ailleurs, une nouvelle technique d'écorché dépendant du point de vue a été implémentée. Elle autorise la visualisation d’objets normalement occultés tout en rendant compte de la structure des surfaces masquantes
With the fast increase in computing power, numerical simulations of physical phenomena can nowadays rely on up to billions of elements. To extract relevant information in the huge resulting data sets, engineers need visualization tools permitting an interactive exploration and analysis of the computed fields. The goal of this thesis is to improve the visualizations performed by engineers by taking into account the characteristics of the human visual perception, with a particular focus on the perception of space and volume during the visualization of dense 3D data. Firstly, three psychophysics experiments have shown that direct volume rendering, a technique relying on the ordered accumulation of transparencies, provide very ambiguous cues to depth. This is particularly true for static presentations, while the addition of motion and exaggerated perspective cues help to solve part of these difficulties. Then, two algorithms have been developed to improve depth perception during the visualization of complex 3D structures. They have been implemented on the GPU, to achieve interactive renderings independently of the geometric nature of the analysed data. EyeDome Lighting is a new non-photorealistic shading technique that relies on the projected depth image of the scene. This algorithm enhances the perception of shapes and relative depths in complex 3D scenes. Also, a new fast view-dependent cutaway technique has been implemented, which permits to access otherwise occluded objects while providing cues to understand the structure in depth of masking objects
Style APA, Harvard, Vancouver, ISO itp.
44

Bothorel, Gwenael. "Algorithmes automatiques pour la fouille visuelle de données et la visualisation de règles d’association : application aux données aéronautiques". Phd thesis, Toulouse, INPT, 2014. http://oatao.univ-toulouse.fr/13783/1/bothorel.pdf.

Pełny tekst źródła
Streszczenie:
Depuis quelques années, nous assistons à une véritable explosion de la production de données dans de nombreux domaines, comme les réseaux sociaux ou le commerce en ligne. Ce phénomène récent est renforcé par la généralisation des périphériques connectés, dont l'utilisation est devenue aujourd'hui quasi-permanente. Le domaine aéronautique n'échappe pas à cette tendance. En effet, le besoin croissant de données, dicté par l'évolution des systèmes de gestion du trafic aérien et par les événements, donne lieu à une prise de conscience sur leur importance et sur une nouvelle manière de les appréhender, qu'il s'agisse de stockage, de mise à disposition et de valorisation. Les capacités d'hébergement ont été adaptées, et ne constituent pas une difficulté majeure. Celle-ci réside plutôt dans le traitement de l'information et dans l'extraction de connaissances. Dans le cadre du Visual Analytics, discipline émergente née des conséquences des attentats de 2001, cette extraction combine des approches algorithmiques et visuelles, afin de bénéficier simultanément de la flexibilité, de la créativité et de la connaissance humaine, et des capacités de calculs des systèmes informatiques. Ce travail de thèse a porté sur la réalisation de cette combinaison, en laissant à l'homme une position centrale et décisionnelle. D'une part, l'exploration visuelle des données, par l'utilisateur, pilote la génération des règles d'association, qui établissent des relations entre elles. D'autre part, ces règles sont exploitées en configurant automatiquement la visualisation des données concernées par celles-ci, afin de les mettre en valeur. Pour cela, ce processus bidirectionnel entre les données et les règles a été formalisé, puis illustré, à l'aide d'enregistrements de trafic aérien récent, sur la plate-forme Videam que nous avons développée. Celle-ci intègre, dans un environnement modulaire et évolutif, plusieurs briques IHM et algorithmiques, permettant l'exploration interactive des données et des règles d'association, tout en laissant à l'utilisateur la maîtrise globale du processus, notamment en paramétrant et en pilotant les algorithmes.
Style APA, Harvard, Vancouver, ISO itp.
45

Dillenseger, Jean-Louis. "Visualisation Scientifique en médecine.Application à la visualisation de l'anatomie et à la visualisation en épileptologie clinique". Habilitation à diriger des recherches, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00130932.

Pełny tekst źródła
Streszczenie:
En médecine, le rôle de l'image est primordial. Depuis la renaissance, l'image a été un des vecteurs principaux de la transmission du savoir. Plus récemment, l'essor des techniques d'imageries tridimensionnelles n'a fait qu'étendre l'importance de l'image à la plupart des disciplines et des procédures médicales. Tout naturellement donc, la médecine a représenté un des domaines d'application privilégiés de la visualisation scientifique. Mes travaux de recherche s'inscrivent directement dans cette discipline de la visualisation scientifique et se présentent sous la forme de solutions de représentations originales apportées et associées à certaines problématiques médicales.
Pour cela, une réflexion sur l'outil de visualisation a été menée afin de proposer un cadre bien défini qui puisse guider l'élaboration d'un outil de représentation répondant à une discipline et à une problématique particulière. Le point le plus original de cette réflexion concerne un essai de formalisation de l'évaluation de la performance des outils de visualisation.
Deux grands domaines d'application ont justement permis de démontrer la pertinence de ce cadre général de la visualisation :
- La visualisation générale de l'anatomie avec, dans un premier temps, la conception d'un outil générique de visualisation de données médicale, le lancer de rayons multifonctions. Cet outil a été ensuite étendu selon deux axes de recherche, d'une part l'intégration de modèles de connaissances dans la procédure de synthèse d'images et d'autre part, l'imagerie interventionnelle et plus particulièrement des applications en urologie.
- Les apports de la visualisation pour l'interprétation des données recueillies sur le patient épileptique et plus particulièrement l'élaboration d'outils complémentaires permettant une analyse progressive des mécanismes et structures impliqués dans la crise.
Style APA, Harvard, Vancouver, ISO itp.
46

Pham, Huy Hoang. "Cohérence des données dans les services coopératifs télécom pour les utilisateurs mobiles". Grenoble INPG, 2002. http://www.theses.fr/2002INPG0057.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
47

Malinowski, Simon. "Codes joints source-canal pour transmission robuste sur canaux mobiles". Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/malinowski.pdf.

Pełny tekst źródła
Streszczenie:
L'étude menée dans cette thèse s'inscrit dans le contexte du codage conjoint source-canal. L'émergence de ce domaine depuis quelques années est dû aux limites, notamment au niveau applicatif, du théorème de séparation de Shannon. Ce théorème stipule que les opérations de codage de source et de codage de canal peuvent être réalisées séparément sans perte d'optimalité. Depuis quelques années, de nombreuses études visant à réaliser conjointement ces deux opérations ont vu le jour. Les codes de source, comme les codes à longueur variables ou les codes quasi-arithmétique ont beaucoup été étudié. Nous avons travaillé sur ces deux types de codes dans le contexte de codage conjoint source-canal dans ce document. Un modèle d'état pour le décodage souple des codes à longueur variable et des codes quasi-arithmétique est proposé. Ce modèle est paramétré par un entier T qui permet de doser un compromis entre performance et complexité du décodage. Les performances des codes sur ce modèle sont ensuite analysées en étudiant leurs propriétés de resynchronisation. Les méthodes d'étude de ces propriétés ont dû être adaptées aux codes QA et au canal à bruit additif blanc gaussien pour les besoins de cette analyse. Les performances des codes sur le modèle agrégé peuvent ainsi être prévues en fonction de la valeur du paramètre T et du code considéré. Un schéma de décodage robuste avec information adjacente est ensuite proposé. La redondance ajoutée se présente sous la forme de contraintes partielles appliquées pendant le décodage. Cette redondance peut être ajoutée de manière très flexible et ne nécessite pas d'être introduite à l'intérieur du train binaire. Enfin, deux schémas de codage de source distribué utilisant des codes quasi arithmétiques sont proposés. Le premier schéma réalise la compression en poinçonnant la sortie du code, tandis que le deuxième utilise un nouveau type de code : les codes quasi-arithmétiques avec recouvrement d'intervalle. Les résultats présentés par ces deux schémas sont compétitifs comparativement aux schémas classiques utilisant des codes de canal
Joint source-channel coding has been an area of recent research activity. This is due in particular to the limits of Shannon's separation theorem, which states that source and channel coding can be performed separately in order to reach optimality. Over the last decade, various works have considered performing these operations jointly. Source codes have hence been deeply studied. In this thesis, we have worked with these two kind of codes in the joint source-channel coding context. A state model for soft decoding of variable length and quasi-arithmetic codes is proposed. This state model is parameterized by an integer T that controls a trade-off between decoding performance and complexity. The performance of these source codes on the aggregated state model is then analyzed together with their resynchronisation properties. It is hence possible to foresee the performance of a given code with respect to the aggregation parameter T. A robust decoding scheme exploiting side information is then presented. The extra redundancy is under the form of partial length constraints at different time instants of the decoding process. Finally, two different distributed coding schemes based on quasi-arithmetic codes are proposed. The first one is based on puncturing the output of the quasi-arithmetic bit-stream, while the second uses a new kind of codes : overlapped quasi-arithmetic codes. The decoding performance of these schemes is very competitive compared to classical techniques using channel codes
Style APA, Harvard, Vancouver, ISO itp.
48

Wan, Tao. "Modélisation et implémentation de systèmes OLAP pour des objets mobiles". Versailles-St Quentin en Yvelines, 2007. http://www.theses.fr/2007VERS0001.

Pełny tekst źródła
Streszczenie:
Le développement considérable des techniques de géo localisation et des périphériques mobiles mène à une profusion de bases d'objet: mobiles et soulève la question de l'exploitation pour l'aide à la décision. Si les systèmes conventionnels d'analyse en ligne (OLAP) sont utilisés efficacement dans l'analyse des données basées sur la modélisation multidimensionnelle, ils ne sont pas adaptés aux bases d'objets mobiles. Ces objets possèdent outre les attributs descriptifs, une trajectoire variant continuellement dans des dimensions spatiales et temporelles. Dans cette étude, nous nous focalisons sur le problème de l'entreposage de tels objets. Ses contributions sont. , (1) deux modèles multidimensionnels permettant l'exploration analytique de tels objets en ligne; l'un offre une implémentation aisée, tandis que l'autre fournit un pouvoir d'expression puissant. (2) une implémentation optimisée afin de répondre efficacement aux requêtes de type d'agrégation par intervalle dans le contexte de systèmes OLAP
The rapid growth of gao-location techniques and mobile devices led to the profusion of Mobile Objects databases. This raises a new issu concerning their use for decision support. While conventional On-Line Analytical Processing (OLAP) systems are efficiently used in data analysi&tI:\aOks to their multidimensional modelling, they are not adapted to MOs which consider information that evolves continuously over time (e. G. , position). Ln this study, we focus on the problem of data warehousing such objects. The contributions are: (1) two multidimensional models allowing their on-line analytical processing; one offers a well-to-do implementation, whereas the other one supplies a powerful representation; (2) an optimized implementation dedicated to answer efficiently typical spatiotemporal OLAP queries in context of OLAP systems
Style APA, Harvard, Vancouver, ISO itp.
49

Jamin, Clément. "Algorithmes et structures de données compactes pour la visualisation interactive d’objets 3D volumineux". Thesis, Lyon 1, 2009. http://www.theses.fr/2009LYO10133.

Pełny tekst źródła
Streszczenie:
Les méthodes de compression progressives sont désormais arrivées à maturité (les taux de compression sont proches des taux théoriques) et la visualisation interactive de maillages volumineux est devenue une réalité depuis quelques années. Cependant, même si l’association de la compression et de la visualisation est souvent mentionnée comme perspective, très peu d’articles traitent réellement ce problème, et les fichiers créés par les algorithmes de visualisation sont souvent beaucoup plus volumineux que les originaux. En réalité, la compression favorise une taille réduite de fichier au détriment de l’accès rapide aux données, alors que les méthodes de visualisation se concentrent sur la rapidité de rendu : les deux objectifs s’opposent et se font concurrence. A partir d’une méthode de compression progressive existante incompatible avec le raffinement sélectif et interactif, et uniquement utilisable sur des maillages de taille modeste, cette thèse tente de réconcilier compression sans perte et visualisation en proposant de nouveaux algorithmes et structures de données qui réduisent la taille des objets tout en proposant une visualisation rapide et interactive. En plus de cette double capacité, la méthode proposée est out-of-core et peut traiter des maillages de plusieurs centaines de millions de points. Par ailleurs, elle présente l’avantage de traiter tout complexe simplicial de dimension n, des soupes de triangles aux maillages volumiques
Progressive compression methods are now mature (obtained rates are close to theoretical bounds) and interactive visualization of huge meshes has been a reality for a few years. However, even if the combination of compression and visualization is often mentioned as a perspective, very few papers deal with this problem, and the files created by visualization algorithms are often much larger than the original ones. In fact, compression favors a low file size to the detriment of a fast data access, whereas visualization methods focus on rendering speed : both goals are opposing and competing. Starting from an existing progressive compression method incompatible with selective and interactive refinements and usable on small-sized meshes only, this thesis tries to reconcile lossless compression and visualization by proposing new algorithms and data structures which radically reduce the size of the objects while supporting a fast interactive navigation. In addition to this double capability, our method works out-of-core and can handle meshes containing several hundreds of millions vertices. Furthermore, it presents the advantage of dealing with any n-dimensional simplicial complex, which includes triangle soups or volumetric meshes
Style APA, Harvard, Vancouver, ISO itp.
50

Lê, Thanh Vu. "Visualisation interactive 3D pour un ensemble de données géographiques de très grande taille". Pau, 2011. http://www.theses.fr/2011PAUU3005.

Pełny tekst źródła
Streszczenie:
La visualisation temps réel du terrain reste depuis longtemps un domaine de recherche actif dans de nombreuses applications informatiques comme les systèmes d’information géographique (SIG), les jeux en 3D ou la réalité virtuelle. L’évolution des techniques d’acquisitions de données et l’amélioration des techniques de visualisation nous apportent une augmentation considérable dans la résolution des données pour les modèles numérique de terrain (MNT) et dans les nouvelles méthodes d’affichage pour représenter ces informations. Dans cette thèse, nous présentons notre framework de rendu de terrain que nous résumons ici en plusieurs contributions : notre première contribution consiste en une architecture simple et efficace qui permet de visualiser des terrains de très grande taille. La méthode utilisée permet de travailler hors mémoire centrale en utilisant une structure de données de type quadtree tout en étant capable de garder une précision de la géométrie et de la couleur au niveau pixel grâce aux différents critères de subdivision. Notre architecture sépare la gestion des données raster sur le CPU et l’affichage en 3D effectuée sur le GPU. Notre deuxième contribution est une méthode originale pour enlever les artéfacts qui apparaissent sur la jointure entre la frontière des blocs de quadtree, nous générons une surface continue sans avoir besoin d’utiliser de maillages supplémentaires. Notre dernière contribution est une méthode efficace adaptée avec notre structure de données pour le geomorphing, cette dernière peut être implémentée entièrement sur le GPU. Par rapport aux méthodes existantes, nos méthodes présentent de nombreux avantages : il n’y a pas de gestion de maillage dans la structure de données ; la complexité du terrain est contrôlable jusqu’au niveau du pixel et dépend de la projection d’erreur métrique, le terrain de basse précision géométrique obtient toujours une bonne précision en ce qui concerne la silhouette des objets grâce à la technique dite du normal ; une grande vitesse d’interaction et de rendu grâce au chargement de données à la demande ; et enfin une transformation similaire pour la géométrie et la texture qui facilite la gestion de données par le CPU
Real-time terrain rendering remains an active area of research for a lot of modern computer based applications such as geographic information systems (GIS), interactive 3D games, flights simulators or virtual reality. The technological breakthroughs in data aquisition, coupled with recent advances in display technology have simultaneously led to substantial increases in resolution of both the Digital Elevation Models (DEM) and the various displays used to present this information. In this phD, we have presented a new out-of-core terrain visualization algorithm that achieves per-pixel accurate shading of large textured elevation maps in real-time : our first contribution is the LOD scheme which is based on a small precomputed quadtree of geometric errors, whose nodes are selected for asynchronous loading and rendering depending on a projection in screenspace of those errors. The terrain data and its color texture are manipulated by the CPU in a unified manner as a collection of raster image patches, whose dimensions depends on their screen-space occupancy ; our second contribution is a novel method to remove artifacts that appear on the border between quadtree blocks, we generate a continuous surface without needing additional mesh ; our latest contribution is an effective method adapted to our data structure for the geomorphing, it can be implemented entirely on the GPU. The presented framework exhibits several interesting features over other existing techniques : there is no mesh manipulation or mesh data structures required ; terrain geometric complexity only depends on projected elevation error views from above result in very coarse meshes), lower geometric complexity degrades terrain silhouettes but not details brought in through normal map shading, real-time rendering with support for progressive data loading ; and geometric information and color textures are similarly and efficiently handled as raster data by the CPU. Due to simplified data structures, the system is compact, CPU and GPU efficient and is simple to implement
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii