Thèses sur le sujet « Exploration interactive de données »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Exploration interactive de données.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Exploration interactive de données ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Alam, Mehwish. « Découverte interactive de connaissances dans le web des données ». Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0158/document.

Texte intégral
Résumé :
Récemment, le « Web des documents » est devenu le « Web des données », i.e, les documents sont annotés sous forme de triplets RDF. Ceci permet de transformer des données traitables uniquement par les humains en données compréhensibles par les machines. Ces données peuvent désormais être explorées par l'utilisateur par le biais de requêtes SPARQL. Par analogie avec les moteurs de clustering web qui fournissent des classifications des résultats obtenus à partir de l'interrogation du web des documents, il est également nécessaire de réfléchir à un cadre qui permette la classification des réponses aux requêtes SPARQL pour donner un sens aux données retrouvées. La fouille exploratoire des données se concentre sur l'établissement d'un aperçu de ces données. Elle permet également le filtrage des données non-intéressantes grâce à l'implication directe des experts du domaine dans le processus. La contribution de cette thèse consiste à guider l'utilisateur dans l'exploration du Web des données à l'aide de la fouille exploratoire de web des données. Nous étudions trois axes de recherche, i.e : 1) la création des vues sur les graphes RDF et la facilitation des interactions de l'utilisateur sur ces vues, 2) l'évaluation de la qualité des données RDF et la complétion de ces données 3) la navigation et l'exploration simultanée de multiples ressources hétérogènes présentes sur le Web des données. Premièrement, nous introduisons un modificateur de solution i.e., View By pour créer des vues sur les graphes RDF et classer les réponses aux requêtes SPARQL à l'aide de l'analyse formelle des concepts. Afin de naviguer dans le treillis de concepts obtenu et d'extraire les unités de connaissance, nous avons développé un nouvel outil appelé RV-Explorer (RDF View Explorer ) qui met en oeuvre plusieurs modes de navigation. Toutefois, cette navigation/exploration révèle plusieurs incompletions dans les ensembles des données. Afin de compléter les données, nous utilisons l'extraction de règles d'association pour la complétion de données RDF. En outre, afin d'assurer la navigation et l'exploration directement sur les graphes RDF avec des connaissances de base, les triplets RDF sont groupés par rapport à cette connaissance de base et ces groupes peuvent alors être parcourus et explorés interactivement. Finalement, nous pouvons conclure que, au lieu de fournir l'exploration directe nous utilisons ACF comme un outil pour le regroupement de données RDF. Cela permet de faciliter à l'utilisateur l'exploration des groupes de données et de réduire ainsi son espace d'exploration par l'interaction
Recently, the “Web of Documents” has become the “Web of Data”, i.e., the documents are annotated in the form of RDF making this human processable data directly processable by machines. This data can further be explored by the user using SPARQL queries. As web clustering engines provide classification of the results obtained by querying web of documents, a framework for providing classification over SPARQL query answers is also needed to make sense of what is contained in the data. Exploratory Data Mining focuses on providing an insight into the data. It also allows filtering of non-interesting parts of data by directly involving the domain expert in the process. This thesis contributes in aiding the user in exploring Linked Data with the help of exploratory data mining. We study three research directions, i.e., 1) Creating views over RDF graphs and allow user interaction over these views, 2) assessing the quality and completing RDF data and finally 3) simultaneous navigation/exploration over heterogeneous and multiple resources present on Linked Data. Firstly, we introduce a solution modifier i.e., View By to create views over RDF graphs by classifying SPARQL query answers with the help of Formal Concept Analysis. In order to navigate the obtained concept lattice and extract knowledge units, we develop a new tool called RV-Explorer (Rdf View eXplorer) which implements several navigational modes. However, this navigation/exploration reveal several incompletions in the data sets. In order to complete the data, we use association rule mining for completing RDF data. Furthermore, for providing navigation and exploration directly over RDF graphs along with background knowledge, RDF triples are clustered w.r.t. background knowledge and these clusters can then be navigated and interactively explored. Finally, it can be concluded that instead of providing direct exploration we use FCA as an aid for clustering RDF data and allow user to explore these clusters of data and enable the user to reduce his exploration space by interaction
Styles APA, Harvard, Vancouver, ISO, etc.
2

Da, Costa David. « Visualisation et fouille interactive de données à base de points d'intérêts ». Tours, 2007. http://www.theses.fr/2007TOUR4021.

Texte intégral
Résumé :
Dans ce travail de thèse, nous présentons le problème de la visualisation et la fouille de données. Nous remarquons généralement que les méthodes de visualisation sont propres aux types de données et qu'il est nécessaire de passer beaucoup de temps à analyser les résultats afin d'obtenir une réponse satisfaisante sur l'aspect de celle-ci. Nous avons donc développé une méthode de visualisation basée sur des points d'intérêts. Cet outil visualise tous types de données et est générique car il utilise seulement une mesure de similarité. Par ailleurs ces méthodes doivent pouvoir traiter des grands volumes de données. Nous avons aussi cherché à améliorer les performances de nos algorithmes de visualisation, c'est ainsi que nous sommes parvenus à représenter un million de données. Nous avons aussi étendu notre outil à la classification non supervisée de données. La plupart des méthodes actuelles de classificatoin non supervisée de données fonctionnent de manière automatique, l'utilisateur n'est que peu impliqué dans le processus. Nous souhaitons impliquer l'utilisateur de manière plus significative dans le processus de la classification pour améliorer sa compréhension des données
In this thesis, we present the problem of the visual data mining. We generally notice that it is specific to the types of data and that it is necessary to spend a long time to analyze the results in order to obtain an answer on the aspect of data. In this thesis, we have developed an interactive visualization environment for data exploration using points of interest. This tool visualizes all types of data and is generic because it uses only one similarity measure. These methods must be able to deal with large data sets. We also sought to improve the performances of our visualization algorithms, thus we managed to represent one million data. We also extended our tool to the data clustering. Most existing data clustering methods work in an automatic way, the user is not implied iin the process. We try to involve more significantly the user role in the data clustering process in order to improve his comprehensibility of the data results
Styles APA, Harvard, Vancouver, ISO, etc.
3

Hurter, Christophe. « Caractérisation de visualisations et exploration interactive de grandes quantités de données multidimensionnelles ». Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00610623.

Texte intégral
Résumé :
Un grand nombre d'activités utilise des outils informatisés s'appuyant sur des représentations graphiques interactives. En tant que vecteurs de transmission d'informations, ces visualisations visent à optimiser la bande passante entre le visuel et l'utilisateur. Pour créer des visualisations efficaces, les concepteurs utilisent des méthodes basées sur leur expertise et sur des tests utilisateurs. Ces méthodes altèrent le processus de design : elles sont chronophages et ne reposent pas sur des fondements théoriques précis qui pourraient éviter des erreurs de conception en amont. Afin de mieux étudier les visualisations, nous proposons de les caractériser, c'est-à-dire d'en énumérer et d'en définir systématiquement les propriétés, tout en explicitant les phénomènes visuels qui engendrent la transmission d'informations. La thèse que nous soutenons consiste à dire que la caractérisation des visualisations est importante pour leurs conceptions, et que son opérationnalisation par des méthodes et des outils permet de concevoir de meilleurs systèmes interactifs. Ainsi, nous avons déterminé qu'une caractérisation est composée de deux éléments : son contenu et sa mise en forme. Nous montrons que le modèle de Data Flow, modèle usuel permettant la description de la construction de visualisations, ne permet pas de les caractériser. Nous proposons d'autres modèles qui permettent de caractériser l'aspect dynamique, les informations émergentes (et notamment celles issues des visualisations dites "écologiques"), ainsi que l'accumulation graphique. En utilisant des visualisations issues du milieu du transport aérien, nous montrons comment la caractérisation permet de comprendre leurs similitudes et leurs différences, de lever les ambiguïtés de communication entre concepteurs, et de concevoir, par exemple, une nouvelle visualisation schématique de routes aériennes. Enfin, nous avons réifié le processus de transformation d'un ensemble de données vers une visualisation sous la forme d'un logiciel d'exploration et de visualisation de grandes quantités de données multidimensionnelles : From Data To Display (FromDaDy). Ce logiciel s'appuie notamment sur l'exploration des configurations visuelles, et sur un ensemble d'interactions originales avec une implémentation performante. FromDady permet de configurer et de manipuler en temps réel des visualisations riches et originales, comme celles utilisant l'accumulation.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Ben, Said Guefrech Zohra. « A virtual reality-based approach for interactive and visual mining of association rules ». Nantes, 2012. http://archive.bu.univ-nantes.fr/pollux/show.action?id=359deab9-229a-4369-908d-bfbbe98adaea.

Texte intégral
Résumé :
Cette thèse se situe à l’intersection de deux domaines actifs de recherche : la fouille de règles d’association et la réalité virtuelle. Les limites majeures des algorithmes d’extraction de règles d’association sont (i) la grande quantité de règles produites et (ii) leur faible qualité. Dans la littérature, plusieurs solutions ont été proposées pour remédier à ce problème, comme le post-traitement de règles d’association qui permet la validation des règles et l’extraction de connaissances utiles. Cependant, alors que les règles sont extraites automatiquement par des algorithmes combinatoires, le post-traitement de règles est effectué par l’utilisateur. La visualisation peut aider l’utilisateur à faire face à une grande quantité de règles en les représentants sous forme visuelle. Afin de trouver les connaissances pertinentes dans les représentations visuelles, l’utilisateur doit interagir avec la représentation de règles d’association. Par conséquent, il est essentiel de fournir à l’utilisateur des techniques d’interaction efficaces. Ce travail aborde deux problèmes essentiels : la représentation de règles d’association afin de permettre à l’utilisateur de détecter très rapidement les règles les plus intéressantes et l’exploration interactive des règles. Le premier exige une métaphore intuitive de représentation de règles d’association. Le second nécessite un processus d’exploration très interactif permettant à l’utilisateur de fouiller l’espace de règles en se concentrant sur les règles intéressantes. Les principales contributions de ce travail peuvent être résumées comme suit : – Nous proposons une nouvelle classification pour les techniques de fouille visuelles de données, basée sur des représentations en 3D et des techniques d’interaction. Une telle classification aide l’utilisateur à choisir une configuration pertinente pour son application. – Nous proposons une nouvelle métaphore de visualisation pour les règles d’association qui prend en compte les attributs de la règle, la contribution de chacun d’eux et leurs corrélations. – Nous proposons une méthodologie pour l’exploration interactive de règles d’association. Elle est conçue pour faciliter la tâche de l’utilisateur face à des grands ensembles de règles en tenant en compte ses capacités cognitives. Dans cette méthodologie, des algorithmes locaux sont utilisés pour recommander les meilleures règles basées sur une règle de référence proposée par l’utilisateur. Ensuite, l’utilisateur peut à la fois diriger l’extraction et le post-traitement des règles en utilisant des opérateurs d’interaction appropriés. – Nous avons développé un outil qui implémente toutes les fonctionnalités de la méthodologie. Notre outil est basé sur un affichage intuitif dans un environnement virtuel et prend en charge plusieurs méthodes d’interaction
This thesis is at the intersection of two active research areas : Association Rules Mining and Virtual Reality. The main limitations of the association rule extraction algorithms are (i) the large amount of the generated rules and (ii) their low quality. Several solutions have been proposed to address this problem such as, the post-processing of association rules that allows rule validation and extraction of useful knowledge. Whereas rules are automatically extracted by combinatorial algorithms, rule post-processing is done by the user. Visualisation can help the user facing the large amount of rules by representing them in visual form. In order to find relevant knowledge in visual representations, the user needs to interact with these representations. To this aim, it is essential to provide the user with efficient interaction techniques. This work addresses two main issues : an association rule representation that allows the user quickly detection of the most interesting rules and interactive exploration of rules. The first issue requires an intuitive representation metaphor of association rules. The second requires an interactive exploration process allowing the user to explore the rule search space focusing on interesting rules. The main contributions of this work can be summarised as follows : – We propose a new classification for Visual Data Mining techniques, based on both 3D representations and interaction techniques. Such a classification helps the user choosing a visual representation and an interaction technique for his/her application. – We propose a new visualisation metaphor for association rules that takes into account the attributes of the rule, the contribution of each one, and their correlations. – We propose a methodology for interactive exploration of association rules to facilitate the user task facing large sets of rules taking into account his/her cognitive capabilities. In this methodology, local algorithms are used to recommend better rules based on a reference rule which is proposed by the user. Then, the user can both drives extraction and post-processing of rules using appropriate interaction operators. – We developed a tool that implements all the methodology functionality. The tool is based on an intuitive display in a virtual environment and supports multiple interaction methods
Styles APA, Harvard, Vancouver, ISO, etc.
5

Djedaini, Mahfoud. « Automatic assessment of OLAP exploration quality ». Thesis, Tours, 2017. http://www.theses.fr/2017TOUR4038/document.

Texte intégral
Résumé :
Avant l’arrivée du Big Data, la quantité de données contenues dans les bases de données était relativement faible et donc plutôt simple à analyser. Dans ce contexte, le principal défi dans ce domaine était d’optimiser le stockage des données, mais aussi et surtout le temps de réponse des Systèmes de Gestion de Bases de Données (SGBD). De nombreux benchmarks, notamment ceux du consortium TPC, ont été mis en place pour permettre l’évaluation des différents systèmes existants dans des conditions similaires. Cependant, l’arrivée de Big Data a complètement changé la situation, avec de plus en plus de données générées de jour en jour. Parallèlement à l’augmentation de la mémoire disponible, nous avons assisté à l’émergence de nouvelles méthodes de stockage basées sur des systèmes distribués tels que le système de fichiers HDFS utilisé notamment dans Hadoop pour couvrir les besoins de stockage technique et le traitement Big Data. L’augmentation du volume de données rend donc leur analyse beaucoup plus difficile. Dans ce contexte, il ne s’agit pas tant de mesurer la vitesse de récupération des données, mais plutôt de produire des séquences de requêtes cohérentes pour identifier rapidement les zones d’intérêt dans les données, ce qui permet d’analyser ces zones plus en profondeur, et d’extraire des informations permettant une prise de décision éclairée
In a Big Data context, traditional data analysis is becoming more and more tedious. Many approaches have been designed and developed to support analysts in their exploration tasks. However, there is no automatic, unified method for evaluating the quality of support for these different approaches. Current benchmarks focus mainly on the evaluation of systems in terms of temporal, energy or financial performance. In this thesis, we propose a model, based on supervised automatic leaming methods, to evaluate the quality of an OLAP exploration. We use this model to build an evaluation benchmark of exploration support sys.terns, the general principle of which is to allow these systems to generate explorations and then to evaluate them through the explorations they produce
Styles APA, Harvard, Vancouver, ISO, etc.
6

Wang, Xiyao. « Augmented reality environments for the interactive exploration of 3D data ». Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG052.

Texte intégral
Résumé :
La visualisation exploratoire des données 3D est fondamentale dans des domaines scientifiques. Traditionnellement, les experts utilisent un PC et s'appuient sur la souris pour ajuster la vue. Cette configuration permet l'immersion par interaction---l'utilisateur peut contrôler précisément la vue, mais elle ne fournit pas de profondeur, qui limite la compréhension de données complexes. La réalité virtuelle ou augmentée (RV/A), en revanche, offre une immersion visuelle avec des vues stéréoscopiques. Bien que leurs avantages aient été prouvés, plusieurs points limitent leur application, notamment les besoins élevés de configuration/maintenance, les difficultés de contrôle précis et, plus important, la séparation des outils d'analyse traditionnels. Pour bénéficier des deux côtés, nous avons donc étudié un système hybride combinant l'environnement RA avec un PC pour fournir des immersions interactives et visuelles. Nous avons collaboré étroitement avec des physiciens des particules afin de comprendre leur processus de travail et leurs besoins de visualisation pour motiver notre conception. D'abord, basé sur nos discussions avec les physiciens, nous avons construit un prototype qui permet d'accomplir des tâches pour l'exploration de leurs données. Ce prototype traitait l'espace RA comme une extension de l'écran du PC et permettait aux utilisateurs d'interagir librement avec chacun d'eux avec la souris. Ainsi, les experts pouvaient bénéficier de l'immersion visuelle et utilisent les outils d'analyse sur PC. Une étude observationnelle menée avec 7 physiciens au CERN a validé la faisabilité et confirmé les avantages. Nous avons également constaté que la grande toile du RA et le fait de se déplacer pour observer les données dans le RA présentaient un grand potentiel. Cependant, la conception de l'interaction de la souris et l’utilisation de widgets dans la RA devaient être améliorés. Ensuite, nous avons décidé de ne pas utiliser intensivement les widgets plats dans la RA. Mais nous nous sommes demandé si l'utilisation de la souris pour naviguer dans la RA est problématique, et nous avons ensuite tenté d'étudier si la correspondance de la dimensionnalité entre les dispositifs d'entrée et de sortie joue un rôle important. Les résultats des études (qui ont comparé la performance de l'utilisation de la souris, de la souris spatiale et de la tablette tangible couplée à l'écran ou à l'espace de RA) n'ont pas montré que la correspondance était importante. Nous avons donc conclu que la dimensionnalité n'était pas un point critique à considérer, ce qui suggère que les utilisateurs sont libres de choisir toute entrée qui convient à une tâche spécifique. De plus, nos résultats ont montré que la souris restait un outil efficace. Nous pouvons donc valider notre conception et conserver la souris comme entrée principale, tandis que les autres modalités ne devraient servir que comme complément pour des cas spécifiques. Ensuite, pour favoriser l'interaction et conserver les informations pendant que les utilisateurs se déplacent en RA, nous avons proposé d'ajouter un appareil mobile. Nous avons introduit une nouvelle approche qui augmente l'interaction tactile avec la détection de pression pour la navigation 3D. Les résultats ont montré que cette méthode pouvait améliorer efficacement la précision, avec une influence limitée sur le temps. Nous pensons donc qu'elle est utile à des tâches de vis où une précision est exigée. Enfin, nous avons résumé tous les résultats obtenus et imaginé un scénario réaliste qui utilise un poste de travail PC, un casque RA et un appareil mobile. Les travaux présentés dans cette thèse montrent le potentiel de la combinaison d'un PC avec des environnements de RA pour améliorer le processus d'exploration de données 3D et confirment sa faisabilité, ce qui, nous l'espérons, inspirera la future conception qui apportera une visualisation immersive aux flux de travail scientifiques existants
Exploratory visualization of 3D data is fundamental in many scientific domains. Traditionally, experts use a PC workstation and rely on mouse and keyboard to interactively adjust the view to observe the data. This setup provides immersion through interaction---users can precisely control the view and the parameters, but it does not provide any depth clues which can limit the comprehension of large and complex 3D data. Virtual or augmented reality (V/AR) setups, in contrast, provide visual immersion with stereoscopic views. Although their benefits have been proven, several limitations restrict their application to existing workflows, including high setup/maintenance needs, difficulties of precise control, and, more importantly, the separation from traditional analysis tools. To benefit from both sides, we thus investigated a hybrid setting combining an AR environment with a traditional PC to provide both interactive and visual immersions for 3D data exploration. We closely collaborated with particle physicists to understand their general working process and visualization requirements to motivate our design. First, building on our observations and discussions with physicists, we built up a prototype that supports fundamental tasks for exploring their datasets. This prototype treated the AR space as an extension to the PC screen and allowed users to freely interact with each using the mouse. Thus, experts could benefit from the visual immersion while using analysis tools on the PC. An observational study with 7 physicists in CERN validated the feasibility of such a hybrid setting, and confirmed the benefits. We also found that the large canvas of the AR and walking around to observe the data in AR had a great potential for data exploration. However, the design of mouse interaction in AR and the use of PC widgets in AR needed improvements. Second, based on the results of the first study, we decided against intensively using flat widgets in AR. But we wondered if using the mouse for navigating in AR is problematic compared to high degrees of freedom (DOFs) input, and then attempted to investigate if the match or mismatch of dimensionality between input and output devices play an important role in users’ performance. Results of user studies (that compared the performance of using mouse, space mouse, and tangible tablet paired with the screen or the AR space) did not show that the (mis-)match was important. We thus concluded that the dimensionality was not a critical point to consider, which suggested that users are free to choose any input that is suitable for a specific task. Moreover, our results suggested that the mouse was still an efficient tool compared to high DOFs input. We can therefore validate our design of keeping the mouse as the primary input for the hybrid setting, while other modalities should only serve as an addition for specific use cases. Next, to support the interaction and to keep the background information while users are walking around to observe the data in AR, we proposed to add a mobile device. We introduced a novel approach that augments tactile interaction with pressure sensing for 3D object manipulation/view navigation. Results showed that this method could efficiently improve the accuracy, with limited influence on completion time. We thus believe that it is useful for visualization purposes where a high accuracy is usually demanded. Finally, we summed up in this thesis all the findings we have and came up with an envisioned setup for a realistic data exploration scenario that makes use of a PC workstation, an AR headset, and a mobile device. The work presented in this thesis shows the potential of combining a PC workstation with AR environments to improve the process of 3D data exploration and confirms its feasibility, all of which will hopefully inspire future designs that seamlessly bring immersive visualization to existing scientific workflows
Styles APA, Harvard, Vancouver, ISO, etc.
7

Destandau, Marie. « Path-Based Interactive Visual Exploration of Knowledge Graphs ». Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG063.

Texte intégral
Résumé :
Les Graphes de connaissances représentent, connectent, et rendent interprétables par des algorithmes des connaissances issues de différents domaines. Ils reposent sur des énoncés simples que l’on peut chaîner pour former des énoncés de plus haut niveau. Produire des interfaces visuelles interactives pour explorer des collections dans ces données est un problème complexe, en grande partie non résolu. Dans cette thèse, je propose le concept de profils de chemins pour décrire les énoncés de haut niveau. Je l’utilise pour développer 3 outils open source : S-Paths permet de naviguer dans des collections à travers des vues synthétiques ; Path Outlines permet aux producteurs de données de parcourir les énoncés qui peuvent produits par leurs graphes ; et The Missing Path leur permet d’analyser l’incomplétude de leurs données. Je montre que le concept, en plus de supporter des interfaces visuelles interactives pour les graphes de connaissances, aide aussi à en améliorer la qualité
Knowledge Graphs facilitate the pooling and sharing of information from different domains. They rely on small units of information named triples that can be combined to form higher-level statements. Producing interactive visual interfaces to explore collections in Knowledge Graphs is a complex problem, mostly unresolved. In this thesis, I introduce the concept of path outlines to encode aggregate information relative to a chain of triples. I demonstrate 3 applications of the concept withthe design and implementation of 3 open source tools. S-Paths lets users browse meaningful overviews of collections; Path Outlines supports data producers in browsing the statements thatcan be produced from their data; and The Missing Path supports data producers in analysingincompleteness in their data. I show that the concept not only supports interactive visual interfaces for Knowledge Graphs but also helps better their quality
Styles APA, Harvard, Vancouver, ISO, etc.
8

Vidal, Jules. « Progressivité en analyse topologique de données ». Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS398.

Texte intégral
Résumé :
L’analyse topologique de donnés permet l’extraction générique et efficace de caractéristiques structurelles dans les données. Cependant, bien que ces techniques aient des complexités asymptotiques connues et raisonnables elles sont rarement interactives en pratique sur des jeux de données réels. Dans cette thèse, nous avons cherché à développer des méthodes progressives pour l’analyse topologique de données scalaires scientifiques, qui peuvent être interrompues pour fournir rapidement un résultat approché exploitable, et sont capables de l’affiner ensuite. Nous introduisons deux algorithmes progressifs pour le calcul des points critiques et du diagramme de persistance d’un champ scalaire. Ensuite, nous revisitons ce cadre progressif pour introduire un algorithme pour le calcul approché du diagramme de persistance d’un champ scalaire, avec des garanties sur l’erreur d’approximation associée. Enfin, afin d’effectuer une analyse visuelle de données d’ensemble, nous présentons un nouvel algorithme progressif pour le calcul du barycentre de Wasserstein d’un ensemble de diagrammes de persistance, une tâche notoirement coûteuse en calcul. Notre approche progressive permet d’approcher le barycentre de manière interactive. Nous étendons cette méthode à un algorithme de classification topologique de données d’ensemble, qui est progressif et capable de respecter une contrainte de temps
Topological Data Analysis (TDA) forms a collection of tools that enable the generic and efficient extraction of features in data. However, although most TDA algorithms have practicable asymptotic complexities, these methods are rarely interactive on real-life datasets, which limits their usability for interactive data analysis and visualization. In this thesis, we aimed at developing progressive methods for the TDA of scientific scalar data, that can be interrupted to swiftly provide a meaningful approximate output and that are able to refine it otherwise. First, we introduce two progressive algorithms for the computation of the critical points and the extremum-saddle persistence diagram of a scalar field. Next, we revisit this progressive framework to introduce an approximation algorithm for the persistence diagram of a scalar field, with strong guarantees on the related approximation error. Finally, in a effort to perform visual analysis of ensemble data, we present a novel progressive algorithm for the computation of the discrete Wasserstein barycenter of a set of persistence diagrams, a notoriously computationally intensive task. Our progressive approach enables the approximation of the barycenter within interactive times. We extend this method to a progressive, time-constraint, topological ensemble clustering algorithm
Styles APA, Harvard, Vancouver, ISO, etc.
9

Lavallard, Anne. « Exploration interactive d'archives de forums : Le cas des jeux de rôle en ligne ». Phd thesis, Université de Caen, 2008. http://tel.archives-ouvertes.fr/tel-00292617.

Texte intégral
Résumé :
Les forums sont des espaces de communication très utilisés sur Internet : publicset asynchrones, ils offrent une place pour exposer différents points de vue et alimenter les dé-bats ; permanents, ils gardent trace des activités passées. Leurs archives constituent une mined'informations pour la communauté qui a animé le forum ou pour des chercheurs. Elles sontsous-exploitées car la lecture à posteriori en est fastidieuse. La cohérence temporelle perdue, lecontexte de lecture est dificile à reconstituer sans une bonne connaissance préalable de l'his-toire du forum. Face au constat que les interfaces de lecture actuelles des forums, bien adaptéesà l'usage en temps réel, sont inadaptées à l'exploration des archives, nous proposons d'autresmodes de présentation. Le premier mode fait appel à des analyses statistiques sur la participa-tion au forum. Le deuxième mode propose des analyses textuelles sur le contenu des messages.La comparaison interne du lexique sans ressources externes permet des analyses robustes. L'in-teractivité avec le lecteur lui permet d'ajuster progressivement les paramètres de présentationet les ressources spécifiques pour mieux appréhender le contexte de lecture. La plate-forme Fo-rumExplor nous a permis de mettre en oeuvre ces nouvelles présentations, et de les évaluer enfonction de divers objectifs de lecture dans le contexte des jeux de rôle en ligne. D'autres expé-rimentations dans le cadre d'études de listes de diffusion d'enseignants montrent la portée et lecaractère générique d'un tel outil.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Couturier, Olivier. « Contribution à la fouille de données : règles d'association et interactivité au sein d'un processus d'extraction de connaissances dans les données ». Artois, 2005. http://www.theses.fr/2005ARTO0410.

Texte intégral
Résumé :
Au regard du nombre croissant des grandes bases de données, déterminer la façon dont sont organisées les données, les interpréter et en extraire des informations utiles est un problème difficile et ouvert. En effet, à l'heure actuelle, notre capacité à collecter et stocker les données de tout type, outrepasse nos possibilités d'analyse, de synthèse et d'extraction de connaissances dans les données. Notre travail se situe au niveau de la recherche de règles d'association qui constitue une tâche de fouille de données. Cette dernière présente des résultats qui permettent aux experts de facilement interpréter les règles une à une. Les méthodes de génération sont combinatoires et engendrent un nombre élevé de règles qui sont difficilement exploitables. Plusieurs approches de réduction de ce nombre ont été proposées comme l'usage de mesures de qualité, le filtrage syntaxique par contraintes, la compression par les bases représentatives ou génériques. Cependant, ces approches n'intègrent pas l'expert dans le déroulement du processus limitant ainsi l'aspect interactif du processus. En effet, l'expert ne sait pas toujours initialement quelle connaissance il souhaite obtenir. Nous analysons l'activité cognitive de l'expert dans différents processus de recherche de règles d'association et nous montrons que dans ces approches, l'expert n'intervient pas durant les tâches du processus. Pour accroître cette interactivité avec l'expert, il est nécessaire que celui-ci soit au coeur du processus afin de répondre à l'un des objectifs de l'ECD. Nous nous basons sur les systèmes orientés-tâches, qui se focalisent sur les différentes tâches que l'expert doit réaliser, et proposons l'algorithme SHARK qui est une approche hybride basée sur l'utilisation d'une recherche hiérarchique s'appuyant sur une taxinomie d'attributs et d'une approche anthropocentrée de manière à inclure l'expert dans le processus. Nous couplons ainsi la connaissance explicite fournie par l'algorithme et la connaissance tacite de l'expert. L'utilisation d'une interface graphique adaptée s'avère donc nécessaire pour que l'expert puisse interagir de manière optimale avec le processus. L'efficacité de cet algorithme a été montrée sur un problème réel de marketing faisant intervenir des experts du monde bancaire. En outre, la fouille de données visuelle présente un intérêt non négligeable puisque l'esprit humain peut traiter une plus grande quantité d'informations de manière visuelle. Comme des quantités très importantes de règles sont générées, la fouille de données visuelle s'avère être une étape incontournable pour améliorer encore notre approche. Nous présentons un état de l'art des principales techniques de visualisation de règles d'association. Parmi ces représentations, nous nous focalisons sur les représentations de type matrice 3D présentant la particularité de générer des occlusions. Une occlusion est un chevauchement d'objets dans un environnement 3D rendant certains de ces objets pas ou peu visibles. Après avoir défini formellement le problème d'occlusions, nous montrons qu'il s'agit d'un problème d'optimisation qui est de trouver le meilleur ordre possible des itemsets sur les deux axes pour limiter les occlusions. Nous proposons une heuristique permettant de réduire significativement les occlusions générées. Les résultats que nous avons obtenus sont présentés et discutés.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Pastor, Julien. « Conception d'une légende interactive et forable pour le SOLAP ». Thesis, Université Laval, 2004. http://www.theses.ulaval.ca/2004/21994/21994.pdf.

Texte intégral
Résumé :
Afin de palier au manque d'efficacité des SIG en tant qu'outil d'aide à la décision (granularités multiples, rapidité, convivialité, temporalité), différentes saveurs d'outils SOLAP (Spatial OLAP) ont vu le jour dans les centres de recherche et fournisseurs de logiciels (CRG/Kheops/Syntell, SFU/DBMiner, Proclarity, Cognos, Microsoft, Beyond 20/20, ESRI, MapInfo, etc.). Combinant des fonctions SIG avec l'informatique décisionnelle (entrepôts de données, OLAP, data mining), le SOLAP est décrit comme un "logiciel de navigation rapide et facile dans les bases de données spatiales qui offre plusieurs niveaux de granularité d’information, plusieurs époques, plusieurs thèmes et plusieurs modes de visualisation synchronisés ou non: cartes, tableaux et graphiques statistiques (Bédard 2004). Le SOLAP facilite l’exploration volontaire des données spatiales pour aider l'utilisateur à détecter les corrélations d’informations, les regroupements potentiels, les tendances dissimulées dans un amas de données à référence spatiale, etc. Le tout se fait par simple sélection/click de souris (pas de langage SQL) et des opérations simples comme : le forage, le remontage ou le forage latéral. Il permet à l’utilisateur de se focaliser sur les résultats des opérations au lieu de l’analyse du processus de navigation. Le SOLAP étant amené à prendre de l’essor au niveau des fonctions qu’il propose, il devient important de proposer des améliorations à son interface à l'usager de manière à conserver sa facilité d’utilisation. Le développement d’une légende interactive et forable fut la première solution en ce genre proposée par Bédard (Bédard 1997). Nous avons donc retenu cette piste pour la présente recherche, étudié la sémiologie graphique et son applicabilité à l'analyse multidimensionnelle, analysé ce qui existait dans des domaines connexes, exploré différentes alternatives permettant de résoudre le problème causé par l'enrichissement des fonctions de navigation, construit un prototype, recueilli des commentaires d'utilisateurs SOLAP et proposé une solution. Tout au long de cette recherche, nous avons été confrontés à une absence de littérature portant explicitement sur le sujet (les SOLAP étant trop nouveaux), à des corpus théoriques qu'il fallait adapter (sémiologie, interface homme-machine, visualisation scientifique, cartographie dynamique) et à des besoins en maquettes et prototypes pour illustrer les solutions envisagées. Finalement, cette recherche propose une solution parmi plusieurs; cependant, son principal intérêt est davantage l'ensemble des réflexions et considérations mises de l'avant tout au long du mémoire pour arriver au résultat proposé que la solution proposée en elle-même. Ce sont ces réflexions théoriques et pratiques qui permettront d'améliorer l'interface à l'usager de tout outil SOLAP grâce au nouveau concept de légende interactive et forable.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Patin, Gaël. « Extraction interactive et non supervisée de lexique en chinois contemporain appliquée à la constitution de ressources linguistiques dans un domaine spécialisé ». Paris, INALCO, 2013. http://www.theses.fr/2013INAL0003.

Texte intégral
Résumé :
Cette thèse traite de l’extraction d’unités lexicales en chinois contemporain à partir d’un corpus de textes de spécialité. Elle aborde la tâche d’extraction de lexique en chinois en utilisant des techniques se basant sur des caractéristiques linguistiques de la langue chinoise. La thèse traite également de la manière d’évaluer l’extraction de lexique dans un environnement industriel. La première partie de la thèse est consacrée à la description du contexte de l’étude. Nous nous attachons dans un premier à temps à décrire les concepts linguistiques d’unité lexicale et de lexique, et nous donnons une description du processus de construction des unités lexicales en chinois contemporain. Nous faisons ensuite un inventaire des différentes techniques utilisées par la communauté scientifique pour traiter la tâche de l’extraction de lexique en chinois contemporain. Nous concluons cette partie par une description des pratiques d’extraction de lexique en milieu industriel, et nous proposons une formalisation des critères utilisés par les terminographes d’entreprise pour sélectionner les unités lexicales pertinentes. La deuxième partie du mémoire porte sur la description d’une méthode d’extraction de lexique en chinois contemporain et sur son évaluation. Nous introduisons une nouvelle méthode numérique non supervisée s’appuyant sur des caractéristiques structurelles de l’unité lexicale en chinois et sur des particularités syntaxiques du chinois. La méthode comporte un module optionnel permettant une interaction avec un opérateur (i. E. Semi-automatique). Dans la section consacrée à l’évaluation, nous évaluons d’abord le potentiel de la méthode en comparant les résultats de l’extraction avec un standard de référence et une méthode de référence. Nous mettons ensuite en oeuvre une évaluation plus pragmatique de la méthode en mesurant les gains apportés par l’usage de la méthode en comparaison avec l’extraction manuelle de lexique par des terminographes. Les résultats obtenus par notre méthode sont de bonne qualité et sont meilleurs que ceux produits par la méthode de référence sur le standard de référence. Ces résultats sont encourageants, mais ils doivent être confirmés par une évaluation plus complète. L’évaluation pragmatique montre que la méthode n’améliore pas significativement la productivité des terminographes, mais permet d’extraire des unités lexicales différentes de celles obtenue manuellement
This thesis deals with lexical unit extraction in contemporary Chinese from a corpus of specialized texts. It addresses the task of Chinese lexicon extraction using techniques based on linguistic characteristics of the Chinese language. The thesis also discusses how to evaluate the extraction of a lexicon in an industrial environment. The first part of the thesis describes the context of the study. We focus on describing the linguistic concepts of vocabulary and lexical units, and we also give a description of the construction of lexical units in contemporary Chinese. We then make a inventory of the different techniques used by the scientific community to address the task of extracting a contemporary Chinese lexicon. We conclude this section by describing lexicon extraction practices in industry, and we propose a formalization of the criteria used by terminologists to select the relevant lexical units. The second part of this thesis deals with the description of a method for extracting Chinese contemporary lexicon and its evaluation. We introduce a new numerical unsupervised method based on structural features of the lexical unit in Chinese and syntactic features of Chinese. The method includes an optional module to interact with a user (i. E. Semi-automatic). In the section related to the evaluation, we first evaluate the potential of the method by comparing extraction results to a reference standard and a reference method. We then implement a more pragmatic evaluation of the method by measuring the gains using this method as opposed to manual lexicon extraction by terminologists. The results obtained by our method are better than those produced by the reference method on the reference standard. These results are encouraging, but need to be confirmed by a more comprehensive study. The pragmatic evaluation shows that the method does not significantly improve the productivity of terminologists but can extract different lexical units than those obtained manually
Styles APA, Harvard, Vancouver, ISO, etc.
13

Weber, Jonathan. « Segmentation morphologique interactive pour la fouille de séquences vidéo ». Phd thesis, Université de Strasbourg, 2011. http://tel.archives-ouvertes.fr/tel-00643585.

Texte intégral
Résumé :
Nous observons actuellement une augmentation importante du volume de données vidéo disponibles. L'utilisation efficace de cette masse de données nécessite d'en extraire de l'information. Dans cette thèse, nous proposons d'utiliser les méthodes de fouille de données et de les appliquer sur les objets-vidéo d'intérêt afin de combler le fossé sémantique en impliquant l'utilisateur dans le processus. Extraire ces objets à partir des pixels nécessite de manipuler un grand volume de données, induisant un traitement coûteux (en temps et en mémoire) peu compatible avec une implication interactive de l'utilisateur. Ainsi, nous proposons d'appliquer le processus interactif de segmentation sur une réduction des données, les zones quasi-plates. N'étant définies que pour les images fixes, nous proposons une extension des zones quasi-plates aux séquences vidéo ainsi qu'une nouvelle méthode de filtrage. La segmentation est effectuée interactivement par l'utilisateur qui dessine des marqueurs sur les objets d'intérêt afin de guider la fusion des zones quasi-plates composant ces objets. Elle est effectuée sur un graphe d'adjacence de régions représentant les zones quasi-plates spatiotemporelles ainsi que leurs relations d'adjacence. L'utilisation de cette structure assure un faible temps de calcul. Les objets-vidéo obtenus sont ensuite utilisés dans un processus de fouille interactif guidé par des descripteurs extraits automatiquement de la video et des informations données par l'utilisateur. La forte interactivité avec l'utilisateur, à la fois lors de l'étape de segmentation puis lors de l'étape de fouille favorise la synergie entre données numériques et interprétation humaine.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Fangseu, Badjio Edwige P. « Evaluation qualitative et guidage des utilisateurs en fouille visuelle de données ». Lyon 2, 2005. http://theses.univ-lyon2.fr/documents/lyon2/2005/fangseubadjio_ep.

Texte intégral
Résumé :
Nos travaux s'inscrivent dans le domaine de la fouille visuelle de données (plus précisément en classification) et se fondent sur l'extraction de connaissances dans les données, l'apprentissage automatique, la qualité des interfaces et des logiciels, l'ergonomie des logiciels, le génie logiciel et l'interaction homme machine. L'évaluation de la qualité des modèles obtenus est basée la plupart du temps sur une estimation du taux de mauvaise classification. Cette estimation du taux de mauvaise classification est nécessaire mais pas suffisante pour l'évaluation de la qualité des outils de fouille visuelle de données. En effet, les outils et techniques de ce type utilisent des interfaces, des représentations graphiques, des ensembles de données et nécessitent la participation des utilisateurs finaux. Partant d'un état de l'art sur la visualisation, la fouille visuelle et la qualité des logiciels, nous proposons une méthode d'inspection experte et une méthode de diagnostic pour une analyse et une évaluation qualitative fine qui tient compte des spécificités du domaine abordé. Nous avons développé des guides de style et des critères de qualité pour l'analyse et le diagnostic des outils de fouille visuelle. Du point de vue des utilisateurs, afin d'utiliser les informations relatives à leurs profils et à leurs préférences tout au long du processus de fouille, nous avons aussi proposé un modèle de l'utilisateur final des outils de fouille visuelle. Des études de cas menées avec la méthode de diagnostic proposée nous permettent de relever des problèmes autres que ceux résultant de l'estimation du taux de mauvaise classification. Ce travail présente aussi des solutions apportées à deux problèmes recensés durant l'analyse et le diagnostic des outils de fouille visuelle existants : le choix du meilleur algorithme pour une tâche de classification supervisée et le prétraitement de grands ensembles de données. Nous avons considéré le problème du choix du meilleur algorithme de classification comme un problème de décision multicritères. L'intelligence artificielle permet d'apporter des solutions à l'analyse multicritères. Nous utilisons les résultats issus de ce domaine à travers le paradigme multi-agents et le raisonnement à partir de cas pour proposer une liste d'algorithmes d'efficacité décroissante pour la résolution d'un problème donné et faire évoluer les connaissances de la base de cas. En ce qui concerne le traitement des ensembles de données de très grande taille, les limites de l'approche visuelle concernant le nombre d'individus et le nombre de dimensions sont connues de tous. Pour pouvoir traiter ces ensembles de données, une solution possible est d'effectuer un prétraitement de l'ensemble de données avant d'appliquer l'algorithme interactif de fouille. La réduction du nombre d'individus est effectuée par l'application d'un algorithme de clustering, la réduction du nombre de dimensions se fait par la combinaison des résultats d'algorithmes de sélection d'attributs en appliquant de la théorie du consensus (avec une affectation visuelle des poids). Nous évaluons les performances de nos nouvelles approches sur des ensembles de données de l'UCI et du Kent Ridge Bio Medical Dataset Repository
The research context of these works is the visual data mining domain and more precisely supervised data classification. Other related fields are: knowledge extraction in the data, machine learning, quality of interface, software ergonomic, software engineering and human machine interaction. The result provided by a visual data mining tool is a data model. Generally, in order to access the quality of visual data mining tools, there is an estimation of the rate of bad classification. We believe that, this estimation is necessary but not sufficient for the evaluation of visual data mining tools. In fact, this type of tools use interfaces, graphical representations, data sets and require the participation of the end-users. On the basis of a state of the art on visualization, visual data mining and software quality, we propose two analysis and evaluation methods: an inspection method for experts and a diagnosis method which can be used by end-users for analysis and quality evaluation that takes account of the specificities of the treated domain. We developed guidelines and quality criteria (measures and metrics) for the analysis and the diagnosis of the visual data mining tools. From the users' point of view, in order to use information relating to their profiles and their preferences throughout the mining process, we also proposed a user model of visual data mining tools. Case studies performed with the proposed diagnosis method enable us to raise other problems than those resulting from the estimation of the rate of bad classification. This work presents also solutions brought to two problems listed during the analysis and the diagnosis of some existing visual data mining tools: the choice of the best algorithm to perform for a supervised classification task and the pre-treatment of very large data sets. We considered the problem of the choice of the best classification algorithm as a multi criteria decision problem. Artificial intelligence allows bringing solutions to the multi criteria analysis. We use the results coming from this domain through the multi-agents paradigm and the case based reasoning to propose a list of algorithms of decreasing effectiveness for the resolution of a given problem and to evolve knowledge of the case base. For the treatment of very large data sets, the limits of visual approaches concerning the number of records and the number of attributes are known. To be able to treat these data sets, a solution is to perform a pre-treatment of the data set before applying the interactive algorithm. The reduction of the number of records is performed by the application of a clustering algorithm, the reduction of the number of attributes is done by the combination of the results of feature selection algorithms by applying the consensus theory (with a visual weight assignment tool). We evaluate the performances of our new approaches on data sets of the UCI and the Kent Ridge Bio Medical Dataset Repository
Styles APA, Harvard, Vancouver, ISO, etc.
15

Rayar, Frédéric. « Exploration interactive, incrémentale et multi-niveau de larges collections d'images ». Thesis, Tours, 2016. http://www.theses.fr/2016TOUR4012/document.

Texte intégral
Résumé :
Les travaux de recherche présentés et discutés dans cette thèse s’intéressent aux grandes collections d’images numériques. Plus particulièrement, nous cherchons à donner à un utilisateur la possibilité d’explorer ces collections d’images, soit dans le but d’en extraire de l’information et de la connaissance, soit de permettre une certaine sérendipité dans l’exploration. Ainsi, cette problématique est abordée du point de vue de l’analyse et l’exploration interactive des données. Nous tirons profit du paradigme de navigation par similarité et visons à respecter simultanément les trois contraintes suivantes : (i) traiter de grandes collections d’images, (ii) traiter des collections dont le nombre d’images ne cesse de croître au cours du temps et (iii) donner des moyens d’explorer interactivement des collections d’images. Pour ce faire, nous proposons d’effectuer une étude conjointe de l’indexation et de la visualisation de grandes collections d’images qui s’agrandissent au cours du temps
The research work that is presented and discussed in this thesis focuses on large and evergrowing image collections. More specifically, we aim at providing one the possibility to explore such image collections, either to extract some kind of information and knowledge, or to wander in the collections. This thesis addresses this issue from the perspective of Interactive Data Exploration and Analytics. We take advantage of the similarity-based image collection browsing paradigm and aim at meeting simultaneously the three following constraints: (i) handling large image collections, up to millions of images, (ii) handling dynamic image collections, to deal with ever-growing image collections, and (iii) providing interactive means to explore image collections. To do so, we jointly study the indexing and the interactive visualisation of large and ever-growing image collections
Styles APA, Harvard, Vancouver, ISO, etc.
16

Triperina, Evangelia. « Visual interactive knowledge management for multicriteria decision making and ranking in linked open data environments ». Thesis, Limoges, 2020. http://www.theses.fr/2020LIMO0010.

Texte intégral
Résumé :
Le doctorat impliqués la recherche dans le domaine des représentations visuelles assistées par des technologies sémantiques et des ontologies afin de soutenir les décisions et les procédures d'élaboration des politiques, dans le cadre de la recherche et des systèmes d'information académique. Les visualisations seront également prises en charge par l'exploration de données et les processus d'extraction de connaissances dans l'environnement de données liées. Pour élaborer, les techniques d'analyse visuelle seront utilisées pour l'organisation des visualisations afin de présenter l'information de manière à utiliser les capacités perceptuelles humaines et aideront éventuellement les procédures de prise de décision et de prise de décision. En outre, la représentation visuelle et, par conséquent, les processus décisionnels et décisionnels seront améliorés au moyen des technologies sémantiques basées sur des modèles conceptuels sous forme d'ontologies. Ainsi, l'objectif principal de la thèse de doctorat proposée consiste en la combinaison des technologies sémantiques clés et des techniques de visualisation interactive basées principalement sur la perception du graphique afin de rendre les systèmes de prise de décision plus efficaces. Le domaine de la demande sera le système de recherche et d'information académique
The dissertation herein involves research in the field of the visual representations aided by semantic technologies and ontologies in order to support decisions and policy making procedures, in the framework of research and academic information systems. The visualizations will be also supported by data mining and knowledge extraction processes in the linked data environment. To elaborate, visual analytics’ techniques will be employed for the organization of the visualizations in order to present the information in such a way that will utilize the human perceptual abilities and that will eventually assist the decision support and policy making procedures. Furthermore, the visual representation and consequently the decision and policy making processes will be ameliorated by the means of the semantic technologies based on conceptual models in the form of ontologies. Thus, the main objective of the proposed doctoral thesis consists the combination of the key semantic technologies with interactive visualisations techniques based mainly on graph’s perception in order to make decision support systems more effective. The application field will be the research and academic information systems
Styles APA, Harvard, Vancouver, ISO, etc.
17

El, Moussawi Adnan. « Clustering exploratoire pour la segmentation de données clients ». Thesis, Tours, 2018. http://www.theses.fr/2018TOUR4010/document.

Texte intégral
Résumé :
Les travaux de cette thèse s’intéressent à l’exploration de la multiplicité des solutions de clustering. Le but est de proposer aux experts marketing un outil interactif d’exploration des données clients qui considère les préférences des experts sur l’espace des attributs. Nous donnons d’abord la définition d’un système de clustering exploratoire. Nous proposons ensuite une nouvelle méthode de clustering semi-supervisée qui considère des préférences quantitatives de l’utilisateur sur les attributs d’analyse et qui gère la sensibilité à ces préférences. Notre méthode tire profit de l’apprentissage de métrique pour trouver une solution de compromis entre la structure des données et les préférences de l’expert. Enfin, nous proposons un prototype de clustering exploratoire pour la segmentation des données de la relation client intégrant la nouvelle méthode de clustering proposée, mais aussi des fonctionnalités de visualisation et d’aide à l’interprétation de résultats permettant de réaliser un processus complet de clustering exploratoire
The research work presented in this thesis focuses on the exploration of the multiplicity of clustering solutions. The goal is to provide to marketing experts an interactive tool for exploring customer data that considers expert preferences on the space of attributes. We first give the definition of an exploratory clustering system. Then, we propose a new semi-supervised clustering method that considers user’s quantitative preferences on the analysis attributes and manages the sensitivity to these preferences. Our method takes advantage of metric learning to find a compromise solution that is both well adapted to the data structure and consistent with the expert’s preferences. Finally, we propose a prototype of exploratory clustering for customer relationship data segmentation that integrates the proposed method. The prototype also integrates visual and interaction components essential for the implementation of the exploratory clustering process
Styles APA, Harvard, Vancouver, ISO, etc.
18

Rajaonarivo, Hiary Landy. « Approche co-évolutive humain-système pour l'exploration de bases de données ». Thesis, Brest, 2018. http://www.theses.fr/2018BRES0114/document.

Texte intégral
Résumé :
Ces travaux de recherche portent sur l'aide à l'exploration de bases de données.La particularité de l'approche proposée repose sur un principe de co-évolution de l'utilisateur et d'une interface intelligente. Cette dernière devant permettre d'apporter une aide à la compréhension du domaine représenté par les données. Pour cela, une métaphore de musée virtuel vivant a été adoptée. Ce musée évolue de façon incrémentale au fil des interactions de l'utilisateur. Il incarne non seulement les données mais également des informations sémantiques explicitées par un modèle de connaissances spécifique au domaine exploré.A travers l'organisation topologique et l'évolution incrémentale, le musée personnalise en ligne le parcours de l'utilisateur. L'approche est assurée par trois mécanismes principaux : l'évaluation du profil de l'utilisateur modélisé par une pondération dynamique d'informations sémantiques, l'utilisation de ce profil dynamique pour établir une recommandation ainsi que l'incarnation des données dans le musée.L'approche est appliquée au domaine du patrimoine dans le cadre du projet ANTIMOINE, financé par l'Agence Nationale de la Recherche (ANR). La généricité de cette dernière a été démontrée à travers son application à une base de données de publications mais également à travers l'utilisation de types d'interfaces variés (site web, réalité virtuelle).Des expérimentations ont permis de valider l'hypothèse que notre système s'adapte aux évolutions des comportements de l'utilisateur et qu'il est capable, en retour, d'influencer ce dernier. Elles ont également permis de comparer une interface 2D avec une interface 3D en termes de qualité de perception, de guidage, de préférence et d'efficacité
This thesis focus on a proposition that helps humans during the exploration of database. The particularity of this proposition relies on a co-evolution principle between the user and an intelligent interface. It provides a support to the understanding of the domain represented by the data. A metaphor of living virtual museum is adopted. This museum evolves incrementally according to the user's interactions. It incarnates both the data and the semantic information which are expressed by a knowledge model specific to the domain of the data. Through the topological organization and the incremental evolution, the museum personalizes online the user's exploration. The approach is insured by three main mechanisms: the evaluation of the user profile modelled by a dynamical weighting of the semantic information, the use of this dynamic profile to establish a recommendation as well as the incarnation of the data in the living museum. The approach has been applied to the heritage domain as part of the ANTIMOINE project, funded by the National Research Agency (ANR). The genericity of the latter has been demonstrated through its application to a database of publications but also using various types of interfaces (website, virtual reality).Experiments have validated the hypothesis that our system adapts itself to the user behavior and that it is able, in turn, to influence him.They also showed the comparison between a 2D interface and a 3D interface in terms of quality of perception, guidance, preference and efficiency
Styles APA, Harvard, Vancouver, ISO, etc.
19

Guettala, Abdelheq Et-Tahir. « VizAssist : un assistant utilisateur pour le choix et le paramétrage des méthodes de fouille visuelle de données ». Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4017/document.

Texte intégral
Résumé :
Nous nous intéressons dans cette thèse au problème de l’automatisation du processus de choix et de paramétrage des visualisations en fouille visuelle de données. Pour résoudre ce problème, nous avons développé un assistant utilisateur "VizAssist" dont l’objectif principal est de guider les utilisateurs (experts ou novices) durant le processus d’exploration et d’analyse de leur ensemble de données. Nous illustrons, l’approche sur laquelle s’appuie VizAssit pour guider les utilisateurs dans le choix et le paramétrage des visualisations. VizAssist propose un processus en deux étapes. La première étape consiste à recueillir les objectifs annoncés par l’utilisateur ainsi que la description de son jeu de données à visualiser, pour lui proposer un sous ensemble de visualisations candidates pour le représenter. Dans cette phase, VizAssist suggère différents appariements entre la base de données à visualiser et les visualisations qu’il gère. La seconde étape permet d’affiner les différents paramétrages suggérés par le système. Dans cette phase, VizAssist utilise un algorithme génétique interactif qui a pour apport de permettre aux utilisateurs d’évaluer et d’ajuster visuellement ces paramétrages. Nous présentons enfin les résultats de l’évaluation utilisateur que nous avons réalisé ainsi que les apports de notre outil à accomplir quelques tâches de fouille de données
In this thesis, we deal with the problem of automating the process of choosing an appropriate visualization and its parameters in the context of visual data mining. To solve this problem, we developed a user assistant "VizAssist" which mainly assist users (experts and novices) during the process of exploration and analysis of their dataset. We illustrate the approach used by VizAssit to help users in the visualization selection and parameterization process. VizAssist proposes a process based on two steps. In the first step, VizAssist collects the user’s objectives and the description of his dataset, and then proposes a subset of candidate visualizations to represent them. In this step, VizAssist suggests a different mapping between the database for representation and the set of visualizations it manages. The second step allows user to adjust the different mappings suggested by the system. In this step, VizAssist uses an interactive genetic algorithm to allow users to visually evaluate and adjust such mappings. We present finally the results that we have obtained during the user evaluation that we performed and the contributions of our tool to accomplish some tasks of data mining
Styles APA, Harvard, Vancouver, ISO, etc.
20

Ben, Said Zohra. « A virtual reality-based approach for interactive and visual mining of association rules ». Phd thesis, Université de Nantes, 2012. http://tel.archives-ouvertes.fr/tel-00829419.

Texte intégral
Résumé :
Cette thèse se situe à l'intersection de deux domaines actifs de recherche: la fouille de règles d'association et la réalité virtuelle. Les limites majeures des algorithmes d'extraction de règles d'association sont (i) la grande quantité de règles produites et (ii) leur faible qualité. Dans la littérature, plusieurs solutions ont été proposées pour remédier à ce problème, comme le post-traitement de règles d'association qui permet la validation des règles et l'extraction de connaissances utiles. Cependant, alors que les règles sont extraites automatiquement par des algorithmes combinatoires, le post-traitement de règles est effectué par l'utilisateur. La visualisation peut aider l'utilisateur à faire face à une grande quantité de règles en les représentants sous forme visuelle. Afin de trouver les connaissances pertinentes dans les représentations visuelles, l'utilisateur doit interagir avec la représentation de règles d'association. Par conséquent, il est essentiel de fournir à l'utilisateur des techniques d'interaction efficaces. Ce travail aborde deux problèmes essentiels : la représentation de règles d'association afin de permettre à l'utilisateur de détecter très rapidement les règles les plus intéressantes et l'exploration interactive des règles. Le premier exige une métaphore intuitive de représentation de règles d'association. Le second nécessite un processus d'exploration très interactif permettant à l'utilisateur de fouiller l'espace de règles en se concentrant sur les règles intéressantes. Les principales contributions de ce travail peuvent être résumées comme suit : (i) Nous proposons une nouvelle classification pour les techniques de fouille visuelles de données, basée sur des représentations en 3D et des techniques d'interaction. Une telle classification aide l'utilisateur à choisir une configuration pertinente pour son application. (ii) Nous proposons une nouvelle métaphore de visualisation pour les règles d'association qui prend en compte les attributs de la règle, la contribution de chacun d'eux et leurs corrélations. (iii) Nous proposons une méthodologie pour l'exploration interactive de règles d'association. Elle est conçue pour faciliter la tâche de l'utilisateur face à des grands ensembles de règles en tenant en compte ses capacités cognitives. Dans cette méthodologie, des algorithmes locaux sont utilisés pour recommander les meilleures règles basées sur une règle de référence proposée par l'utilisateur. Ensuite, l'utilisateur peut à la fois diriger l'extraction et le post-traitement des règles en utilisant des opérateurs d'interaction appropriés. (iv) Nous avons développé un outil qui implémente toutes les fonctionnalités de la méthodologie. Notre outil est basé sur un affichage intuitif dans un environnement virtuel et prend en charge plusieurs méthodes d'interaction.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Férey, Nicolas. « Exploration immersive de données génomiques textuelles et factuelles : vers une approche par visual mining ». Paris 11, 2006. http://www.theses.fr/2006PA112235.

Texte intégral
Résumé :
Ce travail de these porte sur l'exploration immersive de donnees genomiques textuelles et factuelles. Il s'agit d'etudier et de concevoir une nouvelle approche pour d'explorer dans un cadre immersif (i. E. De realite virtuelle), des donnees d'une nature specifique : les donnees genomiques. Ces donnees se presentent sous deux formes : la forme factuelle, c'est-a-dire l'ensemble des donnees structurees provenant des banques de donnees biologiques, et la forme textuelle, a savoir l'ensemble des donnees non structurees presentes dans les millions de publications concernant la genomique. Face a la complexite de ces donnees, l'enjeu est de proposer des paradigmes d'exploration et d'interaction, qui permettent de couvrir le plus largement possible ces donnees de nature variees. Ces paradigmes doivent etre capables de gerer des donnees massives, et doivent etre adaptes a la fois au cadre immersif et aux besoins des biologistes. Ainsi sur la base de l'etude des besoins des utilisateurs et de leurs usages, un paradigme de representation a ete defini en utilisant les caracteristiques tres specifiques des banques de donnees genomiques, et dans lequel la semantique des donnees etudiees est traduite par des proprietes visuelles, geometriques, ou topologiques, choisies initialement par l'utilisateur. Un prototype a ete implemente pour tester et valider le paradigme precedemment defini, et plusieurs experiences d'analyse de donnees genomiques ont ete menees en collaboration avec des biologistes ou bio-informaticiens, afin de mesurer la pertinence de cette solution d'exploration, face a plusieurs problematiques d'analyse de donnees genomiques
This thesis concerns the immersive exploration of textual and factual genomic data. The goal of this work is to design and study new approach for exploring genomic data within an immersive framework (i. E. Of virtual reality). The knowledge about genome is constituted by factual data, coming from structured biological or genomic databanks, and by textual data, namely the unstructured data within the millions publications relating to the research about genome. These data are heterogeneous, huge in quantity, and complex. The stake of this work is to propose visualization and interaction paradigms, which are able to deals with these characteristics. These paradigms must also be adapted to the immersive framework, and must respect the needs of the biologists. We used common points of genomic databanks, to design an original visualization paradigm, where the user is able to choice a translation of the semantic of the genomic data to visual, geometric or topologic properties. We implemented a software prototype in order to test and validate the visualization paradigm within an immersive framework. In this context, we proposed and tested new interaction paradigms, in order to navigate, search and edit the genomic data during the immersive exploration. We used finally this software to lead several experiments of genomic data analysis with biologists, in order to measure the relevance of this visual mining approach on different kinds of genomic data
Styles APA, Harvard, Vancouver, ISO, etc.
22

Omidvar, Tehrani Behrooz. « Optimization-based User Group Management : Discovery, Analysis, Recommendation ». Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM038/document.

Texte intégral
Résumé :
Les donn ́ees utilisateurs sont devenue de plus en plus disponibles dans plusieurs do- maines tels que les traces d'usage des smartphones et le Web social. Les donn ́ees util- isateurs, sont un type particulier de donn ́ees qui sont d ́ecrites par des informations socio-d ́emographiques (ex., ˆage, sexe, m ́etier, etc.) et leurs activit ́es (ex., donner un avis sur un restaurant, voter, critiquer un film, etc.). L'analyse des donn ́ees utilisa- teurs int ́eresse beaucoup les scientifiques qui travaillent sur les ́etudes de la population, le marketing en-ligne, les recommandations et l'analyse des donn ́ees `a grande ́echelle. Cependant, les outils d'analyse des donn ́ees utilisateurs sont encore tr`es limit ́es.Dans cette th`ese, nous exploitons cette opportunit ́e et proposons d'analyser les donn ́ees utilisateurs en formant des groupes d'utilisateurs. Cela diff`ere de l'analyse des util- isateurs individuels et aussi des analyses statistiques sur une population enti`ere. Un groupe utilisateur est d ́efini par un ensemble des utilisateurs dont les membres parta- gent des donn ́ees socio-d ́emographiques et ont des activit ́es en commun. L'analyse au niveau d'un groupe a pour objectif de mieux g ́erer les donn ́ees creuses et le bruit dans les donn ́ees. Dans cette th`ese, nous proposons un cadre de gestion de groupes d'utilisateurs qui contient les composantes suivantes: d ́ecouverte de groupes, analyse de groupes, et recommandation aux groupes.La premi`ere composante concerne la d ́ecouverte des groupes d'utilisateurs, c.- `a-d., compte tenu des donn ́ees utilisateurs brutes, obtenir les groupes d'utilisateurs en op- timisantuneouplusieursdimensionsdequalit ́e. Ledeuxi`emecomposant(c.-`a-d., l'analyse) est n ́ecessaire pour aborder le probl`eme de la surcharge de l'information: le r ́esultat d'une ́etape d ́ecouverte des groupes d'utilisateurs peut contenir des millions de groupes. C'est une tache fastidieuse pour un analyste `a ́ecumer tous les groupes trouv ́es. Nous proposons une approche interactive pour faciliter cette analyse. La question finale est comment utiliser les groupes trouv ́es. Dans cette th`ese, nous ́etudions une applica- tion particuli`ere qui est la recommandation aux groupes d'utilisateurs, en consid ́erant les affinit ́es entre les membres du groupe et son ́evolution dans le temps.Toutes nos contributions sont ́evalu ́ees au travers d'un grand nombre d'exp ́erimentations `a la fois pour tester la qualit ́e et la performance (le temps de r ́eponse)
User data is becoming increasingly available in multiple domains ranging from phone usage traces to data on the social Web. User data is a special type of data that is described by user demographics (e.g., age, gender, occupation, etc.) and user activities (e.g., rating, voting, watching a movie, etc.) The analysis of user data is appealing to scientists who work on population studies, online marketing, recommendations, and large-scale data analytics. However, analysis tools for user data is still lacking.In this thesis, we believe there exists a unique opportunity to analyze user data in the form of user groups. This is in contrast with individual user analysis and also statistical analysis on the whole population. A group is defined as set of users whose members have either common demographics or common activities. Group-level analysis reduces the amount of sparsity and noise in data and leads to new insights. In this thesis, we propose a user group management framework consisting of following components: user group discovery, analysis and recommendation.The very first step in our framework is group discovery, i.e., given raw user data, obtain user groups by optimizing one or more quality dimensions. The second component (i.e., analysis) is necessary to tackle the problem of information overload: the output of a user group discovery step often contains millions of user groups. It is a tedious task for an analyst to skim over all produced groups. Thus we need analysis tools to provide valuable insights in this huge space of user groups. The final question in the framework is how to use the found groups. In this thesis, we investigate one of these applications, i.e., user group recommendation, by considering affinities between group members.All our contributions of the proposed framework are evaluated using an extensive set of experiments both for quality and performance
Styles APA, Harvard, Vancouver, ISO, etc.
23

Richard, Jérémy. « De la capture de trajectoires de visiteurs vers l’analyse interactive de comportement après enrichissement sémantique ». Electronic Thesis or Diss., La Rochelle, 2023. http://www.theses.fr/2023LAROS012.

Texte intégral
Résumé :
Cette thèse porte sur l’étude comportementale de l’activité touristique en utilisant une approche d’analyse générique et interactive. Le processus d’analyse développé concerne la trajectoire touristique dans la ville et dans les musées en tant que terrain d’étude. Des expérimentations ont été menées pour collecter les données de déplacement dans la ville touristique en utilisant des signaux GPS, permettant ainsi l’obtention d’une trajectoire de déplacement. Toutefois, l’étude se focalise en premier lieu sur la reconstruction de la trajectoire d’un visiteur dans les musées à l’aide d’un équipement de positionnement intérieur, c’est-à-dire dans un environnement contraint. Ensuite, un modèle d’enrichissement sémantique multi-aspects générique est développé pour compléter la trajectoire d’un individu en utilisant plusieurs données de contexte telles que les noms des quartiers traversés par l’individu dans la ville, les salles des musées, la météo à l’extérieur et des données d’application mobile à l’intérieur. Les trajectoires enrichies, appelées trajectoires sémantiques, sont ensuite analysées à l’aide de l’analyse formelle de concept et de la plateforme GALACTIC, qui permet l’analyse de structures de données complexes et hétérogènes sous la forme d’une hiérarchie de sous-groupes d’individus partageant des comportements communs. Enfin, l’attention est portée sur l’algorithme "ReducedContextCompletion" qui permet la navigation interactive dans un treillis de concepts, ce qui permet à l’analyste de données de se concentrer sur les aspects de la donnée qu’il souhaite explorer
This thesis focuses on the behavioral study of tourist activity using a generic and interactive analysis approach. The developed analytical process concerns the tourist trajectory in the city and museums as the study field. Experiments were conducted to collect movement data in the tourist city using GPS signals, thus enabling the acquisition of a movement trajectory. However, the study primarily focuses on reconstructing a visitor’s trajectory in museums using indoor positioning equipment, i.e., in a constrained environment. Then, a generic multi-aspect semantic enrichment model is developed to supplement an individual’s trajectory using multiple context data such as the names of neighborhoods the individual passed through in the city, museum rooms, weather outside, and indoor mobile application data. The enriched trajectories, called semantic trajectories, are then analyzed using formal concept analysis and the GALACTIC platform, which enables the analysis of complex and heterogeneous data structures as a hierarchy of subgroups of individuals sharing common behaviors. Finally, attention is paid to the "ReducedContextCompletion" algorithm that allows for interactive navigation in a lattice of concepts, allowing the data analyst to focus on the aspects of the data they wish to explore
Styles APA, Harvard, Vancouver, ISO, etc.
24

Blanchard, Julien. « Un système de visualisation pour l'extraction, l'évaluation, et l'exploration interactives des règles d'association ». Phd thesis, Université de Nantes, 2005. http://tel.archives-ouvertes.fr/tel-00421413.

Texte intégral
Résumé :
De nombreuses méthodes d'Extraction de Connaissances dans les Données (ECD) produisent des résultats sous forme de règles. Les règles ont l'avantage de représenter les connaissances de manière explicite, ce qui en fait des modèles tout à fait intelligibles pour un utilisateur. Elles sont d'ailleurs au fondement de la plupart des théories de
représentation de la connaissance en sciences cognitives. En fouille de données, la principale technique à base de règles est l'extraction de règles d'association, qui a donné lieu à de nombreux travaux de recherche.

La limite majeure des algorithmes d'extraction de règles d'association est qu'ils produisent communément de grandes quantités de règles, dont beaucoup se révèlent même sans aucun intérêt pour l'utilisateur. Ceci s'explique par la nature non supervisée de ces algorithmes : ne considérant aucune variable endogène, ils envisagent dans les règles toutes les combinaisons possibles de variables. Dans la pratique, l'utilisateur ne peut pas exploiter les résultats tels quels directement à la sortie des algorithmes. Un post-traitement consistant en une seconde opération de fouille se
révèle indispensable pour valider les volumes de règles et découvrir des connaissances utiles. Cependant, alors que la fouille de données est effectuée automatiquement par des algorithmes combinatoires, la fouille de règles est une
tâche laborieuse à la charge de l'utilisateur.

La thèse développe deux approches pour assister l'utilisateur dans le post-traitement des règles d'association :
– la mesure de la qualité des règles par des indices numériques,
– la supervision du post-traitement par une visualisation interactive.

Pour ce qui concerne la première approche, nous formalisons la notion d'indice de qualité de règles et réalisons une classification inédite des nombreux indices de la littérature, permettant d'aider l'utilisateur à choisir les indices pertinents pour son besoin. Nous présentons également trois nouveaux indices aux propriétés originales : l'indice
probabiliste d'écart à l'équilibre, l'intensité d'implication entropique, et le taux informationnel. Pour ce qui concerne la seconde approche, nous proposons une méthodologie de visualisation pour l'exploration interactive des règles. Elle
est conçue pour faciliter la tâche de l'utilisateur confronté à de grands ensembles de règles en prenant en compte ses capacités de traitement de l'information. Dans cette méthodologie, l'utilisateur dirige la découverte de connaissances
par des opérateurs de navigation adaptés en visualisant des ensembles successifs de règles décrits par des indices de qualité.

Les deux approches sont intégrées au sein de l'outil de visualisation ARVis (Association Rule Visualization) pour l'exploration interactive des règles d'association. ARVis implémente notre méthodologie au moyen d'une représentation
3D, inédite en visualisation de règles, mettant en valeur les indices de qualité. De plus, ARVis repose sur un algorithme spécifique d'extraction sous contraintes permettant de générer les règles interactivement au fur et à mesure de la navigation de l'utilisateur. Ainsi, en explorant les règles, l'utilisateur dirige à la fois l'extraction et le
post-traitement des connaissances.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Nguyen, Sao Mai. « Un robot curieux pour l’apprentissage actif par babillage d’objectifs : choisir de manière stratégique quoi, comment, quand et de qui apprendre ». Thesis, Bordeaux 1, 2013. http://www.theses.fr/2013BOR15223/document.

Texte intégral
Résumé :
Les défis pour voir des robots opérant dans l’environnement de tous les jours des humains et sur unelongue durée soulignent l’importance de leur adaptation aux changements qui peuvent être imprévisiblesau moment de leur construction. Ils doivent être capable de savoir quelles parties échantillonner, et quelstypes de compétences il a intérêt à acquérir. Une manière de collecter des données est de décider par soi-même où explorer. Une autre manière est de se référer à un mentor. Nous appelons ces deux manièresde collecter des données des modes d’échantillonnage. Le premier mode d’échantillonnage correspondà des algorithmes développés dans la littérature pour automatiquement pousser l’agent vers des partiesintéressantes de l’environnement ou vers des types de compétences utiles. De tels algorithmes sont appelésdes algorithmes de curiosité artificielle ou motivation intrinsèque. Le deuxième mode correspond au guidagesocial ou l’imitation, où un partenaire humain indique où explorer et où ne pas explorer.Nous avons construit une architecture algorithmique intrinsèquement motivée pour apprendre commentproduire par ses actions des effets et conséquences variées. Il apprend de manière active et en ligne encollectant des données qu’il choisit en utilisant plusieurs modes d’échantillonnage. Au niveau du metaapprentissage, il apprend de manière active quelle stratégie d’échantillonnage est plus efficace pour améliorersa compétence et généraliser à partir de son expérience à un grand éventail d’effets. Par apprentissage parinteraction, il acquiert de multiples compétences de manière structurée, en découvrant par lui-même lesséquences développementale
The challenges posed by robots operating in human environments on a daily basis and in the long-termpoint out the importance of adaptivity to changes which can be unforeseen at design time. The robot mustlearn continuously in an open-ended, non-stationary and high dimensional space. It must be able to knowwhich parts to sample and what kind of skills are interesting to learn. One way is to decide what to exploreby oneself. Another way is to refer to a mentor. We name these two ways of collecting data sampling modes.The first sampling mode correspond to algorithms developed in the literature in order to autonomously drivethe robot in interesting parts of the environment or useful kinds of skills. Such algorithms are called artificialcuriosity or intrinsic motivation algorithms. The second sampling mode correspond to social guidance orimitation where the teacher indicates where to explore as well as where not to explore. Starting fromthe study of the relationships between these two concurrent methods, we ended up building an algorithmicarchitecture with a hierarchical learning structure, called Socially Guided Intrinsic Motivation (SGIM).We have built an intrinsically motivated active learner which learns how its actions can produce variedconsequences or outcomes. It actively learns online by sampling data which it chooses by using severalsampling modes. On the meta-level, it actively learns which data collection strategy is most efficient forimproving its competence and generalising from its experience to a wide variety of outcomes. The interactivelearner thus learns multiple tasks in a structured manner, discovering by itself developmental sequences
Styles APA, Harvard, Vancouver, ISO, etc.
26

Romat, Hugo. « From data exploration to presentation : designing new systems and interaction techniques to enhance the sense-making process ». Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS335/document.

Texte intégral
Résumé :
Au cours de la dernière décennie, la quantité de données n'a cessé d'augmenter. Ces données peuvent provenir de sources variées, telles que des smartphones, des enregistreurs audio, des caméras, des capteurs, des simulations, et peuvent avoir différentes structures. Bien que les ordinateurs puissent nous aider à traiter ces données, c'est le jugement et l'expertise humaine qui les transforment réellement en connaissances. Cependant, pour donner un sens à ces données de plus en plus diversifiées, des techniques de visualisation et d'interaction sont nécessaires. Ce travail de thèse contribue de telles techniques pour faciliter l'exploration et la présentation des données, lors d'activités visant à faire sens des données. Dans la première partie de cette thèse, nous nous concentrons sur les systèmes interactifs et les techniques d'interaction pour aider les utilisateurs à faire sens des données. Nous étudions comment les utilisateurs travaillent avec des contenus divers afin de leur permettre d'externaliser leurs pensées par le biais d'annotations digitales. Nous présentons notre approche avec deux systèmes. Le premier, ActiveInk, permet l'utilisation naturelle du stylet pour la lecture active, lors d'un processus d'exploration de données. Dans le cadre d'une étude qualitative menée auprès de huit participants, nous contribuons des observations sur les comportements de la lecture active au cours de l'exploration des données, et, des principes aidant les utilisateurs à faire sens des données.Le second système, SpaceInk, est un espace de conception de techniques en utilisant le stylet et les gestes, qui permet de créer de l'espace pour les annotations, pendant la lecture active, en ajustant dynamiquement le contenu du document. Dans la deuxième partie de cette thèse, nous avons étudié les techniques permettant de représenter visuellement les éléments de réponses aux questions quand les utilisateurs essaient de faire sens des données. Nous nous concentrons sur l'une des structures de données les plus élaborées : les réseaux multi-variés, que nous visualisons à l'aide de diagrammes noeuds-liens. Nous étudions comment permettre un processus de conception itératif flexible lors de la création de diagrammes nœuds-liens pour les réseaux multi-variés. Nous présentons d'abord un système, Graphies, qui permet la création de visualisations expressives de diagrammes noeuds-liens en fournissant aux concepteurs un environnement de travail flexible qui rationalise le processus créatif et offre un support efficace pour les itérations rapides de conception. Allant au-delà de l'utilisation de variables visuelles statiques dans les diagrammes nœuds-liens, nous avons étudié le potentiel des variables liées au mouvement pour encoder les attributs des données. En conclusion, nous montrons dans cette thèse que le processus visant à faire sens des données peut être amélioré à la fois dans le processus d'exploration et de présentation, en utilisant l'annotation comme nouveau moyen de transition entre exploration et externalisation, et en suivant un processus itératif et flexible pour créer des représentations expressives de données. Les systèmes qui en résultent établissent un cadre de recherche où la présentation et l'exploration sont au cœur des systèmes de données visuelles
During the last decade, the amount of data has been constantly increasing. These data can come from several sources such as smartphones, audio recorders, cameras, sensors, simulations, and can have various structure. While computers can help us process these data, human judgment and domain expertise is what turns the data into actual knowledge. However, making sense of this increasing amount of diverse data requires visualization and interaction techniques. This thesis contributes such techniques to facilitate data exploration and presentation, during sense-making activities. In the first part of this thesis, we focus on interactive systems and interaction techniques to support sense-making activities. We investigate how users work with diverse content in order to make them able to externalize thoughts through digital annotations. We present our approach with two systems. The first system, ActiveInk enables the natural use of pen for active reading during a data exploration process. Through a qualitative study with eight participants, we contribute observations of active reading behaviors during data exploration and design principles to support sense-making. The second system, SpaceInk, is a design space of pen & touch techniques that make space for in-context annotations during active reading by dynamically reflowing documents. In the second part, we focus on techniques to visually represent insights and answers to questions that arise during sense-making activities. We focus on one of the most elaborate data structures: multivariate networks, that we visualize using a node-link diagram visualization. We investigate how to enable a flexible iterative design process when authoring node-link diagrams for multivariate networks. We first present a system, Graphies, that enables the creation of expressive node-link diagram visualizations by providing designers with a flexible workflow that streamlines the creative process, and effectively supports quick design iterations. Moving beyond the use of static visual variables in node-link diagrams, we investigated the use of motion to encode data attributes. To conclude, we show in this thesis that the sense-making process can be enhanced in both processes of exploration and presentation, by using ink as a new medium to transition between exploration and externalization, and by following a flexible, iterative process to create expressive data representations. The resulting systems establish a research framework where presentation and exploration are a core part of visual data systems
Styles APA, Harvard, Vancouver, ISO, etc.
27

Lehn, Rémi. « Un système interactif de visualisation et de fouille de règles pour l'extraction de connaissances dans les bases de données ». Nantes, 2000. http://www.theses.fr/2000NANT2110.

Texte intégral
Résumé :
L'utilisation de techniques combinatoires dans un processus d'extraction automatique de connaissances à partir des données génère potentiellement un volume de règle d'association trop important pour qu'un utilisateur puisse y trouver des connaissances effectivement utiles selon son point de vue ; et ce, malgré l'utilisation de critères de qualité des règles extraites tels que l'intensité d'implication. Nous proposons d'envisager une meilleure assistance à l'utilisateur en couplant à un algorithme performant pour la découverte d'association un nouvel outil interactif de visualisation, felix, fournissant une véritable aide à la décision en permettant la fouille de règles. Felix permet d'assister l'utilisateur dans son raisonnement mettant en relation la connaissance découverte automatiquement et sa propre expertise. Pour cela, il dessine le graphe des relations associant des descriptions de sous-ensembles d'objets de la base de données et permet, par action de l'utilisateur sur ce dessin, de modifier dynamiquement et de façon itérative cette représentation pour prendre en compte de manière incrémentale de nouvelles étapes dans le raisonnement de l'expert. Une heuristique basée sur les algorithmes génétiques a été développée pour le problème du dessin interactif. Felix a été implémenté selon une architecture client-serveur et exploite des standards ouverts pour s'intégrer parfaitement dans les environnements industriels d'aujourd'hui, entre les bases de données et l'intranet des entreprises. Il a déjà été utilisé dans le domaine de la gestion des ressources humaines pour étudier le rapprochement entre des bilans comportementaux et des métiers, à partir de bases de données de plusieurs clients de la société performanse sa. Des profils de métiers ont ainsi pu être élaborés.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Lavergne, Julien. « Algorithme de fourmis artificielles pour la construction incrémentale et la visualisation interactive de grands graphes de voisinage ». Thesis, Tours, 2008. http://www.theses.fr/2008TOUR4049.

Texte intégral
Résumé :
Nous nous intéressons dans cette thèse à la résolution d'un problème de classification non supervisée d'un grand volume de données (i.e. 1 million). Nous proposons une méthode de construction incrémentale de grands graphes de voisinage par des fourmis artificielles qui s'inspire du comportement d'auto-assemblage de fourmis réelles se fixant progressivement à un support puis successivement aux fourmis déjà fixées afin de créer une structure vivante. La connexion entre fourmis (données) se fait à partir d'une mesure de similarité entre les données. Nous permettons également l'exploration visuelle et interactive de nos graphes en réponse aux besoins d'extraction de connaissances de l'expert du domaine. Ce dernier peut visualiser la forme globale d'un graphe et explorer localement les relations de voisinage avec une navigation guidée par le contenu. Nos travaux s'inscrivent pleinement en classification interactive ainsi qu'en fouille de textes avec une immersion en réalité virtuelle
We present in this work a new incremental algorithm for building proximity graphs for large data sets in order to solve a clustering problem. It is inspired from the self-assembly behavior observed in real ants where ants progressively become attached to an existing support and then successively to other attached ants. Each artificial ant represents one data. The way ants move and build a graph depends on the similarity between the data. A graph, built with our method, is well suitable for visualization and interactively exploration depending on the needs of the domain expert. He can visualize the global shape of the graph and locally explore the neighborhood relations with a content-based navigation. Finally, we present different applications of our work as the interactive clustering, the automatic graph construction of documents and an immersion in a virtual reality environment for discovering knowledge in data
Styles APA, Harvard, Vancouver, ISO, etc.
29

Francisci, Dominique. « Techniques d'optimisation pour la fouille de données ». Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00216131.

Texte intégral
Résumé :
Les technologies numériques ont engendré depuis peu, des volumes de données importants, qui peuvent receler des informations utiles. Ceci a donné naissance à l'extraction de connaissances à partir des données qui désigne le processus d'extraction d'informations implicites, précédemment inconnues et potentiellement utiles enfouies dans les données. La fouille de données comprend cinq phases dont la principale est l'extraction de modèles. Nous nous intéressons aux connaisances exprimées sous la forme de règles de dépendance et à la qualité de ces règles. Une règle de dépendance est une implication conditionnelle entre ensembles d'attributs. Les algorithmes standard ont pour but de rechercher les meilleurs modèles. Derrière ces processus se cache en fait une véritable problématique d'optimisation. Nous considérons la recherche des règles de dépendance les plus intéressantes comme étant un problème d'optimisation dans lequel la qualité d'une règle est quantifiée par des mesures. Ainsi, il convient d'étudier les espaces de recherche induits par les mesures ainsi que les algorithmes de recherche dans ces espaces. Il ressort que la plupart des mesures observées présentent des propriétés différentes suivant le jeu de données. Une approche analytique n'est donc pas envisageable dans fixer certains paramères. Nous observons les variations relatives de mesures évaluées simultanément ; certaines d'entre elles sont antagonistes ce qui ne permet pas d'obtenir "la" meilleure règle ; il faut alors considérer un ensemble de compromis satisfaisants. Nous apportons des solutions par le biais des algorithmes génétiques.
Styles APA, Harvard, Vancouver, ISO, etc.
30

Heulot, Nicolas. « Etude des projections de données comme support interactif de l’analyse visuelle de la structure de données de grande dimension ». Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112127.

Texte intégral
Résumé :
Acquérir et traiter des données est de moins en moins coûteux, à la fois en matériel et en temps, mais encore faut-il pouvoir les analyser et les interpréter malgré leur complexité. La dimensionnalité est un des aspects de cette complexité intrinsèque. Pour aider à interpréter et à appréhender ces données le recours à la visualisation est indispensable au cours du processus d’analyse. La projection représente les données sous forme d’un nuage de points 2D, indépendamment du nombre de dimensions. Cependant cette technique de visualisation souffre de distorsions dues à la réduction de dimension, ce qui pose des problèmes d’interprétation et de confiance. Peu d’études ont été consacrées à la considération de l’impact de ces artefacts, ainsi qu’à la façon dont des utilisateurs non-familiers de ces techniques peuvent analyser visuellement une projection. L’approche soutenue dans cette thèse repose sur la prise en compte interactive des artefacts, afin de permettre à des analystes de données ou des non-experts de réaliser de manière fiable les tâches d’analyse visuelle des projections. La visualisation interactive des proximités colore la projection en fonction des proximités d’origine par rapport à une donnée de référence dans l’espace des données. Cette technique permet interactivement de révéler les artefacts de projection pour aider à appréhender les détails de la structure sous-jacente aux données. Dans cette thèse, nous revisitons la conception de cette technique et présentons ses apports au travers de deux expérimentations contrôlées qui étudient l’impact des artefacts sur l’analyse visuelle des projections. Nous présentons également une étude de l’espace de conception d’une technique basée sur la métaphore de lentille et visant à s’affranchir localement des problématiques d’artefacts de projection
The cost of data acquisition and processing has radically decreased in both material and time. But we also need to analyze and interpret the large amounts of complex data that are stored. Dimensionality is one aspect of their intrinsic complexity. Visualization is essential during the analysis process to help interpreting and understanding these data. Projection represents data as a 2D scatterplot, regardless the amount of dimensions. However, this visualization technique suffers from artifacts due to the dimensionality reduction. Its lack of reliability implies issues of interpretation and trust. Few studies have been devoted to the consideration of the impact of these artifacts, and especially to give feedbacks on how non-expert users can visually analyze projections. The main approach of this thesis relies on an taking these artifacts into account using interactive techniques, in order to allow data scientists or non-expert users to perform a trustworthy visual analysis of projections. The interactive visualization of the proximities applies a coloring of the original proximities relatives to a reference in the data-space. This interactive technique allows revealing projection artifacts in order to help grasping details of the underlying data-structure. In this thesis, we redesign this technique and we demonstrate its potential by presenting two controlled experiments studying the impact of artifacts on the visual analysis of projections. We also present a design-space based on the lens metaphor, in order to improve this technique and to locally visualize a projection free of artifacts issues
Styles APA, Harvard, Vancouver, ISO, etc.
31

Cram, Damien. « Découverte interactive et complète de chroniques : application à la co-construction de connaissances à partir de traces ». Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10170.

Texte intégral
Résumé :
Cette thèse se situe dans le cadre de l'ingénierie de la dynamique des connaissances et s'intéresse plus particulièrement à la découverte interactive de connaissances dans les traces d'interactions. La gestion de la dynamique des connaissances liée à la mise en place d'un environnement de gestion de connaissances constitue le cadre applicatif principal du travail. Les contributions théoriques concernent d'une part la proposition d'un processus de co-construction de connaissances exploitant les capacités d'apprentissage automatique de la machine et les capacités d'interprétation de l'utilisateur et d'autre part une contribution algorithmique permettant d'exploiter de manière interactive un processus de découverte dans des séquences temporelles d'événements. Les traces d'interactions sont des informations que les utilisateurs d'un système informatique laissent lors de leurs activités. Ces informations sont collectées volontairement ou non par le concepteur du système. Lors de la collecte, elles sont représentées dans un format expressif dédié à l'ingénierie des traces, le format des traces modélisées, et sont accessibles par l'intermédiaire d'un système de gestion des traces (SBT) qui gère leur stockage. Nous argumentons que ces traces d'interactions sont des conteneurs de connaissances riches en informations contextuelles et qu'il est possible de les utiliser pour inférer des connaissances pertinentes sur l'activité tracée et exploitables par des systèmes d'assistance à l'utilisateur. Nous proposons un processus de co-construction de connaissances à partir de traces, qui est itératif et interactif. L'humain et la machine jouent tour à tour un rôle dans la construction des connaissances : la machine propose des motifs de comportement de l'utilisateur à partir des traces et l'humain valide ces motifs s'il les reconnaît et les juge intéressants. Dans le cas contraire, il formule de nouvelles requêtes à la machine qui lui propose alors de nouveaux motifs, et ainsi de suite. L'idée est d'implémenter un processus de construction de connaissances ascendant qui prenne en compte les aspects dynamique et contextuel de la connaissance. Pour que la machine puisse jouer un tel rôle pro-actif dans la construction, il faut concevoir un algorithme d'extraction de motifs temporels à partir de traces qui soit complet et qui permette de fournir des motifs en temps réel à l'humain, de sorte que le processus prenne la forme d'un dialogue avec la machine. Une chronique est une structure de motif spécifiant des contraintes temporelles numériques. L'algorithme d'extraction de chroniques fréquentes que nous présentons dans cette thèse pour implémenter ce processus est le premier algorithme d'extraction complète de chroniques à partir de séquences d'événements. Il permet l'interactivité en temps réel avec son utilisateur en affichant les résultats partiels de l'extraction à tout moment. L'algorithme supporte l'intégration de plusieurs types de contraintes temporelles et structurelles permettant à l'utilisateur de faire converger la découverte plus rapidement vers les chroniques d'intérêt. L'algorithme se comporte comme un framework dans la mesure où il peut être configuré pour agir comme les algorithmes d'extraction de chroniques non complets existants, pour découvrir l'ensemble véritablement complet des chroniques fréquentes, ou encore l'ensemble complet des épisodes hybrides fréquents, une certaine forme résumée et simplifiée des chroniques. Lorsqu'il est comparé aux algorithmes existants dans les mêmes conditions, notre algorithme montre des performances tout à fait comparables. L'inconvénient du problème de découverte de chroniques est que l'espace d'exploration s'agrandit exponentiellement avec la longueur des chroniques, si bien qu'il n'est possible de découvrir que des chroniques de faibles longueurs, introduisant la nécessité de réaliser la découverte de manière incrémentale [etc...]
This thesis deals with the engineering of knowledge dynamics and it focuses on the interactive discovery of knowledge from activity traces. The applicative context targeted by this work is the management of the dynamic aspect of knowledge in Knowledge Management Systems (KMS). Two theoretical contributions are presented in this thesis. Firstly, we propose an iterative and interactive process for the co-construction of dynamic knowledge that requires a dialogue and a cooperation of the machine and humans. Secondly, we present an algorithm for the complete discovery of temporal patterns in sequences of events. This algorithm implements the machine proactive behaviour in this process. Interaction traces are information that users leave when they interact with their environment. This information about users' activities is collected, sometimes intentionally, by the designer of the environment. Interaction traces are represented in an expressive format designed especially for the engineering of interaction traces: the format of modelled traces. Such interaction traces are managed separately in a Trace-Based System (TBS), which can store modelled traces and provides primitive functions to access them. We argue that such interaction traces are potential containers of contextual knowledge about how users behave in their activities mediated by the traced environment. For this reason, interaction traces can be used for building systems that provide contextual assistance to users. We propose an iterative and interactive process for the co-construction of knowledge from traces. In this process, the machine analyses the traces and suggests some behaviour patterns to the human involved in the process. The human validates these patterns if he finds them relevant. If it is not the case, the human elaborates new requests and the machine suggests new candidate patterns, and so on. The idea behind this process was to build a bottom-up knowledge construction approach that takes into account the dynamic and contextual aspects of knowledge. The proactive participation of the machine to this co-construction process implies/requires the development of an algorithm that can extract temporal pattern from interaction traces, that is complete, and that can provide patterns to the human in real time, so that the knowledge co-construction process takes the form of a dialogue between the human and the machine. Chronicles are patterns that can occur in interaction traces and that contain temporal constraints with numerical bounds. The frequent chronicle mining approach we present in this thesis has been designed to implement the machine's behaviour in this process. This algorithm is the first algorithm for chronicle extraction from a sequence of events that is complete. It allows real time interactivity with its users by returning the partial result set of frequent chronicles, at any time. The algorithm supports temporal and structural user constraints pushing, which allows the human to make the chronicle exploration procedure converge more quickly towards the most interesting chronicles. The algorithm can be configured in a way that makes it return the same non-complete chronicle result set as other existing algorithms in the literature. It can also be configured so as to return the complete frequent chronicle set, or to return the complete set of frequent hybrid episodes. Hybrid episodes are summarized forms of chronicles, with a simpler pattern structure that is easier to understand by humans. When compared to existing chronicle mining algorithms with the same conditions, our algorithm shows equivalent time performances. The main inconvenient of the chronicle discovery problem is that the size of the exploration space depends exponentially on the chronicle length. As a result, it is possible to discover only small chronicles in one shot, which implies the need for an iterative and incremental discovery approach [etc...]
Styles APA, Harvard, Vancouver, ISO, etc.
32

Mongy, Sylvain. « Modélisation et analyse du comportement des utilisateurs exploitant des données vidéo ». Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2008. http://tel.archives-ouvertes.fr/tel-00842718.

Texte intégral
Résumé :
Nous proposons dans ce travail d'analyser le comportement des utilisateurs exploitant des données vidéo. Notre objectif est de contribuer à comprendre pourquoi et comment chacune des séquences vidéo est visionnée par les utilisateurs. Pour cela, nous présentons une approche qui combine usage intra-vidéo et usage inter-vidéo. Au niveau intra-vidéo, nous définissons le visionnage d'une vidéo comme unité de comportement. Au niveau inter-vidéo, nous introduisons la session (enchaînement des vidéos visionnées) comme unité de comportement. Un comportement intra-vidéo est modélisé par un modèle de Markov construit en utilisant les différentes actions réalisées lors des vision nages que nous regroupons à l'aide d'une nouvelle méthode de regroupement (K-models). Cette méthode est dérivée de la technique des K-moyennes adaptée à l'utilisation de modèles. Nous caractérisons ainsi plusieurs comportements type qui permettent d'estimer quelle fut l'utilité ou d'une séquence vidéo lors d'une session. Un comportement inter-vidéo est modélisé par une session. Cette session est une séquence ordonnée des vision nages des séquences vidéo. Pour regrouper ces sessions, nous proposons une technique de regroupement hiérarchique qui présente la particularité de traiter des classes représentées par plusieurs sous-séquences enrichies par les comportements intra-vidéo. Les résultats obtenus sur des ensembles de test permettent d'identifier les comportements observés et d'en tirer des suppositions sur la pertinence des vidéos. Nous proposons également un modèle d'intégration dans un moteur de recherche permettant de détecter les erreurs d'indexation et de proposer des recherches alternatives.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Mongy, Sylvain. « Modélisation et analyse du comportement des utilisateurs exploitant des données vidéo ». Electronic Thesis or Diss., Lille 1, 2008. http://www.theses.fr/2008LIL10073.

Texte intégral
Résumé :
Nous proposons dans ce travail d'analyser le comportement des utilisateurs exploitant des données vidéo. Notre objectif est de contribuer à comprendre pourquoi et comment chacune des séquences vidéo est visionnée par les utilisateurs. Pour cela, nous présentons une approche qui combine usage intra-vidéo et usage inter-vidéo. Au niveau intra-vidéo, nous définissons le visionnage d'une vidéo comme unité de comportement. Au niveau inter-vidéo, nous introduisons la session (enchaînement des vidéos visionnées) comme unité de comportement. Un comportement intra-vidéo est modélisé par un modèle de Markov construit en utilisant les différentes actions réalisées lors des vision nages que nous regroupons à l'aide d'une nouvelle méthode de regroupement (K-models). Cette méthode est dérivée de la technique des K-moyennes adaptée à l'utilisation de modèles. Nous caractérisons ainsi plusieurs comportements type qui permettent d'estimer quelle fut l'utilité ou d'une séquence vidéo lors d'une session. Un comportement inter-vidéo est modélisé par une session. Cette session est une séquence ordonnée des vision nages des séquences vidéo. Pour regrouper ces sessions, nous proposons une technique de regroupement hiérarchique qui présente la particularité de traiter des classes représentées par plusieurs sous-séquences enrichies par les comportements intra-vidéo. Les résultats obtenus sur des ensembles de test permettent d'identifier les comportements observés et d'en tirer des suppositions sur la pertinence des vidéos. Nous proposons également un modèle d'intégration dans un moteur de recherche permettant de détecter les erreurs d'indexation et de proposer des recherches alternatives
Our work proposes to analyze users' behavior using video data. Our objective is to contribute understanding how and why users view each video sequence. We present an approach combining intra-video and inter-video behavior analysis. The intra-video level represents the viewing of a video sequence. The inter-video level represents the sessions (linkage between videos viewed by users). An intra-video behavior is defined by a Markov model built using the actions performed during viewings. We cluster these behavior with a new method derived from K-Means adapted to the use of Models (K-Models). We then characteriz several typical behaviors that allows to estimate the level of interest of each video. An inter-video behavior is defined by a session. This session is an ordered sequence of viewings performed by the users. ln order to cluster these sessions, we propose a hierarchical technique, representing clusters by a set of common subsequences enriched by intra-video behaviors. Results from test sets allow to identify observed behaviors and to conclude on the interest of the videos. We also propose a framework on how to integrate our approach in a search engine in order to detect indexing errors and to propose altemate searches to the users
Styles APA, Harvard, Vancouver, ISO, etc.
34

Cordeil, Maxime. « Exploration et exploitation de l’espace de conception des transitions animées en visualisation d’information ». Thesis, Toulouse, ISAE, 2013. http://www.theses.fr/2013ESAE0044/document.

Texte intégral
Résumé :
Les visualisations de données permettent de transmettre de l’information aux utilisateurs. Pour explorer et comprendre les données, les utilisateurs sont amenés à interagir avec ces visualisations.Toutefois, l’interaction avec les visualisations modifie le visuel. Pour éviter des changements brusques et garder l’utilisateur focalisé sur les objets graphiques d’intérêt, des transitions visuelles sont nécessaires pour accompagner les modifications de la visualisation. Ces transitions visuelles peuvent être codées sous la forme d’animations, ou de techniques qui permettent de faire des correspondances, ou des liens avec des données représentées sur plusieurs affichages. Le premier objectif de cette thèse était d’étudier les bénéfices et les propriétés des animations pour l’exploration et la compréhension de grandes quantités de données multidimensionnelles. Nous avons établi en conséquence une taxonomie des transitions animées en visualisation d’information basée sur les tâches des utilisateurs. Cette taxonomie a permis de constater qu’il n’existe pas de contrôle utilisateur sur la direction des objets durant l’animation. Nous avons donc proposé des interactions pour le contrôle de la direction des objets graphiques lors d’une transition animée. D’autre part, nous avons étudié une technique de transition animée mettant en jeu une rotation 3D entre visualisations. Nous avons identifié les avantages qu’elle pouvait apporter et en avons proposé une amélioration.Le second objectif était d’étudier les transitions visuelles dans le domaine du Contrôle du Trafic Aérien. En effet, les contrôleurs utilisent de nombreuses visualisations qui comportent des informations étalées et dupliquées sur plusieurs affichages: l’écran Radar, le tableau de strips, des listes spécifiques d’avions (départ, arrivées) etc. Ainsi dans leur activité, les Contrôleurs Aériens réalisent des transitions visuelles en recherchant et en reliant de l’information à travers les différents affichages. Nous avons étudié comment les animations pouvaient être utilisées dans le domaine du contrôle aérien en implémentant un prototype d’image radar regroupant trois visualisations usuelles pour instrumenter l’activité de supervision du trafic aérien
Data visualizations allow information to be transmitted to users. In order to explore and understand the data, it is often necessary for users to manipulate the display of this data. When manipulating the visualization, visual transitions are necessary to avoid abrupt changes in this visualization, and to allow the user to focus on the graphical object of interest. These visual transitions can be coded as an animation, or techniques that link the data across several displays. The first aim of this thesis was to examine the benefits and properties of animated transitions used to explore and understand large quantities of multidimensional data. In order to do so, we created a taxonomy of existing animated transitions. This taxonomy allowed us to identify that no animated transition currently exists that allows the user to control the direction of objects during the transition. We therefore proposed an animated transition that allows the user to have this control during the animation. In addition, we studied an animated transition technique that uses 3D rotation to transition between visualizations. We identified the advantages of this technique and propose an improvement to the current design. The second objective was to study the visual transitions used in the Air Traffic Control domain. Air Traffic Controllers use a number of visualizations to view vast information which is duplicated in several places: the Radar screen, the strip board, airplane lists (departures/arrivals) etc. Air traffic controllers perform visual transitions as they search between these different displays of information. We studied the way animations can be used in the Air Traffic Control domain by implementing a radar image prototype which combines three visualizations typically used by Air Traffic Controllers
Styles APA, Harvard, Vancouver, ISO, etc.
35

Jacquemont, Stéphanie. « Contributions de l'inférence grammaticale à la fouille de données séquentielles ». Phd thesis, Université Jean Monnet - Saint-Etienne, 2008. http://tel.archives-ouvertes.fr/tel-00366358.

Texte intégral
Résumé :
Dans le cadre de cette thèse, nous avons établi des liens entre les modèles obtenus par des algorithmes d'inférence grammaticale et la connaissance induite par des techniques de fouille de données séquentielles. Partant du constat que le point commun entre ces deux contextes différents de travail est la manipulation de données structurées sous forme de séquences de symboles, nous avons tenté d'exploiter les propriétés des automates probabilistes inférés à partir de ces séquences au profit d'une fouille de données séquentielles plus efficace.
Dans ce contexte, nous avons montré que l'exploitation brute, non seulement des séquences d'origine mais aussi des automates probabilistes inférés à partir de celles-ci, ne garantit pas forcément une extraction de connaissance pertinente. Nous avons apporté dans cette thèse plusieurs contributions, sous la forme de bornes minimales et de contraintes statistiques, permettant ainsi d'assurer une exploitation fructueuse des séquences et des automates probabilistes. De plus, grâce à notre modèle nous apportons une solution efficace à certaines applications mettant en jeux des problèmes de préservation de vie privée des individus.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Nguyen, Sao Mai. « A Curious Robot Learner for Interactive Goal-Babbling : Strategically Choosing What, How, When and from Whom to Learn ». Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00936992.

Texte intégral
Résumé :
Les défis pour voir des robots opérant dans l'environnement de tous les jours des humains et sur une longue durée soulignent l'importance de leur adaptation aux changements qui peuvent être imprévisibles au moment de leur construction. C'est pourquoi, les robots doivent être capables d'apprendre continuellement dans des espaces infinis, non-stationnaires et de grande dimension. Il leur est impossible d'explorer tout son environnement pour apprendre pendant la durée limitée de sa vie. Pour être utile et acquérir des compétences, le robot doit au contraire être capable de savoir quelles parties échantillonner, et quels types de compétences il a intérêt à acquérir. Une manière de collecter des données est de décider par soi-même où explorer. Une autre manière est de se référer à un mentor. Nous appelons ces deux manières de collecter des données des modes d'échantillonnage. Le premier mode d'échantillonnage correspond à des algorithmes développés dans la littérature pour automatiquement pousser l'agent vers des parties intéressantes de l'environnement ou vers des types de compétences utiles. De tels algorithmes sont appelés des algorithmes de curiosité artificielle ou motivation intrinsèque. Le deuxième mode d'échantillonnage correspond au guidage social ou l'imitation, où un partenaire humain indique où explorer et où ne pas explorer. D'une étude des liens entre ces deux méthodes concurrentes, nous avons finalement construit une architecture algorithmique où les deux modes s'entremêlent en un structure hiérarchique, appelée Socially Guided Intrinsic Motivation (SGIM).
Styles APA, Harvard, Vancouver, ISO, etc.
37

Brisson, Laurent. « Intégration de connaissances expertes dans le processus de fouille de données pour l'extraction d'informations pertinentes ». Phd thesis, Université Nice Sophia Antipolis, 2006. http://tel.archives-ouvertes.fr/tel-00211946.

Texte intégral
Résumé :
L'extraction automatique de connaissances à partir des données peut être considérée comme la découverte d'informations enfouies dans de très grands volumes de données. Les approches Actuelles, pour évaluer la pertinence des informations extraites, se distinguent en deux catégories : les approches objectives qui mettent en oeuvre des mesures d'intérêt afin d'évaluer les propriétés statistiques des modèles extraits et les approches subjectives qui confrontent les modèles extraits à des connaissances exprimées sur le domaine et nécessitent généralement l'interrogation d'experts. Toutefois, le choix de modèles pertinents en regard de la connaissance métier d'un expert reste un problème ouvert et l'absence de formalisme dans l'expression des connaissances nuit à la mise au point de techniques automatiques de confrontation des modèles permettant d'exploiter toute la richesse sémantique des connaissances expertes. L'approche KEOPS que nous proposons dans ce mémoire, répond à cette problématique en proposant une méthodologie qui intègre les connaissances des experts d'un domaine tout au long du processus de fouille. Un système d'information dirigé par une ontologie (ODIS) joue un rôle central dans le système KEOPS en permettant d'organiser rationnellement non seulement la préparation des données mais aussi la sélection et l'interprétation des modèles générés. Une mesure d'intérêt est proposée afin de prendre en compte les centres d'intérêt et le niveau de connaissance des experts. Le choix des modèles les plus pertinents se base sur une évaluation à la fois objective pour évaluer la précision des motifs et subjective pour évaluer l'intérêt des modèles pour les experts du domaine. Enfin l'approche KEOPS facilite la définition de stratégies pour améliorer le processus de fouille de données dans le temps en fonction des résultats observés. Les différents apports de l'approche KEOPS favorisent l'automatisation du processus de fouille de données, et ainsi, une dynamique d'apprentissage peut être initiée pour obtenir un processus de fouille particulièrement bien adapté au domaine étudié. KEOPS a été mise en oeuvre dans le cadre de l'étude de la gestion des relations avec les allocataires au sein des Caisses d'Allocations Familiales. L'objectif de cette étude a été d'analyser la relation de service rendu aux allocataires afin de fournir aux décideurs des connaissances précises, pertinentes et utiles pour l'amélioration de ce service.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Fiot, Céline. « Extraction de séquences fréquentes : des données numériques aux valeurs manquantes ». Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00179506.

Texte intégral
Résumé :
La quantité de données aujourd'hui emmagasinées dans tous les domaines ainsi que leur diversité d'origines et de formats rendent impossibles l'analyse, le résumé ou l'extraction manuelle de connaissances. Pour répondre à ces besoins, diverses communautés se sont intéressées à la conception et au développement d'outils permettant d'extraire automatiquement de la connaissance de ces grandes bases. Désormais ces travaux visent à prendre en compte l'hétérogénéité de ces données, de leur format et de leur qualité. Notre travail s'inscrit dans cet axe de recherche et, plus précisément, dans le contexte de la découverte de schémas fréquents à partir de données regroupées sous la forme de séquences ordonnées. Ces schémas, appelés motifs séquentiels, n'étaient jusqu'alors extraits que sur des bases de données de séquences symboliques et parfaites, c'est-à-dire des bases ne contenant que des informations binaires ou pouvant être traitées comme telles et ne contenant aucun enregistrement incomplet. Nous avons donc proposé plusieurs améliorations des techniques d'extraction de séquences fréquentes afin de prendre en compte des données hétérogènes, incomplètes, incertaines ou mal connues de leur utilisateur, tout en minimisant les pertes éventuelles d'informations. Ainsi, le travail présenté dans cette thèse comporte la mise en oeuvre d'un cadre pour l'extraction de motifs séquentiels en présence de données numériques quantitatives, la définition de contraintes temporelles relâchées autorisant l'utilisateur à spécifier des contraintes temporelles approximatives et permettant un tri des résultats obtenus selon un indice de précision temporelle, enfin, le développement de deux approches pour l'extraction de motifs séquentiels sur des données symboliques incomplètes.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Fiot, Céline. « Extraction de séquences fréquentes : des données numériques aux valeurs manquantes ». Phd thesis, Montpellier 2, 2007. http://www.theses.fr/2007MON20056.

Texte intégral
Résumé :
La quantité de données aujourd'hui emmagasinées dans tous les domaines ainsi que leur diversité d'origines et de formats rendent impossibles l'analyse, le résumé ou l'extraction manuelle de connaissances. Pour répondre à ces besoins, diverses communautés se sont intéressées à la conception et au développement d'outils permettant d'extraire automatiquement de la connaissance de ces grandes bases. Désormais ces travaux visent à prendre en compte l'hétérogénéité de ces données, de leur format et de leur qualité. Notre travail s'inscrit dans cet axe de recherche et, plus précisément, dans le contexte de la découverte de schémas fréquents à partir de données regroupées sous la forme de séquences ordonnées. Ces schémas, appelés motifs séquentiels, n'étaient jusqu'alors extraits que sur des bases de données de séquences symboliques et parfaites, c'est-à-dire des bases ne contenant que des informations binaires ou pouvant être traitées comme telles et ne contenant aucun enregistrement incomplet. Nous avons donc proposé plusieurs améliorations des techniques d'extraction de séquences fréquentes afin de prendre en compte des données hétérogènes, incomplètes, incertaines ou mal connues de leur utilisateur, tout en minimisant les pertes éventuelles d'informations. Ainsi, le travail présenté dans cette thèse comporte la mise en oeuvre d'un cadre pour l'extraction de motifs séquentiels en présence de données numériques quantitatives, la définition de contraintes temporelles relâchées autorisant l'utilisateur à spécifier des contraintes temporelles approximatives et permettant un tri des résultats obtenus selon un indice de précision temporelle, enfin, le développement de deux approches pour l'extraction de motifs séquentiels sur des données symboliques incomplètes.
Styles APA, Harvard, Vancouver, ISO, etc.
40

De, Runz Cyril. « Imperfection, temps et espace : modélisation, analyse et visualisation dans un SIG archéologique ». Phd thesis, Université de Reims - Champagne Ardenne, 2008. http://tel.archives-ouvertes.fr/tel-00560668.

Texte intégral
Résumé :
Face aux enjeux urbains actuels, à la patrimonialisation des ressources archéologiques et grâce au développement de l'informatique, l'utilisation des systèmes d'information géographique devient essentielle pour l'exploitation des données archéologiques. Pour cela, il s'avère nécessaire de modéliser, d'analyser et de visualiser l'information archéologique en prenant en considération l'aspect temporel et spatial mais surtout les imperfections des données archéologiques. Cette thèse élabore une démarche globale pour l'utilisation de données spatiotemporelles imparfaites dans un SIG archéologique. Cette démarche contribue à une meilleure gestion de celles-ci tant pour leur représentation que pour leur traitement. Dans cette démarche scientifique, les concepts théoriques de taxonomie de l'imperfection et de représentation des données imparfaites permettent d'abord la modélisation des données archéologiques. Ce mémoire propose ensuite des méthodes d'analyse des données d'un SIG archéologique. La spécificité de leur caractère temporel implique une gestion plus flexible du temps par un indice quantifiant l'antériorité. L'aspect lacunaire de l'information est aussi considéré à travers une méthode d'interrogation sous critère de forme. Enfin, des outils originaux d'exploration et de visualisation de données archéologiques sont exposés afin de mieux définir les éléments les plus représentatifs. Par une approche interdisciplinaire liant informatique et géographie, cette thèse développe une vision transversale autour de la gestion des connaissances imparfaites dans le temps et l'espace. Cette approche est illustrée par l'utilisation de données archéologiques dans un SIG.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Del, Razo Lopez Federico. « Recherche de sous-structures arborescentes ordonnées fréquentes au sein de bases de données semi-structurées ». Phd thesis, Montpellier 2, 2007. http://www.theses.fr/2007MON20040.

Texte intégral
Résumé :
La recherche de structures arborescentes fréquentes, également appelée fouille d'arbres, au sein de bases de données composées de documents semi-structurés (e.g. XML) est une problématique actuellement très active. Ce processus trouve de nombreux intérêts dans le contexte de la fouille de données comme par exemple la construction automatique d'un schéma médiateur à partir de schémas XML, ou bien l'analyse des structures des sites Web afin d'étudier son usage ou modifier son contenu.

L'objectif de cette thèse est de proposer une méthode d'extraction d'arborescences fréquentes. Cette approche est basée sur une représentation compacte des arborescences cherchant à diminuer la consommation de mémoire dans le processus de fouille. En particulier, nous présentons une nouvelle technique de génération d'arborescences candidates visant à réduire leur nombre. Par ailleurs, nous proposons différents algorithmes pour valider le support des arborescences candidates dans une base de données selon divers types de contraintes d'inclusion d'arbres : induite, incrustée et floue. Finalement nous appliquons nos algorithmes à des jeux de données synthétiques et réels et nous présentons les résultats obtenus.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Candillier, Christophe. « Méthodes d'Extraction de Connaissances à partir de Données (ECD) appliquées aux Systèmes d'Information Géographiques (SIG) ». Phd thesis, Université de Nantes, 2006. http://tel.archives-ouvertes.fr/tel-00101491.

Texte intégral
Résumé :
Le travail effectué durant cette thèse concerne l'étude des méthodes d'Extraction de Connaissances à partir de Données (ECD) dans le cadre des Systèmes d'Information Géographiques (SIG). Nous avons non seulement mis en œuvre et amélioré des méthodes d'ECD classique (Classification de Données, Visualisation de Classifications) mais aussi des méthodes d'ECD spatiales liées à des méthodes d'analyse spatiale (Lissage Spatial, Détermination de Pôles, Sectorisation). Nous avons effectué notre travail de recherche au sein de la société GÉOBS spécialisée dans l'analyse des données géographiques (spatiales), et nous avons donc expérimenté, appliqué et vérifié ces méthodes sur des jeux de données fournis par GÉOBS et liés à des problématiques de Développement Économique, de Géomarketing, d'Analyse de Risque, d'Environnement, de Santé, etc. Ce mémoire offre une vision globale concernant un ensemble de problématiques et de méthodes d'analyse. Il met ainsi en avant la complémentarité des méthodes utilisées qui sont souvent connectées entre elles soit du point de vue technique soit du point de vue de leur utilisation. Finalement, ce fut un travail très enrichissant car il a touché à de nombreuses problématiques et à d'aussi nombreuses méthodes d'extraction de connaissances.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Del, Razo Lopez Federico. « Recherche de sous-structures arborescentes ordonnées fréquentes au sein de bases de données semi-structurées ». Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00203608.

Texte intégral
Résumé :
La recherche de structures arborescentes fréquentes, également appelée fouille d'arbres, au sein de bases de données composées de documents semi-structurés (e.g. XML) est une problématique actuellement très active. Ce processus trouve de nombreux intérêts dans le contexte de la fouille de données comme par exemple la construction automatique d'un schéma médiateur à partir de schémas XML, ou bien l'analyse des structures des sites Web afin d'étudier son usage ou modifier son contenu.

L'objectif de cette thèse est de proposer une méthode d'extraction d'arborescences fréquentes. Cette approche est basée sur une représentation compacte des arborescences cherchant à diminuer la consommation de mémoire dans le processus de fouille. En particulier, nous présentons une nouvelle technique de génération d'arborescences candidates visant à réduire leur nombre. Par ailleurs, nous proposons différents algorithmes pour valider le support des arborescences candidates dans une base de données selon divers types de contraintes d'inclusion d'arbres : induite, incrustée et floue. Finalement nous appliquons nos algorithmes à des jeux de données synthétiques et réels et nous présentons les résultats obtenus.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Coulet, Adrien. « Construction et utilisation d'une base de connaissances pharmacogénomique pour l'intégration de données et la découverte de connaissances ». Phd thesis, Université Henri Poincaré - Nancy I, 2008. http://tel.archives-ouvertes.fr/tel-00332407.

Texte intégral
Résumé :
Cette thèse porte sur l'utilisation d'ontologies et de bases de connaissances pour guider différentes étapes du processus d'Extraction de Connaissances à partir de Bases de Données (ECBD) et sur une application en pharmacogénomique. Les données relatives à ce domaine sont hétérogènes, complexes, et distribuées dans diverses bases de données, ce qui rend cruciale l'étape préliminaire de préparation et d'intégration des données à fouiller. Je propose pour guider cette étape une approche originale d'intégration de données qui s'appuie sur une représentation des connaissances du domaine sous forme de deux ontologies en logiques de description : SNP-Ontology et SO-Pharm. Cette approche a été implémentée grâce aux technologies du Web sémantique et conduit au peuplement d'une base de connaissances pharmacogénomique. Le fait que les données à fouiller soient alors disponibles dans une base de connaissances entraîne de nouvelles potentialités pour le processus d'extraction de connaissances. Je me suis d'abord intéressé au problème de la sélection des données les plus pertinentes à fouiller en montrant comment la base de connaissances peut être exploitée dans ce but. Ensuite j'ai décrit et appliqué à la pharmacogénomique, une méthode qui permet l'extraction de connaissances directement à partir d'une base de connaissances. Cette méthode appelée Analyse des Assertions de Rôles (ou AAR) permet d'utiliser des algorithmes de fouille de données sur un ensemble d'assertions de la base de connaissances pharmacogénomique et d'expliciter des connaissances nouvelles et pertinentes qui y étaient enfouies.
Styles APA, Harvard, Vancouver, ISO, etc.
45

Cadot, Martine. « Extraire et valider les relations complexes en sciences humaines : statistiques, motifs et règles d'association ». Phd thesis, Université de Franche-Comté, 2006. http://tel.archives-ouvertes.fr/tel-00594174.

Texte intégral
Résumé :
Cette thèse concerne la fouille de données en sciences humaines. Cette branche récente de l'intelligence artificielle consiste en un ensemble de méthodes visant à extraire de la connaissance à partir de données stockées sur des supports informatiques. Parmi celles-ci, l'extraction de motifs et de règles d'association est une méthode de traitement des données qui permet de représenter de façon symbolique la structure des données, comme le font les méthodes statistiques classiques, mais qui, contrairement à celles-ci, reste opérationnelle en cas de données complexes, volumineuses. Toutefois ce modèle informatique des données, construit à partir de comptages de cooccurrences, n'est pas directement utilisable par les chercheurs en sciences humaines : il est essentiellement dédié aux données dichotomiques (vrai/faux), ses résultats directs, très morcelés, sont difficiles à interpréter, et sa validité peut paraître douteuse aux chercheurs habitués à la démarche statistique. Nous proposons des techniques que nous avons construites puis expérimentées sur des données réelles dans le but de réduire les difficultés d'utilisation que nous venons de décrire : 1) un test de randomisation à base d'échanges en cascade dans la matrice sujets x propriétés permet d'obtenir les liaisons statistiquement significatives entre deux propriétés, 2) une extension floue de la méthode d'extraction classique des motifs, qui produit des règles d'association floues généralisant les règles binaires et proches des règles floues définies par les chercheurs poursuivant les travaux de Zadeh, 3) MIDOVA, un algorithme extrayant les interactions n-aires entre variables - problème peu connu, peu abordé en informatique, et abordé avec de fortes limitations en statistiques - et 4) des méta-règles pour nettoyer le jeu de règles d'association de ses principales contradictions et redondances.
Styles APA, Harvard, Vancouver, ISO, etc.
46

Janssoone, Thomas. « Analyse de signaux sociaux multimodaux : application à la synthèse d’attitudes sociales chez un agent conversationnel animé ». Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS607.

Texte intégral
Résumé :
Lors d'une interaction, le comportement non-verbal apporte des informations sur l'état affectif de l'intervenant comme son attitude ou sa personnalité par exemple. Cela se traduit par des modulations dans l'utilisation de ses signaux sociaux : les variations dans les mouvements de tête, les expressions faciales ou la prosodie traduisent ces différents phénomènes affectifs. Désormais, l'utilisation d'agents conversationnels animés permet aux machines d'utiliser le même type de signaux sociaux. Ces agents peuvent ainsi améliorer la qualité de vie dans nos sociétés modernes s'ils proposent une interaction naturelle avec des utilisateurs humains. Pour cela, l'agent virtuel doit être capable d'exprimer différentes attitudes selon l'utilisateur, comme de la dominance pour un tuteur ou de la bienveillance pour un compagnon. La littérature en sociologie et psychologie souligne que la dynamique dans l'usage des signaux sociaux contient une information importante pour l'expression de différents états affectifs. Les travaux présentés dans cette thèse proposent donc des modèles centrés sur la temporalité, élaborés à partir de signaux sociaux extraits automatiquement de corpus d'études, afin d'exprimer un phénomène affectif voulu. L'analyse de cette information est toujours effectuée dans un but de synthèse de comportements pour pouvoir l'utiliser lors de la génération d'agents conversationnels animés. Ainsi, une revue des bases de données existantes justifie l'élaboration, dans cette thèse, d'un corpus de travail composé d'allocutions présidentielles. Les vidéos de bonne qualité le composant permettent alors l'utilisation d'algorithmes pour évaluer automatiquement les signaux sociaux. Après un traitement des signaux sociaux extraits, des vidéos sont générées où un agent clone les allocutions. Cela permet d'évaluer et de comparer la perception d'attitude avec l'humain et avec l'agent virtuel comme protagoniste. Le modèle SMART utilise la fouille de données pour trouver des règles d'associations temporelles dans des corpus d'interactions. Il permet de trouver une information temporelle précise dans l'utilisation de signaux sociaux et de la lier avec une attitude sociale. La structure de ses règles permet également de transposer cette information pour synthétiser le comportement d'un agent virtuel. Des études perceptives viennent valider cette approche. Une collaboration internationale a abouti au modèle SSN qui se base sur de l'apprentissage profond et de la séparation de domaine. Il permet un apprentissage multi-tâche de plusieurs phénomènes affectifs simultanément et propose ainsi une méthode d'analyse de la dynamique des signaux employés. Ces différentes contributions confirment l’intérêt de prendre en compte la temporalité dans la synthèse d'agents virtuels pour exprimer correctement certains phénomènes affectifs. Les perspectives proposent des pistes pour l'intégration de cette information dans des solutions multimodales
During an interaction, non-verbal behavior reflects the emotional state of the speaker, such as attitude or personality. Modulations in social signals tell about someone's affective state like variations in head movements, facial expressions or prosody. Nowadays, machines can use embodied conversational agents to express the same kind of social cues. Thus, these agents can improve the quality of life in our modern societies if they provide natural interactions with users. Indeed, the virtual agent must express different attitudes according to its purpose, such as dominance for a tutor or kindness for a companion. Literature in sociology and psychology underlines the importance of the dynamic of social signals for the expression of different affective states. Thus, this thesis proposes models focused on temporality to express a desired affective phenomenon. They are designed to handle social signals that are automatically extracted from a corpus. The purpose of this analysis is the generation of embodied conversational agents expressing a specific stance. A survey of existing databases lead to the design of a corpus composed of presidential addresses. The high definition videos allow algorithms to automatically evaluate the social signals. After a corrective process of the extracted social signals, an agent clones the human's behavior during the addresses. This provides an evaluation of the perception of attitudes with a human or a virtual agent as a protagonist. The SMART model use sequence mining to find temporal association rules in interaction data. It finds accurate temporal information in the use of social signals and links it with a social attitude. The structure of these rules allows an easy transposition of this information to synthesize the behavior of a virtual agent. Perceptual studies validate this approach. A second model, SSN, designed during an international collaboration, is based on deep learning and domain separation. It allows multi-task learning of several affective phenomena and proposes a method to analyse the dynamics of the signals used. These different contributions underline the importance of temporality for the synthesis of virtual agents to improve the expression of certain affective phenomena. Perspectives give recommendation to integrate this information into multimodal solutions
Styles APA, Harvard, Vancouver, ISO, etc.
47

Koptelov, Maksim. « Link prediction in bipartite multi-layer networks, with an application to drug-target interaction prediction ». Thesis, Normandie, 2020. http://www.theses.fr/2020NORMC211.

Texte intégral
Résumé :
De nombreux problèmes réels relèvent d’une structure bi-relationnelle et peuvent être modélisés suivant des réseaux bipartis. Une telle modélisation permet l'utilisation de solutions standards pour la prédiction et/ou la recommandation de nouvelles relations entre objets de ces réseaux. La tâche de prédiction de liens est un problème largement étudié dans les réseaux simples, c’est-à-dire les réseaux avec un seul type d'interaction entre sommets. Cependant, pour les réseaux multicouche (i.e. réseaux avec plusieurs types d'arêtes entre sommets), ce problème n'est pas encore entièrement résolu.Cette thèse est motivée par l'importance d'une tâche réelle, à savoir la prédiction d'interaction entre un médicament et une cible thérapeutique. La recherche de candidats médicaments prometteurs pour une cible thérapeutique biologique donnée est une partie essentielle de la conception d’un médicament moderne. Dans cette thèse, nous modélisons ce problème comme une tâche de prédiction de lien dans un réseau multicouche biparti. Cette modélisation du problème permet de rassembler différentes sources d'information en une seule structure et ainsi d'améliorer la qualité de la prédiction d’un lien.Cette thèse se concentre sur le problème de la prédiction de liens dans les réseaux multicouches bipartis et apporte deux contributions principales à ce sujet. La première contribution est une solution pour résoudre la prédiction de liens sans limiter le nombre et le type de réseaux, ce qui est le principal défaut des méthodes de l'état de l'art. L'algorithme que nous avons développé modélise une marche aléatoire à la manière du PageRank et est capable de prédire de nouvelles interactions dans le réseau que nous construisons à partir de différentes sources d'information. La deuxième contribution, qui porte aussi sur ce problème, s’appuie sur les méthodes de détection de communautés. Cette solution, moins immédiate et plus dépendante du choix des valeurs des paramètres, donne de meilleurs résultats. Pour cela, nous adaptons des mesures utilisées pour la détection de communautés à la problématique de la prédiction de liens dans les réseaux multicouche bipartis et nous développons de nouvelles méthodes associant des communautés pour la prédiction de liens. Nous évaluons aussi nos méthodes sur des données autres que celles des interactions entre médicaments et cibles thérapeutiques montrant ainsi le caractère générique de notre approche.D’autre part, nous proposons un protocole expérimental de validation des interactions prédites reposant sur l’exploitation de ressources externes. Fondé sur une collection de concepts biomédicaux utilisés comme source de connaissances, ce protocole effectue une validation des paires de médicaments-cibles thérapeutiques qui sont prédites à partir de scores de confiance que nous avons définis. Une évaluation des interactions prédites sur des données tests montre l'efficacité de ce protocole.Enfin, nous nous intéressons au problème de l'identification et de la caractérisation de composés promiscues qui existe dans le processus de développement de médicaments. Nous modélisons ce problème comme une tâche de classification et le résolvons par l'apprentissage automatique. Notre contribution repose sur une approche d'exploration de graphes et d'échantillonnage. De plus, nous avons développé une interface graphique pour fournir un retour d'information aux experts sur les résultats
Many aspects from real life with bi-relational structure can be modeled as bipartite networks. This modeling allows the use of some standard solutions for prediction and/or recommendation of new relations between these objects in such networks. Known as the link prediction task, it is a widely studied problem in network science for single graphs, networks assuming one type of interaction between vertices. For multi-layer networks, allowing more than one type of edges between vertices, the problem is not yet fully solved.The motivation of this thesis comes from the importance of an application task, drug-target interaction prediction. Searching valid drug candidates for a given biological target is an essential part of modern drug development. In this thesis, the problem is modeled as link prediction in a bipartite multi-layer network. Modeling the problem in this setting helps to aggregate different sources of information into one single structure and as a result to improve the quality of link prediction.The thesis mostly focuses on the problem of link prediction in bipartite multi-layer networks and makes two main contributions on this topic.The first contribution provides a solution for solving link prediction in the given setting without limiting the number and type of networks, the main constrains of the state of the art methods. Modeling random walk in the fashion of PageRank, the algorithm that we developed is able to predict new interactions in the network constructed from different sources of information. The second contribution, which solves link prediction using community information, is less straight-forward and more dependent on fixing the parameters, but provides better results. Adopting existing community measures for link prediction to the case of bipartite multi-layer networks and proposing alternative ways for exploiting communities, the method offers better performance and efficiency. Additional evaluation on the data of a different origin than drug-target interactions demonstrate the genericness of proposed approach.In addition to the developed approaches, we propose a framework for validation of predicted interactions founded on an external resource. Based on a collection of biomedical concepts used as a knowledge source, the framework is able to perform validation of drug-target pairs using proposed confidence scores. An evaluation of predicted interactions performed on unseen data shows effectiveness of this framework.At the end, a problem of identification and characterization of promiscuous compounds existing in the drug development process is discussed. The problem is solved as a machine learning classification task. The contribution includes graph mining and sampling approaches. In addition, a graphical interface was developed to provide feedback of the result for experts
Styles APA, Harvard, Vancouver, ISO, etc.
48

Leblay, Joffrey. « Vers une nouvelle forme d'accompagnement des processus dans les systèmes interactifs : apport de la fouille de processus et de la recommandation ». Thesis, La Rochelle, 2019. http://www.theses.fr/2019LAROS021.

Texte intégral
Résumé :
Un système d’information est un système socio-technique comprenant des processus métier et des données afférentes. Avec le développement et la démocratisation des outils informatiques, les informations stockées sont plus importantes et réparties. Il en est de même pour les processus qui deviennent de plus en plus complexes et sensibles pour les organisations. Afin d’obtenir un service, nous sommes de plus en plus amenés à composer des processus métiers pour collecter l’information, la transformer et la réinjecter. L’objectif de cette thèse consiste à explorer la problématique du pilotage de processus afin de donner des pistes pour la fabrication d’un compagnon qui guiderait l’utilisateur dans sa phase de découverte des processus. Nous avons concentré nos efforts sur les aspects faisabilité informatique. Plus particulièrement, nous étudions la possibilité de définir une méthodologie de recommandation à partir des processus d’usage et de mettre en place l’architecture logicielle correspondante. Les travaux présentés se trouvent à l’interface entre plusieurs domaines. Nous avons choisi une démarche de recherche qui s’appuie sur un cycle itératif. Après avoir analysé le domaine de la fouille de processus puis la recommandation, nous avons déduit qu'il fallait renforcer notre approche sur la collecte d’information. Ceci nous a conduit à mener des études sur les systèmes à base de traces. Nous avons ensuite cherché à valider la continuité de notre approche sur un cas d’étude simple. Il s’agit de personnaliser le parcours d’un étudiant au cours de sa formation. Nous avons mis en place un démonstrateur qui permet, à partir du recueil des informations issues des promotions précédentes, d’extraire de la connaissance sur les parcours des étudiants et d’émettre des recommandations sur les suites du parcours pour un étudiant particulier. Cette étude nous a permis de mettre en place notre processus de recommandation de bout en bout et de proposer une première esquisse de notre architecture. Nous avons ensuite cherché un cas d’étude plus ambitieux pour lequel aucun processus métier n’a été prédéfini par un expert. Nous souhaitions voir s’il est possible d’identifier des comportements et/ou stratégies d’utilisateurs vis-à-vis d’un système. Nous nous sommes placés dans un contexte d’apprentissage où l’apprenant est impliqué dans une simulation d’un micro-monde. Ce cas d’étude nous a permis de montrer comment adapter notre méthodologie et comment prendre en compte les données contextuelles. Ce cas d’étude a donné lieu à une expérimentation où deux groupes ont utilisé notre simulateur. Le premier sans recommandation, ce qui nous a permis de constituer un ensemble de traces d’exécution qui ont servi à extraire les connaissances nécessaires sur nos processus métier. Le second groupe a bénéficié de notre système de recommandation. Nous avons observé que dans ce dernier groupe le critère de performance était amélioré car les phénomènes d’essais/erreurs se trouvent considérablement réduits. L’expérience acquise au cours de cette thèse nous pousse à orienter nos travaux vers l’aide à la personnalisation de parcours d’apprentissage. En particulier avec la définition des formations en blocs de compétences, la prise en compte du profil de l’apprenant, qu'il s’agisse de ses connaissances acquises aussi bien que de ses stratégies d’apprentissage, conduit à fabriquer une trajectoire d’apprentissage, et donc une sélection de blocs de formation, qui doit être personnalisée. La méthodologie que nous avons proposée constitue une brique pour fabriquer un tel écosystème
An information system is a socio-technical system comprising Business Processes and related data. With the development and democratization of IT tools, stored information is getting more important and distributed. The same is true for processes that are becoming increasingly complex and sensitive for organizations. In order to obtain a service, we had to compose business processes to collect information, transform it and reinject it. The objective of this thesis is to explore the problematic of process control in order to give options for the fabrication of a companion that would guide the user when discovering a process. We focused on computer science aspects. In particular, we are studying the possibility of defining a recommendation methodology based on extracted processes and implementing the corresponding software architecture. The works presented are at the interface between several domains. We chose a research approach based on an iterative cycle. After analyzing the field of process mining and recommendation, we concluded that we needed to strengthen our approach to information gathering. This led us to carry out studies on trace-based systems. We then sought to validate the continuity of our approach on a simple case study. It is about personalizing the course of a student during his training. We have set up a demonstrator which, based on the collection of information from previous promotions, extracts knowledge about the students' courses and makes recommendations on the consequences of the course for a particular student. This study allowed us to set up our end-to-end recommendation process and to propose a first sketch of our architecture. We then looked for a more ambitious case study for which no business process was predefined by an expert. We wanted to see if it is possible to identify behaviors and / or strategies of users using a system. We have placed ourselves in a learning context where the learner is involved in a simulation of a micro-world. This case study allowed us to show how to adapt our methodology and how to take contextual data into account. This case study gave rise to an experiment where two groups used our simulator. The first without recommendation, which allowed us to build a set of execution traces that were used to extract the necessary knowledge on our business processes. The second group benefited from our recommendation system. We observed that in the latter group the performance criterion was improved because the trial / error phenomena are considerably reduced. The experience gained during this thesis pushes us to direct our work toward helping to personalize learning trajectory. In particular, with the definition of a class, taking into account the learner's profile, both in terms of knowledge acquired and learning strategies, leads to the creation of a learning path, and therefore a selection of training blocks, which must be personalized. The methodology we have proposed is a brick to build such an ecosystem
Styles APA, Harvard, Vancouver, ISO, etc.
49

Nguyen, Sao Mai. « Un robot curieux pour l'apprentissage actif par babillage d'objectifs : choisir de manière stratégique quoi, comment, quand et de qui apprendre ». Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00977385.

Texte intégral
Résumé :
Les défis pour voir des robots opérant dans l'environnement de tous les jours des humains et sur unelongue durée soulignent l'importance de leur adaptation aux changements qui peuvent être imprévisiblesau moment de leur construction. Ils doivent être capable de savoir quelles parties échantillonner, et quelstypes de compétences il a intérêt à acquérir. Une manière de collecter des données est de décider par soi-même où explorer. Une autre manière est de se référer à un mentor. Nous appelons ces deux manièresde collecter des données des modes d'échantillonnage. Le premier mode d'échantillonnage correspondà des algorithmes développés dans la littérature pour automatiquement pousser l'agent vers des partiesintéressantes de l'environnement ou vers des types de compétences utiles. De tels algorithmes sont appelésdes algorithmes de curiosité artificielle ou motivation intrinsèque. Le deuxième mode correspond au guidagesocial ou l'imitation, où un partenaire humain indique où explorer et où ne pas explorer.Nous avons construit une architecture algorithmique intrinsèquement motivée pour apprendre commentproduire par ses actions des effets et conséquences variées. Il apprend de manière active et en ligne encollectant des données qu'il choisit en utilisant plusieurs modes d'échantillonnage. Au niveau du metaapprentissage, il apprend de manière active quelle stratégie d'échantillonnage est plus efficace pour améliorersa compétence et généraliser à partir de son expérience à un grand éventail d'effets. Par apprentissage parinteraction, il acquiert de multiples compétences de manière structurée, en découvrant par lui-même lesséquences développementale.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Muhammad, Fuad Muhammad Marwan. « Similarity Search in High-dimensional Spaces with Applications to Time Series Data Mining and Information Retrieval ». Phd thesis, Université de Bretagne Sud, 2011. http://tel.archives-ouvertes.fr/tel-00619953.

Texte intégral
Résumé :
Nous présentons l'un des principaux problèmes dans la recherche d'informations et de data mining, ce qui est le problème de recherche de similarité. Nous abordons ce problème dans une perspective essentiellement métrique. Nous nous concentrons sur des données de séries temporelles, mais notre objectif général est de développer des méthodes et des algorithmes qui peuvent être étendus aux autres types de données. Nous étudions de nouvelles méthodes pour traiter le problème de recherche de similarité dans des espaces haut-dimensionnels. Les nouvelles méthodes et algorithmes que nous introduisons sont largement testés et ils montrent une supériorité sur les autres méthodes et algorithmes dans la littérature.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie