Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Représentation graphique des données.

Rozprawy doktorskie na temat „Représentation graphique des données”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 50 najlepszych rozpraw doktorskich naukowych na temat „Représentation graphique des données”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Magnan, Jean-Christophe. "Représentations graphiques de fonctions et processus décisionnels Markoviens factorisés". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066042/document.

Pełny tekst źródła
Streszczenie:
En planification théorique de la décision, le cadre des Processus Décisionnels Markoviens Factorisés (Factored Markov Decision Process, FMDP) a produit des algorithmes efficaces de résolution des problèmes de décisions séquentielles dans l'incertain. L'efficacité de ces algorithmes repose sur des structures de données telles que les Arbres de Décision ou les Diagrammes de Décision Algébriques (ADDs). Ces techniques de planification sont utilisées en Apprentissage par Renforcement par l'architecture SDYNA afin de résoudre des problèmes inconnus de grandes tailles. Toutefois, l'état-de-l'art des algorithmes d'apprentissage, de programmation dynamique et d'apprentissage par renforcement utilisés par SDYNA, requière que le problème soit spécifié uniquement à l'aide de variables binaires et/ou utilise des structures améliorables en termes de compacité. Dans ce manuscrit, nous présentons nos travaux de recherche visant à élaborer et à utiliser une structure de donnée plus efficace et moins contraignante, et à l'intégrer dans une nouvelle instance de l'architecture SDYNA. Dans une première partie, nous présentons l'état-de-l'art de la modélisation de problèmes de décisions séquentielles dans l'incertain à l'aide de FMDP. Nous abordons en détail la modélisation à l'aide d'DT et d'ADDs.Puis nous présentons les ORFGs, nouvelle structure de données que nous proposons dans cette thèse pour résoudre les problèmes inhérents aux ADDs. Nous démontrons ainsi que les ORFGs s'avèrent plus efficaces que les ADDs pour modéliser les problèmes de grandes tailles. Dans une seconde partie, nous nous intéressons à la résolution des problèmes de décision dans l'incertain par Programmation Dynamique. Après avoir introduit les principaux algorithmes de résolution, nous nous attardons sur leurs variantes dans le domaine factorisé. Nous précisons les points de ces variantes factorisées qui sont améliorables. Nous décrivons alors une nouvelle version de ces algorithmes qui améliore ces aspects et utilise les ORFGs précédemment introduits. Dans une dernière partie, nous abordons l'utilisation des FMDPs en Apprentissage par Renforcement. Puis nous présentons un nouvel algorithme d'apprentissage dédié à la nouvelle structure que nous proposons. Grâce à ce nouvel algorithme, une nouvelle instance de l'architecture SDYNA est proposée, se basant sur les ORFGs ~:~l'instance SPIMDDI. Nous testons son efficacité sur quelques problèmes standards de la littérature. Enfin nous présentons quelques travaux de recherche autour de cette nouvelle instance. Nous évoquons d'abord un nouvel algorithme de gestion du compromis exploration-exploitation destiné à simplifier l'algorithme F-RMax. Puis nous détaillons une application de l'instance SPIMDDI à la gestion d'unités dans un jeu vidéo de stratégie en temps réel
In decision theoretic planning, the factored framework (Factored Markovian Decision Process, FMDP) has produced several efficient algorithms in order to resolve large sequential decision making under uncertainty problems. The efficiency of this algorithms relies on data structures such as decision trees or algebraïc decision diagrams (ADDs). These planification technics are exploited in Reinforcement Learning by the architecture SDyna in order to resolve large and unknown problems. However, state-of-the-art learning and planning algorithms used in SDyna require the problem to be specified uniquely using binary variables and/or to use improvable data structure in term of compactness. In this book, we present our research works that seek to elaborate and to use a new data structure more efficient and less restrictive, and to integrate it in a new instance of the SDyna architecture. In a first part, we present the state-of-the-art modeling tools used in the algorithms that tackle large sequential decision making under uncertainty problems. We detail the modeling using decision trees and ADDs. Then we introduce the Ordered and Reduced Graphical Representation of Function, a new data structure that we propose in this thesis to deal with the various problems concerning the ADDs. We demonstrate that ORGRFs improve on ADDs to model large problems. In a second part, we go over the resolution of large sequential decision under uncertainty problems using Dynamic Programming. After the introduction of the main algorithms, we see in details the factored alternative. We indicate the improvable points of these factored versions. We describe our new algorithm that improve on these points and exploit the ORGRFs previously introduced. In a last part, we speak about the use of FMDPs in Reinforcement Learning. Then we introduce a new algorithm to learn the new datastrcture we propose. Thanks to this new algorithm, a new instance of the SDyna architecture is proposed, based on the ORGRFs : the SPIMDDI instance. We test its efficiency on several standard problems from the litterature. Finally, we present some works around this new instance. We detail a new algorithm for efficient exploration-exploitation compromise management, aiming to simplify F-RMax. Then we speak about an application of SPIMDDI to the managements of units in a strategic real time video game
Style APA, Harvard, Vancouver, ISO itp.
2

Jagtap, Surabhi. "Multilayer Graph Embeddings for Omics Data Integration in Bioinformatics". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPAST014.

Pełny tekst źródła
Streszczenie:
Les systèmes biologiques sont composés de biomolécules en interaction à différents niveaux moléculaires. D’un côté, les avancées technologiques ont facilité l’obtention des données omiques à ces divers niveaux. De l’autre, de nombreuses questions se posent, pour donner du sens et élucider les interactions importantes dans le flux d’informations complexes porté par cette énorme variété et quantité des données multi-omiques. Les réponses les plus satisfaisantes seront celles qui permettront de dévoiler les mécanismes sous-jacents à la condition biologique d’intérêt. On s’attend souvent à ce que l’intégration de différents types de données omiques permette de mettre en lumière les changements causaux potentiels qui conduisent à un phénotype spécifique ou à des traitements ciblés. Avec les avancées récentes de la science des réseaux, nous avons choisi de traiter ce problème d’intégration en représentant les données omiques à travers les graphes. Dans cette thèse, nous avons développé trois modèles à savoir BraneExp, BraneNet et BraneMF pour l’apprentissage d’intégrations de noeuds à partir de réseaux biologiques multicouches générés à partir de données omiques. Notre objectif est de résoudre divers problèmes complexes liés à l’intégration de données multiomiques, en développant des méthodes expressives et évolutives capables de tirer parti de la riche sémantique structurelle latente des réseaux du monde réel
Biological systems are composed of interacting bio-molecules at different molecular levels. With the advent of high-throughput technologies, omics data at their respective molecular level can be easily obtained. These huge, complex multi-omics data can be useful to provide insights into the flow of information at multiple levels, unraveling the mechanisms underlying the biological condition of interest. Integration of different omics data types is often expected to elucidate potential causative changes that lead to specific phenotypes, or targeted treatments. With the recent advances in network science, we choose to handle this integration issue by representing omics data through networks. In this thesis, we have developed three models, namely BraneExp, BraneNet, and BraneMF, for learning node embeddings from multilayer biological networks generated with omics data. We aim to tackle various challenging problems arising in multi-omics data integration, developing expressive and scalable methods capable of leveraging rich structural semantics of realworld networks
Style APA, Harvard, Vancouver, ISO itp.
3

Magnan, Jean-Christophe. "Représentations graphiques de fonctions et processus décisionnels Markoviens factorisés". Electronic Thesis or Diss., Paris 6, 2016. http://www.theses.fr/2016PA066042.

Pełny tekst źródła
Streszczenie:
En planification théorique de la décision, le cadre des Processus Décisionnels Markoviens Factorisés (Factored Markov Decision Process, FMDP) a produit des algorithmes efficaces de résolution des problèmes de décisions séquentielles dans l'incertain. L'efficacité de ces algorithmes repose sur des structures de données telles que les Arbres de Décision ou les Diagrammes de Décision Algébriques (ADDs). Ces techniques de planification sont utilisées en Apprentissage par Renforcement par l'architecture SDYNA afin de résoudre des problèmes inconnus de grandes tailles. Toutefois, l'état-de-l'art des algorithmes d'apprentissage, de programmation dynamique et d'apprentissage par renforcement utilisés par SDYNA, requière que le problème soit spécifié uniquement à l'aide de variables binaires et/ou utilise des structures améliorables en termes de compacité. Dans ce manuscrit, nous présentons nos travaux de recherche visant à élaborer et à utiliser une structure de donnée plus efficace et moins contraignante, et à l'intégrer dans une nouvelle instance de l'architecture SDYNA. Dans une première partie, nous présentons l'état-de-l'art de la modélisation de problèmes de décisions séquentielles dans l'incertain à l'aide de FMDP. Nous abordons en détail la modélisation à l'aide d'DT et d'ADDs.Puis nous présentons les ORFGs, nouvelle structure de données que nous proposons dans cette thèse pour résoudre les problèmes inhérents aux ADDs. Nous démontrons ainsi que les ORFGs s'avèrent plus efficaces que les ADDs pour modéliser les problèmes de grandes tailles. Dans une seconde partie, nous nous intéressons à la résolution des problèmes de décision dans l'incertain par Programmation Dynamique. Après avoir introduit les principaux algorithmes de résolution, nous nous attardons sur leurs variantes dans le domaine factorisé. Nous précisons les points de ces variantes factorisées qui sont améliorables. Nous décrivons alors une nouvelle version de ces algorithmes qui améliore ces aspects et utilise les ORFGs précédemment introduits. Dans une dernière partie, nous abordons l'utilisation des FMDPs en Apprentissage par Renforcement. Puis nous présentons un nouvel algorithme d'apprentissage dédié à la nouvelle structure que nous proposons. Grâce à ce nouvel algorithme, une nouvelle instance de l'architecture SDYNA est proposée, se basant sur les ORFGs ~:~l'instance SPIMDDI. Nous testons son efficacité sur quelques problèmes standards de la littérature. Enfin nous présentons quelques travaux de recherche autour de cette nouvelle instance. Nous évoquons d'abord un nouvel algorithme de gestion du compromis exploration-exploitation destiné à simplifier l'algorithme F-RMax. Puis nous détaillons une application de l'instance SPIMDDI à la gestion d'unités dans un jeu vidéo de stratégie en temps réel
In decision theoretic planning, the factored framework (Factored Markovian Decision Process, FMDP) has produced several efficient algorithms in order to resolve large sequential decision making under uncertainty problems. The efficiency of this algorithms relies on data structures such as decision trees or algebraïc decision diagrams (ADDs). These planification technics are exploited in Reinforcement Learning by the architecture SDyna in order to resolve large and unknown problems. However, state-of-the-art learning and planning algorithms used in SDyna require the problem to be specified uniquely using binary variables and/or to use improvable data structure in term of compactness. In this book, we present our research works that seek to elaborate and to use a new data structure more efficient and less restrictive, and to integrate it in a new instance of the SDyna architecture. In a first part, we present the state-of-the-art modeling tools used in the algorithms that tackle large sequential decision making under uncertainty problems. We detail the modeling using decision trees and ADDs. Then we introduce the Ordered and Reduced Graphical Representation of Function, a new data structure that we propose in this thesis to deal with the various problems concerning the ADDs. We demonstrate that ORGRFs improve on ADDs to model large problems. In a second part, we go over the resolution of large sequential decision under uncertainty problems using Dynamic Programming. After the introduction of the main algorithms, we see in details the factored alternative. We indicate the improvable points of these factored versions. We describe our new algorithm that improve on these points and exploit the ORGRFs previously introduced. In a last part, we speak about the use of FMDPs in Reinforcement Learning. Then we introduce a new algorithm to learn the new datastrcture we propose. Thanks to this new algorithm, a new instance of the SDyna architecture is proposed, based on the ORGRFs : the SPIMDDI instance. We test its efficiency on several standard problems from the litterature. Finally, we present some works around this new instance. We detail a new algorithm for efficient exploration-exploitation compromise management, aiming to simplify F-RMax. Then we speak about an application of SPIMDDI to the managements of units in a strategic real time video game
Style APA, Harvard, Vancouver, ISO itp.
4

Barhoumi, Zaara. "Etude de l'usage du stylo numérique en recherche en sciences de l'éducation : traitement et représentation des données temps issues de la trace d'écriture avec un stylo numérique". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-00845673.

Pełny tekst źródła
Streszczenie:
La technologie de numérisation des données manuscrites a atteint son essor après l'invention du stylo numérique. Les recherches se sont concentrées alors sur le développement des applications IHM qui facilitent la manipulation des données encre numérique. Dans un contexte de recherche, la technologie du papier et stylo numériques s'avère utile pour la collecte des données expérimentales dans différents domaines. Notre but est de fournir une aide pour le traitement et la visualisation des données, notamment les données temps, recueillies avec un stylo numérique dans deux cas d'usage en sciences de l'éducation à savoir les tests d'évaluation et la prise de notes d'observation. Notre démarche consiste à étudier ces cas d'usage en terme de besoin dans quatre expériences concrètes et à développer, en participation avec l'utilisateur, des prototypes de système de traitement et de visualisation des données. Dans le but de concevoir un modèle général de tel système, nous avons analysé l'interface d'utilisation des prototypes en terme de fonctionnalités, de visualisation et d'interaction. Notre modèle décrit le processus de visualisation en mettant en œuvre trois types de tâches d'utilisateur à savoir les tâches d'analyses, les tâches de manipulation et les tâches d'interaction.
Style APA, Harvard, Vancouver, ISO itp.
5

Jeria, Caceres Maria. "Représentations simultanées en analyse de données structurées : étude de diverses solutions". Paris, EHESS, 1994. http://www.theses.fr/1994EHES0059.

Pełny tekst źródła
Streszczenie:
Cette these trouve sa problematique autour des methodes d'analyse statistique de donnees structurees en sciences sociale s. Elle detaille l'etude de tableaux binaires carres et ternaires cubiques non symetriques afin de passer en revue les differentes representations de profils ligne et colonne dans un meme espace. Dans ces analyses une place de choix est faite aux methodes francaises d'analyse de donnees. Une comparaison est faite avec la methode anglo-saxonne mds, employee dans des cas semblables. On procede egalement a la comparaison de modeles log-lineaires et lineaires. Ces comparaisons s'appuient sur une methode unique d'interpretation a posteriori des analyses. En effet, methodes francaises et anglo-saxonnes produisent in fine une representation geometrique dans le cadre euclidien dont l'interpreta tion se fait en termes de distances beneficiant ainsi des resultats mis en oeuvre par le gmp autour du langage d'interrogation des donnees. Ainsi, une demande fait l'objet d'une exploration visuelle detaillee des donnees en parallele de tous les calculs de contributions et d'importance des effets. Cette methode est utilisee ici dans l'exploration des donnees, aussi bien que comme outil de comparaison des methodes
This dissertation deals with methods of structured data analysis in social sciences. It examines in detail non-symmetric binary square and ternary cubic tables in order to review the different representations of lines and collumns profiles in a same space. In those analyses a proeminent place is given to the french methods of data analysis. A comparison is made with mds, used by anglo-saxons in similar cases. We also compare the log-linear and linear models on a sociological set of secondary data. All those comparisons are based on a same single posterior method of interpretation. Both french and anglo-saxon methods produce geometric representations in a a euclidean framework whose interpretation is made in terms of distances along the line of research developed by the group mathematics and psychology around the language for interrogating data. Thus a request of this language generates a detailed visual exploration of the data in parallel with calculations of contributions and importances of effects (analysis of variance is here used as a post-factorial method). This strategy is used here not only for data exploration but also as a tool for comparing methods
Style APA, Harvard, Vancouver, ISO itp.
6

Barhoumi, Zaara. "Etude de l’usage du stylo numérique en recherche en sciences de l’éducation : traitement et représentation des données temps issues de la trace d’écriture avec un stylo numérique". Thesis, Cachan, Ecole normale supérieure, 2013. http://www.theses.fr/2013DENS0015/document.

Pełny tekst źródła
Streszczenie:
La technologie de numérisation des données manuscrites a atteint son essor après l’invention du stylo numérique. Les recherches se sont concentrées alors sur le développement des applications IHM qui facilitent la manipulation des données encre numérique. Dans un contexte de recherche, la technologie du papier et stylo numériques s’avère utile pour la collecte des données expérimentales dans différents domaines. Notre but est de fournir une aide pour le traitement et la visualisation des données, notamment les données temps, recueillies avec un stylo numérique dans deux cas d’usage en sciences de l’éducation à savoir les tests d’évaluation et la prise de notes d’observation. Notre démarche consiste à étudier ces cas d’usage en terme de besoin dans quatre expériences concrètes et à développer, en participation avec l’utilisateur, des prototypes de système de traitement et de visualisation des données. Dans le but de concevoir un modèle général de tel système, nous avons analysé l’interface d’utilisation des prototypes en terme de fonctionnalités, de visualisation et d’interaction. Notre modèle décrit le processus de visualisation en mettant en œuvre trois types de tâches d’utilisateur à savoir les tâches d’analyses, les tâches de manipulation et les tâches d’interaction
Scanning technology for handwritten data has reached its momentum after the invention of the digital pen. Research work focused on the development of HMI applications that facilitate digital ink data manipulation. In a research context, digital pen and paper technology is useful for collecting experimental data in various fields. Our goal is to provide support for the processing and the visualization of time stamped data collected by a digital pen in two cases of use : on one hand, in the educational science field, and especially for assessment tests and, on another hand, for taking observation notes. Our approach is to study these cases of use through four concrete experiences and to develop, with the participation of the user, prototypes for a system that aid to process and to visualize collected data. In order to abstract a general model of such a system, we analyzed prototypes user interfaces in terms of functionality, visualization and interaction. Our model describes the visualization process by implementing three types of user tasks namely analytic tasks, handling tasks and interaction tasks
Style APA, Harvard, Vancouver, ISO itp.
7

Segalerba, Maria Guadalupe. "Métalangage et représentation graphique comme manifestations de la représentation mentale de la musique". Paris 4, 2005. http://www.theses.fr/2005PA040113.

Pełny tekst źródła
Streszczenie:
Notre propos est ici d'observer les représentations graphiques et verbales d'une mélodie en tant que manifestations de leur représentation mentale : ces représentations sont utilisées comme autant d'outils nous permettant d'y déceler les indices d'un processus cognitif. L'apprentissage de la notation mélodique est étudié dans deux situations éducatives différentes : au sein de l'enseignement musical général et dans une école de musique. Chez les enfants non musiciens, le métalangage s'inscrit comme complément des représentations graphiques spontanées d'une pièce musicale brève. Nous caractérisons son degré d'inscription dans la temporalité. Chez les enfants musiciens, le métalangage est considéré comme un médiateur permettant la résolution plus aisée des tâches liées à l'apprentissage musical. Nous développons l'idée que l'existence d'une attitude réflexive, au sein d'un processus cognitif qui prend appui sur sa représentation verbale (métalangage), permet d'améliorer la réussite de la tâche de notation musicale, facilitant ainsi le passage d'un premier mode de la connaissance musicale, celui de l'exécution vocale, à celui de la représentation graphique
Our purpose is here to observe the verbal & graphical representations of a melody as the image of its mental representation: verbal & graphical representations of the melody are considered here as tools enabling us to detect the evidence of a cognitive process. The teaching of the melody notation is studied in two different educational situations: within general musical teaching and in a music school. With not-musicians children, meta-language should be considered as a complement of the spontaneous graphical expressions that emerge following a short musical piece. We will characterize the degree of inscription in temporality of these spontaneous graphical expressions. With children of music schools, such a meta-language is considered as a mediator allowing an easier resolution of the tasks required by musical teaching. We therefore develop the idea that the existence of such a mental representation of the melody, which takes support on a verbal representation (meta-language), improves the efficiency of the teaching of musical notation. This process facilitates the transition of a primary mode of musical knowledge, (vocal execution) to a graphical representation of the music
Style APA, Harvard, Vancouver, ISO itp.
8

Gonzalez, Ignacio. "Analyse canonique régularisée pour des données fortement multidimensionnelles". Toulouse 3, 2007. http://thesesups.ups-tlse.fr/99/.

Pełny tekst źródła
Streszczenie:
Motivé par la mise en évidence des relations entre l'expression de gènes et d'autres variables biologiques, notre travail consiste à présenter et développer une méthodologie répondant à ce problème. Parmi les méthodes statistiques abordant ce sujet, l'Analyse Canonique (AC) semblait bien appropriée, mais la haute dimensionalité est actuellement l'un des obstacles majeurs pour les techniques statistiques d'analyse de données issues de biopuces. Naturellement l'axe de ce travail a été la recherche de solutions tenant compte de cet aspect crucial dans la mise en oeuvre de l'AC. Parmi les approches envisagées pour contourner ce problème, nous nous sommes intéressés à des méthodes de régularisation. Ainsi, la méthode développée ici, appelée Analyse Canonique Régularisée (ACR), est basée sur le principe de régularisation ridge introduit initialement en régression linéaire multiple. L'ACR nécessitant le choix de deux paramètres de réglage pour sa mise en oeuvre, nous avons proposé la méthode de validation croisée par sous-groupes pour traiter ce problème. Nous avons présenté en détail des applications de l'ACR à des données fortement multidimensionnelles provenant d'études génomiques ainsi qu'à des données provenant d'autres domaines. Sur ce point on s'est intéressé à une visualisation des données aidant à l'interprétation des résultats obtenus. À cet effet, nous avons proposé un certaine nombre de méthodes graphiques : représentations des variables (graphiques des corrélations), représentations des individus ainsi que des représentations alternatives comme les graphiques de réseaux et les cartes de double classification (heatmaps). Pour la mise en oeuvre de l'AC, nous avons développé le package CCA (disponible en ligne sur le site cran. R-project. Org). Ce package permet le traitement de données avec plus de variables que d'unités expérimentales par l'ACR, la manipulation des valeurs manquantes et la réalisation des graphiques aidant à l'interprétation des résultats. .
Motivated by the study of relationships between gene expressions and other biological variables, our work consists in presenting and developing a methodology answering this problem. Among the statistical methods treating this subject, Canonical Analysis (CA) seemed well adapted, but the high dimension is at present one of the major obstacles for the statistical techniques of analysis data coming from microarrays. Typically the axis of this work was the research of solutions taking into account this crucial aspect in the implementation of the CA. Among the approaches considered to handle this problem, we were interested in the methods of regularization. The method developed here, called Regularised Canonical Analysis (RCA), is based on the principle of ridge regularization initially introduced in multiple linear regression. RCA needing the choice of two parameters of regulation for its implementation, we proposed the method of M-fold cross-validation to handle this problem. We presented in detail RCA applications to high multidimensional data coming from genomic studies as well as to data coming from other domains. Among other we were interested in a visualization of the data in order to facilitate the interpretation of the results. For that purpose, we proposed some graphical methods: representations of variables (correlations graphs), representations of individuals as well as alternative representations as networks and heatmaps. .
Style APA, Harvard, Vancouver, ISO itp.
9

Fiori, Sandra. "Le représentation graphique dans la conception du projet d'éclairage urbain". Phd thesis, Université de Nantes, 2001. http://tel.archives-ouvertes.fr/tel-00399027.

Pełny tekst źródła
Streszczenie:
Par ses implications cognitives et pragmatiques, la représentation graphique constitue un outil privilégié du projet architectural et urbain par lequel se manifestent et opèrent les manières de faire. Partant de cette hypothèse méthodologique, cette recherche tente de mieux définir le renouvellement des modes de production et de pensée de l'éclairage urbain à travers l'étude des usages de la représentation graphique chez les concepteurs lumière, principaux acteurs de ce renouveau issus de milieux professionnels divers. Trois types de sources sont utilisés : observation du travail d'agence, entretiens semi-directifs et surtout corpus graphique extrait de vingt projets (mises en lumière urbaines, plans lumière), analysé sur un mode monographique puis typologique. Les entretiens révèlent une démarche commune de type scénographique ainsi que l'importance du mouvement d'acculturation à la maîtrise d'oeuvre traditionnelle par lequel se construit la nouvelle profession de concepteur lumière. La production graphique des concepteurs lumière reflète largement ces caractéristiques, tirant sa spécificité d'un processus d'hybridation entre les formes graphiques de l'éclairagisme technique et celles du projet architectural et urbain, comme le montre l'analyse typologique du corpus. Plus largement, l'analyse graphique met en évidence le caractère actuel (Cauquelin, 1992), c'est-à-dire à la fois traditionnel et contemporain, des pratiques des concepteurs lumière. Cette actualité, questionnant les modes d'appréhension courant du projet architectural et urbain, a ainsi trait : - à leur champ de compétence et d'intervention, ni tout à fait technique ni tout à fait artistique, témoignant en outre d'une hybridation entre disciplines ; - sur le plan graphique, à leur usage de techniques mixtes et au brouillage de la frontière entre conception et communication ; - sur le plan esthétique, au mélange entre retour aux origines de la scénographie et création de dispositifs spatio-lumineux inédits.
Style APA, Harvard, Vancouver, ISO itp.
10

Parent, Marc Philippe. "Un formalisme graphique de représentation de contraintes sémantiques pour UML". Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25276/25276.pdf.

Pełny tekst źródła
Streszczenie:
L’utilisation à grande échelle de UML dans l’industrie informatique est en train d’en faire une norme incontournable pour toute activité de modélisation conceptuelle requise par l’informatisation de systèmes d’information. Toutefois, UML a ses limites. En effet, l’expression de contraintes sémantiques se fait par OCL (Object Constraint Language), un langage basé sur la logique des prédicats du premier ordre. Les avantages d’avoir un formalisme formel, simple et graphique se perdent donc lorsque les contraintes associées au domaine doivent être décrites soit sous une forme textuelle, soit en logique des prédicats du 1er ordre. La méthodologie envisagée consiste donc en l’élaboration d’un formalisme graphique d’expression de contrainte de telle sorte que les contraintes ainsi exprimées puissent être automatiquement transformées en OCL. Les contraintes OCL peuvent alors être vérifiées afin qu’elles soient toutes satisfaites et qu’elles évitent l’introduction d'incohérence dans les données. Dans ce cas, le modélisateur pourra en être averti et pourra ajuster le modèle ou valider l’acquisition de données. Éventuellement, nous visons à ce que ces contraintes puissent s'assurer que la génération du code en tienne compte, d’où leur possible intégration à un outil de modélisation et de génération de code (outil CASE).
Style APA, Harvard, Vancouver, ISO itp.
11

Achouri, Abdelghani. "Extraction de relations d'associations maximales dans les textes : représentation graphique". Thèse, Université du Québec à Trois-Rivières, 2012. http://depot-e.uqtr.ca/6132/1/030374207.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
12

Agarwal, Navneet. "Autοmated depressiοn level estimatiοn : a study οn discοurse structure, input representatiοn and clinical reliability". Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMC215.

Pełny tekst źródła
Streszczenie:
Compte tenu de l'impact sévère et généralisé de la dépression, des initiatives de recherche significatives ont été entreprises pour définir des systèmes d'évaluation automatisée de la dépression. La recherche présentée dans cette thèse tourne autour des questions suivantes qui restent relativement inexplorées malgré leur pertinence dans le domaine de l'évaluation automatisée de la dépression : (1) le rôle de la structure du discours dans l'analyse de la santé mentale, (2) la pertinence de la représentation de l'entrée pour les capacités prédictives des modèles de réseaux neuronaux, et (3) l'importance de l'expertise du domaine dans la détection automatisée de la dépression.La nature dyadique des entretiens patient-thérapeute garantit la présence d'une structure sous-jacente complexe dans le discours. Dans cette thèse, nous établissons d'abord l'importance des questions du thérapeute dans l'entrée du modèle de réseau neuronal, avant de montrer qu'une combinaison séquentielle des entrées du patient et du thérapeute est une stratégie sous-optimale. Par conséquent, des architectures à vues multiples sont proposées comme moyen d'incorporer la structure du discours dans le processus d'apprentissage des réseaux neuronaux. Les résultats expérimentaux obtenus avec deux encodages de texte différents montrent les avantages des architectures multi-vues proposées, validant la pertinence de la conservation de la structure du discours dans le processus d'apprentissage du modèle.Ayant établi la nécessité de conserver la structure du discours dans le processus d'apprentissage, nous explorons plus avant les représentations textuelles basées sur les graphes. Les recherches menées dans ce contexte mettent en évidence l'impact des représentations d'entrée non seulement pour définir les capacités d'apprentissage du modèle, mais aussi pour comprendre leur processus prédictif. Les graphiques de similitude de phrases et les graphiques de corrélation de mots-clés sont utilisés pour illustrer la capacité des représentations graphiques à fournir des perspectives variées sur la même entrée, en mettant en évidence des informations qui peuvent non seulement améliorer les performances prédictives des modèles, mais aussi être pertinentes pour les professionnels de la santé. Le concept de vues multiples est également incorporé dans les deux structures graphiques afin de mettre en évidence les différences de perspectives entre le patient et le thérapeute au cours d'un même entretien. En outre, il est démontré que la visualisation des structures graphiques proposées peut fournir des informations précieuses indiquant des changements subtils dans le comportement du patient et du thérapeute, faisant allusion à l'état mental du patient.Enfin, nous soulignons le manque d'implication des professionnels de la santé dans le contexte de la détection automatique de la dépression basée sur des entretiens cliniques. Dans le cadre de cette thèse, des annotations cliniques de l'ensemble de données DAIC-WOZ ont été réalisées afin de fournir une ressource pour mener des recherches interdisciplinaires dans ce domaine. Des expériences sont définies pour étudier l'intégration des annotations cliniques dans les modèles de réseaux neuronaux appliqués à la tâche de prédiction au niveau des symptômes dans le domaine de la détection automatique de la dépression. En outre, les modèles proposés sont analysés dans le contexte des annotations cliniques afin d'établir une analogie entre leur processus prédictif et leurs tendances psychologiques et ceux des professionnels de la santé, ce qui constitue une étape vers l'établissement de ces modèles en tant qu'outils cliniques fiables
Given the severe and widespread impact of depression, significant research initiatives have been undertaken to define systems for automated depression assessment. The research presented in this dissertation revolves around the following questions that remain relatively unexplored despite their relevance within automated depression assessment domain; (1) the role of discourse structure in mental health analysis, (2) the relevance of input representation towards the predictive abilities of neural network models, and (3) the importance of domain expertise in automated depression detection.The dyadic nature of patient-therapist interviews ensures the presence of a complex underlying structure within the discourse. Within this thesis, we first establish the importance of therapist questions within the neural network model's input, before showing that a sequential combination of patient and therapist input is a sub-optimal strategy. Consequently, Multi-view architectures are proposed as a means of incorporating the discourse structure within the learning process of neural networks. Experimental results with two different text encodings show the advantages of the proposed multi-view architectures, validating the relevance of retaining discourse structure within the model's training process.Having established the need to retain the discourse structure within the learning process, we further explore graph based text representations. The research conducted in this context highlights the impact of input representations not only in defining the learning abilities of the model, but also in understanding their predictive process. Sentence Similarity Graphs and Keyword Correlation Graphs are used to exemplify the ability of graphical representations to provide varying perspectives of the same input, highlighting information that can not only improve the predictive performance of the models but can also be relevant for medical professionals. Multi-view concept is also incorporated within the two graph structures to further highlight the difference in the perspectives of the patient and the therapist within the same interview. Furthermore, it is shown that visualization of the proposed graph structures can provide valuable insights indicative of subtle changes in patient and therapist's behavior, hinting towards the mental state of the patient.Finally, we highlight the lack of involvement of medical professionals within the context of automated depression detection based on clinical interviews. As part of this thesis, clinical annotations of the DAIC-WOZ dataset were performed to provide a resource for conducting interdisciplinary research in this field. Experiments are defined to study the integration of the clinical annotations within the neural network models applied to symptom-level prediction task within the automated depression detection domain. Furthermore, the proposed models are analyzed in the context of the clinical annotations to analogize their predictive process and psychological tendencies with those of medical professionals, a step towards establishing them as reliable clinical tools
Style APA, Harvard, Vancouver, ISO itp.
13

Prudhomme, Elie. "Représentation et fouille de données volumineuses". Thesis, Lyon 2, 2009. http://www.theses.fr/2009LYO20048/document.

Pełny tekst źródła
Streszczenie:
Le stockage n'étant plus soumis à des contraintes de coût importantes, les systèmes d'information collectent une quantité croissante de données, souvent via des processus d'acquisition automatique. En parallèle, les objets d'intérêt sont devenus plus complexes. C'est le cas, par exemple, des images, du texte ou encore des puces à ADN. Pour leur analyse, les méthodes d'apprentissage doivent alors prendre en compte l'augmentation massive et conjointe du nombre d'exemples et d'attributs qui en résultent. Or, les outils classiques de l'apprentissage automatique ne sont pas toujours adaptés à ce changement de volumétrie tant au niveau de leur complexité algorithmique que pour appréhender la structure des données. Dans ce contexte de données volumineuses en apprentissage supervisé, nous nous sommes intéressés à l'extraction de deux catégories de connaissances, conjointement à la prédiction, la première relative à l'organisation des exemples entre eux et la seconde relative aux interactions qui existent entre les attributs. Pour nous intéresser aux relations entre les exemples, nous définissons le concept de représentation en apprentissage supervisé comme une modélisation et une visualisation des données à la fois du point de vue de la proximité entre les exemples et du lien entre la position des exemples et leur étiquette. Parmi les différents algorithmes recensés qui conduisent à l'obtention d'une telle représentation, nous retenons les cartes auto-organisatrices qui présentent la plus faible complexité algorithmique, ce qui les rend adaptées aux données volumineuses. L'algorithme des cartes auto-organisatrices étant nonsupervis é, nous proposons une adaptation à l'apprentissage supervisé par le biais des cartes étiquetées (Prudhomme et Lallich, 2005b). Nous montrons également qu'il est possible de valider statistiquement la qualité de la représentation obtenue par une telle carte (Prudhomme et Lallich, 2005a). Les statistiques que nous proposons sont corrélées avec le taux d'erreur en généralisation, ce qui permet de juger a priori de la qualité de la prédiction qui résulte de la carte. Néanmoins, la prédiction des cartes auto-organisatrices n'est pas toujours satisfaisante face à des données en grandes dimensions. Dans ce cas, nous avons recours aux méthodes ensemblistes. Ces méthodes agrègent la prédiction de plusieurs classifieurs simples. En créant une certaine diversité entre les prédictions de ces classifieurs, les méthodes ensemblistes améliorent la prédiction qui aurait été obtenue par un seul classifieur. Pour créer cette diversité, nous apprenons chaque classifieur simple (dans notre cas, des cartes auto-organisatrices) sur un sous-espace de l'espace d'apprentissage. La diversité est ainsi l'occasion de diminuer la dimensionnalité du problème. Afin de choisir au mieux les sous-espaces, nous nous sommes inspirés des connaissances théoriques disponibles sur la répartition de l'erreur en généralisation d'un ensemble. Nous avons alors proposé deux heuristiques. La première heuristique est non-supervisée. Elle repose sur l'interprétation des corrélations entre attributs pour déterminer les sous-espaces à apprendre (Prudhomme et Lallich, 2007). La seconde heuristique, au contraire, est supervisée. Elle optimise par un algorithme génétique une mesure de l'erreur d'un ensemble en fonction de l'erreur des classifieurs qui le composent (Prudhomme et Lallich, 2008b). Ces deux heuristiques conduisent à des ensembles de cartes (ou des comités de cartes) dont l'erreur en généralisation est plus faible que celle d'une carte seule apprise sur la totalité des attributs. Néanmoins, ils conduisent également à une multitude de représentations. Pour proposer une seule représentation à l'issue de l'apprentissage, nous introduisons la notion de stacking géographique. (...)
/
Style APA, Harvard, Vancouver, ISO itp.
14

Maréchal, Chrystelle. "Etudes d'étymologie graphique chinoise à la lumière de données comparatives". Paris, EHESS, 1997. http://www.theses.fr/1997EHES0002.

Pełny tekst źródła
Streszczenie:
L'objectif principal de cette etude est de revoir l'etymologie d'un certain nombre d'ideo-pictogrammes archaiques dans le cadre de l'approche graphique. Selon nous, bon nombre d'etymologies chinoises sont faussees en raison du prejuge phonetique, dans le sens ou un composant iconique peut se voir attribuer une valeur purement phonetique sans que l'on prenne simultanement en consideration sa fonction semantique. Etant donne l'inconvenient des analyses traditionnelles, nous attirons l'attention sur la motivation semantique dans la creation graphique et sur l'importance de l'identification du referent-objet de ce que l'on a coutume d'appeler l'indicateur phonique. Notre approche s'est averee pertinente puisqu'elle a permis de reveler des faits nouveaux a propos de l'origine de certains des caracteres traites. Cette these est divisee en 3 parties. Dans la partie i, nous remettons en cause l'analyse traditionnelle de la formation d'ideo-phonogrammes tels que yuan "source", tou "tete" et shi "temps" et proposons nos propres interpretations en nous appuyant sur des donnees chinoises et indo-europeennes. Dans la partie ii, nous presentons 2 groupes d'ideo-pictogrammes dont les etymologiesgraphiques sont controversees. Dans le premier groupe, nous abordons des termes se rapportant a des detenteurs de pouvoir celeste et terrestre : shen "dieu", di "souverain du ciel", huang "empereur", wang "roi" et zu "ancetre (masculin)". Le second groupe concerne la paire apparentee fang "region, carre" et pang "cote" ; le point important dans cette controverse est l'identification du referent-objet commun a ces deux graphies apparentees, une beche. La partie iii est consacree a la ramification graphique survenue lors de l'explosion lexicale qui, bien documentee dans le premier dictionnaire etymologique, le shuowen jiezi, a eu lieu au debut de notre ere. Des dizaines de caracteres classes sous 3 radicaux, si "soie", zhu "bambou" et bel "cauris", sont etudies. Il a ete montre que l'on pouvait extraire d'interessantes informations sur le plan financier et socioculturel par la voie graphique et que les resultats etaient directement lies a l'etude de la semantique historique.
Style APA, Harvard, Vancouver, ISO itp.
15

Slimani, Yahya. "Structures de données et langages non-procéduraux en informatique graphique". Lille 1, 1986. http://www.theses.fr/1986LIL10002.

Pełny tekst źródła
Streszczenie:
La synthèse d'images fait partie des applications informatiques pour lesquelles on essaie de mettre en oeuvre des architectures et des logiciels répondant, le mieux possible, à deux contraintes principales qui sont l'espace mémoire et le temps de calcul. Devant cette situation, et après avoir analysé les besoins du graphique en matière de structures de données et d'algorithmique, notre travail est une approche par l'utilisation des langages applicatifs (type LISP) en graphique, sous deux aspects : 1- structure de donnée où nous proposons un nouveau modèle de donnée susceptible d'être utilisé pour représenter les objets graphiques, à savoir la structure de liste ; 2- algorithmique où nous montrons comment un des concepts fondamentaux des langages applicatifs (la récursivité) peut contribuer à une expression naturelle d'algoritmes graphiques
Style APA, Harvard, Vancouver, ISO itp.
16

Jean, Villerd. "Représentations visuelles adaptatives de connaissances associant projection multidimensionnelle (MDS) et analyse de concepts formels (FCA)". Paris, ENMP, 2008. https://pastel.archives-ouvertes.fr/pastel-00004559.

Pełny tekst źródła
Streszczenie:
Les outils de recherche d'information sont confrontés à un accroissement constant à la fois du volume et du nombre de dimensions des données accessibles. La traditionnelle liste de résultats ne suffit plus. Un réel besoin en nouvelles techniques de représentation visuelle émerge. Ces nouvelles techniques doivent permettre d'appréhender de manière globale des données nombreuses et multidimensionnelles, en révélant les tendances et la structure générales. On souhaite également pouvoir observer de façon détaillée un ensemble plus restreint de données selon un certain point de vue correspondant à des dimensions particulières. Notre objectif principal est d'assister l'utilisateur dans sa tâche d'exploration de l'information par une articulation judicieuse entre vue globale et vues locales maintenant sa carte mentale. Pour atteindre cet objectif, nous allions des techniques d'analyse de données capables d'identifier des sous-ensembles pertinents, à des techniques de visualisation d'information permettant de naviguer dynamiquement et intuitivement parmi ces sous-ensembles. Une attention particulière est portée aux problèmes liés aux données manquantes, d'une part, et aux données indexées sur des dimensions mixtes (binaires, nominales, continues), d'autre part. De plus, conformément aux attentes de la communauté visualisation, nous définissons un cadre formel pour la spécification de visualisations à partir des données à représenter. Concrètement, nous proposons une méthode de navigation originale associant des techniques de FCA (Formal Concept Analysis) et de visualisation multidimensionnelle MDS (MultiDimensional Scaling). Cette méthode s'appuie sur le paradigme de visualisation « overview + detail » constitué d'une vue globale révélant la structure des données et d'une vue locale affichant les détails d'un élément de la vue globale. Nous tirons parti des propriétés de regroupement du treillis de Galois en l'utilisant comme vue globale pour représenter la structure des données et suggérer des parcours cohérents. La vue locale représente les objets en extension d'un concept sélectionné, projetés par MDS. Nous illustrons la pertinence de cette méthode sur des données concrètes, issues de nos partenariats industriels, et montrons en quoi les techniques de visualisation liées à FCA et la visualisation spatialisée de données par projection MDS, parfois jugées incompatibles, se révèlent complémentaires
Information retrieval tools are faced with the constant increase of data both in volume and in dimensionality and the traditional list of results no longer meet many applications' requirements. New visual representation techniques are needed. These new techniques have to provide an overview of large and multidimensional data sets that gives insights into the underlying trends and structures. They must also be able to represent, in detail, portions of the original data from different standpoints. The aim is to assist the user in her data exploration task by designing a shrewd link between general and local views, that maintains her mental map. In order to achieve this goal, we develop a combination of data analysis techniques that identify pertinent portions of data as well as information visualization techniques that intuitively and dynamically explore these portions of data in detail. In addition, a formalization of the visualization process is needed. We introduce a formal frame that is used to specify visualizations from data structures. Concretely, the solution proposed is an original navigation method that combines techniques from Formal Concept Analysis (FCA) and Multi-Dimensional Scaling (MDS) visualization approaches to suggest navigation paths in the data. This method is based on the "overview + detail" paradigm: One component is an overall view which summarises the underlying structure of the data. A second component is a local view showing an element of the overall view in detail. We take advantage of the classification skills of the Galois lattice by using it as the overall view that reveals the inner data structure and suggests possible navigation paths. The local view uses Multi-Dimensional Scaling to display the objects in the extent of a selected concept. We illustrate and discuss the pertinence of our method on concrete data sets, provided by our industrial partners, and show how hybridisation of FCA and traditional data visualization approaches, which have sometimes been considered distinct or incompatible, can be complementary
Style APA, Harvard, Vancouver, ISO itp.
17

Gimenez, Lucile. "Outils numériques pour la reconstruction et l'analyse sémantique de représentations graphiques de bâtiments". Electronic Thesis or Diss., Paris 8, 2015. http://www.theses.fr/2015PA080047.

Pełny tekst źródła
Streszczenie:
De nombreux bâtiments anciens sont à rénover pour diminuer leur consommation énergétique. Grâce à l'émergence d’outils numériques tels que la maquette numérique d'un bâtiment ou BIM (Building Information Modeling), des simulations énergétiques peuvent être réalisées. Or, pour la plupart des bâtiments, aucune information numérique n'est disponible. L'objectif de nos travaux est de développer une méthodologie pour générer des maquettes numériques de bâtiments existants à faible coût en limitant l'acquisition de données. Notre choix s'est porté sur l'utilisation de plan papier 2D scanné. Nous faisons l'hypothèse qu'un tel plan est presque toujours disponible pour un bâtiment même s’il n'est pas toujours à jour et que sa qualité influe sur celle de la reconstruction. La reconstruction automatique d'un BIM à partir d'une image se base sur la recherche et l'identification de 3 composantes: la géométrie (forme des éléments), la topologie (liens entre les éléments) et la sémantique (caractéristiques des éléments). Lors de cette phase, des ambiguïtés peuvent apparaître. Nous proposons un processus basé sur des interventions ponctuelles et guidées de l'utilisateur afin d'identifier les erreurs et proposer des choix de correction pour éviter leur propagation.Nous présentons la méthodologie développée pour proposer une reconstruction semi-automatique et une analyse des résultats obtenus sur une base de 90 plans. Les travaux ont ensuite porté sur une généralisation du processus afin d'en tester la robustesse, le passage à l'échelle et la gestion multi-niveaux. Le processus développé est flexible pour permettre l’ajout d'autres sources de données pour enrichir la maquette numérique
Many buildings have to undergo major renovation to comply with regulations and environmental challenges. The BIM (Building Information Modeling) helps designers to make better-informed decisions, and results in more optimal energy-efficient designs. Such advanced design approaches require 3D digital models. However such models are not available for existing buildings. The aim of our work is to develop a method to generate 3D building models from existing buildings at low cost and in a reasonable time. We have chosen to work with 2D scanned plans. We assume that it is possible to find a paper plan for most buildings even if it is not always up-to-date and if the recognition quality is also dependent to the plan. The automatic reconstruction of a BIM from a paper plan is based on the extraction and identification of 3 main components: geometry (element shape), topology (links between elements) and semantics (object properties). During this process, some errors are generated which cannot be automatically corrected. This is why, we propose a novel approach based on punctual and guided human interventions to automatically identify and propose correction choices to the user to avoid error propagation.We describe the developed methodology to convert semi-automatically a 2D scanned plan into a BIM. A result analysis is done on 90 images. The following works is focused on the process genericity to test its robustness, the challenge of moving to scale and the multi-level management. The results highlight the pertinence of the error classification, identification and choices made to the user. The process is flexible in order to be completed by others data sources
Style APA, Harvard, Vancouver, ISO itp.
18

Brossier, Gildas. "Problèmes de représentation de données par des arbres". Rennes 2, 1986. http://www.theses.fr/1986REN20014.

Pełny tekst źródła
Streszczenie:
Dans un premier temps, on étudie les propriétés des tableaux de distance associés, aux différentes représentations arborées et les relations entre ces distances. Ensuite, on définit les représentations ordonnées, on construit une classe d'algorithmes d'ordonnancement et on étudie leurs propriétés d'optimalité dans différentes conditions. Les propriétés de décomposition des tableaux de distances quadrangulaires nous permettent alors de construire des algorithmes rapides de représentations, possédant certaines propriétés d'optimalité. On étend ces résultats au cas où la donnée est une matrice non symétrique. Enfin dans le cas où la matrice de données est rectangulaire, on dégage les conditions nécessaires et suffisantes à une représentation simultanée de deux ensembles de données. Quand les conditions ne sont pas satisfaites on propose des algorithmes d'approximation
First, we begin by studying the properties of distance tables associated with tree-representations, and the relation between these distances. Then we define ordered representations, construct a class of ordering algorithms and study their optimal properties under different conditions. The decomposition properties of distance tables allow us to construct fast algorithms for representations with some optimal properties we extend results when data are asymmetry matrices. Last of all we show in the case of rectangular matrices the necessary and sufficient conditions for the simultaneous representations of two sets of data. When conditions are not satisfied we propose some approximation algorithms
Style APA, Harvard, Vancouver, ISO itp.
19

Lefrère, Laurent. "Contribution au développement d'outils pour l'analyse automatique de documents cartographiques". Rouen, 1993. http://www.theses.fr/1993ROUES045.

Pełny tekst źródła
Streszczenie:
Les travaux présentés dans ce mémoire abordent différents aspects de l'analyse de documents cartographiques, du prétraitement couleur à la reconnaissance de toponymes en passant par l'extraction d'objets géographiques. Le premier chapitre est consacré à la classification couleur. Ce prétraitement permet d'obtenir, à partir d'images de cartes numérisées en cyan, magenta, yellow, les plans couleurs rouge, vert, bleu et noir proches des planches-mères ayant permis l'impression des cartes. L'originalité de la segmentation CMY/TS est sa capacité à reconstruire les objets masqués par les superpositions. Cette classification permet d'apporter une information plus compacte et plus complète aux modules d'extraction subséquents. Le second chapitre présente d'une part, une méthode de caractérisation et d'extraction de zones texturées basée sur une modélisation structurelle et statistique des textures. Cette méthode permet de modéliser conjointement l'aspect macroscopique régulier et structuré des textures ainsi que leur aspect microscopique plus aléatoire. D'autre part, est présenté un module d'extraction des réseaux linéaires et plus particulièrement des réseaux routiers basé sur un suivi de trait particulier contrôlé par un ensemble de mesures statistiques regroupées en un critère dit de Gibbs. Le dernier chapitre présente une stratégie particulière de reconstruction de toponymes à partir d'une méthode originale de reconnaissance de caractères invariante à la translation, à l'homothétie et à la rotation. Ce module permet de plus de reconstituer les limites de parcelles formées de pointillés. Ces différents modules fournissent, à partir des cartes papier existantes, des données structurées et organisées, prêtes à être intégrées dans des systèmes d'information géographique
Style APA, Harvard, Vancouver, ISO itp.
20

Roman, Marie-Laure. "Le dessin d'enfant, un malentendu graphique ? : Logique de la représentation et processus de subjectivation". Montpellier 3, 2005. http://www.theses.fr/2005MON30021.

Pełny tekst źródła
Streszczenie:
Dans une psychothérapie, le dessin figure la mise en scène d'une représentation inconsciente mobilisée par le trait unaire. L'enfant, par tâtonnements successifs, l'utilise pour construire puis déconstruire, les représentations qui l'habitent et qui se dialectisent dans la demande supposée de l'Autre. Par l'effet de sens qu'il suscite et les paroles qui le questionnent, le dessin s'inscrit comme support d'une subversion subjectivante. Lorsque l'environnement s'avère défaillant, le processus de subjectivation en est altéré. L'enfant est alors dans l'impossibilité de symboliser les images qui l'habitent comme support du désir de l'Autre. Le risque en est l'impossible dialectisation entre moi-idéal et idéal du moi. Engagé dans les processus transférentiels, l'enfant représente ce qui fait stase pour lui, ce qu'il ne peut intégrer à la pensée, donc au langage. Par là même, la cure sera le lieu de la relance du processus de subjectivation. Du symptôme au sinthome, l'enfant accède ainsi au premier jugement d'existence, il s'auteurise
In a psychotherapy, drawing pictures the sketch of an inconscious representation mobilised by the “trait unaire” (Lacan). The child, though successive tentative efforts, uses it to build up then unbuild the representations which fill him, and turn into dialectisation in the supposed request of the Other One. Through the effort of sense which he arouses, and the words that make him ask questions, drawing inscribes itself as the support of subversion that develops subjectivity. When the surrounding prove to be failing, the process of becoming a person is therefore adulterated. The child is then unable to symbolize the pictures which fill him as support oh the Other One's desire. The risle lies in the impossible dialectisation between the ideal ego and the ego ideal. Involved in transference processes the child reproduces what creates a stasis according to him, and which he can't integrate into though, therefore into language. From what has just been said, the treatment will be the place for starting again the process of becoming a subject. From the symptom to the “sinthome” (J. Lacan) the child thus the expression of his first thought of existence, he becomes his own author
Style APA, Harvard, Vancouver, ISO itp.
21

Maton, Éric. "Représentation graphique et pensée managériales : le cas de la Harvard Business Review de 1922 à 1999". Palaiseau, Ecole polytechnique, 2007. https://pastel.archives-ouvertes.fr/pastel-00003632.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
22

Gimenez, Lucile. "Outils numériques pour la reconstruction et l'analyse sémantique de représentations graphiques de bâtiments". Thesis, Paris 8, 2015. http://www.theses.fr/2015PA080047.

Pełny tekst źródła
Streszczenie:
De nombreux bâtiments anciens sont à rénover pour diminuer leur consommation énergétique. Grâce à l'émergence d’outils numériques tels que la maquette numérique d'un bâtiment ou BIM (Building Information Modeling), des simulations énergétiques peuvent être réalisées. Or, pour la plupart des bâtiments, aucune information numérique n'est disponible. L'objectif de nos travaux est de développer une méthodologie pour générer des maquettes numériques de bâtiments existants à faible coût en limitant l'acquisition de données. Notre choix s'est porté sur l'utilisation de plan papier 2D scanné. Nous faisons l'hypothèse qu'un tel plan est presque toujours disponible pour un bâtiment même s’il n'est pas toujours à jour et que sa qualité influe sur celle de la reconstruction. La reconstruction automatique d'un BIM à partir d'une image se base sur la recherche et l'identification de 3 composantes: la géométrie (forme des éléments), la topologie (liens entre les éléments) et la sémantique (caractéristiques des éléments). Lors de cette phase, des ambiguïtés peuvent apparaître. Nous proposons un processus basé sur des interventions ponctuelles et guidées de l'utilisateur afin d'identifier les erreurs et proposer des choix de correction pour éviter leur propagation.Nous présentons la méthodologie développée pour proposer une reconstruction semi-automatique et une analyse des résultats obtenus sur une base de 90 plans. Les travaux ont ensuite porté sur une généralisation du processus afin d'en tester la robustesse, le passage à l'échelle et la gestion multi-niveaux. Le processus développé est flexible pour permettre l’ajout d'autres sources de données pour enrichir la maquette numérique
Many buildings have to undergo major renovation to comply with regulations and environmental challenges. The BIM (Building Information Modeling) helps designers to make better-informed decisions, and results in more optimal energy-efficient designs. Such advanced design approaches require 3D digital models. However such models are not available for existing buildings. The aim of our work is to develop a method to generate 3D building models from existing buildings at low cost and in a reasonable time. We have chosen to work with 2D scanned plans. We assume that it is possible to find a paper plan for most buildings even if it is not always up-to-date and if the recognition quality is also dependent to the plan. The automatic reconstruction of a BIM from a paper plan is based on the extraction and identification of 3 main components: geometry (element shape), topology (links between elements) and semantics (object properties). During this process, some errors are generated which cannot be automatically corrected. This is why, we propose a novel approach based on punctual and guided human interventions to automatically identify and propose correction choices to the user to avoid error propagation.We describe the developed methodology to convert semi-automatically a 2D scanned plan into a BIM. A result analysis is done on 90 images. The following works is focused on the process genericity to test its robustness, the challenge of moving to scale and the multi-level management. The results highlight the pertinence of the error classification, identification and choices made to the user. The process is flexible in order to be completed by others data sources
Style APA, Harvard, Vancouver, ISO itp.
23

Boullé, Marc. "Recherche d'une représentation des données efficace pour la fouille des grandes bases de données". Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003023.

Pełny tekst źródła
Streszczenie:
La phase de préparation du processus de fouille des données est critique pour la qualité des résultats et consomme typiquement de l'ordre de 80% d'une étude. Dans cette thèse, nous nous intéressons à l'évaluation automatique d'une représentation, en vue de l'automatisation de la préparation des données. A cette fin, nous introduisons une famille de modèles non paramétriques pour l'estimation de densité, baptisés modèles en grille. Chaque variable étant partitionnée en intervalles ou groupes de valeurs selon sa nature numérique ou catégorielle, l'espace complet des données est partitionné en une grille de cellules résultant du produit cartésien de ces partitions univariées. On recherche alors un modèle où l'estimation de densité est constante sur chaque cellule de la grille. Du fait de leur très grande expressivité, les modèles en grille sont difficiles à régulariser et à optimiser. Nous avons exploité une technique de sélection de modèles selon une approche Bayesienne et abouti à une évaluation analytique de la probabilité a posteriori des modèles. Nous avons introduit des algorithmes d'optimisation combinatoire exploitant les propriétés de notre critère d'évaluation et la faible densité des données en grandes dimensions. Ces algorithmes ont une complexité algorithmique garantie, super-linéaire en nombre d'individus. Nous avons évalué les modèles en grilles dans de nombreux contexte de l'analyse de données, pour la classification supervisée, la régression, le clustering ou le coclustering. Les résultats démontrent la validité de l'approche, qui permet automatiquement et efficacement de détecter des informations fines et fiables utiles en préparation des données.
Style APA, Harvard, Vancouver, ISO itp.
24

Sassi, Salma. "Le système ICOP : représentation, visualisation et communication de l'information à partir d'une représentation iconique des données". Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0064/these.pdf.

Pełny tekst źródła
Streszczenie:
Les systèmes d'informations connaissent un essor constant depuis leur création. Leur usage laisse de nouvelles possibilités d'accès et de traitement des informations, en appui à l'action. Or, le constat général est toujours le même : accumulation de données non décrites, non référencées, sans origine, difficultés d'accès à des données mises à jour. . . On ne sait plus qui fait quoi ni où se trouve l'information que l'on cherche. Le temps et le nombre de personnes intermédiaires, nécessaires à la recherche d'une donnée sont un frein à la circulation de l'information. Ceci se vérifie dans tous les domaines, y compris le domaine médical. La mise en partage d'une information communiquée et temporalisée constitue un enjeu primordial. Notre étude des systèmes existants a permis de révéler trois limites principales qui accroissent la dispersion des informations d’un même domaine. L’un des tout premiers freins réside dans le fait que les interfaces existantes ne correspondent ni à l’attente ni au fonctionnement des utilisateurs. Le deuxième problème réside dans le fait que certains systèmes ne sont pas communicants ce qui rend impossible une vue globale des informations reliées à un projet bien déterminé et finalement le troisième problème concerne l’accès à l’information qui nécessite l’accès à diverses sources d’informations. Ces dernières sont généralement hétérogènes, que ce soit au niveau syntaxique ou sémantique. Des ontologies complexes contenant des milliers de termes sont créées pour résoudre les conflits sémantiques alors que le problème de la syntaxe et de la structure unique des données restent un problème difficile à résoudre. Notre contribution consiste principalement à faire coopérer les systèmes d’information hétérogènes. Nous proposons pour cela une architecture de médiation sémantique
Information systems are in continuous development since their creation. Using these systems offers the possibility to information access and treatment. Although, the general operation is always the same: gathering non-described, unreferenced, and unoriginal data, as well as the difficulty in accessing updated data. . . We do not know where the searched information is, or who created it. The time and the number of intermediate persons that are necessary for data search, reduce the circulation of information. This is true in all domains including the medical domain. The communication of shared and temporal information remains an important problem. Our study on current systems showed three main limitations that increase the information dispersal on the same domain. The first problem is that the current interfaces do not correspond to user needs and work. The second problem is that some of information systems do not communicate. This makes impossible to generate an overall view of the information which are connected to the same project. Finally the third problem concerns the information access that requires the access to diverse resources. These last ones are generally heterogeneous within the syntax or semantic level. Complex ontologies containing thousands of terms are created to resolve the semantic conflicts. Nevertheless, the syntax and the unique data structure remain a difficult problem to be resolved. Essentially, our contribution consists in cooperating heterogeneous information systems. For this reason, we propose semantic mediation architecture. Domain meta-ontology and task meta-ontology are associated to assure the information sources convergence. We also use annotations and metadata that facilitate the information resources description in order to make correspondences between them, to resolve conflicts and finally to exploit the data themselves. The second part of our contribution concerns a new tool of graphic and chronological visualization. This system allows to represent on a temporal component the information related to a given domain, and also to show the needed and the authorized information to the user. We develop these proposals by illustrating them in an application domain that presents many complexity factors: medical information systems. Our proposals were validated throughout two prototypes development: the OR (Object Reconstruction) prototype and the Travel’In prototype
Style APA, Harvard, Vancouver, ISO itp.
25

Muhlenbach, Fabrice. "Evaluation de la qualité de la représentation en fouille de données". Lyon 2, 2002. http://demeter.univ-lyon2.fr:8080/sdx/theses/lyon2/2002/muhlenbach_f.

Pełny tekst źródła
Streszczenie:
L'extraction de connaissances à partir de données (ECD) cherche à produire de nouvelles connaissances utilisables en tirant parti des grandes bases de données. Avant de procéder à la phase de fouille de données, étapes phare de l'ECD, pour pouvoir opérer un apprentissage automatique, un ensemble de questions et de problèmes se posent : comment avoir a priori une idée de la manière dont les étiquettes de la variable à apprendre peuvent être séparées en fonction des variables prédictives ? comment traiter les bases pour lesquelles nous savons que des étiquettes sont fausses ? comment transformer des variables prédictives continues en variables discrètes en tenant compte globalement des informations de la variable à prédire ? Nous proposons diverses réponses à ces problèmes. Ces solutions exploitent les propriétés d'outils géométriques : les graphes de voisinage. Le voisinage entre des individus projetés dans un espace à p dimensions nous fournit un moyen de caractériser la ressemblance entre les exemples à apprendre. A partir de ceci, nous élaborons un test statistique basé sur le poids des arêtes qu'il faut retirer dans un graphe de voisinage pour n'avoir que des sous-graphes d'une seul étiquette, ce qui nous informe de la séparabilité a priori des classes. Nous prolongeons ces réflexions dans le cadre de la détection d'individus dont l'étiquette est douteuse : nous proposons une stratégie de suppression et de réétiquetage d'exemples douteux dans l'échantillon d'apprentissage afin d'augmenter la qualité des modèles prédictifs exploitant cet échantillon de données. Ces travaux sont étendus au cas particulier où la variable à prédire est numérique : nous présentons un test de structure pour la prédiction d'une telle variable. Enfin, nous présenton une méthode de discrétisation supervisée polythétique qui repose sur les graphes de voisinage et montrons ses performances en l'employant avec une méthode d'apprentissage supervisé que nous avons développée
Knowledge discovery tries to produce novel and usable knowledge from the databases. In this whole process, data mining is the crucial machine learning step but we must asked some questions first: how can we have an a priori idea of the way of the labels of the class attribute are separable or not? How can we deal with databases where some examples are mislabeled? How can we transform continuous predictive attributes in discrete ones in a supervised way by taking into account the global information of the data ? We propose some responses to these problems. Our solutions take advantage of the properties of geometrical tools: the neighbourhood graphs. The neighbourhood between examples projected in a multidimensional space gives us a way of characterising the likeness between the examples to learn. We develop a statistical test based on the weight of edges that we must suppress from a neighbourhood graph for having only subgraphs of a unique class. This gives information about the a priori class separability. This work is carried on in the context of the detection of examples from a database that have doubtful labels: we propose a strategy for removing and relabeling these doubtful examples from the learning set to improve the quality of the resulting predictive model. These researches are extended in the special case of a continuous class to learn: we present a structure test to predict this kind of variable. Finally, we present a supervised polythetic discretization method based on the neighbourhood graphs and we show its performances by using it with a new supervised machine learning algorithm
Style APA, Harvard, Vancouver, ISO itp.
26

Magaud, Nicolas. "Changements de Représentation des Données dans le Calcul des Constructions". Phd thesis, Université de Nice Sophia-Antipolis, 2003. http://tel.archives-ouvertes.fr/tel-00005903.

Pełny tekst źródła
Streszczenie:
Nous étudions comment faciliter la réutilisation des
preuves formelles en théorie des types. Nous traitons cette question
lors de l'étude
de la correction du programme de calcul de la racine carrée de GMP.
A partir d'une description formelle, nous construisons
un programme impératif avec l'outil Correctness. Cette description
prend en compte tous les détails de l'implantation, y compris
l'arithmétique de pointeurs utilisée et la gestion de la mémoire.
Nous étudions aussi comment réutiliser des preuves formelles lorsque
l'on change la représentation concrète des données.
Nous proposons un outil qui permet d'abstraire
les propriétés calculatoires associées à un type inductif dans
les termes de preuve.
Nous proposons également des outils pour simuler ces propriétés
dans un type isomorphe. Nous pouvons ainsi passer, systématiquement,
d'une représentation des données à une autre dans un développement
formel.
Style APA, Harvard, Vancouver, ISO itp.
27

Thomopoulos, Rallou. "Représentation et interrogation élargie de données imprécises et faiblement structurées". Paris, Institut national d'agronomie de Paris Grignon, 2003. http://www.theses.fr/2003INAP0018.

Pełny tekst źródła
Streszczenie:
Ce travail de thèse se situe dans le cadre d'un projet appliqué à la microbiologie prévisionnelle, s'appuyant sur une base de données et sur son système d'interrogation. Les données du projet sont faiblement structurées, elles peuvent être imprécises et ne permettent pas de répondre à toute requête de façon exacte, de sorte qu'un système d'interrogation souple de la base de données est nécessaire. Nous nous appuyons sur le modèle des graphes conceptuels pour prendre en compte les données faiblement structurées et sur la théorie des sous-ensembles flous pour représenter les données imprécises et les requêtes floues. L'objet de cette thèse est la combinaison de ces deux formalismes
This work is part of a project applied to predictive microbiology, which is built on a database and on its querying system. The data used in the project are weakly structured, they may be imprecise, and cannot provide exact answers to every query, so that a flexible querying system is necessary for the querying of the database. We use the conceptual graph model in order to take into account weakly structured data, and fuzzy set theory, in order to represent imprecise data and fuzzy queries. The purpose of this work is to provide a combination of these two formalisms
Style APA, Harvard, Vancouver, ISO itp.
28

Gaillard, Jeremy. "Représentation et échange de données tridimensionnelles géolocalisées de la ville". Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE2023/document.

Pełny tekst źródła
Streszczenie:
Le perfectionnement des modes d’acquisition 3D (relevés laser, photographiques, etc.) a conduit à la multiplication des données 3D géolocalisées disponibles. De plus en plus de villes mettent leur modèle numérique 3D à disposition en libre accès. Pour garantir l’interopérabilité des différentes sources de données, des travaux ont été effectués sur la standardisation des protocoles d’échange et des formats de fichier. En outre, grâce aux nouveaux standards du Web et à l’augmentation de la puissance des machines, il est devenu possible ces dernières années d’intégrer des contenus riches, comme des applications 3D, directement dans une page web. Ces deux facteurs rendent aujourd’hui possible la diffusion et l’exploitation des données tridimensionnelles de la ville dans un navigateur web. Ma thèse, dotée d’un financement de type CIFRE avec la société Oslandia, s’intéresse à la représentation tridimensionnelle de la ville sur le Web. Plus précisément, il s’agit de récupérer et de visualiser, à partir d’un client léger, de grandes quantités de données de la ville sur un ou plusieurs serveurs distants. Ces données sont hétérogènes : il peut s’agir de la représentations 3D des bâtiments (maillages) et du terrain (carte de hauteur), mais aussi d’informations sémantiques telles que des taux de pollution (volumes), la localisation de stations de vélos (points) et le nombre de vélos disponibles, etc. Durant ma thèse, j’ai exploré différentes manières d’organiser ces données dans des structures génériques afin de permettre une transmission progressive de fortes volumétries de données 3D. La prise en compte de l’aspect multi-échelle de la ville est un élément clef de la conception de ces structures.L’adaptation de la visualisation des données à l’utilisateur est un autre grand axe de ma thèse. Du fait du grand nombre de cas d’utilisations existants pour la ville numérique, les besoins de l’utilisateur varient grandement : des zones d’intérêts se dégagent, les données doivent être représentées d’une manière spécifique... J’explore différentes manières de satisfaire ces besoins, soit par la priorisation de données par rapport à d’autres lors de leur chargement, soit par la génération de scènes personnalisés selon les préférences indiquées par l’utilisateur
Advances in 3D data acquisition techniques (laser scanning, photography, etc.) has led to a sharp increase in the quantity of available 3D geolocated data. More and more cities provide the scanned data on open access platforms. To ensure the intercompatibility of different data sources, standards have been developed for exchange protocols and file formats. Moreover, thanks to new web standards and the increase in processing power of personal devices, it is now possible to integrate rich content, such as 3D applications, directly in a web page. These two elements make it possible to share and exploit 3D city data into a web browser.The subject of my thesis, co-financed by the Oslandia company, is the 3D representation of city data on the Web. More precisely, the goal is to retrieve and visualize a great quantity of city data from one or several distant servers in a thin client. This data is heterogenous: it can be 3D representations of buildings (meshes) or terrain (height maps), but also semantic information such as pollution levels (volume data), the position of bike stations (points) and their availability, etc. During my thesis, I explored various ways of organising this data in generic structures in order to allow the progressive transmission of high volumes of 3D data. Taking into account the multiscale nature of the city is a key element in the design of these structures. Adapting the visualisation of the data to the user is another important objective of my thesis. Because of the high number of uses of 3D city models, the user’s needs vary greatly: some specific areas are of higher interest, data has to be represented in a certain way... I explore different methods to satisfy these needs, either by priroritising some data over others during the loading stage, or by generating personalised scenesbased on a set of preferences defined by the user
Style APA, Harvard, Vancouver, ISO itp.
29

Poussevin, Mickael. "Apprentissage de représentation pour des données générées par des utilisateurs". Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066040/document.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous étudions comment les méthodes d'apprentissage de représentations peuvent être appliquées à des données générées par l'utilisateur. Nos contributions couvrent trois applications différentes, mais partagent un dénominateur commun: l'extraction des représentations d'utilisateurs concernés. Notre première application est la tâche de recommandation de produits, où les systèmes existant créent des profils utilisateurs et objets qui reflètent les préférences des premiers et les caractéristiques des derniers, en utilisant l'historique. De nos jours, un texte accompagne souvent cette note et nous proposons de l'utiliser pour enrichir les profils extraits. Notre espoir est d'en extraire une connaissance plus fine des goûts des utilisateurs. Nous pouvons, en utilisant ces modèles, prédire le texte qu'un utilisateur va écrire sur un objet. Notre deuxième application est l'analyse des sentiments et, en particulier, la classification de polarité. Notre idée est que les systèmes de recommandation peuvent être utilisés pour une telle tâche. Les systèmes de recommandation et classificateurs de polarité traditionnels fonctionnent sur différentes échelles de temps. Nous proposons deux hybridations de ces modèles: la première a de meilleures performances en classification, la seconde exhibe un vocabulaire de surprise. La troisième et dernière application que nous considérons est la mobilité urbaine. Elle a lieu au-delà des frontières d'Internet, dans le monde physique. Nous utilisons les journaux d'authentification des usagers du métro, enregistrant l'heure et la station d'origine des trajets, pour caractériser les utilisateurs par ses usages et habitudes temporelles
In this thesis, we study how representation learning methods can be applied to user-generated data. Our contributions cover three different applications but share a common denominator: the extraction of relevant user representations. Our first application is the item recommendation task, where recommender systems build user and item profiles out of past ratings reflecting user preferences and item characteristics. Nowadays, textual information is often together with ratings available and we propose to use it to enrich the profiles extracted from the ratings. Our hope is to extract from the textual content shared opinions and preferences. The models we propose provide another opportunity: predicting the text a user would write on an item. Our second application is sentiment analysis and, in particular, polarity classification. Our idea is that recommender systems can be used for such a task. Recommender systems and traditional polarity classifiers operate on different time scales. We propose two hybridizations of these models: the former has better classification performance, the latter highlights a vocabulary of surprise in the texts of the reviews. The third and final application we consider is urban mobility. It takes place beyond the frontiers of the Internet, in the physical world. Using authentication logs of the subway users, logging the time and station at which users take the subway, we show that it is possible to extract robust temporal profiles
Style APA, Harvard, Vancouver, ISO itp.
30

Poussevin, Mickael. "Apprentissage de représentation pour des données générées par des utilisateurs". Electronic Thesis or Diss., Paris 6, 2015. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2015PA066040.pdf.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous étudions comment les méthodes d'apprentissage de représentations peuvent être appliquées à des données générées par l'utilisateur. Nos contributions couvrent trois applications différentes, mais partagent un dénominateur commun: l'extraction des représentations d'utilisateurs concernés. Notre première application est la tâche de recommandation de produits, où les systèmes existant créent des profils utilisateurs et objets qui reflètent les préférences des premiers et les caractéristiques des derniers, en utilisant l'historique. De nos jours, un texte accompagne souvent cette note et nous proposons de l'utiliser pour enrichir les profils extraits. Notre espoir est d'en extraire une connaissance plus fine des goûts des utilisateurs. Nous pouvons, en utilisant ces modèles, prédire le texte qu'un utilisateur va écrire sur un objet. Notre deuxième application est l'analyse des sentiments et, en particulier, la classification de polarité. Notre idée est que les systèmes de recommandation peuvent être utilisés pour une telle tâche. Les systèmes de recommandation et classificateurs de polarité traditionnels fonctionnent sur différentes échelles de temps. Nous proposons deux hybridations de ces modèles: la première a de meilleures performances en classification, la seconde exhibe un vocabulaire de surprise. La troisième et dernière application que nous considérons est la mobilité urbaine. Elle a lieu au-delà des frontières d'Internet, dans le monde physique. Nous utilisons les journaux d'authentification des usagers du métro, enregistrant l'heure et la station d'origine des trajets, pour caractériser les utilisateurs par ses usages et habitudes temporelles
In this thesis, we study how representation learning methods can be applied to user-generated data. Our contributions cover three different applications but share a common denominator: the extraction of relevant user representations. Our first application is the item recommendation task, where recommender systems build user and item profiles out of past ratings reflecting user preferences and item characteristics. Nowadays, textual information is often together with ratings available and we propose to use it to enrich the profiles extracted from the ratings. Our hope is to extract from the textual content shared opinions and preferences. The models we propose provide another opportunity: predicting the text a user would write on an item. Our second application is sentiment analysis and, in particular, polarity classification. Our idea is that recommender systems can be used for such a task. Recommender systems and traditional polarity classifiers operate on different time scales. We propose two hybridizations of these models: the former has better classification performance, the latter highlights a vocabulary of surprise in the texts of the reviews. The third and final application we consider is urban mobility. It takes place beyond the frontiers of the Internet, in the physical world. Using authentication logs of the subway users, logging the time and station at which users take the subway, we show that it is possible to extract robust temporal profiles
Style APA, Harvard, Vancouver, ISO itp.
31

Maton, Eric. "Représentation graphique et pensée managériale, le cas de la Harvard Business Review de 1922 à 1999". Phd thesis, Ecole Polytechnique X, 2007. http://pastel.archives-ouvertes.fr/pastel-00003632.

Pełny tekst źródła
Streszczenie:
L'objectif de cette thèse est d'effectuer une analyse de l'histoire de la gestion, de 1922 à 1999, au travers des représentations graphiques. Nous avons choisi la Harvard Business Review en raison de sa parution particulièrement précoce, de la représentativité qu'elle donne des principaux courants de recherche enseignés et de l'intérêt apporté aux graphiques. Partant d'une interrogation relative aux graphiques en tant que langage, nous élaborons une classification de plusieurs formes graphiques : les diagrammes, les schémas, les cartes et les représentations à l'échelle d'objets. Cette analyse nous amène à caractériser les dessins selon des dimensions fonctionnelle et structurelle. Nous tenons compte, parallèlement, des concepts mobilisés dans les représentations. Cette analyse permet d'observer certaines évolutions historiques de la gestion perceptibles dans la Harvard Business Review, ainsi que deux ruptures intervenues à la fin des années 1950 et au début des années 1980. Notre étude porte également sur les textes accompagnant les graphiques au travers de quatre études de cas concernant les graphiques de relations au sein de l'organisation, les schémas réflexion-action, les dessins reflétant des métaphores et enfin les matrices 2*2 possédant des éléments graphiques. Cette analyse, mettant notamment en jeu le concept de « rationalisation » et la notion de « technique managériale », indique une remise en cause tardive des principes du management scientifique de Taylor et vient renforcer l'idée d'une rupture au début des années 1980.
Style APA, Harvard, Vancouver, ISO itp.
32

Mokrane, Abdenour. "Représentation de collections de documents textuels : application à la caractérisation thématique". Montpellier 2, 2006. http://www.theses.fr/2006MON20162.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
33

Ngo, Khanh Hieu. "Aide au développement de systèmes temps réel à l'aide d'un langage graphique flots de données". Poitiers, 2008. http://theses.edel.univ-poitiers.fr/theses/2008/Ngo-Khanh/2008-Ngo-Khanh-These.pdf.

Pełny tekst źródła
Streszczenie:
Le développement d’un logiciel embarqué ou d’un système temps réel nécessite plusieurs étapes qui peuvent être échelonnées dans des intervalles de temps différents, et qui sont souvent itératives. De nos jours, il existe de nombreuses méthodes et outils de développement que l’on peut énumérer tels SA-RT, SD, DARTS, CODARTS, JSD, State-Charts, UML-RT, etc. L’objectif de la thèse est de proposer un environnement de conception, développement et validation d’applications temps réel basé sur la méthode DARTS, et sur le cycle de développement logiciel en W (une extension du cycle de développement classique en V). Cela se traduit par la création d’une bibliothèque logicielle pour un langage graphique flots de données, nommée DARTSVIEW, qui comporte des outils graphiques implémentés en langage G. Grâce à la palette DARTSVIEW, un concepteur pourra non seulement représenter une conception DARTS de façon aisée et intuitive, mais également simuler et tester sur place le modèle pour vérifier le respect de l’aspect fonctionnel du système. Les systèmes temps réel sont des systèmes dont le respect des contraintes temporelles est aussi important que l’exactitude du résultat, autrement dit il faut valider leur aspect temporel. Donc concernant cette pour aider dans cette tâche, la palette DARTSVIEW propose aux utilisateurs la possibilité de générer du code spécifique à une norme temps réel ou un langage cible d’un exécutif temps réel afin de pouvoir tester le système sur cible, et de pouvoir vérifier les paramètres temporels. Il s’agit de deuxième V du cycle de développement en W
The development of an embedded or a real-time system requires several steps which would be staggered in different time interval, and in such a way that they are frequently iterative. DARTS (Design Approach for Real-Time Systems) is a software design method for real-time systems. LabVIEW (Laboratory Virtual Instrument Engineering Workbench) is a graphical application development environment based on the dataflow representation of the “G” language. The objective of this thesis focuses on the DARTS method, and on the software life-cycle in W (an extension of the classical software life-cycle in V). DARTSVIEW Toolkit is a helpful tool for the DARTS development of control-command applications which allows the designer to represent a DARTS diagrams directly in LabVIEW in order to test the functional aspect of the system in the first V of the life-cycle in W, and to generate a part of the code for different specific programming languages or real-time scheduling analysis tools for the validation of the timing requirements in the second V of the software life-cycle in W
Style APA, Harvard, Vancouver, ISO itp.
34

Khoumeri, El-Hadi. "Représentation des données spatiales à différents niveaux d'abstraction : application à l'archéoastronomie". Phd thesis, Université Pascal Paoli, 2007. http://tel.archives-ouvertes.fr/tel-00188500.

Pełny tekst źródła
Streszczenie:
La carte est le moyen le plus naturel de transmission de l'information géographique. Elle est aussi un excellent support pour la visualisation des données analytiques sur des phénomènes à référence spatiale. Ceci inclut les cartes topographiques, aussi bien que les cartes schématiques (ex : réseau de transport urbain). Pour des considérations liées à des contraintes technologiques, la représentation du monde réel a été discrétisée, en cartographie classique, en tenant compte des projets et applications souhaitées, en représentations à différentes échelles correspondant à plusieurs niveaux d'abstraction.
Les producteurs de cartes maintiennent de façon identique une base de donnée par gamme d'échelle sans aucune inter-relation. De ce fait, outre les problèmes classiques de la redondance des données, et l'impossibilité de la propagation des mises à jour, le contrôle des cohérences est rendu très difficile. Pour maintenir la cohérence et éviter les redondances, la solution idéale serait une base de donnée où l'information géométrique est saisie à l'échelle la plus précise, et toutes les visualisations à des échelles moins précises seraient dérivées automatiquement à travers des processus de généralisation cartographique. Malheureusement cette dérivation ne peut être complètement automatisée. Par conséquent, le stockage explicite de plusieurs représentations de la géométrie des objets (une par échelle) s'impose. Néanmoins plusieurs solutions ont été mises en oeuvre pour parer aux inconvénients induits, dont la mise en oeuvre d'une base de donnée multi-échelle : une base de données où toutes les représentations requises coexistent et sont inter-reliées.
Nous présentons les besoins et les problèmes rencontrés par les spécialistes en SHS, en particulier nous mettons en évidence les problèmes soulevés dans le cadre d'une utilisation des SIG pour l'archéoastronomie, puis nous présentons les approches de résolution des problèmes ainsi que la présentation des concepts de base utilisés pour résoudre les problèmes mis en évidence. Les concepts précédents sont traités dans le cadre d'une conception orientée objets (COO). L'approche COO de la multi-représentation est basé sur une modélisation objet en UML. La validation des concepts précédents, est présenté à travers un exemple concret.
L'approche est illustrée par la réalisation du prototype logiciel GIS-3A sous Visual Basic ce qui permet d'une part d'implémenter les différentes notions en utilisant une conception orientée objets et d'autre part de faciliter l'intégration des ces notions dans un SIG (Arcview).
Style APA, Harvard, Vancouver, ISO itp.
35

Khoumeri, El-Hadi. "Représentation de données spatiales à différents niveaux d'abstraction : application à l'archéoastronomie". Corte, 2006. http://www.theses.fr/2006CORT3095.

Pełny tekst źródła
Streszczenie:
Les producteurs de cartes maintiennent de façon identique une base de données par gamme d’échelle sans aucune inter-relation. Pour maintenir la cohérence et éviter les redondances, la solution idéale serait une base de données où l’information géométrique est saisie à l’échelle la plus précise, et toutes les visualisations à des échelles moins précises seraient dérivées automatiquement à travers des processus de généralisation cartographique. Malheureusement cette dérivation ne peut être complètement automatisée. Néanmoins plusieurs solutions ont été mises en oeuvre pour parer aux inconvénients induits, dont la mise en oeuvre d’une base de donnée multi-échelle : une base de données où toutes les représentations requises coexistent et sont inter-reliées. Nous présentons les besoins et les problèmes rencontrés par les spécialistes en Sciences Humaines et Sociale, en particulier nous mettons en évidence les problèmes soulevés dans le cadre d’une utilisation des SIG pour l’archéoastronomie, puis nous présentons les approches de résolution des problèmes ainsi que la présentation des concepts de base utilisés pour résoudre les problèmes mis en évidence. Les concepts précédents sont traités dans le cadre d’une conception orientée objets (COO). L’approche COO de la multi-représentation est basée sur une modélisation objet en UML. La validation des concepts précédents, est présentée à travers un exemple concret. L’approche est illustrée par la réalisation du prototype logiciel GIS-3A sous Visual Basic ce qui permet d’une part d’implémenter les différentes notions en utilisant une conception orientée objets et d’autre part de faciliter l’intégration des ces notions dans un SIG
The producers of maps maintain in an identical way a base of data by range of scale without any interrelationship. To maintain coherence and to avoid the redundancies, the ideal solution would be a base of data where geometrical information is seized on the most precise scale, and all visualizations on less precise scales would be derived automatically through processes of cartographic generalization. Unfortunately this derivation cannot be completely automated. Nevertheless several solutions were implemented to avoid the induced disadvantages, of which the implementation of a base of data multi-scale: a data base where all the necessary representations coexist and are interrelated. We present the needs and the problems encountered by the specialists in social sciences, in particular we highlight the problems raised within the framework of a use of the GIS for the archeaostronomy, and then we present the approaches of resolution of the problems as well as the presentation of the basic concepts used to solve the problems highlighted. The preceding concepts are treated in the framework of a object oriented design (OOD). Approach OOD of the multi-representation is based on a modelling object in UML. The validation of the preceding concepts is presented through a concrete example. The approach is illustrated by the realization of software prototype GIS-3A under Visual BASIC what makes it possible on the one hand to implement the various concepts by using a directed design objects and on the other hand to facilitate the integration of these concepts in a GIS
Style APA, Harvard, Vancouver, ISO itp.
36

Daniel-Vatonne, Marie-Christine. "Les termes : un modèle de représentation et structuration de données symboliques". Montpellier 2, 1993. http://www.theses.fr/1993MON20031.

Pełny tekst źródła
Streszczenie:
Nos travaux se situent dans le cadre de l'analyse conceptuelle des donnees. Notre objectif est de generaliser les representations par variables binaires ou nominales en y adjoignant la modelisation de structures internes. Le probleme est de ne pas perdre en complexite algorithmique ce qui est gagne en puissance de representation. Selon ces considerations, decrire les donnees et les classes de donnees par des structures arborescentes est un bon compromis. Le systeme de representation que nous proposons s'appuie sur un modele algebrique: les magmas. Il permet de construire des termes assimilables a des arborescences finies, etiquetees et typees. Leur interpretation est intuitive et ils autorisent les descriptions recursives. Une relation d'ordre naturel, la generalisation, induit un treillis sur les termes. Nous etudions ce treillis et montrons qu'il possede des proprietes proches de celles d'un treillis booleen. En particulier, nous montrons que l'on peut construire un treillis de galois mettant en correspondance des ensembles d'objets et leur description par des termes
Style APA, Harvard, Vancouver, ISO itp.
37

Rigaux, Philippe. "Interfaces visuelles et multi-représentation dans les bases de données spatiales". Paris, CNAM, 1995. http://www.theses.fr/1995CNAM0207.

Pełny tekst źródła
Streszczenie:
La thèse comporte deux parties. La première partie est consacrée à la conception d'interfaces graphiques dans un contexte de bases de données gérant des informations localisées (ou plus simplement: bases de données géographiques). La problématique spécifique à ce type d'application est tout d'abord mise en valeur: distance importante entre la représentation logique dans la base de données et la représentation graphique à l'écran, nécessite d'intégration forte entre le langage de requêtes et les procédures d'affichage, enfin complexité des paramètres de visualisation de l'information spatiale (attributs graphiques, échelle, etc). Dans ce contexte, des spécifications sont proposées, d'une part pour l'expression de requêtes spatiales, d'autre part pour le contrôle du mode de composition de la représentation graphique et l'interaction avec la carte. Ces spécifications mènent à un modèle d'architecture comprenant plusieurs niveaux de représentation successifs entre la base de données et l'interface. Ce modèle a été implémenté avec le SGBD orienté-objet o#2, et des outils de générations d'interfaces graphiques (xfacemaker et ilog views). La deuxième partie de la thèse est consacrée à un problème apparu au cours de la conception des interfaces: la représentation multiple. Dans une représentation cartographique, on utilise l'échelle comme paramètre pour éliminer d'une carte des entités de trop petite taille. D’autres facteurs que l'échelle interviennent également (diversité des objectifs et des points de vues) qui permettent de généraliser la notion de représentation multiple. Nous proposons une étude du problème aboutissant à un modèle base sur des hiérarchies de partitions spatiales. Des opérateurs d'agrégation et de généralisation sont définis pour passer d'un niveau à un autre. Nous montrons que les structures obtenues présentent un intérêt dans plusieurs types d'applications: interrogation imprécise, bases de données statistiques, optimisation de requêtes par définition d'index logiques
Style APA, Harvard, Vancouver, ISO itp.
38

Lerat, Nadine. "Représentation et traitement des valeurs nulles dans les bases de données". Paris 11, 1986. http://www.theses.fr/1986PA112383.

Pełny tekst źródła
Streszczenie:
Cette thèse étudie la représentation et le traitement de deux types d'informations incomplètes dans le contexte des bases de données : les valeurs nulles non applicables et les valeurs nulles représentant des objets inconnus. Dans une première partie, les requêtes portant sur une table unique contenant des valeurs non applicables sont traduites par un ensemble de requêtes sur des multitables conventionnelles. Dans une seconde partie, les valeurs nulles inconnues sont représentées par des constantes de Skolem et une méthode adaptant à ce contexte un algorithme de "chasse" permet d'évaluer des requêtes en présence de dépendances fonctionnelles ou d'inclusion. Des techniques efficaces d'évaluation sont proposées. On montre, en conclusion, que les deux types de valeurs nulles ci-dessus peuvent être pris en compte simultanément
This thesis deals with the representation and treatment of two cases of information incompleteness in the field of databases: non applicable null values and null values representing unknown objects. In the first part, queries on a unique table containing non applicable nulls are translated into a set of queries on conventional multitables. In the second part, unknown null values are represented by Skolem constants and a method adapting to this context a "chase" algorithm allows evaluating queries when functional or inclusion dependencies are satisfied. Eventually, it is shown that these two types of null values can be taken into account simultaneously
Style APA, Harvard, Vancouver, ISO itp.
39

Ghorbel, Fatma. "Dialogue graphique intelligent, fondé sur une ontologie, pour une prothèse de mémoire". Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1181/document.

Pełny tekst źródła
Streszczenie:
Dans le cadre de cette thèse, nous proposons une prothèse de mémoire « intelligente », appelée CAPTAIN MEMO, destinée aux malades d’Alzheimer, pour pallier leurs problèmes mnésiques. Cette prothèse est basée sur l’ontologie temporelle, floue et multilingue appelée MemoFuzzyOnto.Cette prothèse offre des interfaces accessibles à cette classe particulière d’utilisateurs. Nous proposons, pour mettre en œuvre ces interfaces, une méthodologie de conception appelée InterfaceToAlz pour concevoir des interfaces accessibles aux malades d’Alzheimer, et qui offre un guide de 146 bonnes pratiques ergonomiques. De plus, nous proposons un outil de visualisation d’ontologies appelé Memo Graph qui génère un graphe dont la visualisation et la manipulation sont accessibles aux malades d’Alzheimer. Cette proposition est motivée par le fait que CAPTAIN MEMO a besoin de générer et d’éditer le graphe de la famille et de l’entourage du patient, à partir de l’ontologie MemoFuzzyOnto qui structure sa base de connaissances. Memo Graph est fondé sur notre guide de bonnes pratiques ergonomiques et notre approche, appelée Incremental Key-Instances Extraction and Visualisation, qui permet une extraction et une visualisation incrémentale du résumé des assertions ABox de l’ontologie. Il supporte également la visualisation des données ouvertes liées (Linked Data) et le passage à l’échelle. Par ailleurs, nous proposons, dans le cadre de cette thèse, une typologie de l’imperfection des données saisies (principalement due à la discordance mnésique provoquée par la maladie), et une méthodologie pour permettre à CAPTAIN MEMO d’être tolérante à la saisie des données fausses. Nous proposons un modèle d’évaluation de la crédibilité et une approche, nommée Data Believability Estimation for Applications to Alzheimer Patients, permettant d’estimer qualitativement et quantitativement la crédibilité de chaque donnée saisie. Enfin, pour que CAPTAIN MEMO soit tolérante à la saisie des intervalles temporels imprécis nous proposons deux approches : l’une basée sur un environnement précis et l’autre basée sur un environnement flou. Dans chacune des deux approches, nous étendons l’approche 4D-fluents pour représenter les intervalles temporels imprécis et les relations temporelles qualitatives, puis nous étendons l’algèbre d’Allen pour prendre en compte les intervalles imprécis dans le cadre de notre ontologie MemoFuzzyOnto. Nos contributions sont implémentées et évaluées. Nous avons évalué l’accessibilité de ses interfaces utilisateurs, le service de CAPTAIN MEMO qui a pour but de stimuler la mémoire du patient, notre approche pour l’estimation quantitative de la crédibilité des données saisies ainsi que la visualisation du graphe générée à l’aide de Memo Graph. Nous avons également évalué la performance de Memo Graph et son utilisabilité par des experts du domaine
In the context of this thesis, we propose a “smart” memory prosthesis, called CAPTAIN MEMO, to help Alzheimer’s disease patients to palliate mnesic problems. It is based on a temporal, fuzzy and multilingual ontology named MemoFuzzyOnto. It provides accessible user interfaces to this demographic. To design these interfaces, we propose a methodology named InterfaceToAlz which serves as an information base for guiding and evaluating the design of user interfaces for Alzheimer’s disease patients. It identifies 146 design guidelines.Besides, we propose an ontology visualization tool called Memo Graph which offers an accessible and understandable visualization to Alzheimer’s disease patients. In fact, in the context of CAPTAIN MEMO, there is a need to generate the patient entourage/family tree from its personal data structured according to MemoFuzzyOnto. Memo Graph is based on our design guidelines and our approach, named Incremental Key-Instances Extraction and Visualisation, to extract and visualize descriptive instance summarizations from a given ontology and generate “summary instance graphs” from the most important data. It supports Linked Data visualization and scaling.Furthermore, we propose a typology of the imperfection of the data entered (mainly due to the memory discordance caused by this disease), and a methodology to allow false data entry. We propose a believability model and an approach called Data Believability Estimation for Applications to Alzheimer Patients to estimate qualitatively and quantitatively the believability of each data entered. Finally, CAPTAIN MEMO allows imprecise time intervals entry. We propose two approaches: a crisp-based approach and a fuzzy-based approach. The first one uses only crisp standards and tools and is modeled in OWL 2. The second approach is based on fuzzy sets theory and fuzzy tools and is modeled in Fuzzy-OWL 2. For the two approaches, we extend the 4D-fluents model to represent imprecise time intervals and qualitative interval relations. Then, we extend the Allen’s interval algebra to compare imprecise time interval in the context of MemoFuzzyOnto. Our contributions are implemented and evaluated. We evaluated the service of CAPTAIN MEMO which has the aim to stimulate the patient’s memory, the accessibility of its user interfaces, the efficiency of our approach to estimate quantitatively the believability of each data entered and the visualization generated with Memo Graph. We also evaluated Memo Graph with domain expert users
Style APA, Harvard, Vancouver, ISO itp.
40

Rusch, Roxanne. "Mesures indirectes de rotation effectuées à partir de l’antenne sismique du LSBB. Quantification et représentation graphique de l’incertitude". Thesis, Université Côte d'Azur, 2020. https://tel.archives-ouvertes.fr/tel-03177660.

Pełny tekst źródła
Streszczenie:
L’analyse des composantes de rotation du champ d’ondes est utile pour une multitude d’applications allant de la décomposition du champ d’ondes à l’estimation de la structure géologique en passant par l’inversion de source. Ces composantes de rotation peuvent être obtenues indirectement à partir d’un réseau de station mesurant les trois composantes de translation tel que celui installé au LSBB (Laboratoire Souterrain à Bas Bruit) depuis 2006. Afin de pouvoir interpréter les résultats obtenus, il est nécessaire de connaître l’incertitude attribuée à cette mesure de rotation. Toutefois cette incertitude a très peu été développée dans la littérature. L’objectif de cette thèse était de développer deux méthodes. La première méthode a été développée afin de quantifier l’incertitude déterministe associée aux mesures indirectes de rotation en fonction des longueurs d’onde. La deuxième méthode quant à elle a été développée afin de représenter graphiquement cette incertitude déterministe sur les signaux de rotation. Ces deux méthodes ont été appliquées au cas du séisme d’Amatrice (Italie) de magnitude Mw 6,2 ayant eu lieu le 24 août 2016 à 01h36. Celui-ci a été enregistré par le réseau sismique trois composantes (3C) de translation du LSBB. La mesure indirecte de rotation verticale ainsi que l’incertitude associée ont respectivement été confrontées à une mesure directe de rotation et une incertitude statistique. Les résultats de cette thèse montrent que pour atteindre une incertitude inférieure à 10%, il est nécessaire de soigner la mise en place du réseau (alignement, positionnement, calibration des capteurs), au-delà des normes admises pour la plupart des réseaux sismiques. Ce travail offre des perspectives pour améliorer les caractérisations rapides des séismes à partir de données 3C de rotation des réseaux sismiques
Analyzing the rotational motions of the seismic wave field is useful for a multitude of applications ranging from wave field decomposition to geological structure estimation or source inversion. Rotational motions can be indirectly estimated (array-derived rotations) from a three translational components seismic array such as the ones deployed by the Low Noise Inter-Disciplinary Underground Science & Technology laboratory (LSBB) since 2006. In order to be able to interpret the results obtained, it is necessary to know the uncertainty attributed to the rotational measurements. However, uncertainty associated to array-derived rotation has only slightly been approached in the literature. The goal of this thesis was to develop two methods. The first method was used to quantify the deterministic uncertainty associated with array-derived rotations as a function of wavelengths. The second method was used to graphically represent this quantified uncertainty on rotation measurements. Both methods were applied to the Mw 6.2 Amatrice (Italy) earthquake that occurred on the 24th of August 2016 at 01.36 am. This one was recorded by the three translational components (3C) array of the LSBB. The vertical component of array-derived rotation as well as its associated uncertainty were respectively validated against a direct rotation measurement and a statistical uncertainty. The results of this thesis infer that in order to have an uncertainty lower than 10%, then care must be taken, in setting up the seismic array (sensors’ alignment, positioning, calibration), beyond the standards accepted for most seismic array. Extending on this thesis could offers developments in earthquakes characterization from 3C of array-derived rotation
Style APA, Harvard, Vancouver, ISO itp.
41

Sayah, Marguerite. "Un environnement d'interrogation graphique de bases de données orientées objet (EIGOO) pour des utilisateurs non informaticiens". Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0046.

Pełny tekst źródła
Streszczenie:
Dans ce travail, nous nous sommes penchés sur la problématique de l'interrogation des bases de données orientées objet par des utilisateurs non informaticiens. Cette problématique est principalement liée à la complexité du schéma de la base et à la difficulté des langages textuels existants. Nous proposons, dans ce cadre, un Environnement d'Interrogation Graphique de bases de données Orientées Objet (EIGOO) utilisant la technique des vues pour réduire la complexité du schéma et offrant un langage graphique pour l'interrogation de la base. Le module de définition des vues de notre environnement s'adresse à des utilisateurs experts du domaine de l'application non nécessairement informaticiens. Il supporte un langage graphique et permet de définir, en fonction du contexte de travail, des besoins en informations et des droits d'accès, des vues sur la base pour chaque groupe d'utilisateurs finals. Le deuxième module concerne l'interrogation de la base à travers les vues et s'adresse à des utilisateurs non informaticiens. Il propose un langage d'interrogation graphique et assure la conversion des requêtes graphiques en Object Query Language (OQL) pour être exécutées sous le SGBD utilisé. Le langage graphique supporte les opérations classiques de projection et de sélection, les jointures implicite et explicite, le groupement et le tri. Il permet la spécification de quantificateurs et l'élaboration de requêtes réflexives. Le schéma de la vue est visualisé graphiquement. Les requêtes sont formulées directement sur le graphe et se divisent en deux catégories : les requêtes de jointure implicite et les requêtes de jointure explicite. Les requêtes construites peuvent être sauvegardées et réutilisées pour la création de nouvelles requêtes. En ce qui concerne la conversion des requêtes graphiques en OQL, elle s'effectue à travers les opérations de définition de la vue support. Une méthode de conversion est proposée pour chaque catégorie de requêtes
Our work concerns the interrogation of abject oriented databases by non computer specialists. The problem they face relates mainly to the complexity of the database schema and to the difficulty of the textual query languages. . In this context, we propose a graphical query environment (EIGOO) that uses the v1ew technique to reduce the schema complexity and offers a graphical query language to consult databases through the defined views. . The view definition module of our environment proposes a graph1cal language and addresses users that are experts in the application domain. The views are defined for groups’ end users. They are adapted to their working context, to their application needs and to the1r access rights. The second main module concerns the database interrogation through v1ews and addresses non computer specialists’ users. It offers a query language and guarantees the conversion of graphical queries into Object Query Language (OQL) in order to execute them under any ODMG compliant DBMS. The graphical query language supports projection, selection, implicit join, explicit join, grouping and sorting operations. It also allows the specification of quantifiers and the elaboration of reflexive queries. The schema of the view is graphically visualized. The queries are directly formulated on the graph and are divided in two categories: the implicit join queries and the explicit join queries. Constructed queries can. Be saved and reused in order to create new queries. Concerning the conversion of graphical queries, a method is proposed for each category of queries
Style APA, Harvard, Vancouver, ISO itp.
42

El, Zant Manal. "Contribution à une représentation spatio-temporelle des dépêches épidémiologiques". Aix-Marseille 2, 2008. http://www.theses.fr/2008AIX20666.

Pełny tekst źródła
Streszczenie:
Une représentation spatio-temporelle des évènements est d’une grande importance pour une compréhension détaillée du sens des dépêches épidémiologiques. La dissémination des composants d’une telle représentation dans les dépêches rend difficile l’accès à leurs contenus. Notre travail consiste en une extraction automatique d’une représentation évènementielle de ce type de dépêches. Nous avons implanté un système d’extraction d’information en utilisant les cascades de transducteurs à nombre d’états fini qui a permis la réalisation de trois tâches : la reconnaissance des entités nommées, l’annotation et la représentation des arguments ainsi que la représentation des structures des évènements. Par cette méthode, nous avons obtenu une valeur de rappel comprise entre 74. 24% et 100% pour la reconnaissance des entités nommées et pour la représentation des arguments, nous avons obtenu un rappel compris entre 97. 18% et 99. 54%. Ensuite, nous avons effectué un travail de normalisation de cette représentation par une résolution de certaines coréférences et de certaines inférences dans les cas où les arguments cause pathologique, personne concernée, localisation spatiale et localisation temporelle sont omises ou partiellement reconnues. Nous avons obtenu une valeur de précision comprise entre 70. 83% et 100% pour les résolution de certaines anaphores pronominales. L’évaluation de la résolution des inférences est faite par une recherche des contre-exemples des sorties des règles proposées
A spatio-temporal representation of event structures is important for an automatic comprehension of disease outbreak reports. The dispersion of components in this type of reports makes it difficult to have such a representation. This work describes an automatic extraction of event structures representation of these texts. We built an information extraction system by using cascaded finite state transducers which allowed the realization of three tasks : the named entity recognition, the arguments annotation and representation and the event structure representation. We obtained with this method a recall between 74. 24% and 100% for the named entity recognition task and a recall between 97. 18% and 99. 54% for argument representation task. Thereafter, we contributed to a normalization task in anaphoric pronouns resolution and in some inferences resolution concerning disease causation, concerned person, spatial and temporal location. We obtained a precision between 70. 83% and 100% for anaphoric pronouns resolution. The evaluation of inferences rules resolutions consisted in finding some counterexamples in the corpora for evaluation
Style APA, Harvard, Vancouver, ISO itp.
43

Regnault, Cécile. "Les représentations visuelles des phénomènes sonores : application à l'urbanisme". Nantes, 2001. http://www.theses.fr/2001NANT2051.

Pełny tekst źródła
Streszczenie:
Représenter l'espace est une préoccupation constante des aménageurs. Ces visualisations (carte, diagramme, plan, coupe, élévation, photographies, images de synthèse) sont à la fois des outils graphiques d'analyse, des outils de conception, des outils de communication assurant la nécessaire coordination entre les acteurs de l'aménagement. Parallèlement la difficulté d'intégration des connaissances sur les phénomènes sonores situes dans les projets d'aménagement est doublée d'une véritable carence dans les moyens graphiques mis à disposition pour visualiser le sonore dans un contexte construit. Réalisé à partir d'un corpus d'images pluridisciplinaires (phonétique, acoustique, musique, électroacoustique, écologie sonore, arts plastiques, photographie), l'inventaire général mis en œuvre constitue l'essentiel de ce travail exploratoire : analyser les images en s'inspirant des méthodes de la sémiotique visuelle, synthétiser le corpus sous forme d'un catalogue raisonne, classer et classifier les images. Quatre grands types de dispositifs visuels (cartographie, transcription temporelle, diagramme et perspective) sont définis comme support des phénomènes sonores représentables selon trois approches (flux, chose sonifère, auditum). Leurs fonctions communicatives (décrire des qualités sonores, montrer des faits sonores, expliquer des concepts sonores) sont liées à leur degré de schématisation dont nous avons relevé 4 niveaux : image de type photographique, dessin technique, croquis, schéma de principe. Réalisé à titre expérimental sur un parcours sonore urbain, le test de validité de la transcription temporelle sur fond sonagraphique (logiciel acousmographe INA-GRM) semble confirmer l'intérêt des emprunts d'outil de visualisation et des transferts de connaissances entre disciplines. A terme, les inventions graphiques et plastiques devraient se nourrir des avancées théoriques sur les correspondances image-son, qu'elles soient sensorielles, structurelles ou conceptuelles.
Style APA, Harvard, Vancouver, ISO itp.
44

Ouellet, Etienne. "Représentation et manipulation de données de simulation dans un environnement virtuel immersif". Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/28502/28502.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
45

Abdessalem, Talel. "Approche des versions de base de données : représentation et interrogation des versions". Paris 9, 1997. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1997PA090024.

Pełny tekst źródła
Streszczenie:
De nombreuses applications des bases de données, dans des domaines aussi variés que la CAO, le génie logiciel et la bureautique, nécessitent une gestion de versions. La plupart des modèles de versions proposés dans la littérature se sont concentrés sur la représentation des versions, principalement dans les bases de données orientées-objet. Très peu de travaux traitent de l'interrogation des versions dans les bases de données et seules les approches temporelles proposent des solutions à la représentation des versions dans le cas relationnel. Cette thèse apporte une solution au problème de l'interrogation des versions dans les bases de données et propose une mise en œuvre de l'approche des versions de bases de données (VBD) dans le cas relationnel. Pour les systèmes orientés-objet, un langage de requêtes, VQL, est proposé. Ce langage permet à l'utilisateur d'interroger aussi bien les versions d'objet, que les contextes dans lesquels ces versions apparaissent dans le monde réel. VQL ne s'appuie sur aucune sémantique particulière de versionnement. Celle-ci est définie par l'utilisateur et peut varier d'une application à l'autre. L'approche des VBD est un modèle de versions proposé à l'origine pour les systèmes orientés-objet. Sa mise en œuvre, dans le cas relationnel, est une réponse au besoin de représentation de versions de nombreuses applications relationnelles, pour lesquelles les approches temporelles ne sont pas appropriées. Une extension du langage SQL est proposée pour permettre l'interrogation de versions. Cette extension, nommée VSQL, reprend les idées développées pour le langage VQL. Enfin, une implantation de ces travaux a été réalisée au-dessus d'un système de gestion de base de données relationnel standard, Ingres. Cette implantation a été menée dans le cadre d'un projet de recherche en collaboration avec la RATP. L'objectif de ce projet était de prendre en compte l'approche des VBD dans la base de données du système Suroit (système unifie de renseignement sur l'offre et les itinéraires de transport), qui gère l'organisation et le fonctionnement des réseaux de transport en région parisienne.
Style APA, Harvard, Vancouver, ISO itp.
46

Cori, Marcel. "Modèles pour la représentation et l'interrogation de données textuelles et de connaissances". Paris 7, 1987. http://www.theses.fr/1987PA077047.

Pełny tekst źródła
Streszczenie:
Ces modèles combinent à des réseaux sémantiques des bases de connaissances formées de règles. Les données sont représentées par des graphes sans circuit, ordonnés ou semi-ordonnés, ainsi que par des grammaires de graphes. La recherche de la réponse à une question se ramène à la recherche de morphismes entre structures. Les réprésentations sont construites automatiquement par l'appel à des règles de réécriture de graphes
Style APA, Harvard, Vancouver, ISO itp.
47

Chihab, Najat. "Représentation des données irrégulièrement espacées par des fonctions B-splines non-uniformes". Paris 13, 2005. http://www.theses.fr/2005PA132043.

Pełny tekst źródła
Streszczenie:
L'étude menée dans cette thèse s'inscrit dans le cadre de la modélisation des données irrégulièrement espacées par des fonctions B-splines non-uniformes. La reconstruction des données manquantes est basée sur l'interpolation du signal. Notre travail a consisté, tout d'abord, à rechercher des bases de l'espace des fonctions splines non-uniformes afin de modéliser le signal représenté par ses échantillons prélevés à des instants irréguliers. La base de l'espace des fonctions splines est construite sur une séquence de noeuds prédéfinie. A partir d'une suite de noeuds donnée, il est possible d'agir sur la multiplicité de chaque noeud de cette suite. Ainsi une multitude de séquences de noeuds sont engendrées. Parmi ces différentes séquences de noeuds, nous avons retenu un modèle de séquence, qui permet d'une part une construction facile de la base spline correspondante et d'autre part engendre la plus plus petite erreur de reconstruction comparée aux erreurs introduites par les autres modèles de séquences. . .
Style APA, Harvard, Vancouver, ISO itp.
48

Claramunt, Christophe. "Un modèle de vue spatiale pour une représentation flexible de données géographiques". Dijon, 1998. https://hal.archives-ouvertes.fr/tel-01275819.

Pełny tekst źródła
Streszczenie:
Cette thèse propose la définition d'un modèle de vue spatiale dynamique adapte aux systèmes d'information géographiques. La notion de vue spatiale proposée permet une relative indépendance dans l'interprétation d'un schéma de bases de données spatiales. Les mécanismes classiques de vue, dans le domaine des bases de données, n'intégrant pas la composante spatiale, cette recherche propose la définition d'un formalisme de vue adapté aux bases de données spatiales. Le modèle proposé est défini comme une extension de la vue classique telle qu'elle est identifiée par les bases de données. Le modèle de vue spatiale intègre la représentation de données spatiales et non spatiales. Une vue spatiale est un ensemble ordonné d'atomes de vue spatiale. Chaque atome de vue spatiale est construit à partir de relations et d'opérateurs spatiaux et non spatiaux. Un ensemble d'opérateurs de manipulation de vues spatiales est défini. Ces operateurs permettent la manipulation et la dérivation de nouvelles vues spatiales. La vue spatiale autorise la représentation de modèles spatiaux structurés et cognitifs. La proposition définit un modèle et les opérations qui permettent la décomposition et la représentation d'un processus de déplacement. Le modèle de vue spatiale permet de situer la représentation d'un déplacement dans son contexte géographique à partir de niveaux d'abstraction complémentaires qui intègrent des connaissances partielles. Il associe la description d'un processus de déplacement dans un contexte d'espaces multidimensionnels. La continuité de la représentation d'un déplacement est assurée par l'application de constructeurs de graphes appliqués au cadre de la vue spatiale à travers des concepts de collages et de connexions de vues spatiales. L'application d'opérateurs de graphe permet des changements de niveau d'abstraction dans la représentation des processus navigationnels. La vue spatiale apporte une flexibilité aux utilisateurs dans la représentation de données géographiques. Du point de vue de la modélisation, la vue spatiale permet la représentation de différentes interprétations utilisateurs d'une base de données spatiales. Elle facilite l'évolution du schéma des bases de données spatiales. Elle constitue une forme originale de manipulation et de consultation d'applications géographiques.
Style APA, Harvard, Vancouver, ISO itp.
49

Courtine, Mélanie. "Changements de représentation pour la classification conceptuelle non supervisée de données complexes". Paris 6, 2002. http://www.theses.fr/2002PA066404.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
50

Aldea, Emanuel. "Apprentissage de données structurées pour l'interprétation d'images". Paris, Télécom ParisTech, 2009. http://www.theses.fr/2009ENST0053.

Pełny tekst źródła
Streszczenie:
La plupart des méthodes de classification d’images s'appuient en premier lieu sur les attributs des objets d'intérêt. Cependant, les informations spatiales liées aux relations entre ces objets sont également utiles, comme cela a été montré en segmentation et reconnaissance de structures dans les images, et leur intégration dans des méthodes d'apprentissage et de classification commence à apparaître et évoluer. Les modélisations floues permettent de représenter à la fois l'imprécision de la relation et le passage graduel de la satisfaction à la non satisfaction de cette relation. L'objectif de ce travail est d'explorer les techniques de représentation de l’information spatiale et leur intégration dans les classifieurs d'images qui utilisent les noyaux de graphes. Nous justifions le choix de graphes étiquetés pour représenter les images dans le contexte de l'apprentissage SVM, ainsi que les adaptations nécessaires par rapport aux domaines connexes. A partir des mesures d’adjacence floues entre les objets d'intérêt, nous définissons une famille de représentations de graphes déterminés par des seuils différents appliqués à ces mesures spatiales. Enfin, nous employons plusieurs noyaux dans un apprentissage multiple afin de mettre en place des classifieurs qui peuvent tenir compte des différentes représentations graphiques de la même image à la fois. Les résultats montrent que l'information spatiale complète les caractéristiques visuelles des éléments distinctifs dans les images et que l'adaptation des fonctions noyau pour les représentations spatiales floues est bénéfique en termes de performances
Image interpretation methods use primarily the visual features of low-level or high-level interest elements. However, spatial information concerning the relative positioning of these elements is equally beneficial, as it has been shown previously in segmentation and structure recognition. Fuzzy representations permit to assess at the same time the imprecision degree of a relation and the gradual transition between the satisfiability and the non-satisfiability of a relation. The objective of this work is to explore techniques of spatial information representation and their integration in the learning process, within the context of image classifiers that make use of graph kernels. We motivate our choice of labeled graphs for representing images, in the context of learning with SVM classifiers. Graph kernels have been studied intensively in computational chemistry and biology, but an adaptation for image related graphs is necessary, since image structures and properties of the information encoded in the labeling are fundamentally different. We illustrate the integration of spatial information within the graphical model by considering fuzzy adjacency measures between interest elements, and we define a family of graph representations determined by different thresholds applied to these spatial measures. Finally, we employ multiple kernel learning in order to build up classifiers that can take into account different graphical representations of the same image at once. Results show that spatial information complements the visual features of distinctive elements in images and that adapting the discriminative kernel functions for the fuzzy spatial representations is beneficial in terms of performance
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii